jose jenkins

Siga ZDNET: Agréguenos como fuente preferida en Google.


Hallazgos clave de ZDNET

  • AI Dev, la conferencia de IA de DeepLearning.ai, hizo su debut en Nueva York.
  • Nos sentamos con Andrew Ng en el evento para hablar sobre IA y desarrolladores.
  • Ng recomienda que todos aprendan a codificar.

El viernes tuvo lugar en Nueva York la segunda reunión anual AI Dev, una reunión sobre todo lo relacionado con la IA y el software organizada por DeepLearning.ai de Andrew Ng. En varios paneles y en una entrevista con ZDNET, el fundador de Google Brain dio consejos sobre el futuro del área.

La IA se ha convertido rápidamente en un asistente de codificación confiable para muchos desarrolladores, hasta el punto de que muchos se preguntan sobre el futuro de toda la profesión. Los trabajos de codificación de nivel inicial están disminuyendo para los nuevos graduados a medida que los equipos transfieren tareas junior a asistentes de IA; Al mismo tiempo, los expertos citan las limitaciones reales de estas herramientas como prueba de que los ingenieros nunca quedarán obsoletos.

Además: Antigravity de Google antepone la productividad de la codificación a las exageraciones de la IA, y el resultado es sorprendente

Esto es lo que Ng dijo sobre cómo navegar en este futuro incierto, por qué todos deberían aprender a codificar y cómo se debe realmente realizar la gobernanza.

La codificación todavía importa, más o menos

“Dado que la codificación con IA ha reducido considerablemente los estándares de entrada, espero que podamos alentar a todos a aprender a codificar, no solo a los ingenieros de software”, dijo Ng durante su discurso de apertura.

La forma en que la IA afectará los empleos y el futuro del trabajo aún está en desarrollo. Independientemente, Ng le dijo a ZDNET en una entrevista que cree que todos deberían conocer los conceptos básicos de cómo usar la IA para codificar, el equivalente a saber “un poco de matemáticas”, una habilidad que sigue siendo difícil, pero que se aplica de manera más general a muchas carreras para cualquier cosa que pueda necesitar.

Además: por qué las herramientas de codificación de IA como Cursor y Replit están condenadas al fracaso y qué sigue

“Una de las habilidades más importantes del futuro es la capacidad de decirle a una computadora exactamente lo que quieres que haga por ti”, dijo, señalando que todos deberían saber lo suficiente para hablar el lenguaje de una computadora sin tener que escribir código. “La sintaxis, los encantamientos arcanos que usamos, eso es menos importante”.

Añadió que quiere dar la bienvenida a los vibecoders como miembros de la comunidad, incluso si técnicamente no son desarrolladores. Pero tampoco espera que sea fácil. A pesar de señalar que “es realmente obvio que el código debe escribirse con asistentes de IA”, Ng admitió que la vibecodificación, que prefiere llamar “codificación de IA”, lo deja “mentalmente agotado”.

Convertirse en generalistas

En su charla, Ng señaló que debido a que la IA ha hecho que el desarrollo de software sea tan rápido, la gestión de productos (no la creación de prototipos) es el nuevo punto de desaceleración para el lanzamiento de nuevos productos. Para mantener el ritmo que la IA hace posible, recomendó que los ingenieros aprendan algunas habilidades de gestión de productos para sortear este estancamiento.

“Los ingenieros que aprenden a trabajar con productos pueden, francamente, formar un equipo de una sola persona”, afirmó.

Además: Lo que realmente dijo Bill Gates sobre reemplazar los trabajos de codificación con IA

El tema de que todos los profesionales, no solo los desarrolladores, se conviertan en generalistas fue un tema recurrente durante toda la cumbre. Durante un panel sobre el desarrollo en la era de la IA, Fabian Hedin, CTO de la plataforma de codificación Lovable (una de las startups menos favorecidas en la lista reciente de a16z) señaló que la codificación por vibración puede permitir a las personas con gran experiencia en un tema que no es de software “iterar mucho más rápido que antes” utilizando habilidades de codificación. El moderador Laurence Moroney, director de IA en Arm, dijo que esto podría aprovechar al máximo un especialista aislado, un cambio en cómo funcionan las habilidades específicas en el lugar de trabajo.

El nuevo desafío para los desarrolladores, dijo Ng durante el panel, será definir el concepto de lo que quieren. Hedin estuvo de acuerdo y agregó que si la IA se encarga de la codificación en el futuro, los desarrolladores deberían centrarse en su intuición al crear un producto o herramienta.

“En lo que la IA será peor es en comprender a los humanos”, dijo.

Por qué los cursos de informática no sirven a los estudiantes

La realidad de la codificación en la era de la IA ha comenzado a afectar a los posgraduados que luchan por encontrar trabajo. La informática, que alguna vez se consideró una especialidad segura que garantizaba una carrera lucrativa, está decepcionando a los estudiantes, dijo Ng a ZDNET.

Citó la ola de contratación excesiva que las empresas de tecnología continuaron, y luego revirtieron, durante la pandemia de COVID-19 como la razón principal por la que los trabajos de codificación de nivel básico son difíciles de encontrar. Más allá de eso, sin embargo, es una cuestión de que los graduados tengan el tipo adecuado de habilidades de codificación.

“La IA ha transformado la forma en que se debe escribir el código, pero, francamente, muchas universidades han tardado en adaptar el plan de estudios”, dijo. “Entonces, si una universidad no ha cambiado significativamente sus planes de estudio desde 2022, entonces no está preparando a sus graduados para los trabajos que hay en el mercado actual”.

Además: la IA provocará un “caos laboral” en los próximos años, dice Gartner: lo que eso significa

Ng dijo que considera una “mala práctica” que las universidades otorguen títulos en ciencias de la computación sin enseñar a estos estudiantes cómo optimizar el trabajo con asistentes de IA.

“De hecho, me siento mal porque todavía hay personas que obtienen una licenciatura en ciencias de la computación y no han realizado una sola llamada API a un solo modelo de IA”, dijo. Para él, reorientar los cursos de informática en torno a esta realidad cerrará la brecha entre los graduados no preparados y la necesidad de programadores experimentados en IA. “Para los recién graduados que conocen estas habilidades, no podemos encontrar suficientes”, dijo Ng, una preocupación que también señaló a principios de este otoño en una publicación X.

Miedo público a la IA

En su charla, Ng reconoció que “la IA aún no ha capturado los corazones y las mentes de Estados Unidos”, refiriéndose a la percepción pública tan publicitada de lo que podría llegar a ser la IA en el peor de los casos. Varios oradores instaron a los cientos de desarrolladores presentes a cambiar esta percepción.

dsc-2491
jose jenkins

“Tienes una visión única de lo que no es la IA”, afirmó Miriam Vogel, presidenta y directora ejecutiva de Equal AI. Instó a los desarrolladores a no ignorar los temores de la gente sobre la tecnología, sino a participar activamente en la alfabetización en IA, y agregó que “fracasaremos” si este sentimiento no mejora.

Ng cree que, hasta ahora, terceros han sembrado intencionadamente el miedo a la IA.

“Creo que gran parte del miedo a la IA ha sido impulsado por un puñado de empresas que han llevado a cabo casi, francamente, campañas de relaciones públicas para que la gente tenga miedo de la IA, a menudo para hacer lobby”, dijo a ZDNET durante nuestra entrevista. “Creo que esto ha causado mucho daño al campo de la IA y al liderazgo estadounidense para los desarrolladores”.

Además: Gemini 3 de Google finalmente está aquí y es más inteligente, más rápido y de acceso gratuito

Cuando se le preguntó cómo los desarrolladores pueden impactar esto, dijo que quiere que los desarrolladores tengan una conversación honesta sobre lo que funciona y lo que no. “Si el público comprende mejor, todos podremos llegar a conclusiones más racionales sobre la tecnología”, afirmó.

Muchos de estos temores provienen de AGI, el equivalente algo mal definido de la inteligencia a nivel humano al que OpenAI y Microsoft, entre otros laboratorios, están apuntando con creciente intensidad. Ng ha sostenido durante mucho tiempo que estas proyecciones son exageradas.

“Si nos fijamos en las increíblemente confusas recetas de entrenamiento que se utilizan para entrenar estos modelos de IA, no hay forma de que esto sea AGI, si por AGI te refieres a cualquier tarea intelectual que realiza un ser humano”, dijo Ng a ZDNET. “Francamente, gran parte de este conocimiento todavía está integrado en estos sistemas, con personas muy inteligentes, con una gran cantidad de datos”.

Seguridad y gobernanza

En una mesa redonda, Ng reconoció que el público no sabe realmente qué están haciendo los laboratorios de IA, lo que podría generar pánico, pero instó a la gente a no “hacer un ejercicio de equipo rojo y convertirlo en una sensación en los medios”. Ng añadió que está menos a favor de la marca de seguridad y gobernanza de Anthropic, que considera algo limitante. En lugar de insistir en los esfuerzos de gobernanza, enfatizó los entornos sandbox “que garantizan ser seguros” como un camino hacia una IA responsable que no se produzca a expensas de la velocidad.

Vogel definió la gobernanza como “descomponer principios en flujos de trabajo viables”, no crear burocracia. Su preocupación era menos por los hiperescaladores como OpenAI y Meta, y más por las pequeñas empresas de IA que avanzaban antes de desarrollar cualquier estructura de gobernanza.

Regulando la IA

“No se puede liderar en IA aprobando regulaciones”, dijo Ng durante un panel, hablando sobre el enfoque de la UE a la hora de legislar sobre IA. Le dio crédito al Plan de Acción de IA de la administración Trump, publicado el verano pasado, por mantener flexibles las regulaciones federales.

Muchos expertos en IA están alarmados por la falta de regulación de la IA en Estados Unidos. Algunos ven la incapacidad del gobierno federal para regular las plataformas de redes sociales cuando proliferaron como un ejemplo de lo que podría suceder si la IA continúa superando a la legislación. Ng le dijo a ZDNET que cree que es una equivalencia falsa.

Además: 8 formas de hacer que la IA responsable forme parte del ADN de su empresa

“Veo muchas más propuestas regulatorias malas que buenas”, dijo Ng en la entrevista, y agregó que considera la prohibición no consensuada de los deepfake y las acciones de la FTC contra las empresas que utilizan la IA para intensificar la “conducta engañosa o injusta” como ejemplos de una buena política de IA.

Cuando se le preguntó si hay otras regulaciones que haría a nivel federal, dijo que quiere más requisitos de transparencia para las grandes empresas de IA desde el principio.

“Cuando sucedieron muchas cosas malas en las redes sociales, ninguno de nosotros lo sabía. Incluso la gente dentro de la empresa no lo sabía realmente”, dijo Ng a ZDNET. “Si tenemos regulaciones que exigen que las empresas más grandes -sólo las grandes, no impongan cargas de cumplimiento excesivas a las pequeñas empresas emergentes-, pero si exigimos cierto nivel de transparencia a las empresas con una gran cantidad de usuarios, eso podría darnos mejores señales para detectar los problemas reales, en lugar de contar con la suerte de que haya un denunciante”.



Fuente