Aplicaciones de asistente de IA en un teléfono inteligente: OpenAI ChatGPT, Google Gemini, DeepSeek, Anthropic Claude, xAI Grok y Microsoft Copilot. | Crédito de la foto: Getty Images/iStockphoto

h¿Cómo cubre un periodista una importante cumbre internacional con programación simultánea? Ese fue mi desafío cuando asistí a la Cumbre India sobre el Impacto de la IA en Bharat Mandapam, Nueva Delhi, la semana pasada.

Al principio pensé que tenía un plan infalible basado en tecnología: usaría un fragmento de código para obtener clips de audio de transmisiones en vivo de YouTube de varios foros de discusión, los transcribiría con una herramienta de reconocimiento de voz basada en la nube, revisaría esas transcripciones más tarde y luego archivaría las historias.

Pero eso no es lo que pasó. A los organizadores parece haberles resultado difícil conseguir una cantidad adecuada de personal de vídeo y transmisión en vivo para manejar de manera confiable una docena de transmisiones en vivo simultáneas. Mi técnica enfrentó problemas en varias discusiones, donde la transmisión comenzó después de la presentación del panel. Esto hizo que para mí fuera un desafío “diariar” las transcripciones (agregando los nombres de los oradores a cada texto) mediante referencias cruzadas de los panelistas enumerados en el sitio web de la reunión. El sitio web en sí siguió cambiando sin previo aviso. Y a veces, para mi molestia, alguien dejaba un micrófono en vivo en un escritorio de producción, comprometiendo gravemente mi transcripción automática.

Afortunadamente, otras tareas periodísticas me mantuvieron ocupado: reuniones informativas diarias, entrevistas con diferentes actores del ecosistema de IA y controversias de alto perfil, incluidas las desordenadas disposiciones de seguridad que provocaron que los oradores se perdieran sus propias sesiones y el perro robot chino de la Universidad Galgotias.

Mientras corría tomando notas, seguía pensando: “debe haber una manera más fácil de hacer esto”. Y efectivamente lo hubo, para muchas tareas. Me sentí culpable cada vez que no intentaba encontrar estos caminos más fáciles. Esta sensación surgió al descargar Claude, una aplicación de inteligencia artificial centrada en la codificación que podría ayudarme a simplificar mucho mi trabajo.

Sin ninguna experiencia en codificación, desarrollé tres herramientas que probablemente me ahorrarán tiempo en tareas pesadas. La primera es una aplicación de Android para recuperar continuamente notificaciones de la Gaceta de la India, que tiende a publicar importantes actualizaciones de políticas sin previo aviso durante la semana. El segundo es un proceso para actualizar mi sitio web personal. Antes me llevaba media hora cada tres meses hacer esto, ahora sólo me lleva un minuto. La tercera era una pequeña extensión del navegador para automatizar los distintos pasos necesarios para enviar el borrador de una historia.

Estaba (y todavía estoy) emocionado y asustado. Emocionado porque puedo liberarme de algunas de las tareas monótonas que son inherentes a mi trabajo. Miedo porque son capacidades que teóricamente ahora todo el mundo posee. Y con el tiempo, es posible que estos no sean sólo trucos interesantes, sino una parte esencial de las capacidades que esperamos ejercer. ¿Cómo puede alguien que creció en la era anterior a la IA de Internet competir con alguien que intenta todo para hacer más?

Es cierto que el oficio del periodismo no está tan expuesto al cambio liderado por la IA como, por ejemplo, la programación. La profesión requiere que un periodista se gane la confianza de los expertos y los convenza de compartir también lo que saben. Sin embargo, es probable que el frenesí del LLM se extienda de maneras inquietantes. ¿Qué pasa con los periodistas que empiezan sin estas herramientas cuando la competencia utiliza agentes para escribir y enviar correos electrónicos individualizados en busca de información? ¿Qué pasará si los nativos de la IA aumentan su productividad y desarrollan sus habilidades más rápido que alguien que todavía hace las cosas como lo ha hecho durante la última década?

Por ahora, probablemente exista un límite superior: los flujos de trabajo complejos que involucran agentes autónomos (a diferencia de meros trucos de productividad) requieren tokens para la inferencia LLM, que son costosos. Incluso con una suscripción paga a Claude, alcancé los límites de uso usando su modelo más avanzado para crear las tres herramientas anteriores. Estos costos ofrecen cierta protección. Pero a medida que la inferencia se vuelva más barata, los profesionales tendrán que afrontar todas las posibilidades de la automatización y los costos de no adaptarse.

Fuente