Capacitar a equipos para que utilicen la IA en el trabajo me ha dado un asiento de primera fila ante un nuevo tipo de división profesional.
Algunas personas entregan todo a la máquina y dejan de pensar. Otros ni siquiera lo tocarán.
Pero hay un tercer grupo. Aprenden a trabajar críticamente con la IA y la tratan como a un pasante brillante y entusiasta que necesita ser administrado y apoyado para hacer su mejor trabajo.
¿La diferencia? Rara vez se trata de habilidad técnica. Es curiosidad. Voluntad de experimentar, cometer errores y descubrir en qué es realmente buena la IA.
Esto es lo que he aprendido hasta ahora.
La mayoría de las personas fracasan con la IA porque no entienden qué es realmente
Las personas con las que he trabajado tienden a oscilar entre los extremos: tratar a la IA como un oráculo omnisciente o descartarla por completo después de un error.
La IA actual tiene tanto en común con el cerebro humano como lo tiene un pájaro con un A380. Ambos pueden volar, pero ahí termina la similitud. Los modelos de lenguaje grandes simplemente predicen palabras basándose en patrones en sus datos de entrenamiento. Esta es la razón por la que pueden producir prosa fluida sobre temas bien tratados, pero inventarán cosas con confianza cuando se encuentren en un terreno desconocido.
Una vez que los usuarios comprenden esto, su enfoque cambia para proporcionar objetivos claros y un contexto apropiado. Cuando alguien me dice que todo lo que obtiene de la IA es basura, casi siempre resulta que obtiene respuestas genéricas a solicitudes genéricas.
Las personas que obtienen mejores resultados tratan la IA como una habilidad, no como un atajo
El mayor predictor de éxito no es la habilidad técnica. Se trata de si alguien trata la IA como una habilidad que hay que aprender, en lugar de una caja mágica que funciona o no. Las personas que mejor lo utilizan son aquellas que lo prueban a diario y reflexionan sobre cómo conseguir mejores resultados la próxima vez. El objetivo es hacer que las máquinas trabajen para nosotros, no que piensen por nosotros; esto significa utilizarlas de forma proactiva, crítica y comprometida.
La IA necesita orientación, retroalimentación y corrección, al igual que las personas
Las habilidades necesarias para utilizar la IA son las que muchas personas ya tienen: comunicación y delegación. Al igual que con ese pasante, no les entregarías un proyecto y desaparecerías. Analizaría todo, comprobaría periódicamente y corregiría el rumbo según fuera necesario. Lo mismo se aplica a la IA.
Y, al igual que con un pasante, como gerente, usted es en última instancia responsable de lo que produce. Esto es lo que realmente significa “humano en el circuito”: es su trabajo mantener la IA en el camino correcto y garantizar que el resultado esté actualizado.
No debe subcontratar su criterio a la IA ni proporcionar datos confidenciales
Hace unos meses, un gerente de una pequeña cadena minorista me mostró con orgullo el panel de recursos humanos que había codificado usando IA. Desafortunadamente, también importó información confidencial sin pensar en lo que sucedería si esos datos se filtraran ni en las políticas que debía seguir. Lo envié directamente a TI.
Pero los riesgos van más allá de la seguridad. Los sistemas de IA se entrenan en base a datos creados por humanos y reflejan nuestros prejuicios colectivos. Debe evitar pedirle a la IA que emita juicios subjetivos de alto nivel, como “¿deberíamos someter a este candidato a una entrevista?”, que pueden ser propensos a sesgos. En su lugar, céntrese en evaluaciones objetivas, por ejemplo, “este candidato tiene la cantidad correcta de años de experiencia”.
Ignorar la IA no detendrá su impacto
El impacto ambiental, ético y social de la IA es significativo y creciente. En una sesión reciente para una organización benéfica ambiental, un director se debatió entre la capacidad de hacer más como organización y los costos morales de hacerlo, como el impacto de carbono de la gestión de sistemas de inteligencia artificial. Pero la IA no va a desaparecer. Es mucho mejor tener ciudadanos alfabetizados en IA, capaces de exigir que se construya de manera responsable y democrática. La IA no es un tren esperando que subamos; Ya estamos en la mitad del camino. La única pregunta es quién dirigirá.
El ritmo de evolución de la IA no deja lugar a decisiones lentas
La versión actual de la IA es la peor que jamás haya existido y está mejorando más rápido de lo que la mayoría de la gente cree. Tareas que hace un año eran imposibles ahora son rutinarias. Donde antes pasaba largas noches encorvado sobre un teclado tratando de descubrir por qué mi código no funcionaba como debería, ahora creo aplicaciones completas en cuestión de horas con nada más que unas pocas indicaciones. Muchos desarrolladores se rieron el año pasado cuando el CEO de Anthropic dijo que el 90% del código pronto sería escrito por IA. Hoy muchos admiten que no estaba muy lejos.
A diferencia de las revoluciones tecnológicas pasadas, ésta avanza más rápido que nuestra capacidad de adaptación. Pasó un siglo desde la máquina de vapor hasta la locomotora y cincuenta años hasta que la inducción de Faraday se convirtió en la central eléctrica de Edison. Hoy, la diferencia entre los avances y la adopción global es de unos pocos meses. No podemos permitirnos un debate que dure una década; Debemos construir nuestra respuesta social y democrática tan rápido como la tecnología, o corremos el riesgo de ser gobernados por herramientas que aún no entendemos.
Las personas que darán forma a cómo la IA cambiará el mundo no tienen por qué ser los tecnólogos que construyen estos sistemas. Pueden ser aquellos que estén dispuestos a experimentar, a tomarse en serio tanto las capacidades como los riesgos. Todos tenemos la responsabilidad no sólo de comprender la IA, sino también de presionar a nuestros empleadores, comunidades y gobiernos para que la utilicen de manera que garanticen que nadie se quede atrás.
Tom Hewitson es el fundador y jefe de IA funcionario de Propósito generaluna empresa de formación en IA con sede en Londres
















