Reciente informes sobre las tasas de fracaso de los proyectos de IA han planteado preguntas incómodas para las organizaciones que invierten mucho en IA. Gran parte del debate se ha centrado en factores técnicos como la precisión del modelo y la calidad de los datos, pero después de ver el lanzamiento de docenas de iniciativas de IA, he notado que las mayores oportunidades de mejora suelen ser culturales más que técnicas.

Los proyectos internos en dificultades tienden a compartir problemas comunes. Por ejemplo, los equipos de ingeniería crean modelos que los gerentes de producto no saben cómo utilizar. Los científicos de datos construyen prototipos que los equipos de operaciones luchan por mantener. Y Aplicaciones de IA permanecen sin uso porque las personas para las que fueron construidos no participaron en la decisión de lo que realmente significaba “útil”.

Por el contrario, las organizaciones que logran valor significativo con la IA Descubrí cómo crear el tipo adecuado de colaboración entre departamentos y establecí la responsabilidad compartida por los resultados. La tecnología es importante, pero la preparación organizacional es igualmente importante.

Aquí hay tres prácticas que he observado que abordan las barreras culturales y organizativas que pueden impedir el éxito de la IA.

Ampliar la alfabetización en IA más allá de la ingeniería

Cuando solo los ingenieros entienden cómo funciona un sistema de IA y de qué es capaz, la colaboración se rompe. Los gerentes de producto no pueden evaluar compensaciones que no comprenden. Los diseñadores no pueden crear interfaces para capacidades que no pueden articular. Los analistas no pueden validar resultados que no pueden interpretar.

La solución no es convertir a todos en científicos de datos. Está ayudando a cada puesto a comprender cómo se aplica la IA a su trabajo específico. Los gerentes de producto deben comprender qué tipos de contenido, predicciones o recomendaciones generados son realistas teniendo en cuenta los datos disponibles. Los diseñadores deben comprender qué puede hacer realmente la IA para poder diseñar funciones que los usuarios encuentren útiles. Los analistas necesitan saber qué resultados de IA requieren validación humana y cuáles son confiables.

Cuando los equipos comparten este vocabulario de trabajo, la IA deja de ser algo que sucede en el departamento de ingeniería y se convierte en una herramienta que toda la organización puede utilizar de forma eficaz.

Establecer reglas claras para la autonomía de la IA

El segundo desafío implica saber dónde puede actuar la IA por sí sola y dónde se necesita la aprobación humana. Muchas organizaciones recurren a extremos, ya sea bloqueando todas las decisiones de IA mediante revisión humana o permitiendo que los sistemas de IA funcionen sin barandillas.

Lo que se necesita es un marco claro que defina dónde y cómo la IA puede actuar de forma autónoma. Esto significa establecer reglas de antemano: ¿puede la IA aprobar cambios de configuración de rutina? ¿Puede recomendar actualizaciones de esquema pero no implementarlas? ¿Puede implementar código para entornos de prueba pero no para producción?

Estas reglas deben incluir tres elementos: auditabilidad (¿puedes rastrear cómo la IA tomó su decisión?), reproducibilidad (¿puedes recrear el camino de decisión?) y observabilidad (¿Pueden los equipos monitorear el comportamiento de la IA a medida que ocurre?). Sin este marco, o se ralentiza hasta el punto en que la IA no ofrece ninguna ventaja, o se crean sistemas que toman decisiones que nadie puede explicar o controlar.

Crear manuales multifuncionales

El tercer paso es codificar cómo trabajan realmente los diferentes equipos con los sistemas de IA. Cuando cada departamento desarrolla su propio enfoque, se obtienen resultados inconsistentes y esfuerzos redundantes.

Los manuales multifuncionales funcionan mejor cuando los equipos los desarrollan juntos en lugar de imponerlos desde arriba. Estos manuales responden a preguntas concretas como: ¿Cómo probamos las recomendaciones de IA antes de ponerlas en producción? ¿Cuál es nuestro procedimiento alternativo cuando falla una implementación automatizada? ¿Se transfiere a operadores humanos o se intenta primero un enfoque diferente? ¿Quién debe participar cuando anulamos una decisión de la IA? ¿Cómo incorporamos retroalimentación para mejorar el sistema?

El objetivo no es añadir burocracia. Se trata de garantizar que todos comprendan cómo encaja la IA en el trabajo existente y qué hacer cuando los resultados no cumplen con las expectativas.

Avanzando

La excelencia técnica en IA sigue siendo importante, pero las empresas que sobreindexan el rendimiento del modelo ignorando los factores organizacionales se están preparando para desafíos evitables. Las implementaciones exitosas de IA que he visto tratan la transformación cultural y los flujos de trabajo con tanta seriedad como la implementación técnica.

La pregunta no es si su tecnología de inteligencia artificial es lo suficientemente sofisticada. Se trata de si su organización está lista para trabajar con él.

Adi Polak es director de ingeniería y defensa de la experiencia del desarrollador en Confluent.

Fuente