La economía de Shadow Ai no es un rebelde. Es una señal de 8.1 mil millones de dólares que el CEO no se mide correctamente.

Todos en el CEO de Fortune 500 invierten en IA ahora enfrentan las mismas matemáticas brutales. Gastan $ 590- $ 1,400 por año de empleados por año, mientras que el 95% de la iniciativa de la organización de la organización no puede acceder a la producción.
Al mismo tiempo, los empleados que usan herramientas de IA personales son un 40% de éxito.
El corte de la conexión no es tecnología: una operación de la empresa está luchando con la crisis en la medición de IA.
Tres preguntas, invité a todos los líderes a responder cuando preguntaron sobre el ROI de los pilotos de IA:
- ¿Cuánto gastas con las herramientas de IA en toda la empresa?
- ¿Cuál es la solución a los problemas comerciales con la IA?
- ¿Quién fue despedido si su estrategia de IA no puede dar resultados?
La pregunta final a menudo crea un silencio incómodo.
Como CEO de Lanai, una plataforma de detección de IA que usa la ventaja, me he adaptado para usar nuestro representante de IA en Fortune 500 para CISO y CIO, que quieren observar y comprender lo que la IA está haciendo en su empresa.
Lo que encontramos es que muchas personas están sorprendidas y no saben todo, desde el aumento de los empleados hasta los riesgos graves. Por ejemplo, en una gran compañía de seguros, el equipo líder confía en que “bloquean todo” con una lista de vendedores aprobados y críticas de seguridad. En solo cuatro días, encontramos 27 herramientas de IA no autorizadas en su organización.
Descubrimiento más revelado: la herramienta “no autorizada” es la fuerza laboral de Salesforce Einstein. Permite que el equipo de ventas supere el objetivo, pero viola las regulaciones gubernamentales. El equipo está creando un modelo que se ve similar con el código postal, los clientes impulsan los productos y los riesgos al mismo tiempo.
Este es un conflicto para una empresa que busca todo el potencial de la IA: no puede medir lo que no puede ver. Y no puede recomendar una estrategia (u operar sin riesgo) cuando no sabe qué están haciendo sus empleados
‘The Rubber Theatre’
La forma en que medimos la IA es retener a la compañía.
Ahora, la mayoría de las organizaciones miden la IA de la misma manera que han adaptado el software. Siguen la licencia para comprar, completar la capacitación y acceder a la solicitud.
Eso está mal pensar en ello. La IA es para aumentar el flujo de trabajo. El impacto del rendimiento es en forma de interacción humana y IA, no solo eligiendo herramientas.
El método que hacemos hoy puede crear una falla sistemática. La compañía crea una lista de los antiguos vendedores de moda, que los empleados completarán la capacitación y el cumplimiento. La IA de inspección de red tradicional está integrada en la aplicación aprobada, como Microsoft Copilot, Adobe Firefly Slack AI y Salesforce Einstein. El equipo de seguridad utiliza políticas no utilizadas porque El 78% de la organización usa IA, mientras que solo el 27% la controla.–
Esto crea lo que yo llamo el problema de la “supervisión del teatro”: la iniciativa AI que parece exitosa en el tablero. Los ejecutivos a menudo entregan el valor comercial como cero. Al mismo tiempo, el uso de IA que empujó la producción real sigue siendo completamente invisible para el liderazgo. (Y crear riesgos)
Shadow AI es una innovación sistemática.
El riesgo no es igual a la rebelión. El personal trató de resolver el problema.
Análisis de millones de interacciones de IA a través del modelo de detección de nuestra ventaja para demostrar que la mayoría de los líderes operativos conocen por instintos. Pero no puede probar cosas que parecen destruir las reglas tienden a ser empleados, solo que trabajan en una forma que no se puede detectar el sistema de medición tradicional.
Los empleados usan herramientas de IA que no están permitidas porque están ansiosas por tener éxito y debido a las herramientas de la organización que han sido castigadas con éxito en la producción de solo el 5% del tiempo, mientras que las herramientas de los consumidores como ChatGPT sobre la producción del 40% del tiempo de “sombra” son más efectivas. En algunos casos, es posible que el personal ni siquiera sepa que está haciendo trampa.
La compañía de tecnología preparada para la venta de acciones de OPI muestra que “ChatGPT – ha sido aprobado” en el tablero de seguridad. Pero se perdieron a los analistas que usaban ChatGPT personal Plus para analizar predicciones de ingresos secretos bajo la presión del tiempo. Nuestra promesa reveló el riesgo de violación de la SEC en la que la inspección de la red se ha perdido por completo.
El sistema de atención médica del médico se acepta mediante el uso de la decisión de la clínica épica, pero un médico de emergencias que no obtiene de los síntomas de los pacientes de IA enterrados para acelerar el diagnóstico. Al mejorar la cantidad de pacientes con HIPAA, utilizando modelos de IA que no cubren los acuerdos comerciales
Cambio de medición
La empresa de todo “Gen de la división“Especificado por MIT, que el Proyecto Nanta especifica una pelea notable con la aceptación de la IA, no el mayor presupuesto de IA. Son las personas que pueden verlo de manera segura y expandir el uso real en lugar de preguntar” ¿Es el personal de nuestra política de IA? “
Los indicadores tradicionales se centran en la aplicación: herramientas que compran usuarios que han sido creados por la política. La medición efectiva se centra en los resultados de los flujos de trabajo: cualquier interacción que produzca productividad. ¿Cuál crea un verdadero riesgo? ¿Qué modelo debemos crear estándares en toda la organización?
Compañías de seguros que descubren 27 herramientas no autorizadas
En lugar de cerrar el postal del código postal que impulsa la eficiencia de ventas, crean una ruta de datos consistente para mantener una mayor productividad. La eficiencia de las ventas sigue siendo en un alto nivel, el riesgo de regulaciones desaparece y ajustan el tamaño del flujo de trabajo que es seguro a lo largo de la violación de las reglas de la competencia, la ventaja de millones de competiciones.
Final
La compañía que gasta cientos de millones en IA cambiantes, mientras que sigue siendo una ciega del 89% del uso real con desventajas estratégicas. Dan fondos a los pilotos que fallan, mientras que sus mejores innovaciones son preciosas, incapaces de medir y no gobernar.
Las organizaciones líderes en este momento para tratar la IA, como la decisión de los empleados más grandes que harán. Quieren un caso comercial claro. Las predicciones del ROI y los indicadores de inversión de IA cada vez que crean propiedad con los nombres, los indicadores de rendimiento, incluidos los resultados de IA vinculados a la compensación ejecutiva.
El mercado de IA de la organización $ 8.1 mil millones no será rentable para aumentar la productividad a través del lanzamiento del software tradicional. Requiere una visión de flujo de trabajo que separe la innovación de las violaciones.
Una empresa que crea medición de eficiencia en el flujo de trabajo ayudará a aumentar la eficiencia de producción para que sus empleados la construyan. Aquellos que se adhieran a los indicadores que usan la aplicación continuarán proporcionando fondos a los pilotos que fallan mientras los competidores usan sus puntos ciegos.
La pregunta es si la medición de la sombra de IA o no: es un sistema de medición complejo cambiar el producto de los empleados que son invisibles a una competencia sostenible. Para la mayoría de las organizaciones, la respuesta revelará brechas estratégicas urgentes.
Las opiniones que se muestran en los comentarios de Fortune.com son la perspectiva del autor y no necesitan reflejar las opiniones y creencias de suerte–