Abordar Shadow AI: cómo las empresas del Reino Unido pueden mitigar los riesgos

Podría ser la respuesta al Reino Unido productividad ¿problema? Más de la mitad (58%) de las organizaciones piensan que sí, y muchos experimentan una amplia gama de beneficios relacionados con la IA que incluyen una mayor innovación, productos o servicios mejorados y relaciones con los clientes mejoradas.
No necesitas que te diga esto, es probable que eres uno de los 7 millones de trabajadores del Reino Unido que ya usan IA en el lugar de trabajo. Ya sea que esté ahorrando unos minutos en correos electrónicos, resumiendo un documento, extrayendo información de la investigación o creando automatizaciones de flujo de trabajo.
Sin embargo, aunque la IA es una fuente real de oportunidades para las empresas y sus empleados, la presión para que las organizaciones la adopten rápidamente pueden dar lugar inadvertidamente a mayores riesgos de seguridad cibernética. Conoce a Shadow Ai.
¿Qué es Shadow Ai?
Sintiendo el calor de hacer más con menos, los empleados están buscando Genai para ahorrar tiempo y facilitar la vida, con el 57% de los trabajadores de oficina que recurren globalmente a aplicaciones de IA de terceros en el dominio público. Pero cuando empleados Comience a llevar su propia tecnología a trabajar sin la aprobación, Shadow Ai se levanta la cabeza.
Hoy este es un problema muy real, con hasta el 55% de los trabajadores globales que usan no aprobados Herramientas AI Mientras trabajan, y el 40% usan aquellos que están abiertos por su organización.
Además, las búsquedas en Internet para el término “IA Shadow” están en aumento, saltando un 90% interanual. Esto muestra la medida en que los empleados están “experimentando” con Genai, y cuán precariamente la seguridad y la reputación de una organización cuelgan en el equilibrio.
Riesgos primarios asociados con la IA de la sombra
Si las organizaciones del Reino Unido van a detener esta amenaza en rápida evolución en su camino, deben despertarse con la amenaza de la IA de sombra, y rápido. Esto se debe a que el uso de LLMS Dentro de las organizaciones está ganando velocidad, con más de 562 empresas en todo el mundo interactuando con ellas el año pasado.
A pesar de este rápido aumento en los casos de uso, el 65% de las organizaciones aún no comprenden las implicaciones de Genai. Pero cada herramienta no autorizada conduce a vulnerabilidades significativas que incluyen (pero no se limitan a):
1. Fuencia de datos
Cuando se usa sin los protocolos de seguridad adecuados, las herramientas de IA Shadow plantean serias preocupaciones sobre la vulnerabilidad del contenido confidencial, por ejemplo, la fuga de datos a través del aprendizaje de la información en LLMS.
2. Riesgo regulatorio y de cumplimiento
La transparencia en torno al uso de la IA es fundamental para garantizar no solo la integridad de negocio contenido, pero los datos y la seguridad personales de los usuarios. Sin embargo, muchas organizaciones carecen de experiencia o conocimiento sobre los riesgos asociados con la IA y/o están disuadidas por limitaciones de costos.
3. Mala gestión de herramientas
Un desafío serio por ciberseguridad Los equipos mantienen una pila tecnológica cuando no saben quién está usando qué, especialmente en un ecosistema de TI complejo. En cambio, se necesita una supervisión integral y los equipos de seguridad deben tener visibilidad y control sobre todas las herramientas de IA.
4. Perpetuación de parcialidad
La IA es tan efectiva como los datos de los que aprende y los datos defectuosos pueden conducir a la IA perpetuando sesgos dañinos en sus respuestas. Cuando los empleados usan las empresas de IA en la sombra corren el riesgo de esto, ya que no tienen supervisión de los datos sobre los que se basan en tales herramientas.
La lucha contra Shadow Ai comienza con conciencia. Las organizaciones deben reconocer que estos riesgos son muy reales antes de poder allanar el camino para mejores formas de trabajo y un mayor rendimiento, de manera segura y sancionada.
Abrazando las prácticas del mañana, no ayer
Para realizar el potencial de la IA, los tomadores de decisiones deben crear un entorno controlado y equilibrado que los coloque en una posición segura, uno en el que pueden comenzar a probar nuevos procesos con IA de forma orgánica y segura. Sin embargo, de manera crucial, este enfoque debería existir dentro de una arquitectura de ajuste cero, uno que prioriza los factores de seguridad esenciales.
La IA no debe ser tratada como un atornillado. Aprovecharlo de forma segura requiere un entorno colaborativo que priorice la seguridad. Esto garantiza que las soluciones de IA mejoren, no la producción de contenido de Hinder,. Adaptado automatización Ayuda a las organizaciones a adaptarse a las condiciones, las entradas y las políticas cambiantes, simplificando la implementación e integración.
Cualquier experiencia de seguridad también debe ser perfecta, y las personas en todo el negocio deben ser libres de aplicar y mantener políticas consistentes sin interrupción en su día a día. Un moderno seguridad El centro de operaciones parece una detección y respuesta de amenazas automatizadas que no solo detectan amenazas, sino que las manejan directamente, lo que hace un proceso consistente y eficiente.
Los controles de acceso robustos también son clave para un marco de confianza cero, evitando consultas no autorizadas y protegiendo la información confidencial. Si bien estas políticas de gobernanza deben ser precisas, también deben ser flexibles para mantener el ritmo de la adopción de IA, las demandas regulatorias y las mejores prácticas de evolución.
Encontrar el equilibrio correcto con AI
La IA podría ser la respuesta al problema de productividad del Reino Unido. Pero para que esto suceda, las organizaciones deben asegurarse de que no haya una brecha en su estrategia de IA en la que los empleados se sientan limitados por las herramientas de IA disponibles para ellos. Esto inadvertidamente conduce a los riesgos de IA en la sombra.
La productividad de alimentación debe ser segura, y las organizaciones necesitan dos cosas para garantizar que esto suceda: una estrategia de IA fuerte e integral y una plataforma de gestión de contenido única.
Con herramientas de inteligencia artificial seguras y cumplidas, los empleados pueden implementar las últimas innovaciones en sus flujos de trabajo de contenido sin poner en riesgo a su organización. Esto significa que la innovación no llega a expensas de la seguridad, un equilibrio que, en una nueva era de mayor riesgo y expectativa, es clave.
Enumeramos las mejores herramientas de gestión de TI.
Este artículo fue producido como parte del canal de Insights Expert de TechRadarpro, donde presentamos las mejores y más brillantes mentes de la industria de la tecnología en la actualidad. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarpro o Future PLC. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro