AI se volvió inevitable. Lo que alguna vez fue un campo de investigación especializado ahora se ha integrado completamente en la vida personal y profesional de la gente común. Por lo tanto, para los líderes empresariales, la pregunta pasa de “¿mis empleados utilizan IA?” (lo son, le guste o no), a “¿Mis empleados utilizan la IA de forma segura?”
Investigador principal de ciberseguridad en CultureAI.
Evidentemente, los empleados y, a su vez, los empleadores están viendo el potencial del uso de la IA para aumentar la productividad. Un atractivo punto a favor para equipos que carecen de tiempo y recursos.
Gran parte de este cambio se está impulsando desde abajo hacia arriba. La investigación sugiere que el 78% de los usuarios de IA ya están trayendo la suya propia Herramientas de IA para trabajar. Sin embargo, estas herramientas se utilizan a menudo en el lugar de trabajo sin el conocimiento o la supervisión de la empresa.
Estas herramientas de IA no documentadas (o IA en la sombra) que operan en las redes de la empresa o utilizan datos de la empresa pueden plantear importantes riesgos de seguridad.
Lo que está claro es que los empleados seguirán utilizando la IA sin esperar a que sus empleadores cumplan con permisos, directrices claras y medidas de seguridad. Afortunadamente, existen formas para que los empleadores implementen rápidamente controles efectivos de uso y gobernanza de la IA sin sofocar la innovación.
Visibilidad de la IA (o falta de ella)
Es probable que sus empleados utilicen la IA de una forma u otra. El riesgo es no saber dónde ni cómo y con qué herramientas. Las investigaciones sugieren que casi la mitad (47%) de los usuarios de GenAI todavía acceden a herramientas a través de cuentas personales no administradas, ya sea exclusivamente o junto con herramientas aprobadas por la empresa.
A diferencia del software tradicional, la IA generativa se basa en la entrada de datos. Esto conlleva el riesgo de que se inserten avisos, incluida información confidencial, información personal datosIP o incluso código fuente. Sin visibilidad, los empleadores enfrentan un punto ciego cada vez mayor.
Comprender los riesgos asociados con el uso de la IA en el lugar de trabajo
La adopción de cualquier tecnología nueva conlleva riesgos. Con la adopción de la IA en el lugar de trabajo, esto incluye:
IA oscura
Los empleados prueban cada vez más nuevas herramientas de inteligencia artificial en el trabajo, a menudo porque son gratuitas, más rápidas o más convenientes que las alternativas aprobadas. Si bien esto puede mejorar la eficiencia, el uso de A.I. aplicaciones (Shadow AI) amplía significativamente la superficie de ataque y deja a los equipos de seguridad sin suficiente visibilidad o supervisión.
Lo preocupante son los datos que se introducen en estas herramientas. Investigaciones recientes sugieren que el 93% de los empleados están colocando datos de la empresa en herramientas de inteligencia artificial no autorizadas, y casi un tercio de ellos admite compartir información confidencial de los clientes.
Esto significa que la propiedad intelectual, la información regulada y los datos personales están potencialmente siendo procesados por terceros desconocidos. Se desconoce qué hacen con esta información.
Lo preocupante es que muchas herramientas de monitoreo tradicionales tienen dificultades para detectar cargas inmediatas que contienen datos confidenciales, especialmente cuando se accede a las herramientas de inteligencia artificial a través de cuentas no administradas o dispositivos personales.
Fuga de datos
Los empleados pegan habitualmente información confidencial en herramientas de inteligencia artificial, a menudo sin comprender completamente los riesgos. En 2023, Samsung Los ingenieros expusieron accidentalmente código propietario y notas confidenciales de reuniones al cargarlas en ChatGPT, poniendo los datos fuera del control de la empresa.
Desde entonces, han surgido incidentes similares en todas las industrias, que revelan la cantidad de información confidencial que fluye silenciosamente hacia los sistemas de inteligencia artificial de terceros. Una vez enviados, las organizaciones suelen tener una capacidad limitada para eliminar o controlar completamente cómo se conservan o utilizan estos datos.
Cuentas e incumplimientos inmediatos
Los chats de IA filtrados o las advertencias comprometidas pueden brindar a los actores de amenazas acceso a una amplia gama de información confidencial y, en algunos casos, permitir que la cuenta se vea comprometida aún más si los controles de ciberseguridad más amplios son débiles.
Dado el volumen y la sensibilidad de los datos que a menudo se introducen en las herramientas de IA, una sola cuenta de IA comprometida puede provocar la exposición inmediata de información privada de la empresa, incluidas credenciales, propiedad intelectual y sistemas internos.
Brechas de cumplimiento y gobernanza
A medida que se acelera la adopción de la IA, los reguladores examinan cada vez más cómo las organizaciones utilizan la IA, especialmente cuando se cruza con la protección de datos. El envío de información de identificación personal (PII) a servicios de inteligencia artificial externos o no controlados puede violar el RGPD, la HIPAA y las regulaciones específicas de la industria. privacidad requisitos.
En industrias fuertemente reguladas, como las finanzas, la defensa y la atención médica, incluso un solo uso no autorizado de una herramienta de inteligencia artificial externa puede crear una exposición legal y de cumplimiento significativa.
El futuro de la IA en el lugar de trabajo
Si bien la explosión de la IA en el lugar de trabajo puede parecer rápida, refleja la misma adopción “de abajo hacia arriba” de tecnologías que la precedieron.
La diferencia entre la IA y la adopción de otras tecnologías “nuevas” es que la IA consume datos empresariales a escala en cada interacción, lo que aumenta en gran medida el riesgo de fugas, infracciones y problemas de cumplimiento. La solución no es bloquear la IA por completo.
Los empleados encontrarán soluciones alternativas, como utilizar sus recursos personales. telefonos ingresar datos de la empresa, especialmente si ya consideran que estas herramientas son valiosas para la eficiencia. Seguridad Los equipos necesitan desarrollar estrategias de seguridad y TI que subyacen a los controles de uso de la IA, el descubrimiento de la IA en la sombra y el análisis de uso integral.
Estos pilares son facilitadores esenciales de la innovación responsable.
Puede que la normativa tarde un tiempo en actualizarse, pero es fundamental que las organizaciones no esperen. En última instancia, si sus empleados utilizan la IA (le guste o no), tomar medidas ahora puede ayudarle a comprender y controlar el “cómo” y el “dónde”, haciendo que el uso de la IA sea más seguro sin sofocar la innovación.
Presentamos el mejor chatbot de IA para empresas.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde mostramos las mejores y más brillantes mentes en tecnología actual. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro












