Su empleado más inteligente puede no ser humano

Para los líderes empresariales en este momento, dos pequeñas palabras parecen casi imposibles de evitar: los agentes de IA. Construido en el ‘cerebro’ de un modelo de IA, y armados con un propósito específico y acceso a las herramientas, los agentes son autónomos que toman decisiones que se están integrando cada vez más en los procesos comerciales en vivo.
A diferencia de lo normal Herramientas AIque dependen de las indicaciones del usuario, agente, agente, la IA puede ejecutar tareas de forma iterativa, tomando decisiones que conllevan consecuencias comerciales reales y el riesgo de gobernanza real. En resumen, los agentes no son herramientas, son compañeros de equipo. Además de sentarse en la pila tecnológica de una organización, se sientan en su gráfico de orgiros.
Marc Benioff, cofundador, presidente y CEO de Salesforceel gigante de software valorado de $ 260 mil millones, dice que los CEO de hoy serán los últimos en administrar las fuerzas laborales totalmente humanas. (Cuando se le preguntó si un agente podría reemplazarlo algún día, Benioff respondió, a medio bromeo, “espero que sí”.) Cuanto antes sean las empresas reconocen este cambio, más rápido pueden moverse para asegurar y gobernar la IA para la innovación acelerada.
Así como los trabajadores humanos están bajo el paraguas de Recursos humanos (HR)es útil pensar en los agentes como recursos no humanos (NHR). Al igual que los humanos, hay costos para emplear NHRS, incluidos los costos de informática, arquitectura y seguridad, y necesitan inducción, capacitación y limitaciones apropiadas sobre lo que pueden hacer y cómo.
Esto es especialmente cierto ya que estos NHR aumentan la cadena de valor para realizar tareas de alta calificación que alguna vez pertenecieron al talento de nivel senior medio. Por ejemplo, los agentes autónomos administran activamente las negociaciones de proveedores, manejan los términos de pago e incluso ajustan los precios basados en productos básicos y cambios de mercado, funciones típicamente manejadas por equipos de analistas capacitados.
Las empresas no pueden asegurar lo que no entienden
La introducción de los NHR a nivel empresarial requiere un replanteamiento completo de gobernanza y seguridad. Esto se debe a que la ciberseguridad existente se centra en la gestión del riesgo humano, interna y externamente; No está construido para las realidades de los agentes siempre activos y autodirigidos que entienden, piensan y actúan a velocidad de la máquina.
Como el Mejores empleadoslos agentes más efectivos tendrán acceso a datos y aplicaciones empresariales, desde información de personal y datos financieros confidenciales hasta secretos de productos propietarios. Ese acceso abre la organización en el riesgo de ataques desde el exterior, así como el mal uso desde adentro.
En 2024, el costo promedio global de una violación de datos fue de $ 4.9 millones, un salto del 10% en el año anterior y el total más alto de la historia, y eso fue antes de la introducción de los agentes. En la era de la IA, los malos actores tienen nuevas armas a su disposición, desde ataques de inyección inmediatos hasta datos y envenenamiento por modelos.
Internamente, un agente desalineado puede desencadenar una cascada de fallas, desde análisis corruptos hasta violaciones regulatorias. Cuando las fallas provienen de la IA sancionada internamente, puede que no haya atacante obvio, solo un agente compatible que actúa sobre suposiciones defectuosas. En la era de los agentes, cuando las acciones son impulsadas por modelos no deterministas, el comportamiento no intencional es la violación, especialmente si las salvaguardas son inadecuadas.
Imagine que un agente tiene la tarea de mantener un base de datos Al día actual, y tiene acceso y permisos para insertar o eliminar datos. Podría eliminar entradas relacionadas con Fast Company, por ejemplo, encontrando y eliminando con precisión el término ‘compañía rápida’.
Sin embargo, podría decidir igualmente eliminar todas las entradas que contienen la palabra ‘rápida’ o incluso entradas que comienzan con ‘f’. Esta acción cruda alcanzaría el mismo objetivo, pero con una variedad de consecuencias involuntarias. Con los agentes, la cuestión de cómo completan su tarea es al menos tan importante como lo que es esa tarea.
Agentes de incorporación como empleados
A medida que las organizaciones introducen equipos de agentes, o incluso se vuelven predominantemente atendidos por agentes, que colaboran rápidamente para tomar decisiones y tomar medidas con un alto nivel de opacidad, el riesgo se amplifica significativamente.
La clave para la adopción de agente efectiva es un enfoque metódico desde el principio. Simplemente reconstruyendo el aprendizaje automático existente o la actividad de Genai, como chatbotscomo ‘agente’, una práctica conocida como ‘lavado de agentes’, es una receta para el retorno decepcionante de la inversión
Igualmente, los agentes de implementación arbitrariamente sin comprender dónde se necesitan realmente es lo mismo que contratar un empleado Quien no es adecuado para el papel previsto: desperdicia tiempo, recursos y puede crear tensión y confusión en la fuerza laboral. Más bien, las empresas deben identificar qué casos de uso son adecuados para la actividad de agente y crear tecnología y modelos comerciales apropiados.
La seguridad del modelo de IA subyacente al agente debe estar ampliamente en el equipo rojo, utilizando ataques simulados para exponer debilidades y fallas de diseño. Cuando el agente tiene acceso a herramientas y datos, una prueba clave es su capacidad para resistir los ataques de agente que aprenden lo que funciona y no funciona, y se adaptan en consecuencia.
A partir de ahí, la gobernanza significa más que mera supervisión; Significa codificar los valores organizacionales, los umbrales de riesgo, las rutas de escalada y las condiciones de ‘detener’ en el ADN operativo de los agentes. Piense en ello como incorporación digital. Pero en lugar de las cubiertas de deslizamiento y el entrenamiento de recursos humanos, estos agentes llevan códigos de cultura integrados que definen cómo actúan, qué límites respetan y cuándo pedir ayuda.
A medida que los agentes autónomos suben la escalera corporativa (virtual), el riesgo real no es la adopción, es la complacencia. Las empresas que tratan a los agentes de IA como herramientas en lugar de miembros dinámicos y responsables del equipo enfrentarán fallas crecientes, erosionan la confianza entre los clientes.
Construir gobernanza interfuncional desde el primer día
Ningún negocio inteligente permitiría que un nuevo graduado ejecute una división de mil millones de dólares el primer día. Del mismo modo, no se debe permitir que ningún agente de IA ingrese a sistemas críticos de la misión sin someterse a capacitación, pruebas y libertad condicional estructurados. Las empresas deben mapear las responsabilidades, la superficie de las dependencias ocultas y aclarar qué decisiones necesitan un humano en el bucle.
Por ejemplo, imagine una unidad de operaciones globales atendida por analistas humanos, con agentes de IA que monitorean de forma autónoma cinco mercados en tiempo real, y un supervisor de máquina optimiza la producción en todos ellos. ¿Quién administra quién y quién recibe crédito o culpa?
¿Y el rendimiento? Métricas tradicionales, como horas registradas o tareas Completado, no captures la productividad de un agente que ejecuta cientos de simulaciones por hora, probando e iterando a escala y creando un valor de composición.
Para ayudar a la superficie y responder a estas preguntas, muchas empresas están contratando a los directores de AI y forman comités directivos de IA que tienen representación entre depósitos. Los equipos pueden definir colaborativamente principios rectores que no solo se alinean con cada sector del negocio sino también con la compañía en su conjunto.
Un agente bien configurado debe saber cuándo actuar, cuándo hacer una pausa y cuándo pedir ayuda. Ese tipo de sofisticación no ocurre por accidente, necesita un enfoque proactivo de seguridad y gobernanza.
Esto no es solo una evolución técnica; Es una prueba de liderazgo. Las empresas que diseñan para la transparencia, la adaptabilidad y la gobernanza nativa de AI definirán la próxima era. Los NHR no vienen, ya están aquí. La única pregunta es si los dirigiremos o seremos guiados por ellos.
Enumeramos el mejor servicio de outsourcing de recursos humanos y el Mejor servicio PEO.
Este artículo fue producido como parte del canal de Insights Expert de TechRadarpro, donde presentamos las mejores y más brillantes mentes de la industria de la tecnología en la actualidad. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarpro o Future PLC. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro