Soy un experto en IA y aquí está por qué las amenazas sintéticas exigen resiliencia sintética

La inteligencia artificial (IA) está remodelando rápidamente el panorama de la prevención de fraudes, creando nuevas oportunidades para la defensa y nuevas vías para el engaño.
En todas las industrias, la IA se ha convertido en una espada de doble filo. Por un lado, permite la detección de fraude más sofisticada, pero por el otro, los actores de amenaza están siendo armados para explotar controles, crear identidades sintéticas y lanzar ataques hiperrealistas.
La prevención del fraude es vital en sectores que manejan altos volúmenes de transacciones sensibles e identidades digitales. En los servicios financieros, por ejemplo, no se trata solo de proteger el capital, el cumplimiento regulatorio y la confianza del cliente están en juego.
Similar ciberseguridad Las presiones están creciendo en las telecomunicaciones y las industrias tecnológicas como SaaS, el comercio electrónico e infraestructura en la nube, donde amenazas como el intercambio de SIM, el abuso de API y los usuarios sintéticos pueden causar graves interrupciones.
El fraude ya ha cambiado de un riesgo a un desafío comercial central, con el 58 por ciento de los tomadores de decisiones clave en las grandes empresas del Reino Unido que ahora lo ve como una “amenaza grave”, según una encuesta realizada en 2024.
Jefe de ciencia de datos en SAS.
El surgimiento de las amenazas sintéticas
El fraude sintético se refiere a ataques que aprovechan los datos fabricados, el contenido generado por IA o las identidades digitales manipuladas. Estos no son conceptos nuevos, sino la capacidad y la accesibilidad de la generación Herramientas AI han bajado drásticamente la barrera de entrada.
Una amenaza importante es la creación de identidades sintéticas que son combinaciones de información real y ficticia utilizada para abrir cuentas, omitir los controles de su customero (KYC) o los servicios de acceso.
Los profundos también se están utilizando para hacerse pasar por ejecutivos durante las videollamadas o en intentos de phishing. Un ejemplo reciente involucró a los atacantes que usan IA para imitar la voz de un CEO y autorizar una transferencia fraudulenta. Estas tácticas son difíciles de detectar en entornos digitales de rápido movimiento sin métodos avanzados de verificación en tiempo real.
Los silos de datos solo exacerban el problema. En muchas organizaciones tecnológicas, los diferentes departamentos confían en herramientas o plataformas desconectadas. Un equipo puede usar AI para la autenticación, mientras que otro aún se basa en sistemas heredados, y son estos puntos ciegos los que son fácilmente explotados por fraude impulsado por la IA.
Oh como defensa
Si bien AI permite fraude, también ofrece herramientas poderosas para la defensa si se implementa estratégicamente. En el mejor de los casos, la IA puede procesar grandes volúmenes de datos En tiempo real, detecte patrones sospechosos y se adapte a medida que evolucionan las amenazas. Pero esto depende de una integración, gobernanza y supervisión efectivas.
Una debilidad común se encuentra en los sistemas fragmentados. Los esfuerzos de prevención de fraude a menudo operan en silos a través del cumplimiento, la ciberseguridad y los equipos de los clientes. Para desarrollar una verdadera resiliencia, las organizaciones deben alinear las estrategias de IA en los departamentos. Los lagos de datos compartidos, o API seguras, pueden habilitar modelos integrados con una visión holística del comportamiento del usuario.
Los datos sintéticos, a menudo asociados con fraude, también pueden desempeñar un papel en la defensa. Las organizaciones pueden usar datos anonimizados y realistas para simular escenarios de fraude raros y entrenar modelos sin comprometer el cliente privacidad. Este enfoque ayuda a probar las defensas contra casos de borde que no se encuentran en los datos históricos.
Los sistemas de fraude también deben ser adaptativos. Las reglas estáticas y los modelos raramente actualizados no pueden mantener el ritmo de fraude con IA: los sistemas de aprendizaje continuos en tiempo real ahora son esenciales. Muchas compañías están adoptando biometría conductual, donde AI monitorea cómo los usuarios interactúan con dispositivos, como la escritura de ritmo o el movimiento del ratón, para detectar anomalías, incluso cuando las credenciales parecen válidas.
La explicabilidad es otra piedra angular del uso responsable de la IA y es esencial comprender por qué un sistema ha marcado o bloqueado la actividad. Los marcos explicables de IA (XAI) ayudan a tomar decisiones de manera transparente, apoyando el cumplimiento de la confianza y la regulación, asegurando que la IA no sea solo efectiva, sino también responsable.
Colaboración de la industria
El fraude mejorado con AI no respeta los límites organizacionales y, como resultado, la industria cruzada colaboración se está volviendo cada vez más importante. Si bien sectores como los servicios financieros se han beneficiado durante mucho tiempo de marcos de intercambio de información como ISAC, están surgiendo iniciativas similares en el ecosistema tecnológico más amplio.
Proveedores de nubes están comenzando a compartir indicadores de credenciales comprometidas o actividad maliciosa coordinada con los clientes. Los proveedores de SaaS y Cyberseurity también están formando consorcios e iniciativas de investigación conjunta para acelerar la detección y mejorar los tiempos de respuesta en todos los ámbitos.
A pesar de su poder, la IA no es una bala de plata y organizaciones que dependen únicamente de automatización Riesgo de falta de técnicas sutiles o novedosas de fraude. Las estrategias efectivas de fraude deben incluir auditorías modelo regulares, pruebas de escenarios y ejercicios de teatro rojo (donde los piratas informáticos éticos realizan ataques cibernéticos simulados en una organización para probar la efectividad de la ciberseguridad).
Los analistas humanos aportan conocimiento y juicio del dominio que pueden refinar el rendimiento del modelo. Los equipos de entrenamiento para trabajar junto con la IA es clave para construir una resiliencia sintética, combinando la visión humana con la velocidad y la escala de la máquina.
La resiliencia es un sistema, no una característica
A medida que AI transforma tanto las herramientas de fraude como los métodos de prevención, las organizaciones deben redefinir la resiliencia. Ya no se trata de herramientas aisladas, sino de crear un ecosistema de defensa conectado, adaptable y explicable.
Para muchas organizaciones, eso significa integrar la IA en las unidades de negocios, adoptar datos sintéticos, priorizar la explicabilidad e integrar la mejora continua en los modelos de fraude. Si bien los servicios financieros pueden haber sido pioneros en muchas de estas prácticas, la industria tecnológica más amplia ahora enfrenta el mismo nivel de sofisticación en el fraude, y debe responder en consecuencia.
En esta nueva era, la resiliencia sintética no es un objetivo final estático, sino una capacidad de cultivarse constantemente. Aquellos que tengan éxito no solo defenderán sus negocios de manera más efectiva, sino que ayudarán a definir el futuro de la confianza digital segura y habilitada para AI.
Enumeramos las mejores soluciones de gestión de identidad.
Este artículo fue producido como parte del canal de Insights Expert de TechRadarpro, donde presentamos las mejores y más brillantes mentes de la industria de la tecnología en la actualidad. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarpro o Future PLC. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro