Técnica

Crear profundos profundos realistas se está volviendo más fácil que nunca. Luchar puede tomar aún más IA

El teléfono suena. Es el Secretario de Estado de los Estados Unidos. ¿O lo es?

Para los expertos de Washington, ver y la audición ya no cree, gracias a una serie de incidentes recientes que involucran a los defensores que se hacen pasar por alto a los altos funcionarios en la administración del presidente de los Estados Unidos, Donald Trump.

Las falsificaciones digitales también están llegando a las empresas de América, ya que las pandillas criminales y los piratas informáticos asociados con adversarios, incluidos Corea del Norte, usan videos sintéticos y audio para hacerse pasar por los CEO y candidatos de trabajo de bajo nivel para obtener acceso a sistemas críticos o secretos comerciales.

Gracias a los avances en la inteligencia artificial, crear defensores realistas es más fácil que nunca, causando problemas de seguridad a los gobiernos, las empresas y las personas privadas y hacer que la confianza sea la moneda más valiosa de la era digital.

Responder al desafío requerirá leyes, mejor alfabetización digital y soluciones técnicas que luchen contra la IA con más IA.

“Como humanos, somos notablemente susceptibles al engaño”, dijo Vijay Balasubramaniyan, CEO y fundador de la firma tecnológica Pindrop Security. Pero él cree que las soluciones al desafío de los defensores pueden estar al alcance: “Vamos a defenderse”.

Este verano, alguien usó IA para crear un profundo Secretario de Estado de los Estados Unidos Marco Rubio En un intento por comunicarse con ministros extranjeros, un senador estadounidense y un gobernador por mensaje de texto, correo de voz y la aplicación de mensajería de señales.

En mayo, alguien se hizo pasar por el jefe de gabinete de Trump, Susie Wiles.

Otro falso Rubio había aparecido en un defake a principios de este año, diciendo que quería cortar el acceso de Ucrania al servicio de Internet Starlink de Elon Musk. El gobierno de Ucrania luego refutó el reclamo falso.

Las implicaciones de seguridad nacional son enormes: las personas que piensan que están charlando con Rubio o Wiles, por ejemplo, podrían discutir información confidencial sobre negociaciones diplomáticas o estrategia militar.

“Está tratando de extraer secretos confidenciales o información competitiva o va después del acceso, a un servidor de correo electrónico u otra red confidencial”, dijo Kinny Chan, CEO de la firma de seguridad cibernética QID, sobre las posibles motivaciones.

Los medios sintéticos también pueden apuntar a alterar el comportamiento. El año pasado, los votantes demócratas en New Hampshire recibieron un Robocall instándolos a no votar en las próximas primarias del estado. La voz en la llamada sonaba sospechosamente como el entonces presidente Joe Biden, pero en realidad fue creado usando IA.

Su capacidad para engañar hace que la IA se profundice en un arma potente para los actores extranjeros. Tanto Rusia como China han utilizado la desinformación y la propaganda dirigida a los estadounidenses como una forma de socavar la confianza en las alianzas e instituciones democráticas.

Steven Kramer, el consultor político que admitió haber enviado el falso Biden Robocalls, dijo que quería enviar un mensaje de los peligros que los profundos representan para el sistema político estadounidense. Kramer fue absuelto el mes pasado por cargos de supresión de votantes y suquillando a un candidato.

“Hice lo que hice por $ 500”, dijo Kramer. “¿Te imaginas qué pasaría si el gobierno chino decidiera hacer esto?”

La mayor disponibilidad y sofisticación de los programas significan que los defectos profundos se usan cada vez más para el espionaje corporativo y el fraude de variedades de jardín.

“La industria financiera tiene razón en la mira”, dijo Jennifer Ewbank, ex subdirectora de la CIA que trabajó en ciberseguridad y amenazas digitales. “Incluso las personas que se conocen se han convencido de transferir vastas sumas de dinero”.

En el contexto del espionaje corporativo, pueden usarse para hacerse pasar por los CEO pidiendo a los empleados que entreguen contraseñas o números de enrutamiento.

Deepfakes también puede permitir que los estafadores soliciten trabajos, e incluso los hagan, bajo una identidad asumida o falsa. Para algunos, esta es una forma de acceder a redes confidenciales, robar secretos o instalar ransomware. Otros solo quieren el trabajo y pueden estar trabajando algunos trabajos similares en diferentes compañías al mismo tiempo.

Las autoridades en los Estados Unidos han dicho que se han enviado miles de norcoreanos con habilidades de tecnología de la información para vivir en el extranjero, utilizando identidades robadas para obtener empleos en empresas tecnológicas en los Estados Unidos y en otros lugares. Los trabajadores obtienen acceso a las redes de la empresa, así como a un cheque de pago. En algunos casos, los trabajadores instalan ransomware que luego se pueden usar para extorsionar aún más dinero.

Los esquemas han generado miles de millones de dólares para el gobierno de Corea del Norte.

En tres años, se espera que hasta 1 de cada 4 solicitudes de empleo sea falsa, según investigaciones de Adaptive Security, una compañía de ciberseguridad.

“Hemos entrado en una era en la que cualquier persona con una computadora portátil y acceso a un modelo de código abierto puede hacerse pasar por una persona real”, dijo Brian Long, CEO de Adaptive. “Ya no se trata de sistemas de piratería, se trata de piratear confianza”.

Investigadores, expertos en políticas públicas y compañías de tecnología ahora están investigando las mejores formas de abordar los desafíos económicos, políticos y sociales planteados por Deepfakes.

Las nuevas regulaciones podrían requerir que las empresas tecnológicas hagan más para identificar, etiquetar y potencialmente eliminar los defectos en sus plataformas. Los legisladores también podrían imponer mayores sanciones a quienes usan tecnología digital para engañar a otros, si pueden ser atrapados.

Las mayores inversiones en alfabetización digital también podrían impulsar la inmunidad de las personas al engaño en línea enseñándoles formas de detectar medios falsos y evitar caer presas de estafadores.

La mejor herramienta para atrapar la IA puede ser otro programa de IA, uno entrenado para oler los pequeños defectos en los defensores que pasarían desapercibidos por una persona.

Sistemas como el de Pindrop analizan millones de puntos de datos en el discurso de cualquier persona para identificar rápidamente las irregularidades. El sistema se puede usar durante las entrevistas de trabajo u otras videoconferencias para detectar si la persona está utilizando el software de clonación de voz, por ejemplo.

Los programas similares algún día pueden ser comunes, que se ejecutan en segundo plano mientras las personas hablan con colegas y seres queridos en línea. Algún día, Deepfakes puede seguir el spam por correo electrónico, un desafío tecnológico que una vez amenazó con volar la utilidad del correo electrónico, dijo Balasubramaniyan, CEO de Pindrop.

“Puedes tomar la visión del derrotista y decir que vamos a estar subordinados a la desinformación”, dijo. “Pero eso no va a suceder”.

Publicado – 29 de julio de 2025 09:00 en IS

Fuente

Related Articles

Back to top button