Técnica

Crear profundos profundos realistas es ser más fácil. Luchar puede tomar aún más IA

Washington – El teléfono suena. Es el Secretario de Estado llamado. ¿O lo es?

Para los expertos de Washington, ver y la audición ya no se cree, gracias a una serie de incidentes recientes que involucran fallas hacerse pasar por los altos funcionarios en la administración del presidente Donald Trump.

Las falsificaciones digitales también vienen para la América corporativa, como pandillas criminales y piratas informáticos asociados con Adversarios, incluida Corea del Norte, Use videos y audio sintéticos para hacerse pasar por los CEO y los candidatos de trabajo de bajo nivel para obtener acceso a sistemas críticos o secretos comerciales.

Gracias a los avances en la inteligencia artificial, crear defensores realistas es más fácil que nunca, causando problemas de seguridad a los gobiernos, las empresas y las personas privadas y la fabricación. confianza La moneda más valiosa de la era digital.

Responder al desafío requerirá leyes, mejor alfabetización digital y soluciones técnicas que luchen contra la IA con más IA.

“Como humanos, somos notablemente susceptibles al engaño”, dijo Vijay Balasubramaniyan, CEO y fundador de la firma tecnológica Pindrop Security. Pero él cree que las soluciones al desafío de los defensores pueden estar al alcance: “Vamos a defenderse”.

Este verano, alguien usó IA para crear Un profundo de Secretario de Estado Marco Rubio En un intento por comunicarse con ministros extranjeros, un senador estadounidense y un gobernador por mensaje de texto, correo de voz y la aplicación de mensajería de señales.

En mayo alguien se hizo pasar por el jefe de gabinete de Trump, Susie Wiles.

Otro falso Rubio había aparecido en un defake a principios de este año, diciendo que quería cortar el acceso de Ucrania al servicio de Internet Starlink de Elon Musk. El gobierno de Ucrania luego refutó el reclamo falso.

Las implicaciones de seguridad nacional son enormes: las personas que piensan que están charlando con Rubio o Wiles, por ejemplo, podrían discutir información confidencial sobre negociaciones diplomáticas o estrategia militar.

“Está tratando de extraer secretos confidenciales o información competitiva o va después del acceso, a un servidor de correo electrónico u otra red confidencial”, dijo Kinny Chan, CEO de la firma de seguridad cibernética QID, sobre las posibles motivaciones.

Los medios sintéticos también pueden apuntar a alterar el comportamiento. El año pasado, los votantes demócratas en New Hampshire recibieron un robocall instándolos a no votar en la próxima primaria del estado. La voz en la llamada sonaba sospechosamente como el entonces presidente Joe Biden, pero en realidad fue creado usando IA.

Su capacidad para engañar hace que la IA se profundice en un arma potente para los actores extranjeros. Tanto Rusia como China tienen Desinformación y propaganda utilizada Dirigido a los estadounidenses como una forma de socavar la confianza en las alianzas e instituciones democráticas.

Steven Kramer, el consultor político que admitió haber enviado el falso Biden Robocalls, dijo que quería enviar un mensaje de los peligros que los profundos representan para el sistema político estadounidense. Kramer era absuelto el mes pasado de cargos de supresión de votantes y suplantando a un candidato.

“Hice lo que hice por $ 500”, dijo Kramer. “¿Te imaginas qué pasaría si el gobierno chino decidiera hacer esto?”

La mayor disponibilidad y sofisticación de los programas significan que los defectos profundos se usan cada vez más para el espionaje corporativo y el fraude de variedades de jardín.

“La industria financiera tiene razón en la mira”, dijo Jennifer Ewbank, ex subdirectora de la CIA que trabajó en ciberseguridad y amenazas digitales. “Incluso las personas que se conocen se han convencido de transferir vastas sumas de dinero”.

En el contexto del espionaje corporativo, pueden usarse para hacerse pasar por los CEO pidiendo a los empleados que entreguen contraseñas o números de enrutamiento.

Deepfakes también puede permitir que los estafadores soliciten trabajos, e incluso los hagan, bajo una identidad asumida o falsa. Para algunos, esta es una forma de acceder a redes confidenciales, robar secretos o instalar ransomware. Otros solo quieren el trabajo y pueden estar trabajando algunos trabajos similares en diferentes compañías al mismo tiempo.

Las autoridades en los Estados Unidos han dicho que miles de norcoreanos Con las habilidades de tecnología de la información se han enviado para vivir en el extranjero, utilizando identidades robadas para obtener empleos en empresas tecnológicas en los Estados Unidos y en otros lugares. Los trabajadores obtienen acceso a las redes de la empresa, así como a un cheque de pago. En algunos casos, los trabajadores instalan ransomware que luego se pueden usar para extorsionar aún más dinero.

Los esquemas han generado miles de millones de dólares para el gobierno norcoreano.

En tres años, se espera que hasta 1 de cada 4 solicitudes de empleo sea falsa, según investigaciones de Adaptive Security, una compañía de ciberseguridad.

“Hemos entrado en una era en la que cualquier persona con una computadora portátil y acceso a un modelo de código abierto puede hacerse pasar por una persona real”, dijo Brian Long, CEO de Adaptive. “Ya no se trata de sistemas de piratería, se trata de piratear confianza”.

Investigadores, expertos en políticas públicas y compañías de tecnología ahora están investigando las mejores formas de abordar los desafíos económicos, políticos y sociales planteados por Deepfakes.

Las nuevas regulaciones podrían requerir que las empresas tecnológicas hagan más para identificar, etiquetar y potencialmente eliminar los defectos en sus plataformas. Los legisladores también podrían imponer mayores sanciones a quienes usan tecnología digital para engañar a otros, si pueden ser atrapados.

Mayores inversiones en alfabetización digital también podría aumentar la inmunidad de las personas al engaño en línea enseñándoles formas de detectar medios falsos y evitar caer presas de estafadores.

La mejor herramienta para atrapar la IA puede ser otro programa de IA, uno entrenado para oler los pequeños defectos en los defensores que pasarían desapercibidos por una persona.

Sistemas como el de Pindrop analizan millones de puntos de datos en el discurso de cualquier persona para identificar rápidamente las irregularidades. El sistema se puede usar durante las entrevistas de trabajo u otras videoconferencias para detectar si la persona está utilizando el software de clonación de voz, por ejemplo.

Los programas similares algún día pueden ser comunes, que se ejecutan en segundo plano mientras las personas hablan con colegas y seres queridos en línea. Algún día, Deepfakes puede seguir el spam por correo electrónico, un desafío tecnológico que una vez amenazó con volar la utilidad del correo electrónico, dijo Balasubramaniyan, CEO de Pindrop.

“Puedes tomar la visión del derrotista y decir que vamos a estar subordinados a la desinformación”, dijo. “Pero eso no va a suceder”.

Fuente

Related Articles

Back to top button