Las estafas de suplantación de IA se están disparando en 2025, advierten los expertos en seguridad: aquí le mostramos cómo mantenerse a salvo

- Las estafas de suplantación de IA usan clonación de voz y video de defake profundo para imitar de manera convincente a las personas de confianza
- Los ciberdelincuentes se dirigen a personas y negocios a través de llamadas, reuniones de video, mensajes y correos electrónicos
- Los expertos dicen que verificar de forma independiente las identidades y el uso de la autenticación de múltiples factores son clave para protegerse
Imagina recibir una llamada frenética de tu mejor amigo. Su voz es inestable ya que te dicen que han tenido un accidente y que necesitan dinero con urgencia. Reconoces la voz al instante; Después de todo, los conoces desde hace años. Pero, ¿y si esa voz no es realmente real?
En 2025, los estafadores usan cada vez más las voces de IA para clonar, imitar caras y hacer pasar por las personas en las que más confías.
El aumento en este tipo de estafa ha sido asombroso. De acuerdo a Lóbulo de lunaLas estafas de IA han aumentado en un 148% este año, con delincuentes que usan herramientas avanzadas que hacen que su engaño sea casi imposible de detectar.
Entonces, ¿cómo puede mantenerse a salvo de esta creciente amenaza de ciencia ficción? Aquí está todo lo que necesita saber, incluido lo que recomiendan los expertos en ciberseguridad.
¿Qué son las estafas de suplantación de IA?
Las estafas de suplantación de IA son una forma de fraude de rápido crecimiento donde los delincuentes usan inteligencia artificial para imitar la voz, la cara o el estilo de escritura de una persona con precisión alarmante.
Estas estafas a menudo dependen de la clonación de voz, que es una tecnología que puede recrear los patrones de habla de alguien con solo unos segundos de audio grabado.
Las muestras no son difíciles de encontrar; A menudo puede detectarlos en correos de voz, entrevistas o videos de redes sociales. De acuerdo a Universidad Estatal de Montclairincluso los clips cortos de un podcast o clase en línea pueden ser suficientes para construir una suplantación convincente de AI de la voz de alguien.
Algunas estafas llevan esto aún más lejos, utilizando videos Deepfake para simular llamadas en vivo. Por ejemplo, Forbes informes que los estafadores han hecho pasar por ejecutivos de la compañía en reuniones de video, convenciendo al personal para autorizar transferencias de alambre grandes.
Los expertos dicen que el rápido crecimiento de las estafas de suplantación de IA en 2025 se reduce a tres factores: mejores tecnología, costos más bajos y accesibilidad más amplia.
Con estas falsificaciones digitales a su lado, los atacantes asumen la identidad de alguien en quien confía, como un miembro de la familia, un jefe o incluso un funcionario del gobierno. Luego solicitan información valiosa y confidencial, o omiten el paso adicional y solicitan pagos urgentes.
Estas voces sonoradas pueden ser muy convincentes, y esto las hace particularmente nefastos. Como el Comité Judicial del Senado de los Estados Unidos Recientemente advirtió, incluso los profesionales capacitados pueden ser engañados.
¿Quién se ve afectado por las estafas de suplantación de IA?
Las estafas de suplantación de IA pueden ocurrir a través de llamadas telefónicas, videollamadas, aplicaciones de mensajería y correos electrónicos, a menudo atrapando a las víctimas por sorpresa en medio de sus rutinas diarias. Los delincuentes usan la clonación de voz para hacer llamadas llamadas “salpicadas”, que son estafas telefónicas que suenan como una persona de confianza.
El FBI Recientemente advertido sobre llamadas generadas por IA que fingen ser políticos estadounidenses, incluido Senator Marco Rubiopara difundir la información errónea y solicitar una reacción pública.

En el lado corporativo de “Vishing”, los cibercriminales han organizado reuniones de video de Deepfake que se hacían pasar por ejecutivos de la compañía. En Caso 2024 Los actores de amenaza se hicieron pasar por el CFO de la empresa de ingeniería con sede en el Reino Unido Arup, y engañaron a sus empleados para que autorizaran transferencias por un total de $ 25 millones.
Estos ataques generalmente raspan imágenes y videos de LinkedIn, sitios web corporativos y redes sociales para elaborar una suplantación convincente.
La suplantación de AI también se está volviendo más sofisticada y rápida. El proveedor de correo electrónico Paubox descubrió que casi el 48% de Intentos de phishing generados por IAincluyendo clones de voz y video, la detección de evasión exitosa por los sistemas de seguridad de correo electrónico y llamadas actuales.
Cómo mantenerse a salvo de las estafas de suplantación de IA
Los expertos dicen que las estafas de suplantación de IA tienen éxito porque crean un falso sentido de urgencia en sus víctimas. Los delincuentes explotan su instinto para confiar en voces o caras familiares.
La defensa más importante es simplemente reducir la velocidad; Tómese su tiempo para confirmar su identidad antes de actuar. El Iniciativa Take9 Dice que simplemente detenerse durante nueve segundos puede contribuir en gran medida a mantenerse a salvo.
Si recibe una llamada o video sospechoso de alguien que conoce, cuelgue y vuelva a llamarlos en el número que ya tiene. Como dijo el analista de ciberseguridad Ashwin Raghu Interno de negocioslos estafadores cuentan con personas que reaccionan en el momento, y llamar elimina esa urgencia.

También es importante observar las sutiles banderas rojas. Los videos de Deepfake pueden tener algunos dientes, como movimientos de boca antinaturales, fondos parpadeantes o contacto visual que se siente un poco “apagado”. Del mismo modo, las voces generadas por IA pueden tener pausas inusuales o ruido de fondo inconsistente, incluso si suenan convincentes al principio.
Agregar capas adicionales de seguridad también puede ayudar. La autenticación multifactor (MFA) hace que sea más difícil para los estafadores ingresar a sus cuentas, incluso si roban con éxito sus credenciales.
La experta en ciberseguridad Jacqueline Jayne dijo El australiano que su mejor opción es emparejar la verificación directa con alguna forma de MFA, particularmente durante los períodos de alta actividad de estafa, como durante la temporada de impuestos.
AI ofrece una tonelada de capacidades alucinantes, pero también ofrece a los estafadores poderosos nuevas formas de engañar. Al mantenerse atento, verificar las solicitudes sospechosas y hablar abiertamente sobre estas amenazas, puede reducir el riesgo de ser sorprendido, sin importar cuán real pueda parecer el profundo.