Técnica

Las estafas de suplantación de IA se están disparando en 2025, advierten los expertos en seguridad: aquí le mostramos cómo mantenerse a salvo


  • Las estafas de suplantación de IA usan clonación de voz y video de defake profundo para imitar de manera convincente a las personas de confianza
  • Los ciberdelincuentes se dirigen a personas y negocios a través de llamadas, reuniones de video, mensajes y correos electrónicos
  • Los expertos dicen que verificar de forma independiente las identidades y el uso de la autenticación de múltiples factores son clave para protegerse

Imagina recibir una llamada frenética de tu mejor amigo. Su voz es inestable ya que te dicen que han tenido un accidente y que necesitan dinero con urgencia. Reconoces la voz al instante; Después de todo, los conoces desde hace años. Pero, ¿y si esa voz no es realmente real?

En 2025, los estafadores usan cada vez más las voces de IA para clonar, imitar caras y hacer pasar por las personas en las que más confías.

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button