Fraude falso Ya se han gastado 1.100 millones de dólares. Las cuentas de la compañía en Estados Unidos en 2025 se triplicaron desde los 360 millones de dólares del año anterior. A mediados del año pasado Los incidentes registrados se han cuadriplicado. Estamos en 2024 y la mayoría de los equipos de comunicación corporativa y de marca todavía no están peligrosamente preparados.
Los ejecutivos ahora enfrentan amenazas sintéticas desde dos direcciones: la clonación de sus imágenes para permitir transferencias fraudulentas o dañar reputaciones, y voces generadas por inteligencia artificial que se hacen pasar por funcionarios gubernamentales. Los miembros de la junta directiva y los socios comerciales solían administrarlos.
En 2019, un ejecutivo energético británico anónimo recibió una llamada telefónica de alguien que creía que era su alto ejecutivo. Los cambios sutiles de acentos y consonantes son correctos. Incluso el ritmo me resulta familiar. Después de realizar un cableado por valor de 243.000 dólares, descubrieron que la voz al otro lado del teléfono era sintética.. el año pasado Un estafador clona al ministro de Defensa italiano y llamó a los principales empresarios del país Al menos uno envió cerca de un millón de euros. Antes de aprender sobre el engaño
Pero estas marcas tienen suerte. Considere el impacto si el video sintético de su director ejecutivo incluye comentarios inapropiados. Anuncio falso de fusión o crítica a los reguladores que se difunde rápidamente en las redes sociales antes de que su equipo pueda responder. Los deepfakes ya no son un interés de ciberseguridad. Estos representan actualmente una amenaza para la seguridad. Riesgo financiero y daño significativo a la reputación.
La brecha de comunicación es más amplia que la brecha de seguridad.
La mayor parte de la cobertura de amenazas de Deepfake se centra en algoritmos de detección y protocolos de verificación. Los proveedores de ciberseguridad ofrecen soluciones y los departamentos de TI actualizan políticas, pero pocos abordan la pregunta clave para los CMO y CCO: ¿Qué sucede con su marca si la imagen de su CEO se utiliza para cometer fraude? Desinformación o ataques de carácter
He pasado dos décadas asesorando a ejecutivos durante crisis de reputación. Estos incluyen investigaciones regulatorias y campañas mediáticas hostiles. Existen guías establecidas para estas situaciones. Sin embargo, no existen procedimientos establecidos para eventos como retratos sintéticos de directores ejecutivos que permitan adquisiciones fraudulentas. ¿O un vídeo falso del fundador que se vuelve viral?
La visibilidad de la gestión disminuye en ambos sentidos.
Publicar en las redes sociales el discurso de apertura Programa de podcast y responder llamadas que involucren a su director ejecutivo proporciona información de capacitación potencial para los atacantes. La visibilidad que humaniza las marcas ejecutivas y el liderazgo también proporciona las muestras de voz y el mapeo facial que necesitan los medios sintéticos.
No todos los ataques tienen éxito. El año pasado, un estafador apuntó al director ejecutivo de una empresa de publicidad global. Crearon una cuenta falsa de WhatsApp usando su foto, organizaron una llamada de Microsoft Teams con una voz clonada de IA entrenada en un video de YouTube y pidieron a altos ejecutivos que financiaran una nueva empresa comercial. El empleado se negó y la empresa no perdió nada. Pero la complejidad del esfuerzo revela hasta qué punto ha avanzado la tecnología.
El número de deepfakes aumenta de 500.000 en 2023 a más de 8 millones en 2025. El fraude por clonación de voz va en aumento. 680 por ciento En un año, se espera alcanzar las pérdidas proyectadas por fraude basado en IA. 40 mil millones de dólares para 2027. sin embargo, Sólo el 32 por ciento de los ejecutivos corporativos cree que sus organizaciones están preparadas para lidiar con los deepfakes..
Tres preguntas que todo equipo de comunicaciones debería responder ahora mismo
Primero, ¿tiene un protocolo de divulgación para ataques a medios sintéticos? Si su modelo de CEO generado por IA se utiliza para cometer fraude o tergiversar ¿Quién se comunica, cuándo y a través de qué canales?
En segundo lugar, ¿has hecho alguna vez un tutorial de mesa deepfake? Las simulaciones de crisis deben incluir situaciones en las que la imagen de un ejecutivo se utilice para fraude interno. Información distorsionada desde el exterior o ambos.
En tercer lugar, coordina la secuencia de respuesta con la ley. ¿Seguridad cibernética y relaciones con inversores o no? La crisis de los deepfake es un evento de fraude. Obligaciones de divulgación y emergencia de marca al mismo tiempo. Las respuestas silenciadas fallarán.
Tomar medidas antes del ataque.
Las empresas que se enfrentan a estos tiempos están creando prácticas de crisis en este momento. Antes los rostros de los ejecutivos aparecían en el video que nunca habían grabado. Decir cosas que nunca han dicho. Aprobar transacciones que ellos nunca aprobarían. La imagen de su director ejecutivo es un activo de marca. También es un vector de ataque.
Equipos de comunicación y marcas que tratan el deepfake como un problema ajeno. Ya sea que se trate de un problema de ciberseguridad o de un fraude financiero. Te encontrarás redactando una disculpa en lugar de una estrategia.
Las opiniones expresadas en las reseñas de Fortune.com son únicamente las del autor. y no reflejan necesariamente las opiniones y creencias de suerte.












