A fines del año pasado, cuando el cierre del gobierno de Estados Unidos cortó los beneficios de Snap de los que dependen las familias de bajos ingresos para realizar compras, los videos de las redes sociales representaron las consecuencias en escenas frenéticas. “Seré sincera contigo”, dijo una mujer negra en una publicación viral de TikTok, “Gano más de 2.500 dólares al mes en sellos. Los vendo, por un valor de 2.000 dólares, por entre 1.200 y 1.500 dólares en efectivo”. Otra mujer negra habló sobre la responsabilidad de los contribuyentes hacia sus siete hijos con siete hombres, y otra más se derrumbó después de que le rechazaron su vale de comida en un puesto de perritos calientes.
Marcas de agua visibles marcaban algunos videos como generados por IA, aparentemente demasiado débiles para que los comentaristas y traficantes racistas estuvieran más que felices de creer que el frenesí era real. “Hay gente que trata esto como algo secundario, vendiendo sellos y abusando del sistema”, se queja el comentarista conservador Amir Odom. noticias del zorro informado sobre Snap deepfakes como si fueran autenticos, antes emitiendo una corrección. Rob Schmitt, presentador de Newsmax reclamado la gente usaba Snap “para arreglarse las uñas, las trenzas y el cabello”. (Perdido en la indignación había un hecho básico: los estadounidenses blancos inventar 37% de los 42 millones de beneficiarios de Snap).
Los vídeos falsos son meros fragmentos del creciente mosaico de la cara negra digital, un patrón que ha aumentado en los últimos dos años a medida que las herramientas de vídeo generativas de IA se han vuelto ampliamente accesibles. “Ha habido una enorme aceleración”, dice Safiya Umoja Noble, profesora de estudios de género en UCLA y autora de Algoritmos de opresión, que se centra en los prejuicios digitales contra las mujeres negras en particular. “Los vídeos digitales con cara negra en realidad están inspirados en los mismos estereotipos y tropos racistas y sexistas que se han utilizado durante siglos”. El efecto neto es una pátina de negrura despojada de obligaciones culturales o administrativas; en pocas palabras, un juglar.
Acuñado en un artículo académico de 2006, el término cara negra digital describe una forma de mercantilización cultural negra reutilizada para la expresión en línea de personas no negras. Los ejemplos abarcan toda la gama: publicaciones en inglés vernáculo afroamericano, el uso de emojis de piel más oscura, memes de reacción con Beyoncé, Katt Williams y otros ejemplos de Black cool.
“Las primeras investigaciones realizadas sobre el blackface digital comenzaron con jugadores blancos que usaban bitmojis de una raza diferente y cambiaban su lengua vernácula para representarse a sí mismos”, dice Mia Moody, profesora de periodismo en la Universidad de Baylor, cuyo próximo libro, Blackface Memes, vincula el papel de los usuarios negros en el inicio y la difusión de tendencias en línea con el posterior blackface digital. “Eso es parte de la apropiación cultural, ganar capital cultural. Tal vez seas un chico blanco nerd, pero si usas este genial avatar de un chico negro con rastas, la gente te respetará. De repente te vuelves interesante”.
Durante la expansión de la memeología a videos cortos, la expresión negra se ha divorciado cada vez más de la autoría, el contexto o las consecuencias. Los estudiosos de la cultura de Internet dicen que algunos creadores de color en línea utilizan avatares generados por IA modelados a partir de rostros negros familiares: el influencer de belleza, el podcaster cultural, el entrevistador cotidiano; aparecen en feeds junto con creadores de contenido negros reales. Grandes modelos del lenguaje recorren los espacios digitales que han ganado prestigio con el habla y el humor negro, absorbiendo su tono y jerga. Hume AI es una de las muchas empresas que ofrecen voces sintéticas para podcasts y audiolibros, como “mujer negra con sutil acento de Luisiana” o “hombre afroamericano de mediana edad con un tono de sabiduría ganada con tanto esfuerzo”. En la mayoría de los casos, los creadores cuyo discurso proviene de YouTube, podcasts y redes sociales no reciben ninguna compensación y mucho menos saben que sus personalidades moldearon estos modelos.
Los clips de reacción de Snap, sin embargo, fueron una escalada notable en la difusión del blackface digital: menos mezclas, más estereotipos de armas. Muchos de estos videos fueron creados con la aplicación de conversión de texto a video de OpenAI. sora. A medida que la popularidad de Sora aumentó en 2025, los usuarios explotaron su hiperrealismo para empañar la imagen de Martin Luther King Jr.generando un debate ético en torno a la “resurrección sintética”. Deepfakes lo mostró robando en tiendas, peleando contra Malcolm X y maldiciendo en su discurso Tengo un sueño. Los influencers conservadores inundaron los feeds con abrazos generados por IA entre King y charlie kirkfusionando sus legados conflictivos y su martirio cultural. Bernice King, hija de MLK y directora de su organización sin fines de lucro con sede en Atlanta, criticó la propaganda popular calificándola de “tontería”.
Inevitablemente, la Casa Blanca de Trump tomó medidas. En enero, la cuenta oficial de la Casa Blanca X publicó un foto manipulada de la activista de Minnesota Nekima Levy Armstrong, sombría y llorando, tras su arresto en una manifestación no violenta contra ICE. A principios de este mes, una imagen que representa el A los Obama les gustan los monos fue publicado a través de la propia cuenta Truth Social de Trump.
Blackface sigue siendo la parte más vulnerable de los medios de comunicación estadounidenses, incluso cuando evoluciona a un ritmo vertiginoso. Sus raíces se remontan a las revistas de juglares de principios del siglo XIX; Los artistas blancos se untaron la cara con pintura grasa hecha con corchos carbonizados y pegaron enormes labios blancos para caricaturizar los rasgos negros, y realizaron rutinas exageradas de pereza, bufonería e hipersexualidad negras. Thomas D. Rice, un dramaturgo de Manhattan, saltó a la fama en la década de 1830 interpretando a un estafador llamado Jim Crow, un nombre que rápidamente se convirtió en una abreviatura de las políticas de segregación racial forzada en el sur de Estados Unidos que duraron hasta la Ley de Derechos Civiles de 1964.
En su apogeo, los espectáculos de juglares eran el forma dominante de entretenimiento estadounidense, reflejada en las caricaturas de los periódicos y en los populares programas de radio Amos ‘n’ Andy. Después de la Guerra Civil, los artistas negros se vieron obligados en gran medida a adoptar elementos de juglar, una vez más a expensas de su personalidad, sólo para ganar algo de terreno en el escenario. “Los objetivos eran, primero, ganar dinero para ayudar a educar a nuestros jóvenes y, segundo, tratar de poner fin al malestar que existía hacia las personas de color”. explicado Tom Fletcher, juglar y actor de vodevil durante casi 70 años, fallecido en 1954.
Incluso cuando el juglar desapareció del centro de atención a principios del siglo XX, su residuo tóxico permaneció en la cultura estadounidense: desde los cuervos arrastrados de Dumbo de Disney, hasta el infame asado de cara negra de Whoopi Goldberg de Ted Danson en 1993, hasta el desfile anual de juerguistas blancos de Halloween con máscaras raciales. Hace una década, cuando Internet todavía era una especie de caja negra, investigadores como Noble y el MIT Joy Buolamwini estaban dando la alarma sobre los prejuicios raciales inherentes a los algoritmos de codificación relacionados con tratamientos médicos, solicitudes de préstamos, decisiones de contratación y reconocimiento facial. Ahora está a la vista, extendiéndose más y más profundamente que cualquier rutina de corcho quemado.
Las empresas de tecnología han hecho algunos esfuerzos para detener la marea del blackface digital. Cediendo a la reacción del público, la familia King y las propiedades más destacadas OpenAI, Google y el generador de imágenes de IA Midjourney han prohibido los deepfakes de King y otros íconos estadounidenses. En enero de 2025, Meta eliminó dos de sus propios personajes de IA con cara negra (un jubilado llamado Grandpa Brian y Liv, descrito como una “orgullosa madre negra queer” y una “contadora de la verdad”), después de que las acusaciones de que su equipo de desarrollo no diverso alimentara una tormenta de críticas. Instagram, TikTok y otros han hecho algunos intentos de eliminar videos digitales virales con cara negra, para obtener resultados tibios. El verano pasado, los esfuerzos por replicar Bigfoot Baddie, el avatar de inteligencia artificial de una mujer negra como un híbrido humano-yeti con pelucas rosas, uñas acrílicas y gorros para el cabello, creado por Veo AI de Google, explotaron en una auténtica locura en las redes sociales, y algunos usuarios incluso promocionaron cursos prácticos. El avatar todavía está en las redes sociales.
Black in AI y el Distributed AI Research Institute (Dair) se encuentran entre los pocos grupos de afinidad que han estado presionando por la diversidad y el aporte de la comunidad en la construcción de modelos de IA para abordar los sesgos de programación. El AI Now Institute y la Partnership on AI destacaron los riesgos de que los sistemas de IA aprendan de los datos de comunidades marginadas y señalaron que las empresas de tecnología podrían proporcionar mecanismos como la eliminación de datos para ayudar a limitar los usos dañinos o de explotación. Pero la adopción generalizada ha sido glacial.
“Solo en YouTube se suben alrededor de 400 horas de contenido por minuto”, dice Noble. “Con la generación de IA, estas empresas de tecnología no pueden gestionar lo que pasa por sus sistemas. Así que no lo hacen. O hacen lo que es absolutamente imperativo para el gobierno de Estados Unidos. Pero si tenemos un régimen autoritario en el poder, pueden usar nuestros sistemas para facilitar la propaganda”.
Si bien es difícil cuantificar el impacto preciso de la cara negra digital generada por IA, su uso por Administración Trump destaca su potencial como poderosa herramienta de desinformación oficial. La entrada de Obama Truth Social revivió una calumnia que se ha enconado durante años en los rincones más oscuros de Internet y que rima con los esfuerzos sostenidos de Trump por denigrar a la ex primera familia. (Trump rechazó la responsabilidad directa y se negó a disculparse por esa publicación, que fue eliminada). Mientras tanto, la imagen manipulada de Armstrong por la Casa Blanca, alterada de una fotografía real tomada por el Departamento de Seguridad Nacional y publicada en su cuenta oficial de Twitter, fue digitalizada como una operación psicológica por parte de un gobierno que trabaja en estrecha colaboración con empresas de tecnología para rastrear a activistas y otros presuntos enemigos del Estado.
Además de presentar los prejuicios como noticias, el blackface digital expone a los usuarios negros a un nivel de abuso y acoso personalizado que se remonta al apogeo de los juglares, cuando los racistas tenían pleno poder para expresar sus prejuicios de forma espontánea. Y entonces, como ahora, parece que poco se puede hacer para detener el vitriolo. “Vivimos en Estados Unidos con una agenda política abierta, sin restricciones, anti-derechos civiles, anti-inmigrantes, anti-negros, anti-LGBTQ y anti-pobres”, dice Noble. “Encontrar el material que respalde esta posición es sólo una cuestión de que el Estado dé forma a la realidad para adaptarla a sus imperativos. Y eso se logra fácilmente cuando todas las empresas tecnológicas se alinean detrás de la Casa Blanca”.
Aún así, Moody mantiene la esperanza de que la fascinación actual por el blackface digital pronto se vuelva tan obsoleta y poco atractiva como la variante analógica. Después de todo, ella ha visto esta obra antes. “En este momento, la gente simplemente está experimentando con la tecnología de inteligencia artificial y divirtiéndose viendo lo que pueden hacer”, afirma. “Una vez que superemos eso, veremos menos de eso. Pasarán a otra cosa. O buscarán empleo, y eso será vergonzoso. Basta con mirar la historia”.
















