lAnoche estaba hojeando una aplicación de citas. Un hombre destacó: “Enrique VIII, 34 años, rey de Inglaterra, no monogamia”. Lo siguiente que sé es que estoy en un bar a la luz de las velas compartiendo un martini con la persona que tiene citas en serie más grande del siglo XVI.
Pero la noche no ha terminado. A continuación, actuaré como DJ consecutivamente con Diana, Princesa de Gales. “La multitud está lista para el lanzamiento”, me grita al oído, sosteniendo un auricular en su tiara. Finalmente, Karl Marx explica por qué no puede resistirse a un 60% de descuento, mientras esperamos en el frío para ser los primeros en las rebajas del Black Friday.
En Sora 2, si puedes pensarlo, probablemente puedas verlo, incluso cuando sabes que no deberías hacerlo. Lanzada en octubre en EE. UU. y Canadá solo mediante invitación, la aplicación de video de OpenAI alcanzó 1 millón de descargas en solo cinco días, superando el debut de ChatGPT.
Sora no es el único generativo de texto a vídeo AI herramienta que existe, pero se ha vuelto popular por dos razones principales. En primer lugar, es la forma más fácil hasta ahora para que los usuarios protagonicen sus propios deepfakes. Escriba un mensaje y en cuestión de minutos aparecerá un vídeo de 10 segundos. Luego se puede compartir en el feed estilo TikTok de Sora o exportar a otro lugar. A diferencia de los “basuras de IA” producidos en masa y de baja calidad que obstruyen Internet, estos clips tienen un valor de producción inquietantemente alto.
La segunda razón es que Sora permite imágenes de celebridades, deportistas y políticos, con una advertencia crucial: tienen que estar muertos. Las personas vivas deben dar su consentimiento para aparecer, pero hay una excepción para las “personajes históricos”, que Sora parece definir como cualquier persona famosa que ya no esté viva.
Eso parece ser lo que la mayoría de los usuarios han estado haciendo desde el lanzamiento. La alimentación principal es un torbellino surrealista de descomposición cerebral y líderes históricos. Adolf Hitler pasa sus dedos por una melena brillante en un anuncio de champú. La reina Isabel II se catapulta desde la mesa de un pub mientras lanza malas palabras. Abraham Lincoln estalla de alegría en un televisor al escuchar: “Tú no eres el padre”. El reverendo Martin Luther King Jr le cuenta al empleado de una gasolinera su sueño de que algún día todas las bebidas granizadas serán gratis, luego agarra la bebida helada y sale corriendo antes de terminar la frase.
Pero los familiares de los retratados no se ríen.
“Es profundamente irrespetuoso y doloroso ver la imagen de mi padre utilizada de manera tan arrogante e insensible cuando dedicó su vida a la verdad”, dijo Ilyasah Shabazz, hija de Malcolm X. dijo el Washington Post. Tenía dos años cuando su padre fue asesinado. Hoy en día, los clips de Sora muestran al activista de derechos civiles luchando con MLK, hablando de defecar sobre sí mismo y haciendo bromas groseras.
Zelda Williams, la hija del actor Robin Williams, suplicó a la gente que “por favor dejen” de enviarle videos de inteligencia artificial de su padre, en una publicación de Instagram. “Es una tontería, es una pérdida de tiempo y energía, y créanme, NO es lo que él querría”, dijo. Poco antes de su muerte en 2014, el difunto actor emprendió acciones legales para impedir que cualquiera usara su imagen en anuncios o lo insertara digitalmente en películas hasta 2039. “Ver el legado de personas reales condensarse en… horrible, la basura de TikTok que los manipula es enloquecedor”, agregó su hija.
Los vídeos que utilizan la imagen del fallecido comediante George Carlin son “abrumadores y deprimentes”, afirmó su hija, Kelly Carlin. dijo en una publicación de BlueSky.
También se han detectado personas que han muerto más recientemente. La aplicación está repleta de vídeos de Stephen Hawking recibiendo un “#powerslap” que derriba su silla de ruedas. Kobe Bryant hace un mate a una anciana mientras grita sobre objetos en su recto. Se puede encontrar a Amy Winehouse tropezando por las calles de Manhattan o llorando ante la cámara mientras el rímel corre por su rostro.
Las muertes de los últimos dos años (Ozzy Osbourne, Matthew Perry, Liam Payne) están ausentes, lo que indica un límite que se sitúa en algún punto intermedio.
Cada vez que morían, este “titiritero” de los muertos corre el riesgo de volver a trazar las líneas de la historia, dice Henry Ajder, un experto en inteligencia artificial generativa. “La gente teme que un mundo saturado con este tipo de contenido lleve a una distorsión de estas personas y de cómo son recordadas”, dice.
El algoritmo de Sora recompensa el valor del shock. Un video en lo alto de mi feed muestra a King haciendo sonidos de mono durante su discurso Tengo un sueño. Otros representan a Bryant recreando el accidente de helicóptero que lo mató a él y a su hija.
Si bien los actores o las caricaturas también pueden representar a personas de manera póstuma, existen barreras legales más estrictas. Un estudio cinematográfico es responsable de su contenido; OpenAI no es necesariamente responsable de lo que aparece en Sora. Representar a alguien para uso comercial también requiere el consentimiento del patrimonio en algunos estados.
“No podíamos simplemente resucitar íntimamente a Christopher Lee para protagonizar una nueva película de terror, entonces, ¿por qué OpenAI puede resucitarlo para protagonizar miles de cortometrajes?” pregunta James Grimmelmann, experto en derecho de Internet de Cornell Law School y Cornell Tech.
La decisión de OpenAI de entregar las personas de los difuntos a los comunes plantea preguntas incómodas sobre cómo deberían seguir viviendo los muertos en la era de la IA generativa.
La cuestión jurídica
Enviar fantasmas de celebridades para que persigan a Sora para siempre puede parecer incorrecto, pero ¿es legal? Eso depende de a quién le preguntes.
Una cuestión importante sigue sin resolver en la legislación de Internet: ¿están las empresas de inteligencia artificial cubiertas por la sección 230 y, por lo tanto, no son responsables del contenido de terceros en sus plataformas? Si OpenAI está protegido por la sección 230, no puede ser demandado por lo que los usuarios ganan en Sora.
“Pero a menos que exista una legislación federal sobre el tema, habrá inseguridad jurídica hasta que la Corte Suprema tome un caso, y eso son otros dos o cuatro años”, dice Ashkhen Kazaryan, un experto en la primera enmienda y política tecnológica.
Mientras tanto, OpenAI debe evitar demandas. Eso significa exigir que los vivos den su consentimiento. La ley estadounidense sobre difamación protege a las personas vivas de cualquier “comunicación materializada en forma física que sea perjudicial para la reputación de una persona”. Además de esto, la mayoría de los estados tienen leyes sobre el derecho a la publicidad que impiden que la voz, la personalidad o la imagen de alguien se utilicen sin consentimiento con fines “comerciales” o “engañosos”.
Permitir que los muertos “es su forma de sumergir el dedo del pie en el agua”, dice Kazaryan.
El difunto no está protegido contra la difamación, pero tres estados (Nueva York, California y Tennessee) otorgan un derecho de publicidad post mortem (el derecho comercial a su imagen). Navegar por estas leyes en el contexto de la IA sigue siendo una “zona gris” sin precedentes legales, dice Grimmelmann.
Para demandar con éxito, las propiedades tendrían que demostrar que OpenAI es responsable, por ejemplo, argumentando que alienta a los usuarios a representar a los muertos.
Grimmelmann señala que la página de inicio de Sora está llena de este tipo de vídeos, lo que de hecho promociona este contenido. Y si Sora fue entrenado con grandes volúmenes de imágenes de personajes históricos, los demandantes podrían argumentar que la aplicación está diseñada para reproducirlas.
Sin embargo, OpenAI podría defenderse afirmando que Sora es puramente para entretenimiento. Cada vídeo lleva una marca de agua, lo que evita que engañe a las personas o sea catalogado como comercial.
Bo Bergstedt, un investigador de IA generativa, dice que la mayoría de los usuarios exploran, no monetizan.
“La gente lo trata como entretenimiento, viendo qué locuras se les ocurren o cuántos “me gusta” pueden reunir”, dice. Por muy molesto que esto pueda resultar para las familias, aún podría cumplir con las leyes de publicidad.
Pero si un usuario de Sora construye una audiencia generando clips populares de personajes históricos y comienza a monetizar a sus seguidores, podría encontrarse en problemas legales. Alexios Mantzarlis, director de la Iniciativa de Seguridad, Confianza y Protección de Cornell Tech, señala que la “caída económica de la IA” incluye ganar dinero indirectamente a través de plataformas monetizadas. Por lo tanto, los emergentes “influencers de IA” de Sora podrían enfrentar demandas de los herederos si se benefician de los muertos.
Un enfoque de ‘Whac-A-Mole’
En respuesta a la reacción, OpenAI anunció la semana pasada que comenzaría a permitir que los representantes de figuras públicas “recientemente fallecidas” solicitaran que se bloqueara su imagen en los videos de Sora.
“Si bien existen fuertes intereses de libertad de expresión al representar figuras históricas, creemos que las figuras públicas y sus familias deberían, en última instancia, tener control sobre cómo se utiliza su imagen”, dijo un portavoz de OpenAI.
La empresa aún no ha definido “recientemente” ni ha explicado cómo se manejarán las solicitudes. OpenAI no respondió de inmediato a la solicitud de comentarios de The Guardian.
También ha dado marcha atrás en su enfoque libre de derechos de autor para todos, después de que contenidos subversivos como “Bob Esponja nazi” se extendieran por la plataforma y la Motion Picture Association acusara a OpenAI de infracción. Una semana después del lanzamiento, pasó a un modelo de participación voluntaria para los titulares de derechos.
Grimmelmann espera un giro similar en las representaciones de los muertos. “Insistir en que la gente debe optar por no participar si no les gusta esto puede no ser sostenible”, afirma. “Es macabro, y si tengo ese instinto, otros también lo tendrán, incluidos los jueces”.
Bergstedt llama a esto un enfoque de “Whac-A-Mole” para las barreras de seguridad que probablemente continuará hasta que los tribunales federales definan la responsabilidad de la IA.
En opinión de Ajder, la disputa de Sora presagia una pregunta más amplia que cada uno de nosotros enfrentará eventualmente: ¿quién controlará nuestra semejanza en la era sintética?
“Es una situación preocupante si las personas simplemente aceptan que van a ser utilizadas y abusadas en contenido hiperrealista generado por IA”.















