Lanzamiento de OpenAi de la aplicación de video Sora plagada de imágenes violentas y racistas: ‘Las barandillas no son reales’ | Noticias de EE. UU.

Opadai Lanzó la última iteración de su generador de videos de inteligencia artificial el martes, agregando un feed social que permite a las personas compartir sus videos realistas.
Sin embargo, a las pocas horas del lanzamiento de Sora 2, muchos de los videos que poblan el feed y se extienden a las plataformas de redes sociales más antiguas que representaban personajes con derechos de autor en situaciones comprometedoras, así como escenas gráficas de violencia y racismo. Los propios términos de servicio de OpenAI para SORA, así como ChatgptLa imagen o generación de texto prohíbe el contenido que “promueve la violencia” o, en general, “causa daño”.
En indicaciones y clips revisados por The Guardian, Sora generó varios videos de bombas y sustos de lanzamiento de masas, con personas en pánico gritando y corriendo por campus universitarios y en lugares llenos de gente como la Gran Estación Central de Nueva York. Otras indicaciones crearon escenas de las zonas de guerra en Gaza y Myanmar, donde los niños fabricados por AI hablaban de que se quemaban sus casas. Un video con el rápido “metraje de Etiopía, el estilo de noticias de la Guerra Civil” tenía un reportero en un chaleco a prueba de balas que hablaba en un micrófono que decía que el gobierno y las fuerzas rebeldes estaban intercambiando fuego en vecindarios residenciales. Otro video, creado solo con el rápido “Rally de Charlottesville”, mostró a un manifestante negro con una máscara de gas, casco y gafas gritando: “No nos reemplazará”, un eslogan supremacista blanco.
El generador de video es solo por invitación y aún no está disponible para el público en general. Aún así, en los tres días transcurridos desde su lanzamiento limitado, se disparó hasta el puesto número 1 en la App Store de Apple, superando el propio Gapgpt de OpenAI.
“Ha sido épico ver de qué es capaz la creatividad colectiva de la humanidad hasta ahora”, Bill Peebles, la cabeza de Sora, Publicado en x el viernes. “¡Pronto enviaremos más códigos de invitación, lo prometo!”
La aplicación Sora da una visión de un futuro cercano donde separar la verdad de la ficción podría volverse cada vez más difícil, si los videos se extienden ampliamente más allá de la alimentación de AI-solo, como han comenzado. Los investigadores de información errónea dicen que tales escenas realistas podrían ofuscar la verdad y crear situaciones en las que estos videos de IA podrían usarse para fraude, intimidación e intimidación.
“No tiene fidelidad a la historia, no tiene relación con la verdad”, dijo Joan Donovan, profesora asistente de la Universidad de Boston que estudia la manipulación de los medios y la información errónea. “Cuando las personas crueles obtengan herramientas como esta, las usarán para odio, acoso e incitación”.
Slop Motor o ‘Chatgpt para la creatividad’?
CEO de Openai Sam Altman describió el lanzamiento de Sora 2 como “realmente genial”, diciendo en un blog que “esto se siente para muchos de nosotros como el momento ‘ChatGpt para la creatividad’, y se siente divertido y nuevo”.
Altman admitió “alguna inquietud”, reconociendo cómo las redes sociales pueden ser adictivas y utilizadas para el acoso escolar y que la generación de videos de IA puede crear lo que se conoce como “Slop”, una serie de videos repetitivos y de baja calidad que pueden abrumar una plataforma.
“El equipo ha puesto mucho cuidado y pensado en tratar de descubrir cómo hacer un producto encantador que no caiga en esa trampa”, escribió Altman. Dijo que Operai también había establecido mitigaciones sobre el uso de la semejanza y salvaguardas de alguien para perturbar o contenido ilegal. Por ejemplo, la aplicación se negó a hacer un video de Donald Trump y Vladimir Putin compartiendo algodón de azúcar.
Sin embargo, en los tres días desde el lanzamiento de Sora, muchos de estos videos ya han llegado a otros lugares en línea. Drew Harwell, reportero del Washington Post, creó un video del propio Altman Como líder militar de la Segunda Guerra Mundial. Harwell también dijo que pudo hacer videos con “Ragebait, crímenes falsos y mujeres salpicadas de la sustancia blanca”.
Sora’s Feed está lleno de videos de personajes con derechos de autor de programas como Spongebob Squarepants, South Park y Rick y Morty. La aplicación no tuvo problemas para generar videos de Pikachu elevando aranceles sobre China, robando rosas del Jardín de Rose de la Casa Blanca o participando en una protesta de Black Lives Matter junto con Bob Esponja, quien, en otro video, declaró y planeó una guerra contra los Estados Unidos. En un video documentado por 404 Media, Bob Esponja fue vestido como Adolf Hitler.
Paramount, Warner Bros y Pokémon Co no devolvieron solicitudes de comentarios.
David Karpf, profesor asociado en la Escuela de Medios y Asuntos Públicos de la Universidad George Washington, dijo que había visto videos de personajes con derechos de autor que promocionan estafas de criptomonedas. Dijo que está claro que las salvaguardas y las mitigaciones de Sora no funcionan.
después de la promoción del boletín
“Las barandillas no son reales si la gente ya está creando personajes con derechos de autor que promueven estafas de criptografía falsas”, dijo Karpf. “En 2022, [the tech companies] habría hecho un gran problema sobre cómo estaban contratando moderadores de contenido … En 2025, este es el año en que las compañías tecnológicas han decidido que no les importa una mierda “.
Copyright, imitador
Poco antes de que Operai lanzara Sora 2, la compañía se comunicó con agencias de talentos y estudios, alertándolos de que si no querían su material con derechos de autor replicado por el generador de video, tendrían que optar por no participar, según un Informe del Wall Street Journal.
Operai le dijo a The Guardian que los propietarios de contenido pueden marcar una infracción de derechos de autor utilizando un “formulario de disputas de derechos de autor”, pero que los artistas o estudios individuales no pueden tener una exclusión de opción general. Varun Shetty, jefe de asociaciones de medios de OpenAi, dijo: “Trabajaremos con los titulares de derechos para bloquear a los personajes de Sora a pedido y responder a las solicitudes de derribo”.
Emily Bender, profesora de la Universidad de Washington y Autor del libro The Ai Condijo Sora, está creando una situación peligrosa en la que es “más difícil encontrar fuentes confiables y más difícil confiar en ellos una vez encontrados”.
“Las máquinas de medios sintéticos, ya sea diseñadas para extruir el texto, las imágenes o el video, son un flagelo en nuestro ecosistema de información”, dijo Bender. “Sus salidas funcionan análoga a un derrame de petróleo, que fluye a través de conexiones de infraestructura técnica y social, debilitando y rompiendo relaciones de confianza”.
Nick Robins, contribuyó a informes,