El 22 de junio, el cofundador de Reddit, Alexis Ohanian, publicó una foto de la infancia de su madre y él mismo. En la imagen, ambos llevan suéteres rojos mientras se abrazan contra un fondo de montaña.
Junto a la imagen, el Sr. Ohanian publicó un video generado por IA que dio vida a la imagen: la madre y el niño se acurrucan mientras el viento se revuelve el cabello.
“Maldición, no estaba listo para cómo se sentiría esto. No teníamos una videocámara, así que no hay un video de mí con mi madre”, publicó Ohanian en X (anteriormente Twitter). “Dejé una de mis fotos favoritas de nosotros en MidJourney como ‘Inicio de marco para un video de IA’ y wow … así es como me abrazó. Lo he vuelto a ver 50 veces”.
La publicación rápidamente se volvió viral y obtuvo más de 20 millones de visitas. Mientras que muchos se empataron con el acto del Sr. Ohanian de convertir una foto familiar apreciada en un video, también fue severamente criticado. Muchos usuarios de X lo acusaron de crear recuerdos “falsos”, dañar su capacidad para llorar a su madre de una manera saludable o buscar consuelo en una interacción que fabricó.
La capacidad de convertir imágenes en videos no se limita a herramientas como MidJourney. En las últimas semanas, el multimillonario Elon Musk anunció ‘Grok Imagine’ para que los usuarios generen videos cortos a partir de indicaciones de texto/imagen. Google, en julio, lanzó el modo ‘Crear’ en su aplicación Fotos para transformar fotos en videos cortos para usuarios estadounidenses. También hay otras plataformas más pequeñas que ofrecen convertir las fotos de los usuarios en videos de IA.
Las herramientas de inteligencia artificial se han utilizado durante años para mejorar los medios antiguos a través de un proceso llamado escala de IA: eliminar piezas borrosas, pixelación y grano para ofrecer una mejor producción. Si bien Genai ha hecho este proceso más rápido y más fácil, también permite a los usuarios transformar y manipular imágenes con herramientas avanzadas que pueden eliminar objetos y completar los espacios faltantes.
El salto en la tecnología viene con preguntas legales a considerar, ya que generalmente se requiere permiso antes de hacer ediciones significativas para una creación con derechos de autor. Además, los acertijos éticos también surgen cuando una persona manipula una foto con alguien que ya no está vivo. Significativamente, más usuarios deben considerar el impacto en los sujetos más vulnerables de la foto: los niños.
Derechos y seguridad de los niños en riesgo
Por ejemplo, los cibercriminales ahora pueden crear rápidamente videos de AI realistas de menores utilizando sus fotos disponibles públicamente con facilidad. En el pasado, Los delincuentes han atacado a menores al generar fotos desnudas sintéticas de ellos para extorsionar el dinero. Uno de esos casos en los Estados Unidos llevó a que un adolescente muriera por suicidio. Su familia no sabía que el niño estaba siendo acosado.
El abogado de protección de datos y especialista en IA Kleanthi Sardeli, que trabaja con la ONG NOYB, con sede en Viena, y defensores de los derechos digitales de los consumidores, dijo que convertir las imágenes fijas en videoclips podría hacerse por razones inocentes, pero que hay “serias implicaciones” que considerar también.
“Cuanto más bajas son las barreras para crear contenido realista, más también debemos pensar en la ética, el consentimiento y el contexto. Una foto puede convertirse en un video convincente sin el conocimiento o el consentimiento de la persona representada, aumentando el riesgo de infamaciones profundas, difamación y abuso”, dijo la Sra. Sardeli, y agregó que los riesgos multiplicados cuando estaban involucrados de los niños.
Explicó que, según las regulaciones de GDPR de la UE, los niños no pueden consentir legalmente para tal uso de sus datos personales, incluida su imagen, hasta que cumplan 16 años.
Aunque los expertos y los legisladores han pedido a las compañías de IA que apliquen fuertes barandillas para evitar que los chatbots de IA generen medios pornográficos altamente porno, la realidad es que muchos chatbots producen fácilmente contenido sexual. Además, las empresas de IA y sus jefes están promoviendo agresivamente su servicio. Por ejemplo, un video específico que el Sr. Musk compartió que promovió la capacidad de Grok Imagine representaba un clip de estilo fantasía de una mujer alada con muy poca ropa.
En Internet, mientras tanto, los sitios web atraen a los usuarios con videos porno transformados, con celebridades, e invitar a los usuarios a desnudarse digitalmente a las víctimas de su elección.
“Más allá de los peligros obvios, como CSAM (material de abuso sexual infantil), menos usos maliciosos, como animar la foto de un niño con fines publicitarios o de entretenimiento, también pueden poner en peligro la privacidad, la dignidad y la autonomía de los niños”, dijo la Sra. Sardeli.

Guardianes y barandillas
El hindú Comunicé a Google y XAI sobre las salvaguardas en su lugar en estas plataformas para restringir a los usuarios de convertir las fotos de los niños en videos, y si hay filtros de contenido para evitar que las fotos se conviertan en contenido pornográfico o material de abuso infantil.
Un portavoz de Google dijo que la compañía tomó en serio la seguridad infantil en línea y que la capacidad de foto a video en Google Photos podría usarse con solo dos indicaciones: “Movimientos sutiles” y “Me siento afortunado”.
Además, estos videos incluirían una marca de agua digital Synthid invisible, así como una marca de agua visual, dijo la compañía.
“Nuestras medidas de seguridad incluyen un extenso ‘equipo rojo’ para identificar y abordar proactivamente problemas potenciales, así como evaluaciones exhaustivas para comprender cómo se pueden utilizar las características y evitar el mal uso. También agradecemos los comentarios de los usuarios sobre los problemas, que utilizamos para realizar mejoras continuas en nuestros medidas de seguridad y la experiencia general. Tenemos políticas claras y términos de servicio sobre qué tipo de contenido permitimos y no permitimos GuardRails para evitar abusos, dicen los abuso de Google, dicen los spetessperseres de Google.

“Google Photos es un lugar para almacenar sus recuerdos y queremos que nuestros usuarios puedan usar sus divertidas herramientas creativas en fotos de sus amigos y familiares, incluidos sus hijos, al tiempo que priorizan la seguridad”, dijo la compañía.
XAI no respondió a una solicitud de una declaración.
En los Estados Unidos, el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC) ha destacado que está “profundamente preocupado” por cómo se estaba utilizando IA generativa para explotar sexualmente a los niños.
“En los últimos dos años, la ciberdiplina de NCMEC ha recibido más de 7,000 informes de explotación sexual infantil que involucra a GAI [Gen AI]y se espera que los números crezcan a medida que continuamos rastreando estas tendencias ”, declaró la organización en su sitio web.
Mientras tanto, la Sra. Sardeli señaló que las leyes existentes en la UE proporcionaban algunas salvaguardas, pero no fueron diseñadas específicamente con contenido de IA en mente. Esto significa que las leyes de protección infantil de la UE claramente prohíben el material explícito, pero son menos claros cuando se trata de medios sintéticos que no son abiertamente ilegales pero que aún son explotadores o dañinos, según ella.
En India, el Ministerio de Electrónica y la Tecnología de la Información (Meity) ha emitido avisos que requieren que las plataformas eliminen el contenido transformado (incluidos los profundos de IA), y especialmente si el contenido es gráfico o sexualmente abusivo. Además, Plataformas como Meta, Google y X han designado a los oficiales de quejas en la India para manejar las quejas planteadas por los usuarios afectados.
“Los proveedores de IA están comenzando a construir salvaguardas, como los sistemas de detección y los filtros de contenido, pero estos son desiguales en todas las plataformas y no siempre efectiva. La ley está rezagada de la tecnología. En particular, no existe un marco global integral que aborde el mal uso de las imágenes de los niños en Genai”, explicó la Sra. Sardeli.
“Se necesitan reglas más fuertes sobre el consentimiento, la transparencia y la responsabilidad, junto con los estándares técnicos que dificultan el mal uso de las fotos de los niños”.
Consejos de seguridad para convertir las fotos en videos de IA
No comparta fotos íntimas o sensibles con plataformas de IA generativas cuando intente convertirlas en videos, ya que puede renunciar a sus derechos de propiedad y uso sobre la imagen al hacerlo.
Es la mejor práctica convertir solo una foto en un video de IA si tiene el consentimiento informado de todos los que aparecen en la foto, así como al fotógrafo
No convierta las imágenes con derechos de autor o personales de otras personas en videos de IA, ya que esto puede llevar a que se tomen medidas legales contra usted
Si una foto tuya o de alguien que conoce se ha convertido en un video de IA sin consentimiento, informe el contenido a la plataforma tecnológica, así como al oficial de quejas asignado de la compañía en India, cuyo trabajo es asegurarse de que cumplan con las leyes indias
Si usted es padre o cuidador, abstenga de compartir fotos que presenten menores u otras personas vulnerables en plataformas públicas, ya que estas imágenes pueden ser robadas o mal utilizadas fácilmente por los ciberdelincuentes utilizando herramientas de IA
Evite usar plataformas de terceros para convertir las fotos personales en videos de IA, y especialmente si las imágenes presentan a los niños u otras personas vulnerables. En su lugar, opte por herramientas de IA de foto a video privadas o basadas en dispositivos por razones de seguridad
Tenga una discusión abierta con niños y adolescentes sobre los riesgos crecientes de AI Deepfakes, e insta a confiar en adultos de confianza o se acerca a la policía si alguna vez están atacados con imágenes transformadas de sí mismos.
















