Cuando era pequeña, no había nada más aterrador que un extraño.
A finales de los 80 y principios de los 90, nuestros padres, los especiales de televisión y los maestros les decían a los niños que había extraños que querían hacernos daño. “Stranger Danger” estaba en todas partes. Fue una lección bien intencionada, pero el riesgo fue exagerado: La mayor parte del abuso y la explotación infantil son perpetrados por personas que los niños conocen.. Es mucho más raro que extraños abusen o exploten a niños.
Más raro, pero no imposible. Lo sé porque fui explotada sexualmente por extraños.
Desde los cinco hasta los 13 años fui actor infantil. Y aunque últimamente hemos escuchado muchas historias de terror sobre los abusos que les sucedieron a los niños actores detrás de escena, siempre me sentí seguro mientras filmaba. Los sets de filmación eran espacios altamente regulados donde la gente quería trabajar. Tuve padres que me apoyaban y estaba rodeado de directores, actores y profesores de estudio que entendían y se preocupaban por los niños.
La única manera de mostrar el negocio. lo hizo Ponerme en peligro era exponerme a los ojos del público. Cualquier crueldad y explotación que recibí como niño actor estaba en manos del público.
“Hollywood te tira a la piscina”, siempre le digo a la gente, “pero es el público el que te mantiene la cabeza bajo el agua”.
Incluso antes de estar en la escuela secundaria, mi imagen se había utilizado para material de abuso sexual infantil (CSAM). Aparecí en sitios fetichistas y porno retocado con Photoshop. Hombres adultos me enviaron cartas aterradoras. No era una chica bonita (mi extraña edad duró entre los 10 y los 25 años) y actué casi exclusivamente en películas familiares. Pero yo era una figura pública, por lo que era accesible. Eso es lo que buscan los depredadores sexuales infantiles: acceso. Y nada me ha hecho más accesible que Internet.
No importaba que estas imágenes “no fueran mías” o que los sitios fetichistas fueran “técnicamente” legales. Fue una experiencia dolorosa y violenta; una pesadilla viviente que esperaba que ningún otro niño tuviera que pasar. Cuando me hice adulto, me preocupé por los otros niños que me seguían. ¿Les estaban sucediendo cosas similares a las estrellas de Disney, al elenco de Strangers Things, a los preadolescentes que bailaban en TikTok y sonreían en los canales familiares de vloggers de YouTube? No estaba seguro de querer saber la respuesta.
Cuando la IA generativa empezó a crecer hace unos años, temí lo peor. Había escuchado historias sobre “deepfakes” y sabía que la tecnología se estaba volviendo exponencialmente más realista.
Entonces sucedió, o al menos el mundo se dio cuenta de que había sucedido. La IA generativa se ha utilizado muchas veces Crear imágenes sexualizadas de mujeres adultas sin su consentimiento. Les pasó a mis amigos. Pero recientemente se informó que la herramienta de inteligencia artificial de X, Grok, se usó abiertamente. para generar imágenes desnudas de un actor menor de edad. Semanas antes, una niña fue expulsada de la escuela por golpear a un compañero que supuestamente le hizo porno falso. según los abogados de su familia. Ella tenía 13 años, más o menos la misma edad que yo tenía cuando la gente creaba imágenes sexualizadas falsas de mí.
En julio de 2024, La Internet Watch Foundation encontró más de 3500 imágenes de CSAM generadas por IA en un foro de la web oscura.. ¿Cuántos miles más se han fabricado en el año y medio transcurrido desde entonces?
La IA generativa ha reinventado Stranger Danger. Y esta vez el miedo está justificado. Ahora es infinitamente más fácil que cualquier niño cuyo rostro haya sido publicado en Internet sea explotado sexualmente. Millones de niños podrían verse obligados a vivir mi misma pesadilla.
Para detener la amenaza de un apocalipsis deepfake, debemos observar cómo se entrena la IA.
La IA generativa “aprende” a través de un proceso repetido de “mirar, crear, comparar, actualizar, repetir”, dice Patrick LaVictoire, matemático y ex investigador de seguridad de IA. Crea modelos basados en cosas que ha memorizado, pero no puede memorizar todo, por lo que tiene que buscar patrones y basar sus respuestas en eso. “Se refuerza una conexión útil”, afirma LaVictoire. “Se poda lo que es menos útil o activamente inútil”.
Lo que la IA generativa puede crear depende de los materiales con los que se entrenó la IA. UNO estudiar en la universidad de stanford en 2023 mostró que uno de los conjuntos de datos de entrenamiento más populares ya contenía más de 1000 instancias de CSAM. Los enlaces a CSAM desde entonces han sido eliminados del conjunto de datospero los investigadores enfatizaron que otra amenaza es el CSAM realizado al combinar imágenes de niños con imágenes pornográficas, lo cual es posible si ambas están en los datos de entrenamiento.
Google y AbiertoAI afirman contar con salvaguardias para protegerse contra la creación de CSAM: por ejemplo, teniendo cuidado con los datos que utilizan para entrenar sus plataformas de IA. (También vale la pena señalar que a muchos actores de películas para adultos y trabajadores sexuales se les han borrado las imágenes para utilizarlas en aplicaciones de I.A. sin tu consentimiento.)
La IA generativa en sí misma, dice LaVictoire, no tiene forma de distinguir entre órdenes inocuas y tontas, como “haz una foto de un samurái Jedi” y órdenes dañinas, como “desnuda a esta celebridad”. Por tanto, otra protección incorpora un tipo diferente de IA que actúa de forma similar a un filtro de spam, lo que puede impedir que se respondan estas preguntas. xAI, que ejecuta Grok, parece haber sido descuidado con este filtro.
Y lo peor puede estar aún por llegar: meta y otras empresas propuso que los futuros modelos de IA sean de código abierto. “Código abierto” significa que cualquiera puede acceder al código que hay detrás, descargarlo y editarlo como quiera. Lo que suele ser maravilloso del software de código abierto (la libertad que ofrece a los usuarios para crear cosas nuevas, priorizando la creatividad y la colaboración sobre las ganancias) puede ser un desastre para la seguridad de los niños.
Una vez que alguien descargara una plataforma de inteligencia artificial de código abierto y la hiciera suya, no habría salvaguardas ni ningún robot de inteligencia artificial que dijera que no podría ayudar con su solicitud. Cualquiera podría “modificar” su propio generador de imágenes personal utilizando imágenes explícitas o ilegales y crear su propio generador infinito de CSAM y “porno de venganza”.
El objetivo parece tener ha renunciado a hacer que sus últimas plataformas de inteligencia artificial sean de código abierto. Quizás Mark Zuckerberg recordó esto quiere ser como el emperador romano Augustoy que si continuaba por este camino, sería mejor recordado como el Oppenheimer de CSAM.
Algunos países ya están luchando contra esto. China fue la primera en promulgar una ley que exige que el contenido de IA esté etiquetado como tal. Dinamarca está trabajando en una legislación que otorgaría a los ciudadanos derechos de autor sobre su apariencia y sus voces, e impondría multas a las plataformas de inteligencia artificial que no los respeten. En otras partes de Europa, y en el Reino UnidoLas imágenes de personas pueden estar protegidas por el Reglamento General de Protección de Datos (GDPR).
El panorama en Estados Unidos parece mucho más sombrío. Los reclamos de derechos de autor no ayudarán, porque cuando un usuario sube una imagen a una plataforma, puede usarla como mejor le parezca; está en casi todos los acuerdos de Términos de servicio. Con Órdenes ejecutivas contra la regulación de la IA generativa y empresas como xAI firmar contratos con el ejército estadounidenseEl gobierno de Estados Unidos ha demostrado que ganar dinero con la IA es mucho más importante que mantener seguros a los ciudadanos.
Allá él tiene Ha habido algunas leyes recientes “que consideran que gran parte de esta manipulación digital es criminal”, dice Akiva Cohen, un litigante de la ciudad de Nueva York. “Pero también, muchos de estos estatutos son probablemente demasiado restrictivos en términos de qué cubren exactamente.
Por ejemplo, aunque hacer un deepfake de alguien que lo haga parecer desnudo o involucrado en un acto sexual podría ser motivo de cargos penales, usar IA para poner a una mujer (y probablemente incluso a una menor de edad) en bikini probablemente no lo sería.
“Mucho de esto se queda conscientemente en el lado ‘horrible pero genial’ de la línea”, dice Cohen.
Puede que no sea un delito, es decir, un delito contra el Estado, pero Cohen sostiene que podría ser una responsabilidad civil, una violación de los derechos de otra persona, por la que la víctima exige restitución. Sugiere que esto cae bajo un “luz falsainvasión de la privacidad”, un agravio civil en el que se hacen acusaciones ofensivas sobre una persona, mostrándola bajo una luz falsa, “retratando a alguien de una manera que muestra que está haciendo algo que no hizo”.
“La forma en que realmente se puede detener este tipo de conducta es imponer responsabilidad a los empresas quienes lo permiten”, dice Cohen.
Existe un precedente legal para esto: el Ley de aumento en Nueva York, y Proyecto de ley del Senado 53 En California, dicen que las empresas de IA pueden ser consideradas responsables del daño que causan después de cierto punto. X, mientras tanto, ahora bloqueará a Grok de crear imágenes sexualizadas de personas reales en la plataforma. Pero esto Parece que el cambio de política no se aplica a la aplicación Grok independiente.
Pero Josh Saviano, ex abogado de Nueva York y ex actor infantil, cree que es necesario tomar medidas más inmediatas más allá de la legislación.
“Los esfuerzos de lobby y nuestros tribunales serán, en última instancia, la forma en que se maneje esto”, dice Saviano. “Pero hasta que eso suceda, hay dos opciones: abstenerse por completo, lo que significa eliminar toda su huella digital de Internet… o necesita encontrar una solución tecnológica”.
Garantizar la seguridad de los jóvenes es de suma importancia para Saviano, quien ha conocido a personas que los han falsificado. y, como ex niño actor, sabe un poco sobre perder el control. de la narrativa misma. Saviano y su equipo están trabajando en una herramienta que puede detectar y notificar a las personas cuando se copian sus imágenes o su trabajo creativo. El lema del equipo, dice, es: “Proteger a los bebés”.
Independientemente de cómo pueda suceder esto, creo que protegerse contra esta amenaza requerirá mucho esfuerzo por parte del público.
Muchos están empezando a sentir afinidad por sus chatbots de IA, pero para la mayoría de las personas, las empresas de tecnología no son más que servicios públicos. Puede que prefiramos una aplicación sobre otra por motivos personales o políticos, pero pocos sienten una fuerte lealtad hacia las marcas tecnológicas. Las empresas de tecnología, y especialmente las plataformas de redes sociales como Meta y incógnitaHaríamos bien en recordar que son un medio para lograr un fin. Y si alguien como yo –que ha estado en Twitter todo el día, todos los días, durante más de una década– puede dejarlo, cualquiera puede hacerlo.
Pero los boicots no son suficientes. Necesitamos ser nosotros quienes exijamos que las empresas que permiten la creación de CSAM rindan cuentas. Necesitamos exigir legislación y salvaguardias tecnológicas. También debemos examinar nuestras propias acciones: nadie quiere pensar que si comparten fotos de sus hijos, esas imágenes podrían terminar en CSAM. Pero es un riesgo del que los padres deben proteger a sus hijos pequeños y advertirles a sus hijos mayores.
Si nuestra obsesión con Stranger Danger ha demostrado algo, es que la mayoría de nosotros queremos evitar el peligro y el acoso infantil. Es hora de demostrarlo.














