Las Reglas de Enmienda de Tecnología de la Información (Directrices para Intermediarios y Código de Ética de Medios Digitales) de 2026 exigen que las plataformas de redes sociales etiqueten de manera “prominente” el contenido “generado sintéticamente” o las imágenes y videos generados por IA. Imagen utilizada únicamente para representación. | Crédito de la foto: Reuters
La historia hasta ahora: El Ministerio de Electrónica y Tecnología de la Información (MeitY) notificó a principios de esta semana una enmienda a las Reglas de TI de 2021, que requeriría que los usuarios y las plataformas de redes sociales etiqueten el contenido generado por IA y ajustaría los plazos de eliminación para todo el contenido, no solo las publicaciones generadas por IA, de 24 a 36 horas a dos o tres horas. Las reglas entrarán en vigor el 20 de febrero.
Lea también | El Ministerio de TI exige una etiqueta para el contenido generado por IA y reduce el tiempo de eliminación a 2 o 3 horas
¿Qué pasa con el contenido generado por IA?
Las Reglas de Enmienda de Tecnología de la Información (Directrices para Intermediarios y Código de Ética de Medios Digitales) de 2026 exigen que las plataformas de redes sociales etiqueten de manera “prominente” el contenido “generado sintéticamente” o las imágenes y videos generados por IA. El requisito se propuso por primera vez en octubre del año pasado y se notificó esta semana. Las plataformas de redes sociales con más de cinco millones de usuarios deben obtener una “declaración de usuario”. [for AI-generated content] y [conduct] control técnico antes de publicar [AI-generated content]”.
MeitY dijo en un documento explicativo que este requisito se introdujo para combatir “los deepfakes, la desinformación y otros contenidos ilegales capaces de engañar a los usuarios, causarles daño, violar la privacidad o amenazar la integridad nacional”, y que era importante que los usuarios fueran conscientes si lo que estaban viendo no era auténtico.
El borrador de octubre de definición de “Información generada sintéticamente” (SGI) era más amplio y cubría cualquier contenido audiovisual modificado o generado por IA. Las reglas finales establecen algunas exenciones: por ejemplo, las fotos en las que se hace clic en los teléfonos inteligentes y se retocan automáticamente con la aplicación de la cámara no se considerarán SGI, y los efectos especiales en las películas no se considerarán algo que deba etiquetarse. Las reglas también prohíben ciertos tipos de SGI: material de explotación y abuso sexual infantil, documentos falsos, información sobre el desarrollo de explosivos y deepfakes que representan falsamente a una persona real.
Lea también | Las reglas de etiquetado de IA están en etapa de finalización, dice el secretario de TI, S. Krishnan
¿Cómo se puede detectar el contenido generado por IA?
El gobierno pidió a las grandes plataformas que “implementen medidas técnicas razonables y apropiadas para prevenir los SIG ilegales y garantizar requisitos de etiquetado/procedencia/identificación para los SIG permitidos”. Un alto funcionario del Ministerio de TI argumentó que las grandes plataformas tienen herramientas sofisticadas para detectar SGI y que este requisito sólo les exige llevar a cabo la detección que ya están haciendo. Además, algunas empresas y plataformas de IA han participado en la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), que ofrece estándares técnicos para etiquetar de forma invisible el contenido generado por IA de manera que otras plataformas puedan leerlo si falla la detección basada en IA. Las reglas aluden a este esfuerzo al exigir “requisitos de procedencia/identificación”, pero el funcionario dijo que no quieren respaldar ningún esfuerzo en particular, pero sí les gustaría formalizar los objetivos de tales colaboraciones.
Lea también | Las nuevas directrices de gobernanza de la IA de la India impulsan un enfoque de no intervención
¿Cómo han cambiado los límites de tiempo?
Las Reglas de TI permiten que algunas autoridades gubernamentales y policiales emitan avisos de eliminación según la Regla 3(1)(b), y que los usuarios presenten quejas por categorías “ilegales” de contenido enumeradas en las Reglas de TI. Estas categorías incluyen desinformación, desnudez y amenazas a la soberanía. Para los avisos de eliminación emitidos por el gobierno y los tribunales, los plazos se han reducido de 2 a 3 horas, mientras que para todas las demás categorías de quejas de usuarios (como difamación y desinformación), los plazos de respuesta se han reducido de dos semanas a una semana. Los plazos para responder a los informes de los usuarios (según la Regla 3(2)(b)) sobre contenido “sensible” también se han reducido de 72 horas a 36 horas. El gobierno argumentó que los límites anteriores permitían que se causaran demasiados daños incluso dentro de estos plazos, lo que requería una revisión del tiempo que tienen las plataformas para actuar.
EDITORIAL | Demasiado falso para ser bueno: en imágenes generadas por IA, etiquetado
¿Qué otros cambios se hicieron?
Los usuarios ahora tendrán que recibir recordatorios de los términos y condiciones de las plataformas con mayor frecuencia. “Los cambios incluyen revisiones a la Regla 3 (1) (c) de las Reglas Intermediarias, aumentando la frecuencia de las notificaciones a los usuarios de una vez al año a al menos una vez cada tres (3) meses, y ampliando el contenido de dichas notificaciones para aclarar las posibles consecuencias del incumplimiento y las obligaciones de presentación de informes”, dijo JSA Advocates and Solicitors en un análisis.
Las reglas también requieren que las plataformas adviertan específicamente a los usuarios que los deepfakes dañinos y otros contenidos ilegales generados por IA pueden exponerlos a acciones legales, incluida la divulgación de su identidad a las agencias de aplicación de la ley y “deshabilitar inmediatamente el acceso o eliminar dicho contenido, suspender o cancelar cuentas de usuario”, dijo la JSA en su análisis.
Publicado – 15 de febrero de 2026, 02:20 am IST

















