Las plataformas deben actuar por orden gubernamental o judicial en un plazo de tres horas en lugar de 36 horas, según una notificación en el boletín oficial del Ministerio de Electrónica y TI. Archivo | Crédito de la foto: Reuters
El martes (10 de febrero de 2026), el gobierno impuso obligaciones más estrictas a las plataformas en línea en el manejo de contenido sintético y generado por IA, incluidos los deepfakes, diciendo que plataformas como X e Instagram deben eliminar cualquier contenido señalado por una autoridad competente o por los tribunales en un plazo de tres horas.
El gobierno ha notificado enmiendas a las Reglas de Tecnología de la Información (Pautas para Intermediarios y Código de Ética de Medios Digitales) de 2021, que definen formalmente el contenido sintético y generado por IA. Las nuevas reglas entrarán en vigor a partir del 20 de febrero de 2026.
Los cambios definen “información de audio, visual o audiovisual” e “información generada sintéticamente”, que cubre contenido creado o alterado por IA que parece real o auténtico. La edición de rutina, las mejoras de accesibilidad y el trabajo educativo o de diseño genuino están excluidos de esta definición.
Los principales cambios incluyen tratar el contenido sintético como “información”. El contenido generado por IA se tratará de la misma manera que otra información para determinar actos ilegales de acuerdo con las normas de TI.
Las plataformas deben actuar según órdenes gubernamentales o judiciales en un plazo de tres horas en lugar de 36 horas, según una notificación en el boletín publicado por el Ministerio de Electrónica y Tecnología de la Información (MeitY).
También se han reducido los plazos para atender las reclamaciones de los usuarios.
Las reglas exigen un etiquetado obligatorio del contenido de IA. Las plataformas que permiten la creación o el intercambio de contenido sintético deben garantizar que dicho contenido esté etiquetado de manera clara y destacada e integrado con metadatos o identificadores permanentes siempre que sea técnicamente posible, dijo.
Al pedir la prohibición del contenido ilegal de IA, dijo que las plataformas deben implementar herramientas automatizadas para evitar el contenido de IA que sea ilegal, engañoso, no consensuado o esté relacionado con documentos falsos, material de abuso infantil, explosivos o suplantaciones.
Los intermediarios no pueden permitir la eliminación o supresión de etiquetas o metadatos de IA una vez aplicados, dijo.
Publicado – 10 de febrero de 2026, 7:32 p. m. IST















