Técnica

Panel parlamentario sugiere requisitos de licencia para creadores de contenido de IA

El Comité Parlamentario Permanente sobre Comunicaciones y Tecnología de la Información ha pedido al Gobierno que idee medidas legales y tecnológicas para identificar y enjuiciar a las personas y organizaciones que difunden dicho contenido. Imagen para la representación. | Crédito de la foto: Reuters

Un comité parlamentario ha recomendado que el gobierno explore la viabilidad de los requisitos de licencia para los creadores de contenido de IA y haga que el etiquetado de videos generados por IA y contenido sea obligatorio, como parte de los esfuerzos para combatir la propagación de noticias falsas.

El Comité Parlamentario Permanente sobre Comunicaciones y Tecnología de la Información, presidido por el diputado del Partido Bharatiya Janata, Nishikant Dubey, también solicitó al gobierno que idee medidas legales y tecnológicas para identificar y procesar a las personas y organizaciones que difunden dicho contenido.

El borrador del informe del comité fue presentado recientemente al orador de Lok Sabha, Om Birla, y se presentará en el Parlamento durante la próxima sesión. También pidió “una estrecha coordinación entre el Ministerio de Información y la Broadería, el Ministerio de Electrónica y la Tecnología de la Información (MEity) y otros ministerios y departamentos”.

Si bien las sugerencias del comité no son vinculantes, sus recomendaciones a menudo son aceptadas por el gobierno. El panel señaló que Meity ya ha constituido un organismo de nueve miembros para examinar los desafíos que surgen de “el tema de los profundos”.

Dos proyectos en curso a este respecto incluyen la detección falsa del habla utilizando un marco de aprendizaje profundo y el diseño y desarrollo del software para identificar videos e imágenes de Deepfake, dijo.

El informe observó que los avances en tecnología, particularmente en la IA, podrían proporcionar herramientas para abordar las preocupaciones sobre las noticias falsas. Sin embargo, los ministerios en cuestión habían transmitido que la IA, en su forma actual, no puede usarse para verificar los hechos, ya que se basa en la información preexistente disponible en línea. En cambio, la IA podría ayudar a señalar contenido potencialmente falso o engañoso para la revisión humana, dijo el comité.

“Las tecnologías de IA y aprendizaje automático (ML) se emplean cada vez más para mejorar la capacidad de detectar, verificar y evitar la propagación de la información errónea y la desinformación”, señaló el comité, y agregó que varios proyectos e iniciativas de investigación están explorando tales usos.

Llamando a las noticias falsas una “seria amenaza” para el orden público y el proceso democrático, el comité recomendó modificar las disposiciones penales, aumentar las multas y arreglar la responsabilidad. También favoreció la presencia obligatoria de mecanismos de verificación de hechos y parte del pueblo interno en todas las organizaciones de medios impresos, digitales y electrónicos.

Al mismo tiempo, enfatizó que tales medidas deberían evolucionar a través de la construcción de consenso entre los organismos de los medios y otras partes interesadas.

Fuente

Related Articles

Back to top button