Técnica

Meta supuestamente reemplazando a los humanos con IA para evaluar los riesgos de productos

Según la nueva revisión de documentos internos de NPR, Meta supuestamente planea reemplazar a los evaluadores de riesgos humanos con AIa medida que la compañía se acerca a la automatización completa.

Históricamente, Meta se ha basado en analistas humanos para evaluar los daños potenciales planteados por las nuevas tecnologías en sus plataformas, incluidas las actualizaciones del algoritmo y las características de seguridad, parte de un proceso conocido como revisiones de privacidad e integridad.

Pero en el futuro cercano, estas evaluaciones esenciales pueden ser tomadas por bots, ya que la compañía busca automatizar el 90 por ciento de este trabajo Uso de inteligencia artificial.

A pesar de afirmar previamente que AI solo se utilizaría para evaluar las versiones de “bajo riesgo”, Meta ahora está implementando el uso de la tecnología en decisiones sobre seguridad de IA, riesgo juvenil e integridad, que incluye información errónea y moderación de contenido violento, informó NPR. Según el nuevo sistema, los equipos de productos presentan cuestionarios y reciben decisiones y recomendaciones de riesgo instantáneo, y los ingenieros asumen mayores poderes de toma de decisiones.

Velocidad de luz mashable

Si bien la automatización puede acelerar las actualizaciones de aplicaciones y las liberaciones de desarrolladores en línea con los objetivos de eficiencia de Meta, los insidentes dicen que también puede representar un mayor riesgo para miles de millones de usuarios, incluidas amenazas innecesarias para la privacidad de los datos.

En abril, la junta de supervisión de Meta publicó un serie de decisiones Eso validó simultáneamente la postura de la compañía en permitir el discurso “controvertido” y reprendió al gigante tecnológico para sus políticas de moderación de contenido.

“A medida que estos cambios se están implementando a nivel mundial, la Junta enfatiza que ahora es esencial que Meta identifique y aborde impactos adversos en los derechos humanos que pueden resultar de ellos”, se lee en la decisión. “Esto debería incluir evaluar si reducir su dependencia de la detección automatizada de violaciones de políticas podría tener consecuencias desiguales a nivel mundial, especialmente en países que experimentan crisis actuales o recientes, como conflictos armados”.

A principios de ese mes, meta cerró su programa de verificación de hechos humanosreemplazándolo con notas comunitarias de origen público y dependiendo más de su algoritmo moderador de contenido, tecnología interna que se sabe que fallar y señalar incorrectamente información errónea y otras publicaciones que violan la compañía recientemente Políticas de contenido revisadas.

Fuente

Related Articles

Back to top button