Mientras los mundos de las redes sociales y la inteligencia artificial chocan, la Junta de Supervisión de Meta está reconsiderando cómo cumplir mejor su función regulatoria.
La Meta Oversight Board es un organismo regulador externo independiente creado en 2018 para revisar las decisiones de moderación de contenido en Facebook, Instagram y Threads. El equipo global de 21 miembros actúa como un “Tribunal Supremo” y toma decisiones vinculantes, así como recomendaciones sugerentes cuando un usuario apela la decisión Meta original. Sudhir Krishnaswamy, jurista y académico, y el único indio en el consejo global, dijo que el enfoque basado en cuestiones de meses de duración por sí solo puede no ser suficiente en la era de la inteligencia artificial. resto del mundo.
“Siempre estamos tratando de reducir el tiempo dedicado y de hacer más cosas”, dijo Krishnaswamy. “Tal vez, debido al campo AGI, parte de nuestro trabajo dependerá menos de casos individuales y estará más estructurado. Esa es una posibilidad. Estamos muy abiertos a eso”.
de hecho, Siete veces 10 Las imágenes de las redes sociales son generadas por IA utilizando herramientas como Midjourney o DALL-E, y ocho de cada 10 recomendaciones de contenido se basan en IA. Casi la mitad Todo el contenido de las redes sociales para empresas será generado por IA en 2026. Al mismo tiempo, se crearán herramientas de IA. Dejar atrás Personas que no hablan inglés.
La pregunta clave ahora es si la junta de supervisión tiene la capacidad y el alcance regional para identificar daños sistémicos a escala y crear precedentes que realmente cambien las decisiones sobre productos y políticas, dice Rachel Adams, fundadora y directora ejecutiva de Centro Global para la Gobernanza de la Inteligencia Artificial y autor El nuevo imperio de la IA: el futuro de la desigualdad globalel dijo resto del mundo.
Lo que no funcionará es si ves algunos de los primeros tableros de seguridad de IA que crearon algunas de las grandes empresas: todos tienen tableros estadounidenses. Esto no funcionará.”
“Con el contenido generado por IA y la implementación y moderación impulsadas por la IA, ha aumentado el volumen, la velocidad y la naturaleza de los problemas en todos los idiomas para los cuales la Junta fue creada para monitorear y llevar a cabo la supervisión”, dijo Adams. “Esto requiere una junta más grande o una capacidad circundante más fuerte, en términos de investigación, mecanismos de asesoramiento regional y acción más rápida para situaciones urgentes”.
La Junta de Supervisión no es la primera línea de defensa. La moderación en las metaplataformas se produce tanto a nivel de máquina como de humano (y a veces en ambos). Los usuarios que no estén satisfechos con los resultados de la moderación pueden enviar una solicitud al consejo de administración externo independiente. No se abordarán todas las apelaciones, ya que la Junta sólo se ocupa de los casos que cree que tendrán el mayor impacto duradero. Además de los 21 miembros de la Junta Directiva, la Junta de Supervisión incluye personal de todo el mundo y depende de servicios de traducción profesional y sesiones informativas relacionadas con el contexto del país para tomar decisiones.
El proceso de la junta lleva varios meses, dada la necesidad de comentarios y matices del público. Incluso antes de la explosión de la IA tras el lanzamiento público de ChatGPT a finales de 2022, la junta recibió millones de solicitudes de casos y solo pudo manejar una pequeña fracción de ellas.
Krishnaswamy se da cuenta de que “el juego de velocidad debe automatizarse” en Meta. Como resultado, la Junta está abierta a hacer recomendaciones más amplias para solucionar las brechas en la tecnología.
La moderación automatizada no es nueva (ha sido la moderación mayoritaria en todas las plataformas desde que se estableció la Junta de Supervisión), pero las herramientas se han vuelto más sofisticadas con el tiempo, reconoció Krishnaswamy. Sin embargo, cuando se trata del contexto lingüístico, cultural y político, estas herramientas funcionan mal fuera de Occidente.
“Las máquinas mejoran en algunas áreas de la política y luego empeoran en otras”, dijo, y agregó que los modelos de moderación automatizados se han vuelto buenos para identificar desnudez de adultos, recopilar señales de contexto y ejecutar a escala, pero la desinformación, la desinformación y el discurso de odio siguen siendo “demasiado complejos” para las máquinas.
Algunos ejemplos del impacto global del Consejo:
- La junta directiva presionó a Meta para que pusiera fin a la prohibición total de palabra mártir (mártir), que en ocasiones utilizan los extremistas para glorificar o glorificar a las personas que murieron mientras cometían actos terroristas, porque muchos hablantes de árabe, urdu, persa, punjabi, bengalí e hindi lo utilizan en contextos muy diferentes.
- En un caso de Kenia, la junta anuló la decisión de Meta de eliminar un comentario relacionado con políticas, citando el uso de un insulto. La junta dictaminó que el término no era racialmente ofensivo sino que se utilizaba “para expresar crítica política”.
- Tras la intervención del Directorio, Meta se retractó de su decisión de remover Amenazas Quienes comentaron contra las autoridades en cuatro casos distintos (en Etiopía, Pakistán, Ucrania e Italia) admitieron que los comentarios no violaban la política de violencia e incitación y eran “expresiones retóricas de crítica, desprecio o rechazo en lugar de amenazas creíbles”.
Un resultado directo de la decisión del Consejo Estándares Servir a comunidades marginadas y subrepresentadas es solo eso Asume casos A nivel mundial, desde el África subsahariana hasta Oriente Medio y el sur de Asia. Estas poblaciones todavía están desatendidas por los grandes modelos lingüísticos, que son Son cada vez más utilizados Desarrollado por metaplataformas para una rápida moderación de contenido.
“Lo que no va a funcionar es si vemos algunos de los primeros consejos de seguridad de la IA que crearon algunas de las grandes empresas: tienen todos los consejos estadounidenses. Eso no va a funcionar”, dijo Krishnaswamy. “No funcionará en Türkiye, no funcionará en India y no funcionará en Somalia”.
El consejo, que conoció su primer caso en octubre de 2020, emitió hasta 200 decisiones y 320 recomendaciones, según sus decisiones. Evaluación de cinco años Fue publicado en diciembre de 2025. Meta ha implementado todas sus decisiones vinculantes y aproximadamente el 75% de sus recomendaciones.
Obviamente, Meta elimina o restablece publicaciones y cuentas según las decisiones de la junta directiva. Pero es difícil de rastrear Si Meta adopta otro tipo de recomendaciones. El consejo dice que sus llamados a desmitificar cómo funcionan ciertos algoritmos solo se han abordado parcialmente.
Surgirán situaciones complejas cuando las plataformas involucren a humanos y agentes.
Adams dijo que la junta está en mejor posición que la mayoría de los mecanismos de gobernanza privados porque tiene independencia y un marco de derechos humanos, pero la moderación de la IA en todas las plataformas de redes sociales es “gravemente desigual” en todo el mundo. Dijo que la mayoría mundial a menudo soporta el costo de esta disparidad, ya sea por no aplicar las reglas de moderación o por una comprensión limitada del contexto. Por ejemplo, según Aditya Vashishthajefe de la Iniciativa Global de Inteligencia Artificial de la Universidad de Cornell A menudo extraña Insultos relacionados con la discapacidad en hindi y Facebook No implementado El discurso de odio hacia el bengalí, uno de los idiomas más hablados del mundo, se clasifica desde 2020 como “mucho más tarde que los idiomas occidentales”.
Cada vez más, existe un entrelazamiento del espacio entre la IA generativa y las redes sociales, lo que exige responsabilidad. mientras Plataformas solo de proxy como Moltbot Por extremo que parezca, las plataformas de redes sociales ya ven coexistir a humanos, ayudados por clientes y agentes.
“Tendrá un equipo diverso de personas en las plataformas y tendrá cierto grado de dificultad para determinar cuál es el problema”, dijo Krishnaswamy. “Surgirán situaciones complejas cuando las plataformas compartan humanos y agentes”. “No tenemos un mandato sobre AGI, pero es algo que estamos tratando de entender”.
Adams dijo que además de abogados, periodistas y otras organizaciones de la sociedad civil, la junta debería considerar contratar evaluadores de IA; Sociolingüistas y especialistas en lenguas regionales; Expertos en seguridad infantil, violencia de género y acoso; Además de la experiencia laboral y el bienestar de los trabajadores –dada su continuidad– Costo humano Supervisar el contenido y revisar los canales.

















