tLa velocidad a la que la IA está transformando nuestras vidas es vertiginosa. A diferencia de revoluciones tecnológicas anteriores (la radio, la fisión nuclear o Internet), los gobiernos no están marcando el camino. Sabemos que la IA puede ser peligrosa; Los chatbots aconsejan a los adolescentes sobre el suicidio y es posible que pronto puedan instruirlos sobre cómo crear armas biológicas. Sin embargo, no existe nada equivalente a que la Administración Federal de Medicamentos pruebe nuevos modelos de seguridad antes de su lanzamiento al público. A diferencia de la industria nuclear, las empresas a menudo No es necesario que revele infracciones o accidentes peligrosos. La fuerza del lobby de la industria tecnológica, la polarización paralizante de Washington y la enorme complejidad de una tecnología tan poderosa y en rápida evolución han mantenido bajo control la regulación federal. Las autoridades europeas enfrentan resistencia a reglas que, según algunos, perjudican la competitividad del continente. Si bien varios estados de EE. UU. están probando leyes de inteligencia artificial, operan de manera provisional y fragmentada. Donald Trump lo intentó para invalidarlos.
Los jefes de plataformas de inteligencia artificial como ChatGPT de OpenAI y Gemini de Google dicen que se preocupan por la seguridad. Pero ser dueño del futuro de la IA significa invertir miles de millones en modelos que ni siquiera sus creadores entienden del todo, y tomar decisiones como agregar anuncios y capacidades que el Pentágono está desarrollando. ahora buscando antropica – que aumentan el riesgo. Anthropic, que se autodenomina la empresa de IA de vanguardia más concienzuda, dice tu modelo está capacitado para “imaginar cómo un empleado senior reflexivo de Anthropic” evaluaría la utilidad y el daño potencial. La directiva se hace eco de las críticas formuladas durante años a las empresas de Silicon Valley que han moldeado las vidas de los usuarios de todo el mundo desde salas de juntas aisladas. Los consumidores no creen que estén en buenas manos. El 77% de los estadounidenses encuestados el año pasado piensan que la IA podría representar una amenaza para la humanidad.
No estamos atrapados entre la esperanza ilusoria de una regulación gubernamental sólida y que las empresas más poderosas de la historia se controlen a sí mismas. Al menos hasta que los legisladores actúen, la supervisión independiente ofrece la posibilidad de decidir entre el potencial de la IA y sus peligros. Al adoptar una supervisión independiente, las empresas de IA pueden demostrar que se toman lo suficientemente en serio la confianza del público como para estar dispuestas a luchar por ella.
La lógica detrás de la supervisión independiente es simple. Independientemente de las buenas intenciones de los ejecutivos corporativos, sus deberes para con los accionistas e inversionistas moldean la forma en que abordan las compensaciones entre costos y seguridad, fomentando los ingresos y las ganancias. Si bien las consideraciones a largo plazo sobre la reputación corporativa, la lealtad del cliente y la ética pueden actuar como obstáculos, ganar la carrera de la IA requiere apetito por el riesgo. Cálculos tardíos sobre cómo las redes sociales pueden alimentar asesinatos, promover elecciones y dañar la salud mental de los jóvenes ilustran cómo el poder embriagador de la tecnología puede oscurecer las señales de advertencia intermitentes.
La supervisión independiente de la IA ofrece el potencial de descubrir, analizar y abordar sus riesgos, dando a los defensores y a las comunidades un poco más de control sobre cómo estas tecnologías rehacen la sociedad. Las redes sociales son un ejemplo. En 2020, perjudicado por acusaciones que ayudaron a alimentar La crisis rohingya en Myanmar, Meta (entonces Facebook) creó un consejo de supervisióncon la esperanza de sacar a la empresa del centro de atención. A principios del año siguiente, la empresa adoptó una política Comprometerse a seguir las leyes de derechos humanos.. Si bien el consejo, que ya lleva cinco años de existencia, no ha alcanzado lo que algunas personas esperaban que pudiera servir como un “tribunal supremo de Facebook”, su trayectoria ofrece lecciones importantes sobre las perspectivas de una supervisión independiente y efectiva de la IA y por qué es importante.
La supervisión requiere perspectivas diversas. Al igual que otras empresas de inteligencia artificial de vanguardia, Meta tiene usuarios en todos los continentes poblados. Decidir qué pueden y qué no pueden publicar de forma segura en un campus de Menlo Park ha dejado puntos ciegos y ha alimentado el resentimiento. La junta de supervisión de 21 miembros aporta un amplio conocimiento cultural y profesional para decidir cuestiones delicadas de moderación de contenidos (como si un vídeo violento debe compartirse como noticia o eliminarse como una afrenta a la dignidad de la víctima). El consejo, con miembros que Vivió en más de 27 países.incluye a conservadores y liberales, periodistas, juristas, un ex primer ministro de Dinamarca y un premio Nobel de la paz.
La junta de supervisión utiliza los propios “estándares comunitarios” de Meta para evaluar si las publicaciones violan las reglas, incluidas las prohibiciones contra la intimidación o el apoyo a terroristas. El consejo mantiene meta a su compromiso de respetar el derecho internacional de los derechos humanos, incluido el artículo 19 del Pacto Internacional de Derechos Civiles y Políticos, que consagra la libertad de expresión. Las empresas de IA deben asumir el mismo compromiso y establecer una supervisión para obligarlas a cumplirlo. A diferencia de la Primera Enmienda de Estados Unidos o del “derecho al olvido” en línea de la Unión Europea, el derecho de los derechos humanos ofrece una moneda común a través de las fronteras. Sus estándares proporcionan métodos de razonamiento para guiar las decisiones sobre la IA, como por ejemplo si la negativa de un robot a responder una pregunta niega injustificadamente el derecho de un usuario a la información o si la reutilización de los datos del usuario viola los derechos de privacidad.
La accesibilidad, la consulta y la transparencia son fundamentales. La junta de supervisión acepta apelaciones del público, anuncia los casos que decide revisar, invita a comentarios del público y convoca sesiones con expertos y comunidades relevantes. Ha emitido más de 200 decisionesy en opiniones escritas detalladas que han sido citadas por tribunales de todo el mundo.
Un organismo de supervisión voluntario es tan fuerte como los poderes que le otorga la empresa que lo creó. Si bien la junta de supervisión quiere poderes más amplios, le dio crédito a Meta por ir mucho más allá de las alegres juntas asesoras que otros actores tecnológicos han convocado y disuelto periódicamente. La junta de supervisión de Meta tiene jurisdicción para decidir si un contenido específico permanece activo o no, aunque usar esta autoridad sobre publicaciones individuales puede ser como apagar un incendio apagando brasas. Su impacto más trascendental radica en elegir casos emblemáticos de contenido erróneo, ofrecer públicamente razones para las decisiones y emitir recomendaciones a las que el Meta debe responder. Meta implementó el 75% de las más de 300 recomendaciones del consejo, según lo informado en diciembrelo que lleva a cambios significativos para miles de millones de usuarios.
Esto incluye proporcionar notificaciones sobre qué política supuestamente ha violado un usuario cuando el contenido desaparece, garantizar que los insultos retóricos y la sátira no se eliminen como amenazas y garantizar que la empresa aumente los recursos en crisis como desastres naturales y conflictos armados. El consejo también emite opiniones consultivas detalladas sobre cuestiones políticas más amplias, como el alcance de la indulgencia de Meta por violaciones de políticas por parte de carteles de alto perfil, o cuánta información errónea relacionada con Covid debería eliminarse a medida que la pandemia disminuye. Si bien la junta opera de forma independiente a la hora de tomar decisiones y recomendaciones, depende de Meta para obtener información crucial, como por ejemplo si las determinaciones de contenido específicas son realizadas por humanos o por automatización, y qué salió mal exactamente cuando el contenido se eliminó por error. Las empresas de IA tendrán que ofrecer al menos la misma visibilidad para que la supervisión tenga algún significado.
Como siempre, el dinero es importante. Meta periódicamente coloca los fondos de la junta de supervisión en un fondo fiduciario para que no se puedan recortar de la noche a la mañana. Pero unos recursos más diversificados y garantizados aumentarían la independencia de la junta. La supervisión de la tecnología de punta cuesta dinero. Requiere financiación para personal especializado que apoye el análisis y la toma de decisiones y consultores que aporten conocimientos culturales y lingüísticos específicos. Sin embargo, dados los cientos de miles de millones invertidos en IA, el precio de una supervisión incluso sólida es insignificante.
La IA se está apoderando de nuestras aulas, universidades y corporaciones. La supervisión independiente es lo mínimo que pueden hacer las empresas de IA para garantizar que, intencionalmente o no, no se apoderen también de nuestros derechos.
















