Técnica

¿Qué es Woke Ai? Descifrar el último objetivo de la Casa Blanca.

El presidente Donald Trump dice que “Woke AI” es una amenaza apremiante para la verdad y pensamiento independiente. Los críticos dicen que su plan para combatir los llamados AI despertados representa una amenaza para la libertad de expresión y potencialmente viola la Primera Enmienda.

El término ha adquirido un nuevo significado desde el presidente describió el plan de acción de IA de la Casa Blanca El miércoles 23 de julio, parte de un impulso para asegurar el dominio estadounidense en el sector de inteligencia artificial de rápido crecimiento.

El Plan de Acción de IA informa a un trío de órdenes ejecutivas:

El plan de acción verifica bastantes elementos de la lista de deseos de la gran tecnología y toma prestado la reducción de “buscar la verdad” directamente de líderes de IA como Elon Musk. La Orden Ejecutiva sobre Woke AI también posiciona modelos en gran lenguaje con presuntamente inclinaciones liberales como un nuevo hombre de bogey de derecha.

Entonces, ¿qué se despierta ai? No es un término fácil de definir, y la respuesta depende completamente de a quién le pregunte. En respuesta a las preguntas de Mashable, un portavoz de la Casa Blanca nos señaló a este idioma en una hoja informativa emitida junto con la orden de AI Woke: “Salidas sesgadas de IA impulsadas por ideologías como la diversidad, la equidad y la inclusión (DEI) a costa de precisión”.

¿Qué es Woke Ai? Desempacar la definición de la Casa Blanca

Curiosamente, a excepción del título, el texto de la Orden Ejecutiva de Woke AI en realidad no usa este término. Y a pesar de que el orden contiene una sección de definiciones, el término en sí tampoco está claramente definido allí. (Es posible que “Woke AI” sea simplemente un concepto demasiado nebuloso para escribir en documentos legales reales). Sin embargo, la hoja informativa emitida por la Casa Blanca establece que los líderes gubernamentales solo deben adquirir “modelos de idiomas grandes (LLM) que se adhieren a ‘principios de IA imparciales’ definidos en el orden: la búsqueda de la verdad y la neutralidad ideológica”.

Y así es como la hoja de hechos define “la búsqueda de la verdad” y la “neutralidad ideológica”:

La búsqueda de la verdad significa que los LLM serán sinceros y priorizarán la precisión histórica, la investigación científica y la objetividad, y reconocen la incertidumbre en que la información confiable es incompleta o contradictoria.

La neutralidad ideológica significa que las LLM serán herramientas neutrales, no partidistas que no manipulan las respuestas a favor de los dogmas ideológicos como Dei, y que los desarrolladores no codificarán intencionalmente los juicios partidistas o ideológicos sobre los resultados de una LLM a menos que esos juicios se soliciten o sean fácilmente accesibles para el usuario final.

Entonces, parece que la Casa Blanca define que se despierta como AI como LLM que no son suficientemente buscadas por la verdad o ideológicamente neutrales. La orden ejecutiva también llama ejemplos específicos de sesgo potencial, que incluyen “teoría crítica de la raza, transgénero, sesgo inconsciente, interseccionalidad y racismo sistémico”. Obviamente, existe una disputa cultural sobre si esos sujetos (incluido el “transgénero”, que no es un término aceptado por personas transgénero) están inherentemente sesgados.

Críticamente, las compañías de inteligencia artificial que no cumplen con las pruebas de fuego de la Casa Blanca podrían ser bloqueadas de contratos federales lucrativos. Y debido a que el orden define las creencias políticas liberales populares, sin mencionar a un grupo completo de seres humanos, como inherentemente sesgadas, las compañías de IA pueden enfrentar presión para ajustar las entradas y salidas de sus modelos en consecuencia.

Velocidad de luz mashable

La administración Trump ha hablado de un gran juego sobre la libertad de expresión, pero los críticos del plan de acción dicen que esta orden es una gran amenaza para la libertad de expresión.

“La parte del plan de acción titulado ‘Asegurar que la IA fronteriza proteja la libertad de expresión y los valores estadounidenses’ parece estar motivada por el deseo de controlar qué información está disponible a través de herramientas de IA y puede proponer acciones que violen la primera enmienda”, dijo Kit Walsh, director de IA y proyectos legales de acceso a acceso al acceso a Fundación electrónica de fronteraen una declaración a Mashable. “La IA generativa implica los derechos de la Primera Enmienda de los usuarios a recibir información, y generalmente también refleja elecciones expresivas protegidas de los muchos seres humanos involucrados en la configuración de los mensajes que escribe la IA. El gobierno no puede dictar más qué ideas se transmiten a través de IA que a través de periódicos o sitios web”.

“El gobierno tiene más margen para decidir qué servicios compra para su propio uso, pero puede no usar este poder para castigar a un editor por poner a disposición los servicios de IA que transmiten ideas que el gobierno no le gusta”, dijo Walsh.

¿Boke AI es un problema real?

El presidente Trump ha dicho que Estados Unidos hará “lo que sea necesario” para ganar la carrera de IA.
Crédito: Kevin Dietsch/Getty Images

Una vez más, la respuesta depende completamente de dónde cae a lo largo de la línea de falla política, y el término “despertado” se ha vuelto controvertido en los últimos años.

Este adjetivo originado en la comunidad negradonde describió a las personas con una conciencia política de sesgo racial e injusticia. Más recientemente, muchos conservadores han comenzado a usar la palabra como insulto, un insulto para liberales supuestamente políticamente correctos.

En verdad, Ambos liberales y los conservadores están preocupados por el sesgo en modelos de gran lenguaje.

En noviembre de 2024, The Heritage Foundation, un grupo legal conservador, Organizó un panel en YouTube Sobre el tema de Woke Ai. Curt LeveyPresidente del Comité de Justicia, fue uno de los expertos del panel, y como abogado conservador que también ha trabajado en la industria de la inteligencia artificial, tenía una perspectiva única para compartir.

Creo que es interesante que tanto la izquierda como la derecha se quejen del peligro de sesgo en IA, pero están … centrados en cosas muy diferentes. La izquierda se centra principalmente en la idea de que los modelos de IA discriminan a varios grupos minoritarios cuando toman decisiones sobre la contratación, los préstamos, los montos de fianza, el reconocimiento facial. El derecho, por otro lado, está preocupado por el sesgo contra los puntos de vista conservadores y las personas en modelos de idiomas grandes como ChatGPT.

Elon Musk ha dejado en claro que piensa que los modelos de IA están heredando una mentalidad despertada de sus creadores, y que eso es un problema, aunque solo sea porque entra en conflicto con el ser, lo que él llama, la búsqueda de la verdad máxima. Musk dice que las empresas están enseñando a la IA a mentir en nombre de la corrección política.

Levey también dijo que si los LLM están parciales, eso no significa necesariamente que estuvieran “diseñados para ser sesgados”. Agregó que “los científicos que construyen estos modelos de IA generativos tienen que tomar decisiones sobre qué datos usar, y ya sabes, muchos de estos mismos científicos viven en áreas muy liberales como el Área de la Bahía de San Francisco, e incluso si no están tratando de hacer que el sistema sea sesgado, muy bien pueden tener Besis inconscientes cuando se trata de elegir datos”.

¿Un conservador que usa la frase “sesgo inconsciente” sin poner los ojos en blanco? Salvaje.

Los LLM tienen prejuicios porque tenemos prejuicios

Una persona posee un teléfono inteligente que muestra la página de introducción de Grok 4


Crédito: Cheng Xin/Getty Images

En última instancia, los modelos de IA reflejan los sesgos del contenido en los que están entrenados, por lo que reflejan nuestros propios prejuicios hacia nosotros. En este sentido, son como un espejo, excepto un espejo con un tendencia a alucinar.

Para cumplir con la Orden Ejecutiva, las compañías de IA podrían tratar de reducir las respuestas “sesgadas” de varias maneras. Primero, al controlar los datos utilizados para entrenar estos sistemas, pueden calibrar las salidas. También podrían usar las indicaciones del sistema, que son instrucciones de alto nivel que rigen todas las salidas del modelo.

Por supuesto, como Xai ha demostrado repetidamente, este último enfoque puede ser … problemático. Primero, el chatbot grok de Xai desarrolló un fijación en “Genocidio blanco en Sudáfrica” y más recientemente comenzó a llamarse mecha hitler. La transparencia podría proporcionar un control sobre los posibles abusos, y hay un movimiento creciente para obligar a las compañías de IA a divulgar los datos de entrenamiento y El sistema indica detrás de sus modelos.

Independientemente de cómo se sienta acerca de Woke AI, debe esperar escuchar el término mucho más en los próximos meses.

Fuente

Related Articles

Back to top button