En la búsqueda de décadas para resolver problemas sociales utilizando la tecnología, la inteligencia artificial es el último martillo. de educación y el empleo en la agricultura, la IA se presenta cada vez más como una solución a casi todos los desafíos.
en el libro IA de aceite de serpienteLos autores Arvind Narayanan y Sayash Kapoor comparan esta tendencia con el “aceite de serpiente” de principios del siglo XX, o productos comercializados como curas milagrosas. Inicialmente, las capacidades de la IA también parecen mágicas: con indicaciones simples, tareas como escribir correos electrónicos, resumir documentos o buscar información se pueden realizar en segundos, lo que aumenta drásticamente la productividad individual.
Pero sería negligente ignorar el verdadero potencial de la inteligencia artificial. Los datos económicos recientes en Estados Unidos sugieren que sus ganancias de productividad también son comenzó a ser visible A nivel macroeconómico. Si bien una mayor eficiencia y menores costos laborales estimularon a las empresas, el sector público también comenzó a verlo como una herramienta para abordar los problemas sociales.
Sin embargo, hay algo muy paradójico en depender de tecnología integrada. Desigualdad estructural Para abordar los problemas sociales. en Atlas de Inteligencia ArtificialLa autora Kate Crawford dijo que la inteligencia artificial no es un sistema neutral o puramente técnico, sino una vasta industria extractiva construida sobre… Recursos naturales, Trabajo humanoy sistemas de poder arraigados. Reproduce y a menudo amplifica las desigualdades históricas, incluidas las lógicas coloniales y capitalistas.
Estos sistemas son en sí mismos un producto de las desigualdades que pretenden aliviar.
Entonces, cuando se trata de IA, conviven dos hechos. Por un lado, existe un entusiasmo creciente por implementar la inteligencia artificial para abordar desafíos sociales apremiantes. Por otro lado, estos sistemas son en sí mismos producto de las desigualdades que pretenden aliviar. Esta tensión plantea una pregunta importante: ¿puede la inteligencia artificial hacer esto? Contribuir significativamente ¿Para resolver problemas sociales, especialmente para las comunidades desfavorecidas que han sufrido durante mucho tiempo la extracción y la marginación? Si es así, ¿qué se necesitará? Sistemas de diseño ¿Que no es mera actuación, sino basada en lo real, responsable y útil?
Examinamos ocho sistemas de IA implementados para abordar problemas sociales en todo el mundo en desarrollo. Lo que destacó no fue la tecnología, sino la densa red de personas que trabajan a su alrededor. Para que estos sistemas funcionen han participado tecnólogos, profesionales de la industria, burócratas y trabajadores de primera línea. En cada caso, la diferencia entre los sistemas que fallaron y los que resultaron útiles tuvo menos que ver con la complejidad de los modelos de IA y más con la fuerza y resistencia de esta infraestructura humana. Destacamos cuatro de estos casos.
Shiksha es el copiloto.desarrollado por Microsoft Research India, es una herramienta de planificación de lecciones basada en inteligencia artificial para ayudar a los docentes del país. A través de nuestras visitas a las escuelas, surgió un patrón claro: en las escuelas con infraestructura adecuada, apoyo administrativo dedicado y liderazgo empoderador, los maestros tenían el ancho de banda para experimentar con la herramienta y usarla para mejorar significativamente la planificación de lecciones, explorar nuevas formas de organizar el contenido e involucrar a los estudiantes.
En entornos más restrictivos, donde los docentes estaban sobrecargados con tareas administrativas, requisitos de documentación y mala gobernanza, utilizaban la misma herramienta de IA. Generar planes de lecciones rápidamente para completar el trabajo de presentación de informes más rápido en lugar de mejorar sus métodos de enseñanza. El contraste fue asombroso. La variación en los resultados no fue impulsada por la tecnología en sí, sino por las condiciones institucionales y los sistemas de apoyo humano que la rodean.
Adoptar la IA es sólo una parte del desafío. Un problema más profundo radica en las limitaciones de los propios modelos, especialmente en el mundo en desarrollo. Los sistemas de IA a menudo funcionan mal Lenguas no occidentalesreproducen sesgos incorporados en sus datos de entrenamiento y reflejan suposiciones centradas en Occidente. Esto a menudo resulta en lagunas significativas en el conocimiento local, ya que los modelos luchan por capturar las prácticas existentes, los matices lingüísticos o la información de base cultural.
Esto quedó claramente demostrado en com.FarmerChat,Asistente de IA para agricultura. El sistema a menudo malinterpreta términos agrícolas clave debido a diferencias dialectales. En un caso, estaba confundido masoor (un tipo de lenteja) con champiñones, lo que llevó a un consejo que no sólo era incorrecto, sino potencialmente dañino. Tales fallas rara vez aparecen en los estándares estándar, que tienden a pasar por alto el vocabulario específico de una cultura y la diversidad lingüística del mundo real. Abordar estas brechas requiere una estrecha colaboración con el personal de campo para diseñar enfoques de evaluación basados en la terminología agrícola y la diversidad dialectal. Patrones lingüísticos regionales. Fundamentalmente, este trabajo se basó en personas integradas en el contexto que podían reconocer, diagnosticar y corregir estas fallas.
Mantenga a los humanos informados
Una de las razones por las que los sistemas de IA son tan útiles es su capacidad para responder a muchos tipos diferentes de preguntas, a diferencia de los sistemas de software tradicionales basados en reglas. Pero esta habilidad también lo hace impredecible. Dado que los modelos de IA a veces pueden generar respuestas incorrectas o engañosas, se requieren acciones preventivas.
En la práctica, esto a menudo significaba mantener informados a los humanos. en CatarataBotun asistente de recuperación postoperatoria basado en WhatsApp en India, donde cada mensaje generado por IA ha sido verificado por un médico antes de ser enviado, para evitar el riesgo de alucinaciones o consejos médicos incorrectos. El sistema funcionó porque cada paciente fue asignado a un médico específico que se encargaba de revisar y enviar respuestas rápidamente.
Sin embargo, con Ashbotun chatbot para trabajadores sanitarios comunitarios en India, cuando la IA no puede responder una pregunta, la consulta se reenvía a varios moderadores. Sin una sola persona responsable de responder, los supervisores a menudo no respondieron de manera oportuna y los trabajadores de ASHA enfrentaron demoras e incertidumbre.
La diferencia entre los dos sistemas no era la IA en sí, sino la estructura de apoyo humano que la rodea. En todos los despliegues, los sistemas de IA sólo funcionaron cuando los sistemas humanos que los rodeaban ya funcionaban bien. Esta observación parece casi de sentido común. Los trabajadores que ya están muy estresados no pueden cambiar repentinamente sus prácticas sólo por la introducción de una herramienta de inteligencia artificial. En el mejor de los casos, la herramienta les ayuda a completar las tareas actuales un poco más rápido.
Los sistemas de IA sólo funcionaron cuando los sistemas humanos que los rodeaban ya funcionaban bien.
Aquí es donde la promesa de la IA parece más complicada. La IA a menudo se presenta como una herramienta para lograr eficiencia, pero la eficiencia por sí sola no la mejora Sistemas públicos Sin mejorar la capacidad básica. Incluso cuando las tareas se completan más rápido, las limitaciones más profundas del sistema no desaparecen automáticamente. En muchos casos, la IA acaba tratando los síntomas de estos problemas en lugar de sus causas. Esto es consistente con el argumento de Kentaro Toyama. Herejía frikiSugiere que la tecnología sólo puede amplificar, en lugar de reemplazar, las capacidades humanas e institucionales existentes. La inteligencia artificial no es una excepción, a pesar de su notable complejidad.
Esto no significa que la IA no pueda ser útil. Los casos que estudiamos mostraron cómo las organizaciones aprovecharon el potencial de las tecnologías de IA y al mismo tiempo trabajaron para superar sus deficiencias. Sistemas como ASHABot, CataractBot y FarmerChat han hecho que el conocimiento sea más accesible y Shiksha Copilot ha reducido la carga de trabajo de los profesores al tiempo que mejora sus habilidades pedagógicas. Estos ejemplos demuestran lo útiles que pueden ser los sistemas de IA cuando se cuenta con las estructuras de apoyo adecuadas. A pesar de la historia y la infraestructura de explotación detrás de muchas tecnologías de IA, aún brindan oportunidades, si es que existen. Cuidadosamente diseñado Apoyar sistemas que ya tienen bases humanas sólidas.
La oportunidad está en reconocer esta realidad. La inteligencia artificial por sí sola no resolverá los problemas sociales, por muy buenos que sean los modelos, e incluso si lo son soberanía. Pero si las organizaciones invierten en las personas, los procesos y las condiciones laborales que respaldan estos sistemas, la IA puede ayudar a amplificar estos esfuerzos. Pero en ausencia de esta base, la IA seguirá siendo lo que a menudo se ha convertido: una cortina de humo tecnológica para un declive institucional más profundo.















