Imagina un día de trabajo en el que tu tarea principal es buscar pelea con una computadora. Sin reuniones, sin correos electrónicos: solo tú, una silla y un chatbot con la enloquecedora tendencia a pensar que tiene la mente más inteligente de la sala.

El título de la obra por sí solo ya llama la atención: “AI bully”. Pero eso es precisamente lo que ofrece una startup de California llamada Memvid: 800 dólares para pasar ocho horas probando la paciencia y la memoria de la inteligencia artificial.

“Pasarás un día completo de ocho horas interactuando con los principales chatbots de IA, y tu único trabajo es ser brutalmente honesto acerca de lo frustrantes que son”, dijo la compañía. lista de trabajo estados.

El trabajo no requiere un título en informática ni habilidades especializadas en inteligencia artificial. El único requisito previo es tener un “extenso historial personal de decepción con la tecnología” y la paciencia para hacer la misma pregunta una y otra vez.

“La gente tiene que repetirse constantemente lo mismo en los chatbots. Queríamos convertir esta frustración diaria en algo visible”, dijo el cofundador y director ejecutivo de Memvid, Mohamed Omar.

El puesto casi parece una prueba de estrés tanto para el temperamento humano como para la inteligencia de las máquinas: se espera que los candidatos mantengan la conversación, revisen temas anteriores y obliguen suavemente a la IA a admitir cuando ha perdido el control, todo mientras graban todo para su análisis.

Está muy lejos de la codificación o la gestión de servidores; Se trata de un trabajo de detective basado en conversaciones, que sigue el rastro de los errores de un chatbot mientras olvida, finge o alucina.

Omar contado Business Insider que la empresa consideró esta tarea como una forma de resaltar el problema persistente en los chatbots de IA de muchos sistemas que pierden contexto con el tiempo.

“Toda IA ​​vive y respira en la memoria. Es el Santo Grial”, dijo. “Pero las soluciones de memoria de IA que estaban en el mercado en 2024, cuando comenzamos nuestro negocio, no eran confiables, lo que significaba que perderían el contexto y comenzarían a alucinar”.

El problema no hizo más que crecer en los años siguientes: un informe revisado por pares papelpresentado en la Conferencia Internacional sobre Representaciones del Aprendizaje (ICLR) de 2025, encontró que incluso los principales sistemas comerciales de IA sufrían una caída del 30% al 60% en la precisión cuando se les pedía que recordaran hechos en conversaciones sostenidas, quedando muy por detrás del desempeño humano.

Omar añadió que un recién graduado que solicitó el trabajo dijo que paga casi 300 dólares al mes por sus suscripciones a IA. Dijo que la persona escribió “una perorata sobre cómo enfrentaba problemas de memoria en cada plataforma de inteligencia artificial que usaba”.

Y añadió: “Muchas personas que solicitan esto son trabajadores del conocimiento que utilizan estos productos”.

La causa fundamental del problema, como afirman investigadores y analistas de la industria documentadoLo que pasa es que las empresas se han apresurado a conectar sus herramientas de inteligencia artificial a vastos depósitos de conocimiento, sólo para descubrir que los sistemas basados ​​en la recuperación pueden devolver respuestas seguras pero incorrectas más rápido que nunca, sin una forma confiable de indicar que lo están haciendo.

Cuando los sistemas de IA se implementan en el mundo real a gran escala, este error confiado puede causar daños graves: un guardián investigación Esta semana, el laboratorio de seguridad de IA Irregular descubrió que cuando a los agentes de IA se les asignaban tareas amplias pero benignas dentro de un entorno corporativo simulado, eludían los controles de seguridad, interactuaban con datos confidenciales y realizaban acciones potencialmente dañinas sin instrucción directa.

Es una cuestión con la que el mundo real lucha cada vez más. Damien Charlotin, un jurista francés, ha seguido cómo la profesión jurídica está experimentando un fuerte aumento de alucinaciones jurídicas impulsadas por la IA, informando que mientras antes de la primavera de 2025 había alrededor de dos incidentes por semana, en otoño ese número había aumentado a dos o tres por día.

También es un problema en la asistencia sanitaria. A principios de este mes, el Instituto ECRI colocó “resolver el dilema del diagnóstico de IA” en la parte superior de su lista anual de las 10 principales preocupaciones sobre la seguridad del paciente para 2026, advirtiendo que las deficiencias en el diagnóstico de IA corren el riesgo de reducir la vigilancia de los médicos, especialmente donde los marcos de supervisión aún no están establecidos.

Omar dijo que no tiene fecha límite para aceptar solicitudes, pero espera encontrar al candidato adecuado dentro de las próximas dos semanas.

La experiencia del “matón de IA”, aunque aparentemente divertida, hace visible lo que los usuarios de todo el mundo ya se están dando cuenta: que los sistemas de IA que son extremadamente capaces en muchos aspectos también pueden ser inconsistentes y poco confiables en otros. El trabajo paga $800 por un solo día. Pero los costos de no hacerlo podrían ser considerablemente mayores.

Fuente