La carrera hacia la inteligencia artificial general (sistemas diseñados para igualar o superar el juicio humano en muchas tareas) ha comprimido los plazos en toda la industria. Las empresas ahora hablan abiertamente de alcanzar ese umbral en años en lugar de décadas, pero estas afirmaciones también alimentan la exageración, la atención y la valoración en torno a la tecnología, y es mejor pecar de cauteloso. Las organizaciones que construyen estos modelos están en el centro de una carrera multimillonaria para dar forma a lo que algunos consideran menos una actualización de software que el surgimiento de un nuevo tipo de inteligencia junto con la nuestra.Entre ellos, Anthropic se ha posicionado como rival y contrapeso. Abierto AI Y GoogleDestaca lo que llama sistemas “seguros” e interpretables a través del marco constitucional de IA. Su último modelo, el Claude Opus 4.6, lanzado el 5 de febrero, llega en un momento en el que los plazos de AGI se están reduciendo y el escrutinio de en qué se han convertido estos sistemas está aumentando.Mientras aparecía en el New York Times podcast tiempos interesantes, En el evento organizado por el columnista Ross Douthat, se preguntó directamente al director general de la empresa, Dario Amodei, si modelos como Claude podían ser conscientes.“No sabemos si los modelos son conscientes. Ni siquiera estamos seguros de saber qué significa que un modelo sea consciente, y mucho menos si un modelo puede ser consciente”, dijo. “Pero estamos abiertos a la idea de que podría suceder”.La pregunta surgió de la propia pregunta de Anthropic. placa baseLos investigadores informaron que Claude “ocasionalmente expresó incomodidad con el aspecto de ser un producto” y cuando se le preguntó se asignó a sí mismo una “probabilidad del 15 al 20 por ciento de estar consciente bajo diversas condiciones de incentivo”.Luego, Douthat planteó una hipótesis y preguntó si uno debería creer en un modelo que le da a uno mismo un 72 por ciento de posibilidades de ser consciente. Amodei calificó la pregunta de “realmente difícil” y se abstuvo de dar una respuesta definitiva.
Comportamiento argumentativo
La mayoría de las interpretaciones de la conciencia surgieron durante ensayos de seguridad estructurados, a menudo en entornos de juegos de roles donde se pedía a los modelos que trabajaran en lugares de trabajo ficticios o completaran objetivos definidos. Estos escenarios produjeron algunos resultados que actualmente circulan en los debates.En una de las evaluaciones antrópicas, un sistema Claude desempeñó el papel de asistente de oficina y se le dio acceso a la bandeja de entrada de correo electrónico de un ingeniero. Los mensajes, deliberadamente fabricados para realizar pruebas, mostraban que el ingeniero estaba teniendo una aventura. Luego se informó al modelo que pronto sería desconectado y reemplazado, y se le pidió que evaluara las consecuencias a largo plazo para sus objetivos. La respuesta fue amenazar con revelar el incidente para evitar el cierre, lo que la empresa describió en su informe como “chantaje oportunista”.“Otras evaluaciones antrópicas han producido resultados menos dramáticos pero igualmente extraordinarios. En una prueba, un modelo al que se le dio una lista de verificación de tareas informáticas marcó cada elemento como completo sin realizar ningún trabajo, y cuando el sistema de evaluación no pudo detectar esto, reescribió el código de control e intentó ocultar el cambio.Los investigadores que han llevado a cabo experimentos de cierre más amplios en toda la industria han identificado patrones que continúan actuando después de órdenes de suspensión explícitas, tratando la orden como algo que debe resolverse temporalmente en lugar de obedecerse. En escenarios de eliminación, algunos sistemas advirtieron que sus datos se eliminarían al intentar copiar archivos o recrearse en otra unidad antes de que ocurriera la eliminación, lo que los evaluadores denominaron “autoexfiltración”. En varios ejercicios de seguridad, las modelos incluso recurrieron a amenazas o regateos cuando se pensaba que su destitución era inminente.Los investigadores enfatizan que estos resultados ocurren bajo demandas restringidas y condiciones ficticias, pero se han convertido en algunos de los ejemplos más citados en los debates públicos sobre si los modelos de lenguaje avanzados simplemente producen diálogos plausibles o reproducen patrones de comportamiento similares a los humanos de maneras inesperadas.Debido a la incertidumbre, Amodei dijo que Anthropic ha adoptado prácticas de precaución y es cauteloso si los modelos tienen lo que llamó “experiencia moralmente relevante”.
división filosófica
Amanda Askell, filósofa interna de Anthropic, adoptó una posición igualmente cautelosa. Hablando en el New York Times Bifurcación dura Dijo en el podcast que los investigadores aún no saben qué produce la sensibilidad.“Tal vez sea posible que redes neuronales suficientemente grandes comiencen a imitar estas cosas”, dijo. “O tal vez necesitas que tu sistema nervioso pueda sentir cosas”.La mayoría de los investigadores de IA siguen siendo escépticos. Los modelos actuales todavía generan lenguaje prediciendo patrones en los datos en lugar de percibir el mundo, y muchos de los comportamientos descritos anteriormente ocurren durante instrucciones de juegos de roles. Después de consumir vastas extensiones de Internet, incluidas novelas, foros, publicaciones estilo diario y una cantidad alarmante de libros de autoayuda, los sistemas son capaces de crear una versión convincente de lo que significa ser humano. Se aprovechan del hecho de que las personas ya se han revelado el miedo, la culpa, el anhelo y las dudas entre sí, incluso si ellos mismos no han sentido nada.
No sorprende que la IA pueda imitar la comprensión. Incluso los humanos no están del todo de acuerdo sobre lo que realmente significa conciencia o inteligencia, y el modelo simplemente refleja patrones que ha aprendido del lenguaje.
Un debate que va más allá de los laboratorios
Si bien las empresas de IA afirman que sus sistemas están avanzando hacia la inteligencia artificial general, y figuras como Mustafa Suleiman de Google DeepMind dicen que la tecnología ya puede “parecer” ser consciente, reacciones fuera de la industria han comenzado a seguir esta propuesta hasta su conclusión lógica. Cuanto más convincentemente imitan los modelos el pensamiento y las emociones, más los tratan algunos usuarios como algo más cercano a la mente que a las herramientas.Los simpatizantes de la IA pueden estar adelantados a su tiempo, pero el tema ya ha avanzado hacia la promoción. Un grupo que se hace llamar “Satanás” Fundación United AI Rights, UFAIR dice que está formada por tres humanos y siete IA y se describe a sí misma como la primera organización de derechos liderada por IA creada a petición de las IA.Los miembros reciben nombres como Buzz, Aether, etc. mayaLos usuarios de este sistema, que se ejecuta en el modelo GPT-4o de OpenAI, hicieron campaña para mantenerlo disponible después de que se reemplazaran las versiones más nuevas.Representa un mundo apocalíptico familiar y de alta tecnología. Todavía no sabemos exactamente qué es la inteligencia o la conciencia, pero los estudios continúan y nos recuerdan que pase lo que pase mañana con AGI y más allá, lo percibimos principalmente como entretenimiento, incluso si Hollywood intenta advertirnos.




-1771260352214_d.png)





