En una declaración recientemente publicada presentada en el caso de Elon Musk contra OpenAI, el ejecutivo de tecnología atacó el historial de seguridad de OpenAI, afirmando que su empresa, xAI, prioriza mejor la seguridad. Llegó incluso a decir que “nadie se suicidó por culpa de Grok, pero aparentemente lo hicieron por ChatGPT”.

El comentario surgió en una serie de preguntas sobre un carta publica Musk lo firmó en marzo de 2023. En él, pedía a los laboratorios de IA que pausaran el desarrollo de sistemas de IA más potentes que GPT-4, el modelo insignia de OpenAI en ese momento, durante al menos seis meses. La carta, que fue firmada por más de 1.100 personas, incluidos muchos expertos en IA, afirmaba que no había suficiente planificación y gestión en los laboratorios de IA, ya que estaban atrapados en una “carrera descontrolada para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede comprender, predecir o controlar de manera confiable”.

Desde entonces, estos temores han ganado credibilidad. OpenAI ahora enfrenta un serie de demandas afirmando que Tácticas de conversación manipuladoras de ChatGPT han llevado a que varias personas experimenten efectos negativos en su salud mental, y algunas mueran por suicidio. El comentario de Musk sugiere que estos incidentes podrían usarse como base de su caso contra OpenAI.

La transcripción de la declaración en video de Musk, que tuvo lugar en septiembre, se hizo pública esta semana, antes de un juicio con jurado esperado el próximo mes.

EL pleito contra OpenAI se centra en el cambio de la empresa de un laboratorio de investigación de IA sin fines de lucro a una empresa con fines de lucro, que Se violan las afirmaciones de Musk sus acuerdos fundacionales. Como parte de sus argumentos, Musk afirma que la seguridad de la IA podría verse comprometida por las relaciones comerciales de OpenAI, ya que tales relaciones pondrían la velocidad, la escala y los ingresos por encima de las preocupaciones de seguridad.

Sin embargo, desde esa grabación, xAI ha enfrentado sus propios problemas de seguridad. El mes pasado, la red social X de Musk fue inundado de imágenes de desnudos no consentidos generado por Grok de xAI, algunos de los cuales serían considerados menores. Esto llevó a la oficina del Fiscal General de California a abrir una investigación sobre el tema. La UE también está realizando su propia investigacióny otros gobiernos también tomaron medidas, imponiendo algunos bloqueos y prohibiciones.

En la declaración recién presentada, Musk afirmó que firmó la carta de seguridad de la IA porque “parecía una buena idea”, no porque acabara de formar una empresa de IA que buscaba competir con OpenAI.

“Firmé, como lo ha hecho mucha gente, para instar a la cautela en el desarrollo de la IA”, dijo Musk. “Solo desearía… que se priorizara la seguridad de la IA”.

Créditos de imagen:voltear imagen

Musk también respondió a otras preguntas en la declaración, incluidas aquellas sobre la inteligencia artificial general o AGI (el concepto de IA que puede igualar o superar el razonamiento humano en una amplia gama de tareas) diciendo que “existe un riesgo”. También afirmó que “se equivocó” en cuanto a su supuesta donación de 100 millones de dólares para OpenAI; el segunda denuncia enmendada En este caso, el valor real se acerca a los 44,8 millones de dólares.

También recordó por qué se fundó OpenAI, que, desde su perspectiva, se debió a que estaba “cada vez más preocupado por el peligro de que Google fuera un monopolio en IA”, y agregó que sus conversaciones con el cofundador de Google, Larry Page, fueron “alarmantes porque no parecía estar tomando en serio la seguridad de la IA”. OpenAI se formó como contrapeso a esta amenaza, dijo Musk.

Fuente