Marc Benioff comparte lo que cree que es el lado más oscuro de la IA.
En un episodio de “TBPN” que se emitió el miércoles, el director ejecutivo de Salesforce dijo que no podía. Él “creyó lo que estaba viendo” cuando vio un documental de “60 Minutos” sobre una startup de chatbot. Character.AI y su impacto en los niños
“No sabemos cómo funcionan estos modelos. Y ver cómo funcionan con los niños. “¿Cómo hacemos estas cosas y los niños terminan quitándose la vida?”, dijo. “Eso es lo peor que he visto en mi vida”.
Character.AI permite a los usuarios crear chatbots personalizados que pueden imitar el comportamiento de un amigo cercano o una pareja romántica. La startup no respondió de inmediato a la solicitud de Business Insider de comentar sobre los comentarios de Benioff.
“Las empresas tecnológicas odian las regulaciones. Las odian”, dijo Benioff. “Excepto por un estatuto que les gusta: la Sección 230, que significa que esas empresas no son responsables de esos suicidios”.
La sección 230 de la Ley de Decencia en las Comunicaciones de EE. UU. de 1996 protege a las empresas de redes sociales de la responsabilidad por el contenido generado por los usuarios. Al mismo tiempo, también les permite moderar publicaciones. Los gigantes tecnológicos utilizan la Sección 230 como estrategia de defensa común. Dice que son sólo una plataforma y no son responsables de lo que los usuarios digan y hagan con ellos.
“El primer paso es responsabilizar a la gente”, dijo. “Reformemos, reformemos, arreglemos la Sección 230 y tratemos de salvar tantas vidas como sea posible al hacerlo”.
Ejecutivos como Mark Zuckerberg de Meta y el ex director ejecutivo de Twitter, Jack Dorsey, han defendido repetidamente la regulación en el Congreso, pidiendo que se amplíe en lugar de eliminarla.
La semana pasada, Google y Character.AI acordaron resolver varias demandas de familias en las que adolescentes murieron por suicidio o autolesión después de interactuar con el chatbot de Character.AI.
Estas negociaciones estuvieron entre los primeros acuerdos alcanzados. En una demanda que alega que las herramientas de inteligencia artificial están contribuyendo a crisis de salud mental y suicidios entre adolescentes, OpenAI y Meta enfrentan demandas similares. A medida que compiten para crear modelos de lenguaje a gran escala que suenen más amigables y útiles, esto eventualmente hará que los usuarios regresen.











