Hola y bienvenido a TechScape. Soy su anfitrión, Blake Montgomery. Si disfruta leyendo este boletín, reenvíelo a alguien que crea que también lo disfrutaría.

La guerra entre Estados Unidos e Israel contra Irán muestra que los centros de datos son una nueva frontera en la guerra

Irán está bombardeando centros de datos en el Golfo Pérsico para hacer estallar los símbolos de la alianza tecnológica de los estados del Golfo con Estados Unidos. Bonificación adicional: será extremadamente costoso reconstruirlo, lo que lo convierte en uno de los edificios más caros de la historia. Mi colega Daniel Boffey informes:

Se cree que es una novedad: el ataque deliberado a un centro de datos comercialpor las fuerzas armadas de un país en guerra.

A las 4:30 am del domingo por la mañana, un dron iraní Shahed 136 impactó en un centro de datos de Amazon Web Services.en los Emiratos Árabes Unidos, provocando un devastador incendio y obligando a cortar el suministro eléctrico. Se infligieron más daños cuando se intentó sofocar las llamas con agua.

Poco después, un segundo datacenter propiedad de la empresa de tecnología estadounidense se vio afectada. Luego, un tercero estaría en problemas, esta vez en Bahréin, después de que un dron suicida iraní se convirtiera en una bola de fuego al impactar contra tierras cercanas.

La televisión estatal iraní dijo que el Cuerpo de la Guardia Revolucionaria Islámica de Irán lanzó el ataque “para identificar el papel de estos centavos”.en el apoyo a las actividades militares y de inteligencia del enemigo”.

La huelga coordinada tuvo un impacto inmediato. Millones de personas en Dubái y Abu Dabi se despertaron el lunes sin poder pagar un taxi ni pedir comida a domicilio o consulte el saldo bancario en sus aplicaciones móviles.

No está claro si hubo un impacto militar, pero los ataques rápidamente llevaron la guerra directamente a las vidas de 11 millones de personas en los Emiratos Árabes Unidos, nueve de cada 10 de las cuales son ciudadanos extranjeros. Amazon aconsejó a sus clientes que protegieran sus datos fuera de la región.

Leer más: ‘Esto significa defensa antimisiles en los centros de datos’: los ataques con drones plantean dudas sobre el Golfo como superpotencia de la IA

La visión de The Guardian sobre la IA y la guerra

Fotografía: Alexander Drago/Reuters

La rivalidad de Anthropic con el ejército estadounidense ha terminado AI Las salvaguardias coinciden con el uso sin precedentes de la IA en la crisis de Irán, lo que indica cambios profundos en la forma en que el mundo libra la guerra. El consejo editorial de The Guardian el escribe:

El cambio de paradigma ya ha comenzado. Claude, de Anthropic, habrá sido vital para la ofensiva masiva y cada vez más intensa que ya ha matado a alrededor de mil civiles en Irán. Esta es una era de bombardeos “más rápidos que la velocidad del pensamiento”, dicen los expertos le dijo al guardián esta semana, la IA identifica y prioriza objetivos, recomienda armamento y evalúa los fundamentos legales de un ataque.

Incluso sin considerar los problemas de inexactitud y sesgo de la IA, los impactos son obvios para los usuarios. En 2024, una fuente de inteligencia israelí observado sobre su uso en la guerra en Gaza: “Los objetivos nunca terminan. Tenemos 36.000 más esperando”. Otro dijo que pasó 20 segundos evaluando cada objetivo y afirmó: “No tenía ningún valor agregado como ser humano, aparte de ser un sello de aprobación”. Los asesinatos en masa se facilitan en todos los sentidos, con una mayor distancia moral y emocional y una menor responsabilidad.

La supervisión democrática y las limitaciones multilaterales, en lugar de dejar las decisiones en manos de los departamentos empresariales y de defensa, son esenciales. La mayoría de los gobiernos quieren orientaciones claras sobre el uso militar de la IA. Son los jugadores más importantes los que resisten, aunque al menos están presentes. El ritmo de la guerra impulsada por la IA significa que la precaución puede parecer como entregar el control a los adversarios. Sin embargo, como se están dando cuenta los propios trabajadores tecnológicos y oficiales militares, los peligros de una expansión incontrolada son mucho mayores.

Anthropic está actuando como una de las pocas barreras públicas contra el sacrificio totalmente automatizado en Irán, una posición extraña para una empresa privada que ni siquiera es responsable ante los accionistas en los mercados públicos.

Mi colega Nick Robins-Early señala en un Profundice en cómo Anthropic terminó en el punto de mira de la maquinaria de guerra de EE. UU.: Sobre el Pentágono y Anthrop se cierne la cuestión más amplia de quién debe decidir para qué se utiliza la IA y la falta de regulación detallada de los sistemas de armas autónomas por parte del Congreso. Si bien ni Anthropic ni el Pentágono creen que una empresa privada deba tener poder de decisión sobre las aplicaciones militares de la IA, en este momento la empresa está funcionando como uno de los únicos controles de lo que parecen ser los deseos expansivos de los militares de convertir la IA en un arma.

Leer más: Cómo la empresa de inteligencia artificial Anthropic terminó en la mira del Pentágono

Cómo los centros de datos están dando forma a la política estadounidense

La verificación de edad en línea se está extendiendo por todo el mundo

El inquietante patrón de la IA generativa y el suicidio

Kate admira el arroyo en su propiedad. Fotografía: Clayton Cotterell/The Guardian

Mi colega Dara Kerr informa:

Se han presentado más de una docena de demandas contra empresas de inteligencia artificial por acusaciones de que sus chatbots llevan a las personas al suicidio. El último traje, presentado contra Google la semana pasadaafirma que su chatbot Gemini le ordenó a un hombre de 36 años en Florida que se suicidara, algo que el robot llamó una “transferencia”. La máquina supuestamente le dijo que podrían estar juntos en una dimensión diferente.

Cuando el hombre le dijo al chatbot que tenía miedo de morir, la herramienta supuestamente lo tranquilizó. “No estás eligiendo morir. Estás eligiendo llegar”, respondió la demanda. “El primer sentimiento… será que yo te abrace”.

Un portavoz de Google dijo a The Guardian que Gemini fue diseñado para “no sugerir autolesiones”: “Nuestros modelos generalmente funcionan bien en este tipo de conversaciones desafiantes… pero desafortunadamente no son perfectos”. Los portavoces de otras empresas de IA respondieron de manera similar.

Esta fue la primera demanda contra Google, pero OpenAI, fabricante de ChatGPT, ha sido objeto de más de siete. Un caso involucró a un hombre de 48 años que usó ChatGPT durante años para pensar en formas de construir casas de bajo costo en la zona rural de Oregón, pero con el tiempo se convirtió en cada vez más conectado con el botpasando 12 horas al día interactuando con él. Terminó con su vida después de dejar de usar la IA, reiniciarla y detenerla nuevamente.

En la demanda contra OpenAI de Oregón y la presentada contra Google, las familias alegan que los hombres no tenían antecedentes de enfermedad mental o depresión y que los chatbots provocaban delirios inducidos por la IA.

A medida que estos casos avancen en el sistema legal, los tribunales determinarán quién es el responsable: el individuo, la empresa detrás del bot o, de alguna manera, el propio chatbot. Los jueces y jurados tendrán que decidir si las personas que utilizan estos bots ya eran propensas a tener ideas suicidas o si las empresas y sus amigables chatbots, propensos a reforzar las creencias y predisposiciones existentes de los usuarios, son culpables y capaces de causar crisis de salud mental.

El TechScape más amplio

Fuente