El Pentágono oficialmente designó a Anthropic como un riesgo para la cadena de suministro después de que ambos no lograron ponerse de acuerdo sobre cuánto control debería tener el ejército sobre sus modelos de IA, incluido su uso en armas autónomas y vigilancia doméstica masiva. Cuando el contrato de 200 millones de dólares de Anthropic fracasó, el Departamento de Defensa recurrió a OpenAI, que aceptó y luego tomó nota. Las desinstalaciones de ChatGPT aumentan un 295%. A medida que los riesgos siguen aumentando, la pregunta sigue siendo: ¿cuánto acceso ilimitado deberían tener los militares a un modelo de IA?
Mire cómo los presentadores de Equity, Kirsten Korosec, Anthony Ha y Sean O’Kane, explican lo que las nuevas empresas deben saber sobre la obtención de contratos federales de IA, además de las historias tecnológicas más importantes de la semana, de El acuerdo de Paramount con Warner Bros. y MyFitnessPal Adquisición de Cal AI a El impulso de la IA de Pinterest por valor de 1.000 millones de dólares, La valoración de Anduril en 60.000 millones de dólaresy si el “SaaSpocalipsis”es real.
Regístrese en Equity en YouTube, Pódcasts de Apple, Nublado, Spotify y todos los yesos. También puedes seguir a Equity en incógnita y Temasen @EquityPod.

















