Los centros de datos son un creciente proporción del consumo mundial de electricidady la inteligencia artificial (IA) está aumentando estas demandas de energía. Esto se debe a que los centros de datos de IA utilizan densos grupos de unidades de procesamiento de gráficos (GPU) para ejecutar cargas de trabajo de aprendizaje automático, tanto para entrenar grandes modelos de lenguaje como para implementarlos. Desde el auge de la IA generativa no hay signos de desaceleración — Las estimaciones de la industria muestran al menos 3 mil millones de dólares en inversiones planificadas para 2030. — Los centros de datos están consumiendo más energía que nunca, independientemente de las fuentes de electricidad disponibles.

Esto llevó a Google Research a explorar una perspectiva literalmente extraña: lanzar centros de datos al espacio exterior y operarlos enteramente con energía solar.

Ancho de banda en el centro de datos

¿Es esto posible? La Búsqueda de Google está bastante segura de que sí. Tanto es así que los investigadores de la compañía ya han delineado algunos de los principales desafíos técnicos a los que se enfrentarán y cómo los resolverán. Para responder a estas preguntas, es importante definir primero en qué se diferencia un centro de datos de IA de la variante normal.

Los centros de datos tradicionales se han visto impulsados, más que nada, por el creciente consumo de contenidos. En mercados como India, esto es principalmente video, ya que se encuentra entre los casos de uso con mayor uso intensivo de datos (por volumen) para las instalaciones agregadas de redes y almacenamiento que ofrecen los centros de datos. Tradicionalmente, esto significa que el ancho de banda que un centro de datos necesita dentro de sus propias instalaciones es teóricamente el mismo que el ancho de banda que entrega o recibe del mundo exterior. Esto llevó a un auge en cosas como el ancho de banda del cable submarino, que necesitaba mantenerse al día con el crecimiento de los centros de datos domésticos (después de todo, los datos tienen que venir de alguna parte).

Los centros de datos de IA son diferentes. Necesitan altos niveles de ancho de banda, no entre la infraestructura que alojan y los usuarios a los que sirven, sino dentro del propio centro de datos y con otros centros de datos ubicados en las cercanías. Por ejemplo, los complejos de centros de datos de inteligencia artificial de Microsoft, llamados Fairwater, tienen enlaces de petabits por segundo entre instalaciones. Esto equivale a 10 lakh de gigabits por segundo, un millón de veces más rápido que la mejor conexión a Internet para consumidores que normalmente se ofrece en las áreas metropolitanas de la India.

Por tanto, este tipo de arquitectura densamente interconectada sería importante para los centros de datos en el espacio. Dado que la mayor parte del ancho de banda se utilizaría en cargas de trabajo distribuidas en múltiples satélites, el ancho de banda del enlace descendente con estaciones terrestres no es tan importante. Una analogía para entender esto está disponible más cerca de casa: ChatGPT necesita estas conexiones súper rápidas en su propia infraestructura, pero el usuario solo necesita ancho de banda para la consulta que envía y la respuesta que recibe.

(El ancho de banda bajo desde la órbita de la Tierra a la Tierra es limitado porque hay un rango limitado de frecuencias donde se pueden transmitir datos a través de ese tipo de distancia, y una cantidad finita de ancho de banda como resultado de eso. Esta es la razón por la cual la constelación de Internet satelital Starlink de SpaceX puede estar “agotada” en ciertas partes del mundo, ya que las ondas de radio pueden ahogarse muy rápidamente si unos pocos lakh de personas la obtienen en un solo lugar.)

Muchos desafíos

El Proyecto Suncatcher de Google propone una constelación como la de Starlink, pero en lugar de ser un enjambre distribuido uniformemente que cubra la Tierra, la arquitectura del equipo se basaría en grupos densamente coreografiados, con cada satélite a no más de unos pocos kilómetros de sus vecinos, siguiendo una órbita que siempre mantendría la línea de visión con el Sol, y el increíble poder, sin atmósfera que lo diluya u obstruya, que promete la configuración. Esto, combinado con tecnologías como la multiplexación, que permite empaquetar más datos en un solo haz de radio, permitiría a los satélites, en teoría, distribuir su trabajo y tener suficiente potencia para operarlos.

Por supuesto, existen muchos otros desafíos y Google está trabajando para superarlos. Un problema obvio es la radiación solar y cómo puede afectar a las unidades de procesamiento tensorial (TPU) durante meses y años de funcionamiento. Aquí, Google ha visto algunos avances. “Aunque los subsistemas de memoria de gran ancho de banda (HBM) eran el componente más sensible, sólo comenzaron a mostrar irregularidades después de una dosis acumulativa de 2 krad (Si), casi tres veces la dosis esperada de 750 rad (Si) de la misión (blindada) de cinco años de duración”, escribió el investigador de Google Travis Beals en una publicación de noviembre pasado sobre Suncatcher.

“No se atribuyeron fallas importantes a la dosis ionizante total hasta la dosis máxima probada de 15 krad (Si) en un solo chip, lo que indica que los TPU Trillium son sorprendentemente resistentes a la radiación para aplicaciones espaciales”.

Pero los centros de datos necesitan un mantenimiento constante y, una vez que el equipo está en el cielo, no existe una forma barata de llegar al espacio exterior para solucionar problemas. Otro “desafío de ingeniería importante” que destacó Beals fue la gestión térmica. En los centros de datos terrestres, el uso de refrigeración líquida resulta práctico. Pero si los centros de datos funcionan directamente con energía solar durante todo el día, disipar el calor y permitir que los componentes de silicio funcionen de manera eficiente podría causar problemas.

Objetivos en movimiento

Quizás el mayor problema no sea la ingeniería, sino la economía. Para que los centros de datos espaciales funcionen, el costo acumulativo de investigar su tecnología, colocar grupos en el espacio y realizar nuevos lanzamientos para reemplazar satélites individuales que han dejado de funcionar debe ser competitivo con el precio que la empresa paga por hacer todo este trabajo con la tecnología que ya existe en tierra.

Google afirma que los precios de lanzamiento de satélites habrían disminuido a 200 dólares por kilogramo a mediados de la década de 2030, y que el ahorro de energía debido a este diseño de arquitectura que prioriza la energía solar también podría conducir a un argumento económico convincente para los centros de datos espaciales. El tiempo dirá si Google –o ISRO, que también está estudiando la tecnología de centros de datos basados ​​en el espacio– podrán lograr todos estos objetivos tecnológicos y económicos manteniendo el ritmo de los avances en los centros de datos terrestres. Microsoft Natick, que experimentó con centros de datos submarinos para facilitar el enfriamiento de sus sistemas con agua, terminó abandonando ese experimento a pesar de lo prometedor que parecía.

Pero el escepticismo sobre la viabilidad y utilidad de las tecnologías satelitales no tiende a envejecer muy bien. Después de todo, pocos podrían haber predicho que Starlink sería capaz de alcanzar la escala y el rendimiento que tiene hoy (con prácticamente toda la Tierra cubierta con velocidades de Internet perfectamente utilizables) cuando SpaceX lanzó sus primeros satélites de prueba en 2019.

aroon.deep@thehindu.co.in

Publicado – 16 de enero de 2026, 05:20 IST

Fuente