Foto de Tara Winstead/pexels

La huella invisible de la inteligencia artificial: energía, agua y datos en un planeta con límites

Cómo lograr que este desarrollo tecnológico logre ser realmente sostenible.

La inteligencia artificial (IA) ha dejado de ser una promesa futurista para convertirse en una presencia constante. Está en los teléfonos, en las plataformas de música y video, en los programas de traducción, en los diagnósticos médicos y hasta en las decisiones empresariales.

Sin embargo, detrás de cada respuesta instantánea o imagen generada por un algoritmo se esconde una maquinaria que consume enormes cantidades de energía y agua, un costo ambiental que rara vez se menciona cuando se habla del progreso digital.

En un artículo publicado por la revista Pesquisa Javeriana se hace referencia a un análisis de MIT Technology Review en el que se expone que el entrenamiento de GPT-4 —el modelo de lenguaje de OpenAI que dio origen a ChatGPT— costó cerca de 100 millones de dólares y demandó 50 gigavatios hora de electricidad, una cifra equivalente a lo que consumiría una pequeña ciudad durante varias semanas.

Ese proceso, conocido como entrenamiento de modelos, consiste en alimentar a los algoritmos con millones de datos para que aprendan a predecir patrones, generar texto o reconocer imágenes. Cuanto más grande es el modelo, más información requiere… y más energía necesita.

“El problema no es solo entrenar el modelo, sino mantenerlo funcionando”, advierte Daniel Morillo, investigador javeriano y doctor en Informática de la Universidad Politécnica de Valencia en su diálogo con Pesquisa Javeriana.  

“El almacenamiento y la infraestructura que requiere son enormes: los servidores, los ventiladores, las conexiones, los cables, el líquido que se utiliza para enfriar los equipos… todo eso implica energía. El calor es su enemigo”, apunta Morillo.

La explicación técnica conduce a un punto físico: los servidores que sostienen la inteligencia artificial viven en espacios concretos. Son los centros de procesamiento de datos (CPDs), edificios donde miles de computadores trabajan día y noche procesando solicitudes, consultas, imágenes o audios.

“En esos lugares —explica Andrés Pérez Uribe, profesor de ciencia computacional de la Universidad de Ciencias Aplicadas de Suiza— los computadores están en salas con aire acondicionado. Pero el aire acondicionado necesita electricidad para enfriar los equipos, y por eso los data centers de empresas como Amazon, Apple o Google emplean sistemas de refrigeración con agua para mantener las máquinas funcionando”.

El costo ambiental de la IA no se limita al consumo eléctrico, continúa planteándose en el artículo de Pesquisa. El agua, recurso vital y cada vez más escaso, también es una víctima silenciosa del avance tecnológico. De acuerdo con Pérez Uribe, por cada kilovatio hora de energía que consume una máquina, se utilizan 1,8 litros de agua para mantenerla fría.

Si se toma en cuenta que ChatGPT recibe alrededor de mil millones de consultas diarias, el gasto podría ascender a 20 millones de litros de agua cada día, el equivalente a que casi todos los habitantes de Alemania se preparen una taza de café al mismo tiempo.

Y esa cifra, en realidad, podría ser conservadora. Otros cálculos, como los de Business Energy UK, estiman que ChatGPT podría consumir hasta 140 millones de litros de agua y 40 millones de kilovatios hora en un solo día, lo que equivale a descargar la cisterna de un baño 24 millones de veces o cargar los celulares de todos los habitantes de Suiza.

Una simple conversación de unos minutos con el asistente virtual podría representar el consumo de una botella de agua.

¿Es posible hacer que la IA sea más sostenible?

Algunos esfuerzos ya apuntan en esa dirección. Las grandes tecnológicas están migrando sus centros de datos hacia regiones con climas fríos, como Finlandia, Islandia o Canadá, donde el ambiente ayuda a mantener las temperaturas sin recurrir a sistemas de refrigeración intensivos. Otras, como Google y Microsoft, aseguran que sus servidores funcionan con energías renovables y que buscan reducir la “intensidad de carbono” de sus operaciones.

También se desarrollan modelos más pequeños, conocidos como Tiny AI, que no requieren entrenamientos masivos en la nube y pueden operar directamente desde dispositivos locales. Estas iniciativas pretenden democratizar el acceso a la IA sin replicar los costos energéticos de los gigantes tecnológicos.

Sin embargo, los expertos coinciden en que los avances son todavía insuficientes. “Se habla mucho de la inteligencia artificial como herramienta para enfrentar la crisis climática —advierte Morillo—, pero no se habla con la misma fuerza de su propia huella ambiental. La tecnología puede ser parte de la solución, siempre que primero reconozca que también forma parte del problema”.

El artículo ‘Inteligencia Artificial para la sostenibilidad de un planeta con recursos limitados’, publicado por Pesquisa Javeriana, plantea precisamente esa tensión: la IA podría ayudar a optimizar el uso de recursos naturales, anticipar desastres o diseñar sistemas energéticos más eficientes, pero solo si su propio desarrollo se somete a los principios de sostenibilidad que predica.

En un mundo que busca desesperadamente reducir su huella de carbono, la pregunta ya no es solo cuánto puede hacer la inteligencia artificial por nosotros, sino cuánto estamos dispuestos a gastar del planeta para que ella siga aprendiendo.

Gracias por leer nuestras historias, gracias por apoyar el periodismo independiente. Tu aporte será muy valioso para seguir investigando y contando historias de conservación.

Compartir:

Publicidad

Contenido Relacionado

Gracias por leer nuestras historias, gracias por apoyar el periodismo independiente. Tu aporte será muy valioso para seguir investigando y contando historias de conservación.

También le puede interesar