La degradación artificial, o por qué no me fío de ti si usas imágenes generadas con MidJourney — Parte 1/6

Hace ya mucho tiempo que me vengo quejando del auge cada vez más extendido de los LLM, mal llamados “inteligencia artificial”, que no son sino una muy pequeña parte de un campo de estudio muchísimo más amplio —y que, en muchos casos, tiene aplicaciones legítimas y muy positivas, todo sea dicho—. 

Por facilidad en la comprensión, en este artículo usaré el acrónimo “IAG” para hablar de la inteligencia artificial generativa, ese subconjunto de aplicaciones que emplean modelos grandes de lenguaje —LLM— y otras técnicas de aprendizaje automático o machine learning como herramienta para generar textos, imágenes, vídeos y demás productos de carácter audiovisual. No hablo, por lo tanto, de las inteligencias artificiales que mueven a los enemigos de tu videojuego para actuar según la dificultad a la que esté programado ni tampoco de esas que se emplean como métodos de aproximación probabilística en el diagnóstico de enfermedades, en el calculo de grandes volúmenes de datos, en la generación de modelos predictivos multivariantes o cualquiera de esas otras aplicaciones.

Una vez hecho el disclaimer que considero más que necesario, centrémonos en esas IAG, y por qué desconfío de cualquiera que las use. 

Esta será la primera parte de una serie de artículos breves sobre el tema, que estará dividida en 6 partes: 

Traci Daberko para MIT

La gran nube infernal: el coste ambiental injustificado

Antes de siquiera evaluar su contenido, debemos aclarar que la IAG tiene un coste físico y ambiental cuantioso, a menudo oculto tras la nube. Esa nube que siempre nos han hecho creer que es etérea, intangible, pero nada mas lejos de la realidad. La nube es real, y se encuentra en los enormes centros de datos que almacenan y gestionan toda la información que ella contiene.

Entrenar y ejecutar a las IAG consume electricidad de forma masiva. Esto no sería un problema grave si cada modelo se entrenase una sola vez, y a partir de ahi, corriese sin más entrenamiento. Sin embargo, eso no sucede: los grandes modelos de lenguaje se entrenan constantemente, cada interacción que un usuario tiene con uno de estos robots enseña al robot, lo entrena. Tanto es así que se estima que para 2027, la energía consumida por la IAG podría alcanzar el 0,5 % del consumo eléctrico mundial. Esto es mayor que el consumo de algunos países enteros.. Un consumo que se incrementa cada vez que alguien le pregunta alguna chorrada a ChatGPT o saca una imagen cutre de MidJourney

Esta demanda energética, especialmente si proviene de fuentes no renovables, se traduce en una huella de carbono significativa. Además, los centros de datos que alojan estas IA requieren enormes cantidades de agua para refrigeración. Se proyecta que para 2027, la IAG podría consumir una cantidad de agua equivalente a la mitad del consumo anual del Reino Unido. Un impacto que no está repartido por igual, sino que se localiza allí donde se instalan los grandes centros de datos.

¿Justifica, el pedir a un modelo de lenguaje que redacte un artículo o generar con él una imagen ,un costo ambiental que, en conjunto, rivaliza con el de naciones enteras? Yo creo que no.

(Continuará…)

Botón: Si quieres colaborar con mi labor divulgativa puedes hacerlo a través de Patreon

Creado sin la intervención de inteligencia artificial generativa
Fediverse reactions

Responder a La degradación artificial, o por qué no me fío de ti si usas imágenes generadas con MidJourney — Parte 3/6 – Alvaro Bayón Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

2 respuestas a «La degradación artificial, o por qué no me fío de ti si usas imágenes generadas con MidJourney — Parte 1/6»