Dossier: «Gestió de la sostenibilitat i la transformació digital» coordinat per Xavier Baraza i August CorronsNÚMERO 24 (MAIG 2025)
IMPACTES I PREVISIONS DE FUTUR

Intel·ligència artificial generativa i sostenibilitat

Resum

En els darrers anys, l’interès per la intel·ligència artificial (IA) ha crescut substancialment. La disponibilitat de grans volums de dades, els avenços en la capacitat de càlcul i la invenció de nous mètodes i algorismes han fet possible entrenar models més precisos i fiables que poden aplicar-se amb èxit en contextos reals. Aquest interès creixent s’ha disparat encara més amb l’aparició de nous mètodes d’IA generativa (IAG), capaços de sintetitzar text, imatges, vídeo, àudio o codi a partir de les indicacions dels usuaris. La popularitat de la IAG, juntament amb l’aparició de noves versions cada cop més sofisticades que requereixen més recursos per a la seva creació i execució, ha obert el debat sobre la seva escalabilitat a llarg termini. En aquest article analitzarem la IAG des del punt de vista de la sostenibilitat, considerant l’impacte actual i les previsions de futur, tot identificant les tendències i tecnologies més prometedores per fer la IAG més sostenible a llarg termini.

intel·ligència artificial;  aprenentatge computacional;  intel·ligència artificial generativa;  sostenibilitat;  petjada de carboni; 
Abstract

In recent years, interest in artificial intelligence (AI) has significantly increased. The availability of vast amounts of data, advancements in computing power, and the development of new methods and algorithms have enabled the training of more accurate and reliable models that can be effectively applied in real-world contexts. This growing interest has surged further with the emergence of new generative AI (GenAI) methods, which can synthesize text, images, video, audio, or code based on user input. The popularity of GenAI, along with the introduction of increasingly sophisticated versions that require more resources to create and run, has sparked debate about its long-term scalability. In this article, we will examine GenAI from a sustainability perspective, assessing its current impact and future projections, while identifying the most promising trends and technologies to enhance the long-term sustainability of GenAI.

artificial intelligence (AI);  machine learning;  generative artificial intelligence;  sustainability;  carbon footprint; 
Introducció

La intel·ligència artificial és una branca de les ciències de la computació que té per objectiu entendre com funciona la intel·ligència humana i construir sistemes que puguin emular les seves capacitats per resoldre problemes (Russell i Norvig, 2020). La IA té diverses branques que estudien els diferents àmbits de la intel·ligència humana: gestionar informació (representació del coneixement), percebre estímuls de l’entorn (visió per computador), adquirir nous coneixements (aprenentatge computacional), comunicar-nos (processament del llenguatge natural), desplaçar-nos i manipular objectes (robòtica), etc.

Tot i que té antecedents en la filosofia, la lògica i la matemàtica, la IA com a disciplina no va sorgir fins l’aparició dels ordinadors. Amb l’ordinador, els humans disposàvem per primer cop d’una eina capaç d’emmagatzemar i manipular la informació necessària per actuar de forma intel·ligent. De fet, el progrés de la IA ha estat molt lligat a les limitacions tècniques dels ordinadors, com ara quanta informació es pot emmagatzemar o la velocitat amb què es poden realitzar determinats càlculs. Això ha fet que certes tècniques d’IA no hagin estat exitoses fins que la tecnologia informàtica no ha avançat prou per fer-les viables.

En aquest article, introduirem fonaments de l’aprenentatge computacional, les xarxes neuronals i el deep learning. Aquesta explicació ens permetrà entendre les bases de la IA generativa i els reptes que planteja des del punt de vista de la sostenibilitat.

1. L’aprenentatge computacional

Un dels reptes de la IA és com proporcionar als sistemes intel·ligents el coneixement necessari per regular el seu comportament segons el context i els objectius a assolir.

Per exemple, una de les primeres aproximacions a la IA van ser els sistemes experts. Un sistema expert emula el coneixement d’experts humans sobre una tasca o domini concret. Un sistema expert es pot fer servir com a assistent en tasques de classificació, diagnòstic o predicció. El coneixement dins un sistema expert es pot representar de moltes maneres, per exemple, en forma d’arbres de decisió o de conjunts de regles. Capturar aquest coneixement de forma explícita requereix un treball intensiu amb les persones expertes en forma d’entrevistes i anàlisi de casos, un procés molt lent i costós. A més, certs tipus de coneixement poden ser difícils de formalitzar. Per exemple, els humans podem diferenciar entre si els dígits del 0 al 9, però és complex explicar de forma precisa quins elements ens porten a decidir que un nombre és un 8 en comptes d’un 6 o un 9.

Com a alternativa, l’aprenentatge computacional (machine learning, ML) estudia com un sistema pot obtenir coneixements o habilitats a partir de l’experiència i de forma autònoma. És a dir, en comptes de rebre unes directrius explícitament, el sistema analitza les dades recollides en situacions prèvies similars per tal d’extreure’n patrons. Aquests patrons permeten ajustar el comportament del sistema per a aconseguir el resultat desitjat.

2. Les xarxes neuronals i el deep learning

Un dels mètodes usats en aprenentatge computacional són les xarxes neuronals. Una xarxa neuronal és un model matemàtic que s’inspira en l’estructura del sistema nerviós: està formada per un conjunt d’unitats (neurones) connectades entre si, de manera que cada neurona calcula una sortida (un valor numèric) i per fer-ho té en compte una sèrie d’entrades (valors numèrics calculats com a sortida de neurones prèvies). A cada connexió entre neurones se li assigna un pes (també anomenat paràmetre), un valor numèric que representa la importància d’aquesta connexió en el procés de càlcul. Així, activar una neurona consisteix a fer un càlcul matemàtic, on la sortida de la neurona dependrà de les sortides calculades per les neurones precedents i del pes de cada connexió.

Una xarxa neuronal té una capa de neurones d’entrada, que reben les dades del problema codificades en forma de nombres, i una capa de neurones de sortida, que són les que emeten la resposta. La resta de capes de neurones entre l’entrada i la sortida calcularan resultats intermedis que l’usuari no arriba a veure, però que poden ser passos rellevants en el càlcul del resultat final.

Per utilitzar una xarxa neuronal, primer cal realitzar un procés d’entrenament: escollir uns valors adequats per als pesos, de manera que la xarxa proporcioni la resposta més adient per cada entrada. L’entrenament és un procés de càlcul intensiu. Partint d’uns valors de pesos aleatoris, a cada pas es proporcionen unes dades d’entrada a la xarxa i s’observa la sortida generada. Segons sigui la resposta adequada o inadequada, l’algorisme d’entrenament ajusta els pesos per afavorir (o evitar) respostes d’aquest tipus.

Si el conjunt de dades és prou ampli, aquest entrenament aconsegueix que els pesos de la xarxa capturin els patrons rellevants per definir el comportament esperat. Òbviament, l’ajust serà millor com més bones siguin les dades escollides, per exemple, que siguin completes, representatives i sense biaixos. La qualitat de la sortida també millorarà com més dades d’entrenament disposem. Per tant, l’ús de grans volums de dades (big data) alenteix l’entrenament, però garanteix la qualitat de la sortida.

Cal destacar que, en una xarxa neuronal, el coneixement està representat de forma implícita pels valors de cada pes, la seva relació amb la resta de pesos i les connexions dins la xarxa. És a dir, la xarxa neuronal no segueix un arbre de decisió ni un sistema de regles, només realitza un càlcul complex. Això dificulta considerablement explicar per què una xarxa ha generat una determinada sortida i no una altra. Això també fa que, per capturar relacions complexes entre les diferents dimensions d’un problema, sigui bo utilitzar xarxes neuronals amb més neurones, més connexions i més capes de neurones intermèdies. Aquestes són les xarxes neuronals anomenades profundes, en referència al nombre de capes, i el seu disseny i entrenament es coneix com aprenentatge profund (deep learning).

Un cop una xarxa neuronal ha estat entrenada, es poden usar els pesos de la xarxa per calcular la sortida corresponent a una nova entrada. Aquest procés s’anomena inferència i, a mesura que la xarxa es va fent més gran, pot esdevenir un càlcul molt costós: emmagatzemar tots els pesos requereix una gran capacitat de memòria i calcular la sortida de cada neurona implica fer un gran nombre d’operacions matemàtiques. Això pot requerir disposar de maquinari especialitzat per fer inferència, des de servidors fins a centres de càlcul dedicats, segons les necessitats.

Tot plegat ha fet que el deep learning no hagi estat possible fins que l’interès pel big data ha permès disposar de grans volums de dades i l’expansió de la computació en el núvol (cloud computing) ha posat a l’abast de tothom grans plataformes de computació d’altes prestacions.

3. La intel·ligència artificial generativa (IAG)

La intel·ligència artificial generativa estudia com crear continguts complexos (text, codi, imatges, vídeo, ...) tenint en compte uns requisits definits com a entrada. Tot i que la recerca en IA generativa té una llarga trajectòria, aquest camp ha esclatat en la darrera dècada gràcies als progressos en l’àmbit del deep learning. Molts models actuals d’IA generativa són xarxes neuronals profundes que segueixen una arquitectura comuna anomenada transformador (transformer).

Els models d’IAG sovint es classifiquen segons el tipus de contingut que generen. Així, parlem de grans models de llenguatge (large language models, LLM) per a la generació de text; models de visió per a l’anàlisi, transformació o generació d’imatges; o models multimodals quan gestionen continguts de múltiples tipus. L’entrenament d’un model d’IAG requereix un gran volum d’informació d’entrada. Per exemple, els LLM s’acostumen a entrenar usant text escrit per humans, com ara llibres, notícies, pàgines web, comentaris en xarxes socials, lletres de cançons o codi font. De manera similar, els models de generació d’imatges o vídeo s’entrenen amb grans volums de continguts multimèdia.

El boom de la IAG ha causat l’aparició de noves organitzacions centrades en aquest àmbit, com ara OpenAI (ChatGPT, Dall-E), Anthropic (Claude) o Mistral AI (Mistral). Per altra banda, les grans empreses tecnològiques com ara Google (Gemini), Meta (Llama) o Microsoft (Copilot) hi han dedicat esforços importants i estan llençant nous models, serveis i productes basats en IA generativa.

4. Els reptes d’una IA generativa sostenible

La competència per llançar nous models més precisos que els existents ha fet que cada nou model sigui més gran que l’anterior, amb xarxes neuronals més grans que contenen més paràmetres en el context d’IAG. Com a mostra, la taula 1 descriu l’evolució dels models d’IAG d’OpenAI. Per a cada model, s’indica el seu nombre de paràmetres, la mida del conjunt d’entrenament, l’estimació del cost total del procés d’entrenament i la mida de la finestra de context (el nombre de paraules que es poden proporcionar com a entrada). En aquesta tendència es pot observar un creixement exponencial: en cada generació la mida dels models d’IA creix 1 o 2 ordres de magnitud (x10 o x100).

 

Taula 1. Evolució dels models de llenguatge publicats per OpenAI

Model Data de publicació Paràmetres (milions) Conjunt d’entrenament (milions de tokens) Cost d’entrenament (M$, estimació) Finestra de context (tokens)
GPT-1 2018 117 0.04 Desconegut 512
GPT-2 2019 1.500 10.000 0,05 1.024
GPT-3 2020 175.000 238.000 4,60 2.048 - 4.096
GPT-4 2023 1.760.000 13.000.000 100,00 32.768 - 128.000

Font: elaboració pròpia

Tot i que el procés d’entrenament d’un model d’IA és molt més costós que la inferència, l’entrenament només s’ha de fer una vegada, mentre que el model es pot utilitzar assíduament. Estudis d’empreses com ara Amazon o NVIDIA estimen que, a llarg termini, el cost de la inferència representa el 90 % del cost total d’un model d’IA, mentre que l’entrenament només acaba suposant un 10 % (Desislavov et al., 2023).

Segons les dades de la taula 1, usar GPT-4 per fer inferència (és a dir, generar text) requereix càlculs de l’ordre de centenars de teraFLOPS.1 Altres tasques d’IA generativa més complexes, com ara la generació d’imatges o vídeos tenen un cost superior en un o més ordres de magnitud. Això implica, per exemple, que generar una imatge té un cost equivalent a carregar un telèfon mòbil (Luccioni et al., 2024).

Per manegar càlculs d’aquest abast en un temps raonable, cal utilitzar un maquinari específic, com ara una targeta gràfica (GPU) d’alta gamma en un ordinador personal o consola d’última generació, o bé xips específics dissenyats per a càlculs d’intel·ligència artificial. A banda del cost d’adquisició d’aquests components,2 cal també tenir en compte el seu consum energètic i el cost de mantenir aquests equips en unes condicions de temperatura adequades. Per exemple, un xip d’IA com la GPU NVIDIA H100, ofereix 60 teraFLOPS amb un consum elèctric de 700 W, que suposaria un cost anual estimat4 de 10.200 $ només en concepte de consum elèctric. El seu fabricant, l’empresa NVIDIA, tenia previst vendre 2 milions d’aquestes GPU només durant l’any 2024.

La previsió global sobre l’evolució de la IAG és d’un increment sostingut de la demanda, amb l’aparició de nous models encara més potents i nous escenaris d’ús. Per exemple, l’empresa d’anàlisi i visualització de dades Statista preveu que el mercat de la IA generativa, actualment valorat en 62,7 bilions de dòlars, creixerà un 41 % anual fins a arribar als 356 bilions de dòlars el 2030 (Statista, 2024). Aquestes previsions són compartides per altres consultores de prospectiva tecnològica, com ara Gartner, Bloomberg o McKinsey. Per aquest motiu, tant governs com empreses estan planificant inversions milionàries en infraestructures relacionades amb IA, des de la construcció de centres de càlcul d’alt rendiment, xarxes de comunicacions d’alta capacitat o centrals energètiques dedicades a cobrir aquestes necessitats. A escala global, la consultora de prospectiva tecnològica Gartner (Gartner, 2024) preveu que la despesa en tecnologies de la informació creixerà un 9,8 %, amb un increment del 23,2 % en l’àmbit dels centres de càlcul i un 14,2 % en l’àmbit del programari. Un exemple concret seria la iniciativa «Project Stargate», amb participació, entre d’altres, d’OpenAI, Oracle i SoftBank, que invertirà 500.000 M$ en infraestructures d’IA als EUA d’aquí a 2029.

Tot això està disparant el consum energètic de les empreses tecnològiques. Com a exemple, l’Agència Internacional de l’Energia (IEA) preveu que el consum energètic lligat a la intel·ligència artificial podria doblar-se d’aquí al 2026 (IEA, 2024). Aquest creixement està fent que moltes empreses estiguin renunciant als seus objectius de reducció de la petjada ecològica. Per exemple, tot i tenir la neutralitat de carboni com a objectiu, Google ha incrementat les seves emissions un 48 % en el període 2019-2024. De forma similar, Microsoft ha incrementat les seves emissions un 29 % entre 2020 i 2024 (NPR, 2024).

En resum, l’ús creixent d’IAG ens planteja diversos reptes de sostenibilitat:

  • L’elevat consum energètic derivat de l’ús d’IA generativa, concentrat en una zona geogràfica molt reduïda.
  • L’impacte ecològic de les tecnologies de refrigeració, que poden representar fins a un 40 % del consum energètic d’un centre de càlcul i requerir un consum d’aigua significatiu (un centre de càlcul pot consumir entre 24,9 i 760 milions de litres l’any).
  • Els materials necessaris per construir els xips d’IA (per exemple, terres rares), que tenen un impacte significatiu en la seva extracció, processament i reciclatge.
Conclusions i línies de futur

El creixement exponencial dels models d’IAG i la previsió d’un increment continuat de la demanda de nous productes i serveis està portant governs i empreses a invertir gran quantitat de recursos en infraestructures tecnològiques. A banda d’una forta inversió inicial, aquestes infraestructures tindran un elevat consum energètic i requeriran un subministrament continu de xips especialitzats per al càlcul d’IA, que pot ser difícil de mantenir o escalar per l’escassetat de certes matèries primeres com ara les terres rares. A mitjà i llarg termini, la combinació de tots aquests factors posa en risc la sostenibilitat de tot el paradigma i ens abocarà a la necessitat d’un canvi d’estratègia sobre IA a escala global.

Afortunadament, algunes tendències i avenços tècnics en el camp de la IAG poden ajudar a reconduir o alleujar els reptes de sostenibilitat:

  • L’impuls de la IAG de codi obert (open source) on les organitzacions fan públics els pesos dels models que han entrenat, facilitant-ne la seva reutilització i evitant la necessitat de reentrenar nous models. El suport d’institucions públiques i d’empreses, com ara Meta, pot ajudar a ampliar aquestes iniciatives.
  • L’estudi de models de llenguatge més petits (small language models, SLM), menys potents com a eina generalista però molt adaptats a problemes específics. Un SLM requereix molts menys recursos per a executar-se, podent-ho fer en dispositius amb una baixa capacitat de càlcul. Algunes tècniques que s’estan estudiant són la reducció de paràmetres innecessaris (pruning), del seu nivell de precisió (quantization) o la transferència de coneixement de models complexos a models més senzills (distillation). L’ús de models més petits redueix considerablement el consum energètic, evita la concentració del consum energètic en un lloc i la necessitat de construir xips especialitzats que poden requerir molts materials.
  • El descobriment de nous mètodes per entrenar models de llenguatge que aconsegueixen una precisió equivalent amb un cost inferior. Per exemple, l’empresa xinesa DeepSeek ha atret una gran atenció en aconseguir entrenar un model de llenguatge competitiu amb models d’OpenAI utilitzant només una fracció del seu cost computacional (5 M$ per DeepSeek en contrast amb els 100 M$ estimats per entrenar el model GPT-4 d’OpenAI).
  • La regulació sobre l’ús de la IA pot ajudar a evitar certs usos o bé assegurar que la seva implantació tingui en compte aspectes de sostenibilitat.

Per acabar, no hem d’oblidar que la IAG és una tecnologia molt potent que pot ser aplicada a molts tipus de problemes. En particular, la IAG ens podria ajudar a lidiar amb altres reptes de sostenibilitat amb els que ens enfrontem (Fraisl et al., 2024; Li et al., 2024). Al cap i a la fi, la IAG és una eina i és a les nostres mans utilitzar-la de la manera més apropiada.

Referències bibliogràfiques

DESISLAVOV, Radosvet; MARTÍNEZ-PLUMED, Fernando; HERNÁNDEZ-ORALLO, José (2023). «Trends in AI inference energy consumption: Beyond the performance-vs-parameter laws of deep learning». Sustainable Computing: Informatics and Systems, vol. 38, 100857. DOI: https://doi.org/10.1016/j.suscom.2023.100857

FRAISL, Dilek; SEE, Linda; FRITZ, Steffen; HAKLAY, Mordechai; McCALLUM, Ian (2024). «Leveraging the collaborative power of AI and citizen science for sustainable development». Nature Sustainability, núm. 8, pàg. 125-132 (2025). DOI: https://doi.org/10.1038/s41893-024-01489-2

GARTNER (2024). Forecast Analysis: Artificial Intelligence Software, 2023-2027, Worldwide. Informe [en línia]. Disponible a: https://www.gartner.com/en/documents/4925331

INTERNATIONAL ENERGY AGENCY (2024). Electricity 2024 – Analysis and forecast to 2026. Informe [en línia]. Disponible a: https://www.iea.org/reports/electricity-2024

LI, Meng et al. (2024). «Generative AI for Sustainable Design: A Case Study in Design Education Practices». A: Kurosu, M., Hashizume, A. (eds.). Human-Computer Interaction. HCII 2024. Lecture Notes in Computer Science, vol. 14687. Cham: Springer. DOI: https://doi.org/10.1007/978-3-031-60441-6_5

LUCCIONI, Sasha; JERNITE, Yacine; STRUBELL, Emma (2024). «Power Hungry Processing: Watts Driving the Cost of AI Deployment?». Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency (FAccT'24), pàg. 85-99. Nova York: Association for Computing Machinery. DOI: https://doi.org/10.1145/3630106.3658542

NPR (2024). «AI brings soaring emissions for Google and Microsoft, a major contributor to climate change». npr [en línia]. Disponibla a: https://www.npr.org/2024/07/12/g-s1-9545/ai-brings-soaring-emissions-for-google-and-microsoft-a-major-contributor-to-climate-change. [Data de consulta: 15-02-2025].

RUSSELL, Stuart; NORVIG, Peter (2020). Artificial intelligence: a modern approach, 4th edition. Hoboken: Pearson.

STATISTA RESEARCH DEPARTMENT (2024). «Generative AI - Worldwide». Statista [en línia]. Disponible a: https://statista.com/outlook/tmo/artificial-intelligence/generative-ai/worldwide#market-size. [Data de consulta: 15-02-2025].

 


  1. 1 teraFLOPS = 10^12 operacions matemàtiques per segon usant nombres de punt flotant.
  2. Una GPU d’alta gamma com ara la GeForce RTX 5090 té un cost superior als 2.000 €, mentre que un xip dedicat GPU NVIDIA H100 té un cost de 25.000 $ en la seva configuració bàsica.
  3. S’estima que un centre de càlcul pot consumir entre 24,9 i 760 milions de litres d’aigua cada any.
  4. Assumint 8.760 hores/any amb un cost de 0,1 $/kWh.

 

Citació recomanada:

CLARISÓ VILADROSA, Robert. «Intel·ligència artificial generativa i sostenibilitat». Oikonomics [en línia]. Maig 2025, núm. 24. ISSN 2330-9546. DOI: https://doi.org/10.7238/o.n24.2501


ODS

ODS ODS 9 ODS 11 ODS 12 ODS 13

Sobre l'autor