(Italiano) L’intelligenza artificiale e il suo ‘metabolismo’
ORIGINAL LANGUAGES, 18 Sep 2023
Elena Camino | Centro Studi Sereno Regis – TRANSCEND Media Service
– Che cos’è l’intelligenza artificiale (IA)? Tra le numerose definizioni disponibili scelgo quella proposta dalL’intelligenza artificiale (IA) è l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. Essa permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico. Il computer riceve i dati (già preparati o raccolti tramite sensori, come una videocamera), li processa e risponde. I sistemi di IA sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia.
Sono disponibili molte altre definizioni di IA, e ciascuna ne sottolinea alcune caratteristiche, a seconda di chi la propone, del suo campo di studio, della sua visione. Per esempio, il Dizionario di Medicina propone che l’IA consista in un insieme eterogeneo di tecniche e metodi volti a costruire sistemi artificiali dotati di capacità cognitive, che siano quindi capaci di riconoscere, classificare, ragionare, diagnosticare e anche agire, o che siano dotati almeno di alcune di queste. L’IBM afferma invece che l’IA ‘sfrutta computer e macchine per imitare le capacità decisionali e di risoluzione dei problemi della mente umana’.
Come si può notare, non c’è uniformità tra le diverse definizioni. Un aspetto che le accomuna tuttavia è l’uso di parole che abitualmente vengono attribuite agli umani: ‘capire’, ‘adattarsi’, sfruttare’… ‘creatività’, ‘autonomia’…
Intelligenza artificiale e crisi climatica
Lo straordinario successo che accompagna molte applicazioni dell’IA ha fatto venire in mente ad alcuni studiosi di utilizzarne le capacità per affrontare i problemi globali emersi con la crisi climatica. Ramit Debnath et al. in un recente articolo dal titolo “Sfruttare l’intelligenza umana e quella artificiale per intraprendere azioni sul clima a livello planetario”, ritengono che l’applicazione dell’intelligenza artificiale possa offrire un valido sostegno a decisioni di mitigazione e adattamento climatico su scala globale, evitando le emissioni in eccesso.
Gli Autori dedicano grande attenzione a segnalare l’esigenza di fornire al sistema informatico una grande quantità di dati, in modo tale da evitare polarizzazioni e disuguaglianze: essi intendono cioè assicurarsi che le informazioni fornite per l’elaborazione siano frutto di una attenta e trasparente rappresentazione complessiva della società, e rispondano a principi etici, di inclusione e di giustizia. Mentre si preoccupano di sottolineare l’importanza della correttezza nella selezione dei dati con cui alimentare l’IA, Ramit Debnath e i suoi coautori accennano, ma senza enfatizzarlo, al problema della enorme quantità di informazioni che il sistema da loro ipotizzato dovrebbe ricevere per potere svolgere il compito assegnato – cioè trovare soluzioni alla crisi climatica.
Impatti ambientali dalla culla alla tomba
Le schede GPU (Graphic Processing Units) sono circuiti elettronici molto complessi, in grado di gestire i miliardi di calcoli al secondo necessari per alimentare piattaforme come ChatGPT e Google Bard, programmi progettati per simulare una conversazione con un essere umano. Le GPU utilizzano un metodo di lavoro grazie al quale diverse migliaia di compiti si portano avanti contemporaneamente (in parallelo). La costruzione e il continuo sviluppo di questi circuiti hanno permesso di velocizzare le tecniche di intelligenza artificiale, riducendo i tempi di elaborazione o, a parità di tempo impiegato, eseguendo elaborazioni sempre più complesse e sofisticate.
I materiali utilizzati per i circuiti GPU sono costituiti da una grande varietà di sostanze chimiche: oltre a rame, boro, cobalto, tungsteno si utilizzano le cosiddette “terre rare”: un termine che venne assegnato ad alcuni speciali elementi chimici presenti in certe rocce, non tanto per la loro scarsa presenza sul Pianeta, quanto per via della loro difficile identificazione oltreché per la complessità del processo di estrazione e lavorazione del minerale puro. L’estrazione in miniera e la purificazione di questi metalli – aumentato enormemente per la crescente richiesta del settore informatico – sono causa di gravi danni ambientali e inquinamenti: anche se i singoli componenti dei circuiti informatici sono ormai di dimensioni estremamente piccole, il numero di utilizzatori (dalle singole persone alle grandi aziende) sono miliardi. Anche lo smaltimento dei prodotti informatici è diventato un problema molto grave, come documentano ormai denunce di associazioni ambientaliste in tutto il mondo e report scientifici.
L’intelligenza artificiale non lavora gratis
In un recente articolo pubblicato sul quotidiano The Guardian (29 agosto 2023) il giornalista Chris Stokel-Walkerla sostiene che la gente non si rende conto che l’uso e la crescente diffusione dell’Intelligenza Artificiale (IA) pone problemi ambientali non indifferenti: problemi che solo da poco tempo la stessa comunità scientifica ha iniziato ad affrontare.
Con l’intelligenza artificiale – egli sostiene – non è possibile vedere i server nei data centers collegati ai clouds, o i chips che frugano nella loro memoria per completare le attività di elaborazione che sono state richieste. Per molti, gli enormi volumi di acqua che scorrono attraverso i tubi all’interno dei data center, utilizzati per mantenere freddi i computer che alimentano gli strumenti di intelligenza artificiale, sono invisibili.
Segnalo qui di seguito due recenti pubblicazioni scientifiche, i cui Autori meritoriamente si sono impegnati a raccogliere dati su due ‘processi’ che accompagnano ogni attività dell’IA: processi che potremmo paragonare a certe attività metaboliche dei viventi – di ciascuno di noi quindi – e che esprimono due esigenze vitali per il funzionamento dell’IA: il bisogno di acqua e il consumo di energia.
L’intelligenza artificiale ‘espira’ intensamente
Negli ultimi anni, i modelli di machine learning (ML) hanno raggiunto prestazioni elevate in una moltitudine di compiti come classificazione delle immagini, traduzione automatica e rilevamento di oggetti. Tuttavia, questo progresso comporta anche un costo in termini di energia, poiché lo sviluppo e l’implementazione di modelli ML richiedono l’accesso a risorse computazionali (come le GPU) e quindi energia per alimentarle. A sua volta, produrre questa energia comporta un costo ambientale, dato che la produzione di energia spesso comporta l’emissione di gas con effetto serra (GHG) come l’anidride carbonica (CO2). Su scala globale, la produzione di elettricità rappresenta oltre un quarto delle emissioni globali di gas serra, e ha raggiunto il valore di 33,1 giga-tonnellate di CO2 nel 2019.
Stime recenti valutano che il contributo del settore tecnologico che riguarda l’informazione e la comunicazione (ICT), che comprende data center, dispositivi e reti utilizzati per la formazione e l’implementazione dei modelli di machine learning, sia compreso tra il 2 e il 6% delle emissioni globali di gas serra. I dati sono incerti perché sono poche le informazioni sul consumo energetico complessivo e sull’impronta di carbonio di questo settore, su come si sta evolvendo e come si correla con le prestazioni in diversi compiti.
Due studios* canadesi , Alexandra Sasha Luccioni (dell’Associazione Hugging Face), e Alex Hernandez-Garcia, dell’Università di Montreal, hanno di recente pubblicato un ampio studio sui fattori che influenzano le emissioni gas-alteranti nei processi di apprendimento dell’IA: Conteggio del carbonio: un’indagine sui fattori che influenzano le emissioni dell’apprendimento automatico. Lo scopo del loro articolo era quello di analizzare i principali fattori che contribuiscono alle emissioni di CO2, e di segnalare differenze tra i modelli ed evoluzione nel tempo.
Per quantificare e confrontare le emissioni di gas a effetto serra (GHG) provenienti da diverse fonti questi ricercatori hanno utilizzato un comune denominatore: i grammi di CO2 emessi per kilowattora di elettricità generata (gCO2eq/kWh). La quantità di CO2eq (𝐶) emessa durante l’addestramento di un modello di ML può essere scomposta in tre fattori rilevanti: la potenza assorbita dall’hardware utilizzato (𝑃), il tempo richiesto per l’allenamento (𝑇 ) e l’intensità di carbonio della rete energetica (𝐼).
Luccioni e Garcia raccolgono e confrontano i dati di apprendimento di 95 modelli di Machine Learning tratti da 500 lavori pubblicati tra il 2012 e il 2021, che riguardano i seguenti ‘compiti: classificazione di immagini, rilevamento di oggetti, traduzione automatica, risposta a domande, e riconoscimento di entità nominate in testi destrutturati.
La fonte di energia primaria utilizzata per alimentare una rete elettrica è quella che influenza maggiormente l’intensità di carbonio di quella rete: le fonti energetiche rinnovabili come l’idroelettricità, il solare e l’eolico hanno una bassa intensità di carbonio (che varia da 11 a 147 gCO2eq/kWh), mentre le fonti non rinnovabili (come il carbone, il gas naturale e il petrolio) producono una quantità di gas serra molto superiori (tra 360 e 680 gCO2eq/kWh). Ciò significa che la fonte di energia che alimenta l’hardware per allenare i modelli ML può comportare grandi differenze in termini di emissioni totali.
Esaminando i dati aggregati di tutte le attività, Sasha e Garcia fanno osservare che, nel complesso, le emissioni medie di carbonio per modello sono aumentate di un fattore di circa 100 (due ordini di grandezza) dal 2012 a oggi. Sebbene il loro campione (95 modelli) rappresenti solo una piccola parte dell’intero campo del machine learning, le emissioni di carbonio associate a questo set di dati è significativo: le emissioni totali di carbonio dei modelli analizzati nel loro studio sono circa 253 tonnellate di CO2eq, che equivalgono a circa 100 voli da Londra a San Francisco o da Nairobi a Pechino.
Anche se questo potrebbe non sembrare un importo elevato, l’aumento delle emissioni negli ultimi anni – da una media di 487 tonnellate di CO2eq per i modelli dal 2015-2016 a una media di più di 2000 tonnellate per i modelli addestrati nel 2020-2022 – indica che le emissioni complessive dovute ai modelli analizzati di machine learning sono in aumento.
L’intelligenza artificiale beve troppo
I ricercatori Penfei Li et al. hanno pubblicato di recente un articolo dal titolo “Rendere l’intelligenza artificiale meno “assetata”: scoprire e affrontare l’impronta idrica segreta dei modelli di intelligenza artificiale”. Nel riassunto che accompagna il loro lavoro essi segnalano che la crescente impronta di carbonio dei modelli di intelligenza artificiale (AI), in particolare quelli di grandi dimensioni come GPT-3 e GPT-4, è oggetto di indagine e di preoccupazione tra i ricercatori (come abbiamo segnalato nel paragrafo precedente).
“Purtroppo, però, l’altrettanto importante ed enorme l’impronta idrica dei modelli di intelligenza artificiale è rimasta nascosta.”
Gli esempi forniti dagli Autori sono impressionanti. Il processo di addestramento di GPT-3 nei data center all’avanguardia di Microsoft negli Stati Uniti può consumare direttamente 700.000 litri di acqua dolce pulita (che sarebbero sufficienti per produrre 370 auto BMW o 320 veicoli elettrici Tesla). I numeri sarebbero triplicati se GPT-3 fosse addestrato nei data center asiatici di Microsoft, dove il consumo di acqua in loco può arrivare fino a 4,9 milioni di litri (sufficienti per produrre circa 2.600 auto BMW o 2.200 veicoli elettrici Tesla). Considerando anche l’utilizzo di acqua per la produzione di energia, l’impronta idrica totale di GPT-3 per la fase di addestramento salirebbe a 3,5 milioni di litri se avviene negli Stati Uniti, o 4,9 milioni di litri se avviene in Asia.
Come fanno notare Penfei Li et al.,
“ChatGPT ha bisogno di “bere” una bottiglia d’acqua da 500 ml per una semplice conversazione che va da 20 a 50 domande e risposte. Mentre una bottiglia da 500 ml di acqua potrebbe non sembrare eccessiva, l’impronta idrica totale è estremamente elevata, considerando i miliardi di utenti di ChatGPT.”
Gli Autori concludono il loro articolo sottolineando la necessità di affrontare olisticamente il problema dell’impatto ambientale del ‘metabolismo’ dell’IA, integrando l’impronta idrica all’impronta di carbonio per calcolare correttamente il carico ambientale delle sue applicazioni.
Mezzi e fini
Mentre le discussioni sull’impronta di carbonio della nostra vita quotidiana hanno iniziato a diventare più comuni in molte comunità, insieme ad una maggiore consapevolezza su come le nostre scelte di vita (per esempio il modo in cui viaggiamo e il cibo che mangiamo) contribuiscono alle emissioni di carbonio, ci mancano molte delle informazioni necessarie per quanto riguarda gli impatti dei modelli di IA che interpelliamo e utilizziamo, e in generale del carico ambientale dello sviluppo e dell’applicazione dell’intelligenza artificiale.
Ma può esistere un’IA veramente sostenibile? L’utilizzo di strategie e strumenti informatici, e la crescente delega alla tecnologia nella ricerca di soluzioni per ridurre il nostro peso sul pianeta, rischiano di condurci in un vicolo cieco: il ‘metabolismo’ delle macchine – la loro richiesta di acqua e di energia – si sta dimostrando molto elevato, e continuamente crescente. Se il fine che vogliamo raggiungere è una migliore capacità dell’umanità di abitare la Terra senza alterarne in modo irreversibile le caratteristiche, il mezzo più efficace forse non è quello di indirizzare denaro, risorse materiali e beni primari al machine learning, trascurando di coltivare e valorizzare i talenti di intelligenza e creatività di milioni di bambini e di giovani, che attualmente non ricevono una adeguata formazione sul piano cognitivo, ma anche affettivo e sociale.
Tornano alla mente le parole di Gandhi: Il mezzo può essere paragonato a un seme,
il fine a un albero; e tra il mezzo e il fine vi è appunto la stessa inviolabile relazione che vi è tra il seme e l’albero.
_______________________________________________
Elena Camino è membro della rete TRANSCEND per la Pace, Sviluppo e Ambiente e Gruppo ASSEFA Torino.
Go to Original – serenoregis.org
Tags: Artificial Intelligence AI
DISCLAIMER: The statements, views and opinions expressed in pieces republished here are solely those of the authors and do not necessarily represent those of TMS. In accordance with title 17 U.S.C. section 107, this material is distributed without profit to those who have expressed a prior interest in receiving the included information for research and educational purposes. TMS has no affiliation whatsoever with the originator of this article nor is TMS endorsed or sponsored by the originator. “GO TO ORIGINAL” links are provided as a convenience to our readers and allow for verification of authenticity. However, as originating pages are often updated by their originating host sites, the versions posted may not match the versions our readers view when clicking the “GO TO ORIGINAL” links. This site contains copyrighted material the use of which has not always been specifically authorized by the copyright owner. We are making such material available in our efforts to advance understanding of environmental, political, human rights, economic, democracy, scientific, and social justice issues, etc. We believe this constitutes a ‘fair use’ of any such copyrighted material as provided for in section 107 of the US Copyright Law. In accordance with Title 17 U.S.C. Section 107, the material on this site is distributed without profit to those who have expressed a prior interest in receiving the included information for research and educational purposes. For more information go to: http://www.law.cornell.edu/uscode/17/107.shtml. If you wish to use copyrighted material from this site for purposes of your own that go beyond ‘fair use’, you must obtain permission from the copyright owner.
Read more
Click here to go to the current weekly digest or pick another article:
ORIGINAL LANGUAGES: