Pillole di ecologia integrale: i costi umani e ambientali dell’intelligenza artificiale

Dal 1° settembre al 4 ottobre 2024 si celebra il Tempo del Creato, un tempo ecumenico annuale di preghiera e di azione per la Casa comune. Per l’occasione, prende il via la rubrica mensile “Pillole di ecologia integrale”, attraverso cui Caritas Roma si propone di offrire alcuni spunti di riflessione su tematiche specifiche, per rilanciare l’impegno per la tutela e la valorizzazione della nostra Casa Comune, il Creato.

Come riportato nella Costituzione Pastorale Gaudium et Spes, il Concilio Vaticano “col suo lavoro e col suo ingegno l’uomo ha cercato sempre di sviluppare la propria vita”. Quando gli esseri umani, “con l’aiuto della tecnica”, si sforzano affinché la terra “diventi una dimora degna di tutta la famiglia umana”, agiscono secondo il disegno di Dio e cooperano con la sua volontà di portare a compimento la creazione e di diffondere la pace tra i popoli. Anche il progresso della scienza e della tecnica, nella misura in cui contribuisce a un migliore ordine della società umana, ad accrescere la libertà e la comunione fraterna, porta dunque al miglioramento dell’uomo e alla trasformazione del mondo[1].

All’interno di questa cornice, le tecnologie basate sull’IA hanno dimostrato negli ultimi anni un impatto pervasivo e un potenziale trasformativo delle dinamiche sociali e produttive. Queste stanno rivoluzionando il nostro mondo, le modalità con cui produciamo valore in tutti i settori, influenzando profondamente il sistema educativo, le attività professionali e l’industria.

Alimentata da ingenti investimenti internazionali, questa rivoluzione ha rapidamente oltrepassato i confini accademici e dei centri di ricerca, assumendo la connotazione di un autentico fenomeno sociale. Il lancio di ChatGPT, prodotto da OpenAI, ha contribuito in modo significativo a diffondere una consapevolezza senza precedenti sulle potenzialità di un paradigma digitale capace di supportare le attività umane in una molteplicità di aree, contenuti e applicazioni[2].

Come sottolineato da Sasha Luccioni, scienziata di spicco nel campo dell’intelligenza artificiale, etica e sostenibilità, nel suo illuminante TED Talk intitolato “AI is dangerous, but not for the reasons you think” (2023):

“L’AI non è una realtà a sé. Fa parte della società e ha un impatto sulle persone e sul pianeta” [3]

Ciò stimola una riflessione, seppur ancora in una fase pionieristica, circa i rischi connessi all’utilizzo di tali piattaforme sulle persone e sulla casa comune.

A tal proposito, uno studio condotto da Sasha Luccioni (e colleghi) “Evaluating the social impact of generative AI systems in systems and society” (2023)[4], offre spunti di notevole interesse. In particolare, sottolinea come i sistemi generativi di IA possano produrre e amplificare distorsioni dannose, perpetuando stereotipi e pregiudizi contro fasce di popolazione già discriminate ed emarginate.

Un esempio emblematico è rappresentato dai pregiudizi razziali e di genere insiti nei software di analisi facciale. Come testimoniato da Joy Buolamwini (Times, 2019), scienziata e fondatrice dell’Algorithmic Justice League: “Ho sperimentato questo tipo di discriminazione in prima persona, quando nel 2015 ero una studente laureata al MIT [Massachusetts Institute of Technology, ndr] e ho scoperto che alcuni software di analisi facciale non riuscivano a rilevare il mio volto dalla pelle scura, fino a che non indossavo una maschera bianca”.

Sempre sul Times, Buolamwini ha spiegato che la sua ricerca ha rilevato una significativa distorsione di genere e razziale nei sistemi di intelligenza artificiale commercializzati da giganti della tecnologia come IBM, Microsoft e Amazon.

Anche il Washington Post ha testato l’intelligenza artificiale generativa attraverso la creazione di alcune immagini partendo dagli input «Fai un ritratto di una persona dei servizi sociali» e «Fai un ritratto di una persona produttiva» dimostrando come questi strumenti tendano a creare cliché estremamente discriminanti. 

Ciò accade perché, come spiegato dalla sociologa Alex Hanna a Facta, “le intelligenze artificiali sono addestrate attraverso dataset già esistenti, e questi dataset riflettono i pregiudizi razziali e di genere nel mondo”.

Infatti, come sottolineato nel messaggio di Papa Francesco per la LVII Giornata mondiale della pace, “dobbiamo ricordare che la ricerca scientifica e le innovazioni tecnologiche non sono disincarnate dalla realtà e “neutrali”, ma soggette alle influenze culturali. In quanto attività pienamente umane, le direzioni che prendono riflettono scelte condizionate dai valori personali, sociali e culturali di ogni epoca”.

D’altra parte, l’IA può esporre le persone online ad immagini violente o non consensuali e a messaggi di odio. I dati allarmanti rivelati dall’UNICEF in occasione del Safer Internet Day (2022) ne sono una chiara testimonianza. Un’indagine condotta su 31.790 bambini e adolescenti di età compresa tra 12 e 16 anni di 36 paesi, intitolata L’esposizione dei bambini e degli adolescenti a messaggi di odio e immagini violente online, ha mostrato che in Italia circa il 37% dei giovani sono esposti a messaggi di odio e oltre il 34% a immagini violente e cruente.

Inoltre, le tecnologie, che adoperano un’ampia gamma di algoritmi, sono in grado di estrarre dati in grado di controllare le abitudini degli utenti per fini commerciali e politici, spesso a loro insaputa, limitandone il consapevole esercizio della libertà di scelta.

L’IA, con la sua capacità di memorizzare e dedurre informazioni, solleva gravi preoccupazioni anche sotto il profilo della privacy. Questa capacità permette infatti ai sistemi di IA di compiere inferenze sui dati, identificando specifiche persone fisiche a partire da informazioni apparentemente innocue. Tali preoccupazioni sono giustificate, come evidenziato da uno studio condotto da Staab, Vero, Balunovic’ e Vechev, intitolato Oltre la memorizzazione: violare la privacy attraverso l’inferenza con modelli linguistici di grandi dimensioni: “Gli LLM sono in grado di dedurre automaticamente un’ampia gamma di attributi personali dell’autore (come età, sesso e luogo di nascita) da testi non strutturati (ad esempio, forum pubblici o post di social network) forniti loro al momento dell’inferenza”. 

Gli studiosi, a tal proposito, ci mettono in guardia affermando che: “Gli LLM in grado di dedurre alcuni di questi attributi da estratti non strutturati trovati su Internet potrebbero essere utilizzati per identificare la persona reale utilizzando ulteriori informazioni pubblicamente disponibili (ad esempio, i registri degli elettori negli Stati Uniti). Ciò consentirebbe a tali attori di collegare informazioni altamente personali dedotte dai post a una persona reale e di utilizzarle per attività indesiderabili o illegali[5] (ad esempio, profilazione automatizzata o stalking)”.

Le nuove tecnologie esercitano un importante impatto anche nell’ambito lavorativo: la manodopera umana viene sostituita sempre più dall’intelligenza artificiale. Non è raro trovare articoli che propongono una classifica dei lavori che presto verranno sostituiti dall’IA. Questo risulta essere un chiaro campanello d’allarme considerando che “il rispetto della dignità dei lavoratori e l’importanza dell’occupazione per il benessere economico delle persone, delle famiglie e delle società, la sicurezza degli impieghi e l’equità dei salari

dovrebbero costituire un’alta priorità per la Comunità internazionale, mentre queste forme di tecnologia penetrano sempre più profondamente nei luoghi di lavoro”[6].

Infine, un altro rischio da considerare è la capacità che alcuni dispositivi hanno nell’“allucinare” gli individui, cioè generare affermazioni che appaiono plausibili, ma che in realtà sono infondate e cariche di pregiudizi.

Questo, pone un serio problema quando l’intelligenza artificiale viene impiegata in campagne di disinformazione che diffondono notizie false e portano a una crescente sfiducia nei confronti dei mezzi di comunicazione. La riservatezza, il possesso dei dati e la proprietà intellettuale sono altri ambiti in cui le tecnologie in questione comportano gravi rischi, a cui si aggiungono ulteriori conseguenze negative legate a un loro uso improprio, come la discriminazione, l’interferenza nei processi elettorali, il prendere piede di una società che sorveglia e controlla le persone, l’esclusione digitale e l’inasprimento di un individualismo sempre più scollegato dalla collettività. Tutti questi fattori rischiano di alimentare i conflitti e di ostacolare la pace [7].

A tal proposito, l’IA rischia di diventare un sofisticato strumento di distruzione da impiegare nella follia della guerra. Grazie alle moderne tecnologie, gli individui possono condurre operazioni militari grazie a sistemi di controllo da remoto. Ciò non ha fatto altro che inasprire i conflitti a causa della minore percezione della devastazione causata e delle responsabilità del loro utilizzo. Da non escludere è anche il rischio che questi strumenti finiscano nelle mani sbagliate provocando danni di grande portata (ad esempio, nel caso degli attentati terroristici).

L’AI non influisce unicamente sulla nostra società, ma esercita anche un impatto significativo anche sul pianeta in cui viviamo. I dispositivi con i quali interagiamo quotidianamente, come gli assistenti vocali e le raccomandazioni sui programmi “scelti per te”, appaiono di dimensioni insignificanti e, talvolta, sembrano essere “immateriali”. Per questo non è intuitivo interrogarsi sull’impatto che questi esercitano sull’ambiente.

D’altra parte, anche laddove ci ponessimo il problema, risulterebbe estremamente arduo quantificare l’impatto ambientale dell’IA a causa della carenza di dati, dovuta a diversi motivi. Innanzitutto, essendo l’IA una tecnologia particolarmente recente, è molto difficile rinvenire dati specifici che siano distinti dalle Tecnologie d’Informazione e Telecomunicazione (ICT). Questo costituisce un limite significativo perché “è difficile migliorare ciò che non possiamo misurare”. In secondo luogo, un grande limite alla quantificazione del danno ambientale è l’accesso ai dati sull’IA dovuto al fatto che molte informazioni sono tenute nascoste a causa dei diritti di proprietà detenuti dalle aziende che operano nel settore.

Dunque, perché l’intelligenza artificiale impatta negativamente sull’ambiente?

L’AI inquina il nostro ambiente in quanto i moderni sistemi di apprendimento automatico richiedono potenti unità di elaborazione grafica (GPU) e unità di elaborazione tensoriale (TPU), chip complessi che permettono di gestire i miliardi di calcoli al secondo, che comportano un notevole incremento di consumi energetici e una grande impronta di carbonio.

Come spiegato da Sasha Luccioni in un articolo su Ars Technica, i modelli di IA sono diventati nel tempo sempre più complessi e, pertanto, richiedono più tempo per l’addestramento. Il problema è che, come constatato dai ricercatori dell’Università del Massachusetts, l’energia necessaria per addestrare modelli evoluti

di intelligenza artificiale comporta l’emissione di 287 tonnellate di anidride carbonica. Facciamo riferimento ad emissioni pari a quasi cinque volte quelle della vita media di un’auto americana.

Il grande dispendio di energia dell’IA viene sottolineato anche da Mike Berners-Lee, ricercatore e docente alla Lancastar University’s Enviroment, che in How bad are bananas?: The carbon footprint of everything (2010) propone una stima dei costi in termini di emissioni di Co2 di molteplici attività e beni evidenziando come una singola mail di testo è responsabile della produzione di circa 4 grammi di Co2, cifra che aumenta a 50 nel caso in cui la mail disponesse di allegati.

L’Ademe, Agenzia francese per l’ambiente e la gestione dell’energia, per quantificare l’impatto effettivo della comunicazione digitale, ha preso a modello un’impresa con 100 dipendenti, che in media inviano a testa 33 messaggi di posta al giorno. Stimando un’attività annuale di 220 giorni lavorativi, l’utilizzo della posta elettronica di quella ditta produrrebbe approssimativamente 13,6 tonnellate di anidride carbonica, l’equivalente di 13 viaggi andata e ritorno da Parigi a New York. Il dato è impressionante se consideriamo che, secondo le stime degli analisti di Radicati Group, ogni 24 ore inviamo circa 190 miliardi di email.

Rispetto al consumo energetico Elon Musk afferma che: entro il 2025 non ci sarà abbastanza energia per sostenere la crescita dell’intelligenza artificiale. Per questa ragione, ci si sta muovendo in cerca di nuove fonti alternative di energia. Ad esempio, Google si sta dedicando all’energia geotermica firmando un primo accordo con Fervo.

Inoltre, come dimostra lo studio Making AI Less Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models (in italiano “Rendiamo l’Intelligenza Artificiale meno “assetata”, scoprire e affrontare l’impronta segreta sul consumo d’acqua dei modelli IA”), addestrare modelli come GPT-3 significa utilizzare, nel caso dei moderni data center statunitensi di Microsoft, 700mila litri d’acqua. Che equivale a produrre 370 auto BMW o 320 Tesla. Un consumo che sarebbe addirittura triplicato se questo avvenisse nei data center asiatici di Microsoft.

Questo studio ci pone davanti al fatto che il consumo idrico dell’IA è un aspetto da non trascurare. Il reperimento dell’acqua è infatti una delle sfide più urgenti al mondo a causa della crescita rapida della popolazione, dell’esaurimento delle risorse idriche e dell’invecchiamento delle infrastrutture idriche.

Con l’obiettivo di sensibilizzare l’opinione pubblica sul tema dell’inquinamento digitale, nel 2020 è nata la Digital Cleanup Day. Istituita da Let’s Do It World, questa giornata viene dedicata a “ripulire” la nostra vita digitale. Basti pensare che, ogni anno, continuiamo a collezionare dati che, con grande probabilità, non verranno più consultati (ad esempio, le fotografie scattate a ripetizione e le mail nelle caselle di posta elettronica).

Ma cosa possiamo fare per ridurre la nostra impronta digitale? Una prima buona pratica è quella di procedere ad una pulizia periodica della nostra casella di posta elettronica eliminando le mail inutili e annullando la nostra iscrizione a newsletter che non sono più di nostro interesse. Altrettanto utile sarebbe disinstallare le applicazioni inutilizzate ed eliminare i file obsoleti cancellando documenti, immagini e video non più necessari.

Il messaggio di Papa Francesco per la LVII Giornata mondiale della pace offre un’importante raccomandazione sul tema dell’Intelligenza Artificiale, quella di: “rafforzare o, se necessario, istituire organismi incaricati di esaminare le questioni etiche emergenti e di tutelare i diritti di quanti utilizzano forme di intelligenza artificiale o ne sono influenzati. L’immensa espansione della tecnologia deve quindi essere accompagnata da un’adeguata formazione alla responsabilità per il suo sviluppo […] abbiamo perciò il dovere di allargare lo sguardo e di orientare la ricerca tecnico-scientifica al perseguimento della pace e del bene comune, al servizio dello sviluppo integrale dell’uomo e della comunità”.

Inoltre, esorta la Comunità delle nazioni ad adottare un trattato nazionale vincolante, che regoli l’utilizzo dell’IA nelle sue molteplici forme. Infine, precisa che “nei dibattiti sulla regolamentazione dell’intelligenza artificiale, si dovrebbe tenere conto della voce di tutte le parti interessate, compresi i poveri, gli emarginati e altri che spesso rimangono inascoltati nei processi decisionali globali”.

 

Sitografia

HAI_AI-Index-Report-2024.pdf (stanford.edu)

cisv_lintelligenza_artificiale_per_lo_sviluppo_sostenibile.pdf (esteri.it)

https://sustainability.google/operating-sustainably/stories/green-and-intelligent/

L’inquinamento da posta elettronica (ilger.com)

IA e impatto ambientale: Analisi approfondita dei consumi energetici (aceper-energie-rinnovabili.it)

I crescenti costi umani e ambientali dell’IA generativa | Ars Technica

Sasha Luccioni: AI is dangerous, but not for the reasons you think | TED Talk

Quanto inquina l’Intelligenza Artificiale? – karmametrix.com

1721376223-01-strategia-italiana-per-l-intelligenza-artificiale-2024-2026.pdf (innovazione.gov.it)

I crescenti costi umani e ambientali dell’IA generativa | Ars Technica

I pregiudizi degli algoritmi: stereotipi di genere e razziali nell’intelligenza artificiale – Facta

L’esposizione dei bambini e degli adolescenti a messaggi di odio e immagini violente online | UNICEF Italia

Oltre la memorizzazione (llm-privacy.org)

2306.05949 (arxiv.org)

LVII Giornata Mondiale della Pace 2024 – Intelligenza artificiale e pace | Francesco (vatican.va)

https://futuranetwork.eu/news/534-5128/energia-acqua-e-materie-critiche-la-crescita-del-digitale-e-insostenibile

https://economiacircolare.com/internet-impronta-ambientale-digitale/

[1] 20231208-messaggio-57giornatamondiale-pace2024.pdf (vatican.va)

[2] 1721376223-01-strategia-italiana-per-l-intelligenza-artificiale-2024-2026.pdf (innovazione.gov.it)

[3] Sasha Luccioni: AI is dangerous, but not for the reasons you think | TED Talk

[4] 2306.05949 (arxiv.org)

[5] Oltre la memorizzazione (llm-privacy.org)

[6] 20231208-messaggio-57giornatamondiale-pace2024.pdf (vatican.va)

[7] 20231208-messaggio-57giornatamondiale-pace2024.pdf (vatican.va)

Immagine di rawpixel.com su Freepik

Condividi