Intelligenza artificiale, un’arma a doppio taglio: le sue emissioni sono da paura

Il progresso tecnologico, che oggi passa attraverso la cosiddetta intelligenza artificiale, nonostante i proclami delle multinazionali dell’informatica invitino a pensare il contrario, è direttamente proporzionale all’aumento di emissioni.

La startup di ricerca sull’intelligenza artificiale (AI) supportata da Microsoft, ovvero OpenAI, ha sviluppato e rilasciato, nei mesi scorsi, il sorprendente ChatGPT. Precisamente è accaduto nel novembre 2022. Da allora il mondo dell’informatica non è più lo stesso.

Intelligenza Artificiale: il mondo nelle mani di Microsoft e Google
Intelligenza Artificiale: ChatGPT e Bard aumenteranno di 5 volte la potenza dei motori di ricerca (ladestranews.it)

Negli ultimi mesi, ChatGPT ha acquisito una popolarità impensabile e ha persino stabilito un record nel mondo della tecnologia, raggiungendo il traguardo dei 100 milioni di utenti in due mesi. Microsoft ha anche collaborato con OpenAI per integrare il chatbot AI nel suo motore di ricerca Bing e nel browser Edge. La capacità di fornire risultati di ricerca basati sull’intelligenza artificiale ha dato il via a una vera e propria gara tra Microsoft e Google per implementare la tecnologia nei propri browser.

Intelligenza artificiale: avremo motori di ricerca 5 volte più potenti, ma quali sono i rischi?

Non c’è dubbio che l’obiettivo da raggiungere è ben chiaro, ma davvero, in pieno stile machiavellico, il fine giustifica i mezzi? I giganti della tecnologia Google e Microsoft stanno pianificando di utilizzare modelli di linguaggio di grandi dimensioni per migliorare i risultati dei motori di ricerca. Le aziende affermano che integrando l’intelligenza artificiale, i motori di ricerca analizzeranno e riassumeranno dati “complessi” e offriranno risposte alle domande in modo “umano”.

ChatGPT contro Bard, ovvero Microsoft contro Google

Microsoft ha recentemente condiviso i suoi piani per integrare ChatGPT nel suo motore di ricerca esistente Bing. Mentre Google ha anche annunciato il progetto Bard, che la società descrive come un “servizio sperimentale di intelligenza artificiale conversazionale”.

Per entrambe le multinazionali, mantenere i sistemi informatici per sostenere la potenza dei motori di ricerca è già un’operazione che richiede molte risorse. L’integrazione di AI chatbot renderà l’operazione ancora più pesante e tutto questo richiederà un maggiore consumo di energia.

Gli esperti hanno avvertito che l’abilità informatica richiesta per combinare l’intelligenza artificiale con un carico di query sui motori di ricerca sarà aumentata per aziende come Google e Microsoft fino a 5 volte. Di conseguenza appare scontato che, a fronte del consumo di maggiore energia, aumenteranno anche le emissioni di gas serra.

Maggiore necessità di potenza energetica uguale maggiori emissioni di c02
Emissioni Co2: i rischi del progresso informatico targato Google e Microsoft (ladestranews.it)

Alan Woodward, professore di sicurezza informatica presso l’Università del Surrey, ha affermato senza mezze misure: “Tutto questo richiede potenza di elaborazione, archiviazione e ricerca efficiente. Ogni volta che assistiamo a un cambiamento radicale nell’elaborazione online, assistiamo a un aumento significativo delle risorse di alimentazione e raffreddamento richieste dai grandi centri di elaborazione. Penso che siamo di fronte ad un passo del genere.

Martin Bouchard, il fondatore della società di data center QScale, ha affermato che l’intelligenza artificiale si tradurrebbe in una potenza di elaborazione di ricerca quattro o cinque volte superiore a quella attuale. Inoltre, i motori di ricerca aggiornati avranno anche bisogno di più data center per l’archiviazione. C’è da chiedersi in che modo le grandi aziende stanno pensando affrontare questo problema di non poco conto.

Più energia uguale aumento di emissioni di co2

Jane Park, portavoce di Google, ha affermato che la società inizialmente lancerà una versione “più leggera” di Bard che richiederà meno potenza di calcolo.

“Abbiamo anche pubblicato una ricerca che dettaglia i costi energetici dei modelli linguistici all’avanguardia, inclusa una versione precedente e più grande di LaMDA. I nostri risultati mostrano che la combinazione di modelli, processori e data center efficienti con fonti di energia pulita può ridurre l’impronta di carbonio di un sistema ML fino a 1000 volte”.

Sarà vero? Dobbiamo davvero credere a tutto questo? Possiamo davvero immaginare che multinazionali come Google e Microsoft, impegnate nella guerra al progresso tecnologico, se sarà necessario, faranno un passo indietro per alleggerire il peso delle emissioni?