(di Antonino Caffo)
"Siamo tornati quasi completamente
online, vi ringraziamo per la pazienza". È il messaggio che poco
prima delle 12 italiane del 27 dicembre, OpenAI ha condiviso sul
social X, per avvisare della fine del disservizio che nella
notte ha coinvolto ChatGpt e altri software di intelligenza
artificiale del gruppo. Tra questi, anche Sora, il discusso
modello che permette di creare brevi filmati, molto realistici,
a partire da indicazioni testuali.
Un malfunzionamento che, viste le ore, ha interessato solo in
parte l'Europa e maggiormente l'India e gli Stati Uniti.
"È sintomatico di come la corsa all'intelligenza artificiale
sia spesso frenetica e non ragionata" ha spiegato Franz Russo,
esperto di nuove tecnologie e di IA. "Gli investimenti in
infrastrutture devono andare di pari passo con le innovazioni
tecnologiche offerte agli utenti, altrimenti si rischiano danni
maggiori".
Non a caso, infatti, il recente blackout ha messo in
ginocchio non solo i curiosi che usano ChatGpt per rispondere
alle loro domande ma anche aziende ed enti che sui modelli di
OpenAI hanno realizzato assistenti personalizzati, per
comunicare con clienti e dipendenti.
"Più l'economia e i sistemi produttivi poggeranno su ChatGpt
e simili e più si dovrà fronteggiare l'eventuale pericolo di
un'interruzione su larga scala, capace di bloccare e mettere in
difficoltà interi settori", prosegue Russo.
A metà dicembre, OpenAI aveva aperto a tutti gli abbonati
l'accesso a Sora, dopo mesi di sperimentazioni.
"Per Sam Altman era questo il momento giusto, vista l'attesa
di un minor accesso ai modelli di OpenAI durante le feste e
quindi di un rischio ridotto di sovraccarico", spiega l'esperto.
Ma, dice "non è andata proprio così. E questo pone al centro il
grande tema della solidità delle infrastrutture su cui si
muovono le piattaforme di IA". Oggi, si domanda Russo
"un'interruzione del genere può avere un impatto limitato ma
cosa accadrà quando molti più soggetti useranno tali soluzioni
per fornire servizi globali? Va ripensato l'equilibrio
energetico che attualmente fa girare i modelli" perchè "questo
episodio ci pone, ancora una volta, davanti alla necessità di
affrontare il grande quesito del consumo di energia che
l'evoluzione della IA, soprattutto quella generativa, si porta
dietro".
Con la previsione di permettere a più persone di sfruttare il
potenziale dell'intelligenza artificiale, crescerà anche il
fabbisogno di server e data center che ospitano l'hardware su
cui si basano i vari progetti di IA.
E non a caso, come sottolinea il sito Key4Biz, l'Unione
Europea sta mettendo a punto nuove regole per controllare
l'impatto ambientale dell'innovativa tecnologia, con un focus
specifico sui modelli linguistici di grandi dimensioni, come
quelli di OpenAI.
Norme che, inserite nel catalogo dell'AI Act, mirano a
monitorare e limitare il consumo di applicazioni futuristiche ma
notoriamente 'energivore' e ancora alla ricerca di una
comprovata affidabilità.
Secondo il sito specializzato The Verge, a dicembre 2024 il
numero di utenti attivi settimanali su ChatGpt ha superato i 300
milioni, con oltre 1 miliardo di messaggi inviati
quotidianamente. Questo rappresenta un incremento rispetto ad
agosto 2024, quando gli utenti attivi settimanali erano oltre
200 milioni, il doppio rispetto all'autunno precedente.
Inoltre, a ottobre 2024, ChatGpt ha registrato 3,7 miliardi
di visite mensili a livello globale.
Riproduzione riservata © Copyright ANSA