Messa a punto e subito collaudata la prima checklist per determinare se un'Intelligenza Artificiale abbia una coscienza: degli attuali algoritmi nessuno ha passato l'esame, neanche ChatGpt.
Arriva da un gruppo internazionale di 19 neuroscienziati, filosofi e informatici guidati da Patrick Butlin, dell'Universita' di Oxford, e Robert Long, del Centro per la Sicurezza della IA in California, la proposta di definire una lista di criteri condivisi utili a definire se una IA possa essere considerata 'cosciente'.
Che si tratti di un animale, una voce artificiale o una macchina, etichettare qualcosa come 'cosciente' cambia profondamente il nostro modo di relazionarci con essa, ma nonostante l'uomo stia riflettendo sulla coscienza da migliaia di anni, non esiste ancora una definizione condivisa. Ancor piu' difficile risulta applicare il concetto di coscienza e un'entita' non biologica, ma completamente artificiale.
In questo contesto, per cercare di facilitare il dibattito i 19 ricercatori hanno cercato di sintetizzare le sei attuali teorie che tentano di definire il concetto di coscienza e adattarle al tema dell'intelligenza artificiale. I ricercatori inoltre hanno applicato questi stessi criteri ai sistemi di IA esistenti, tra cui ChatGpt, concludendo che nessuno di essi risponde ai requisiti di coscienza elencati sulla base della checklist.
Il lavoro, aggiungono gli stessi autori della ricerca, e' ancora lontano dal fornire una sorta di test di valutazione per la coscienza delle IA, ma vuole essere una base di partenza per sviluppare dei metodi di analisi coerenti e condivisi.
La prima checklist per valutare la coscienza dell'intelligenza artificiale
Nessun modello attuale supera l'esame, neanche ChatGpt