ChatGpt non ha superato il test di Turing, ideato per capire se una macchina ha raggiunto un livello di intelligenza tale da poter ingannare qualcuno facendogli credere di essere umana. Ci è andato però molto vicino: nella sua versione più aggiornata, Gpt-4, è riuscito a ingannare i partecipanti il 41% delle volte. Il risultato è stato pubblicato sulla piattaforma arXiv, che ospita lavori non ancora passati al vaglio della comunità scientifica, da due ricercatori dell'Università della California a San Diego, che mettono in guardia sulle conseguenze economiche e sociali che potrebbe avere un'Intelligenza Artificiale in grado di farsi passare per un essere umano.
I due ricercatori Cameron Jones e Benjamin Bergen hanno arruolato 650 partecipanti per sostenere brevi conversazioni con altri volontari oppure con ChatGpt, a loro insaputa. L'ultima versione Gpt-4, rilasciata dall'azienda OpenAI quest'anno, ha convinto i partecipanti di essere una persona il 41% delle volte, mentre la versione precedente, chiamata Gpt-3.5, solo dal 5% al 14% delle volte. È interessante anche notare che gli esseri umani sono riusciti a convincere gli altri volontari di non essere delle macchine solo nel 63% delle prove.
Coloro che hanno smascherato correttamente ChatGpt si sono basati su alcuni fattori chiave: conversazioni troppo formali o, all'opposto, troppo informali, testi eccessivamente prolissi o molto sintetici, oppure anche una grammatica e una punteggiatura eccezionalmente buona o pessima, erano tutti elementi che facevano risuonare un segnale di 'allarme'. Un'altra caratteristica rivelatrice è risultata la genericità della risposta. "Questi sistemi sono ottimizzati per produrre testi altamente probabili e per evitare opinioni controverse", spiegano gli autori dello studio: "Ciò incoraggia risposte molto generiche, prive delle idiosincrasie tipiche di una persona".
Riproduzione riservata © Copyright ANSA