Nell'anno del boom dell'IA generativa, Google ha deciso di avviare un programma con cui la community di esperti può cercare, individuare e condividere le vulnerabilità dei software di intelligenza artificiale. Si tratta di un'evoluzione dei classici "bug bounty", che già i big dell'hi-tech mettono in atto premiando i ricercatori che scoprono falle nei sistemi informatici. Proprio nelle ultime ore, il concorrente diretto di Big G, OpenAI, l'azienda madre di ChatGpt, ha invece deciso di formare un nuovo team per valutare i "rischi catastrofici" dell'intelligenza artificiale, anche sul nucleare. Il gruppo è affidato ad Aleksander Madry, già nel Mit di Boston.
Il nuovo programma di segnalazione delle vulnerabilità di Google premierà i ricercatori che individuano falle informatiche nelle piattaforme di IA generativa, per affrontare alcune preoccupazioni, come il rischio nella manipolazione dei modelli. La stessa Google fornisce un esempio del lavoro della community, che potrebbe concentrarsi, tra l'altro, nell'analizzare come le aziende "allenano" i loro algoritmi, sopratutto nel merito della protezione dei dati sensibili che raccolgono durante l'utilizzo da parte delle persone. "Il nostro programma mira a facilitare i test per le tradizionali vulnerabilità della sicurezza e per i rischi specifici dei sistemi di intelligenza artificiale. È importante notare che l'importo della ricompensa dipende dalla gravità dello scenario di attacco e dal tipo di obiettivo colpito" spiega una nota del colosso. Per migliorare la sicurezza dell'intelligenza artificiale, Google ha introdotto un Secure AI Framework, che mira a proteggere i "componenti critici della che abilitano l'apprendimento automatico" delle piattaforme di IA.
Insieme ad Anthropic, Microsoft e OpenAi, Google ha annunciato l'AI Safety Fund, un fondo per la sicurezza dell'intelligenza artificiale da 10 milioni di dollari, dedicato a iniziative di ricerca e monitoraggio dei software di nuova generazione.
Leggi l'articolo completo su ANSA.it