/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Google lancia il programma per individuare le falle nell'IA

Google lancia il programma per individuare le falle nell'IA

E OpenAI mette in piedi un team per studiare i rischi della tecnologia

MILANO, 27 ottobre 2023, 12:11

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

Nell'anno del boom dell'IA generativa, Google ha deciso di avviare un programma con cui la community di esperti può cercare, individuare e condividere le vulnerabilità dei software di intelligenza artificiale. Si tratta di un'evoluzione dei classici "bug bounty", che già i big dell'hi-tech mettono in atto premiando i ricercatori che scoprono falle nei sistemi informatici. Proprio nelle ultime ore, il concorrente diretto di Big G, OpenAI, l'azienda madre di ChatGpt, ha invece deciso di formare un nuovo team per valutare i "rischi catastrofici" dell'intelligenza artificiale, anche sul nucleare. Il gruppo è affidato ad Aleksander Madry, già nel Mit di Boston.

Il nuovo programma di segnalazione delle vulnerabilità di Google premierà i ricercatori che individuano falle informatiche nelle piattaforme di IA generativa, per affrontare alcune preoccupazioni, come il rischio nella manipolazione dei modelli. La stessa Google fornisce un esempio del lavoro della community, che potrebbe concentrarsi, tra l'altro, nell'analizzare come le aziende "allenano" i loro algoritmi, sopratutto nel merito della protezione dei dati sensibili che raccolgono durante l'utilizzo da parte delle persone. "Il nostro programma mira a facilitare i test per le tradizionali vulnerabilità della sicurezza e per i rischi specifici dei sistemi di intelligenza artificiale. È importante notare che l'importo della ricompensa dipende dalla gravità dello scenario di attacco e dal tipo di obiettivo colpito" spiega una nota del colosso. Per migliorare la sicurezza dell'intelligenza artificiale, Google ha introdotto un Secure AI Framework, che mira a proteggere i "componenti critici della che abilitano l'apprendimento automatico" delle piattaforme di IA.

Insieme ad Anthropic, Microsoft e OpenAi, Google ha annunciato l'AI Safety Fund, un fondo per la sicurezza dell'intelligenza artificiale da 10 milioni di dollari, dedicato a iniziative di ricerca e monitoraggio dei software di nuova generazione.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza