/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Google ha 25 anni, i 10 traguardi nel campo dell'IA

Google ha 25 anni, i 10 traguardi nel campo dell'IA

"Può rendere le attività quotidiane più semplici"

27 settembre 2023, 10:06

Redazione ANSA

ANSACheck

Google ha 25 anni, i 10 traguardi nel campo dell 'IA © ANSA/AFP

Google ha 25 anni, i 10 traguardi nel campo dell 'IA © ANSA/AFP
Google ha 25 anni, i 10 traguardi nel campo dell 'IA © ANSA/AFP

In occasione dei festeggiamenti per il 25esimo compleanno che cade il 27 settembre, Google ripercorre i 10 traguardi nel campo dell'Intelligenza artificiale, tema diventato sempre più ricorrente. "L’IA ha il potere di rendere le attività quotidiane più semplici e di aiutare a risolvere i più grandi problemi della società", afferma la società in un blogpost ufficiale.

2001: il machine learning aiuta gli utenti della Ricerca Google a correggere l’ortografia delle query

Larry Page, il co-fondatore di Google, una volta ha detto: "Il motore di ricerca perfetto deve comprendere esattamente cosa intendi e offrirti in risposta esattamente ciò di cui hai bisogno". Abbiamo fatto un grande passo avanti nel far progredire questa vision quando abbiamo iniziato a usare per la prima volta una versione semplice di machine learning per suggerire l’ortografia migliore per le ricerche web. Anche se la query contiene errori, gli utenti possono comunque ottenere la risposta che cercano.

2006: viene lanciato Google Traduttore
Cinque anni dopo, abbiamo lanciato Google Traduttore, che usa il machine learning per tradurre automaticamente diverse lingue. Abbiamo iniziato con le traduzioni dall’arabo all’inglese, e viceversa, ma oggi Google Traduttore supporta 133 lingue parlate da milioni di persone in tutto il mondo. Questa tecnologia è in grado di tradurre testi, immagini e perfino conversazioni in tempo reale, abbattendo le barriere linguistiche nella comunità globale,
aiutando le persone a comunicare ed estendendo l’accesso alle informazioni come mai era accaduto prima.

2015: TensorFlow rende l’IA democratica
L’introduzione di TensorFlow, un nuovo framework di machine learning open source, ha reso l’IA più accessibile, scalabile ed efficiente. Ha inoltre contribuito ad accelerare il ritmo della ricerca e dello sviluppo dell’IA a livello mondiale. TensorFlow è ora uno dei framework di machine learning più noti ed è stato usato per sviluppare una vasta gamma di applicazioni di IA, dal riconoscimento delle immagini all’elaborazione del linguaggio naturale, fino alla traduzione automatica.

2016: AlphaGo batte il campione mondiale di Go
Nell’ambito della Google DeepMind Challenge Match, oltre 200 milioni di persone hanno guardato online AlphaGo diventare il primo programma di IA a battere un campione mondialeumano di Go, un complesso gioco da tavolo che in precedenza era ritenuto fuori dalla portata dei computer. Questa vittoria leggendaria ha dimostrato il potenziale che il deep learning ha nel risolvere problemi complessi che si pensava fossero impossibili per i computer. La vittoria di AlphaGo su Lee Sedol, uno dei migliori giocatori di Go al mondo, ha innescato una conversazione globale sul futuro dell’IA e ha dimostrato che adesso i sistemi di IA possono imparare a padroneggiare giochi complessi che richiedono creatività e pensiero strategico.

2016: le TPU permettono un’implementazione dell’IA più rapida ed efficiente

Le Tensor Processing Unit, o TPU, sono chip progettati su misura che abbiamo inventato
appositamente per il machine learning e ottimizzato per TensorFlow. Sono in grado di addestrare ed eseguire modelli IA molto più velocemente rispetto ai chip tradizionali e sono quindi ideali per applicazioni di IA su larga scala. La versione v5e, annunciata ad agosto, è la Cloud TPU più versatile, scalabile e conveniente ideata fino ad oggi. La TPU v5e offre una performance di addestramento per dollaro raddoppiata e una performance di deduzione per
dollaro fino a 2,5 volte maggiore per LLM e modelli IA in confronto alla Cloud TPU v4.

2017: Google Research introduce Transformer
Il documento di Google Research, "Attention Is All You Need", ha introdotto Transformer, una nuova architettura di rete neurale che ha aiutato nella comprensione del linguaggio. Prima di Transformer, i computer non erano molto capaci di comprendere il significato di frasi lunghe poiché non riuscivano a capire la relazione tra parole lontane. Transformer ha migliorato significativamente questo aspetto ed è diventato il fondamento dei sistemi di IA generativa e comprensione del linguaggio più notevoli di oggi. Transformer ha rivoluzionato il significato che la traduzione, il riassunto di testi, la risposta alle domande e perfino la generazione di immagini e la programmazione di robot hanno per i computer.

2018: BERT aiuta la Ricerca a comprendere meglio le query
La nostra ricerca su Transformer ha portato all’introduzione di Bidirectional Encoder Representations from Transformers, in breve BERT, che ha aiutato la Ricerca a comprendere le query degli utenti meglio che mai. Invece di puntare a comprendere le singole parole, gli algoritmi di BERT hanno aiutato Google a capire le parole nel contesto. Ciò ha portato a un miglioramento significativo della qualità nella Ricerca e ha reso più semplice per gli utenti porre domande usando un linguaggio naturale invece di dover elencare parole chiave.

2020: AlphaFold risolve il problema del ripiegamento proteico
DeepMind ha fatto un balzo nel campo dell’IA con il suo sistema AlphaFold, che nel 2020 è stato riconosciuto come una soluzione al "problema del ripiegamento proteico". Le proteine sono i mattoni degli esseri viventi e il modo in cui una proteina si ripiega determina la sua funzione. Gli errori di ripiegamento delle proteine possono causare malattie. Da 50 anni gli scienziati cercano di prevedere il modo in cui una proteina si ripiega allo scopo di comprendere e curare le malattie. AlphaFold fa proprio questo. Nel 2022, tramite l’AlphaFold Protein Structure Database, abbiamo condiviso gratuitamente con la comunità scientifica 200 milioni di strutture proteiche di AlphaFold, che coprono quasi tutti gli organismi sul pianeta di cui è stata determinata la sequenza del genoma. Più di un milione di ricercatori ha già usato questi dati per accelerare la creazione di nuovi vaccini per la malaria a tempo di record, fare avanzare la scoperta di farmaci contro il cancro e sviluppare enzimi che mangiano la plastica.

2023: Bard agevola la collaborazione con l’IA generativa

LaMDA, un modello LLM conversazionale rilasciato da Google Research nel 2021, ha aperto la strada a numerosi sistemi di IA generativa, tra cui Bard, che hanno catturato l’immaginazione a livello mondiale. Bard, che è stato lanciato a marzo, è adesso disponibile nella maggior parte dei paesi e in oltre 40 lingue, così sempre più persone possono usarlo per aumentare la produttività, accelerare le idee e nutrire la curiosità. Abbiamo appena iniziato a scoprire tutto ciò che è possibile fare con Bard, ma alcuni usi popolari includono il brainstorming, la pianificazione di viaggi e la scrittura di contenuti creativi (come questo articolo, anche se giuro che non l’ho usato ).

2023: PaLM 2 fa avanzare il futuro dell’IA
A maggio abbiamo introdotto PaLM 2, il nostro modello LLM di prossima generazione che ha migliorato le capacità multilinguistiche, di ragionamento e di programmazione. È più capace, veloce ed efficiente dei suoi predecessori ed è già alla base di oltre 25 prodotti e funzionalità di Google, tra cui Bard, le funzionalità di IA generativa in Gmail e in Workspace ed SGE, il nostro esperimento di integrazione profonda dell’IA generativa nella Ricerca Google. Stiamo inoltre usando PaLM 2 per far avanzare la ricerca interna su aspetti quali la sanità e la cybersicurezza.Queste sono solo alcune delle innovazioni dell’IA di Google che sono alla base di molti dei prodotti usati quotidianamente da miliardi di persone. Con la guida dei nostri principi dell’IA verso un approccio audace e responsabile all’IA, siamo già al lavoro su Gemini, il il nostro prossimo modello creato per le innovazioni future dei nostri prossimi 25 anni.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza