Google compie oggi 25 anni, e dal 27 settembre 1998 ha raggiunto molti traguardi per diventare il compagno di tasca di miliardi di persone. Questo grazie all’utilizzo dell’intelligenza artificiale, sempre più sviluppata. Ecco dunque una carrellata sui successi di Google.

Google compie 25 anni: i 10 grandi traguardi di Google

Oggi Google festeggia il suo primo quarto di vita. Che passiamo in rassegna attraverso a 1o momenti della sua storia che lo hanno fatto diventare da semplice motore di ricerca a un Big della tecnologia e della nostra vita.

2001: Il machine learning e l’ortografia

Larry Page, il co-fondatore di Google, una volta ha detto: “Il motore di ricerca perfetto deve comprendere esattamente cosa intendi e offrirti in risposta esattamente ciò di cui hai bisogno”. Per la prima volta vie usata una versione semplice di machine learning per suggerire l’ortografia migliore per le ricerche web. Anche se la query contiene errori, gli utenti possono comunque ottenere la risposta che cercano.

Un'animazione di una ricerca errata di "gobbledygook".

2006: viene lanciato Google Traduttore

Cinque anni dopo, Google Traduttore utilizza il machine learning per tradurre automaticamente diverse lingue, partendo dal vocabolario dall’arabo all’inglese e viceversa. O supporta 133 lingue parlate da milioni di persone in tutto il mondo. Traduce testi, immagini e perfino conversazioni in tempo reale.

2015: TensorFlow rende l’IA democratica

L’introduzione di TensorFlow, un nuovo framework di machine learning open source, ha reso l’intelligenza artificiale più accessibile, scalabile ed efficiente. Ha inoltre contribuito ad accelerare il ritmo della ricerca e dello sviluppo dell’IA a livello mondiale. Da allora è stato usato per sviluppare una vasta gamma di applicazioni di IA, dal riconoscimento delle immagini all’elaborazione del linguaggio naturale, fino alla traduzione automatica.

2016: AlphaGo batte il campione mondiale di Go

Nell’ambito della Google DeepMind Challenge Match, oltre 200 milioni di persone hanno guardato online AlphaGo diventare il primo programma di IA a battere un campione mondiale umano di Go. Ovvero un complesso gioco da tavolo che in precedenza era ritenuto fuori dalla portata dei computer. Questo ha innescato una conversazione globale sul futuro dell’IA e ha dimostrato che adesso i sistemi intellienti possono imparare a padroneggiare giochi complessi che richiedono creatività e pensiero strategico.

2016: le TPU permettono un’implementazione dell’IA più rapida ed efficiente

Le Tensor Processing Unit, o TPU, sono chip progettati su misura  per il machine learning e ottimizzato per TensorFlow. Sono in grado di addestrare ed eseguire modelli IA molto più velocemente rispetto ai chip tradizionali e sono quindi ideali per applicazioni su larga scala. La versione v5e, annunciata ad agosto, è la Cloud TPU più versatile, scalabile e conveniente ideata fino ad oggi. La TPU v5e offre una performance di addestramento per dollaro raddoppiata e una performance di deduzione per dollaro fino a 2,5 volte maggiore per LLM e modelli IA in confronto alla Cloud TPU v4.

2017: Google Research introduce Transformer

Il documento di Google Research, “Attention Is All You Need“, ha introdotto Transformer, una nuova architettura di rete neurale che ha aiutato nella comprensione del linguaggio. Prima di Transformer, i computer non erano molto capaci di comprendere il significato di frasi lunghe poiché non riuscivano a capire la relazione tra parole lontane. Transformer ha migliorato significativamente questo aspetto ed è diventato il fondamento dei sistemi di IA generativa e comprensione del linguaggio più notevoli di oggi. E ha rivoluzionato il significato che la traduzione, il riassunto di testi, la risposta alle domande e perfino la generazione di immagini e la programmazione di robot hanno per i computer.

2018: BERT aiuta la Ricerca a comprendere meglio le query

La ricerca su Transformer ha portato all’introduzione di Bidirectional Encoder Representations from Transformers, in breve BERT. Che poi ha aiutato la Ricerca a comprendere le query degli utenti meglio che mai. Invece di puntare a comprendere le singole parole, gli algoritmi di BERT hanno aiutato Google a capire le parole nel contesto.

Immagine di una casella di ricerca contenente la query "Can you get medicine for someone pharmacy" e immagini affiancate dei risultati prima e dopo il BERT, con il dopo che riflette che "for someone" è una parte importante di questa query.Immagine di una casella di ricerca contenente la query "Can you get medicine for someone pharmacy" e immagini affiancate dei risultati prima e dopo il BERT, con il dopo che riflette che "for someone" è una parte importante di questa query.

2020: AlphaFold risolve il problema del ripiegamento proteico

DeepMind ha fatto un balzo nel campo dell’IA con il suo sistema AlphaFold, che nel 2020 è stato riconosciuto come una soluzione al “problema del ripiegamento proteico”. Le proteine sono i mattoni degli esseri viventi e il modo in cui una proteina si ripiega determina la sua funzione. Gli errori di ripiegamento delle proteine possono causare malattie.

Nel 2022, tramite l’AlphaFold Protein Structure Database, sono stati condivisi gratuitamente con la comunità scientifica 200 milioni di strutture proteiche di AlphaFold, che coprono quasi tutti gli organismi sul pianeta di cui è stata determinata la sequenza del genoma. Più di un milione di ricercatori ha già usato questi dati per accelerare la creazione di nuovi vaccini per la malaria a tempo di record, fare avanzare la scoperta di farmaci contro il cancro e sviluppare enzimi che mangiano la plastica.

2023: Bard agevola la collaborazione con l’IA generativa

LaMDA, un modello LLM conversazionale rilasciato da Google Research nel 2021, ha aperto la strada a numerosi sistemi di IA generativa, tra cui Bard. Lanciato a marzo, è adesso disponibile nella maggior parte dei paesi e in oltre 40 lingue, così sempre più persone possono usarlo per aumentare la produttività, accelerare le idee e nutrire la curiosità. Abbiamo appena iniziato a scoprire tutto ciò che è possibile fare con Bard, ma alcuni usi popolari includono il brainstorming, la pianificazione di viaggi e la scrittura di contenuti creativi.

Una GIF mostra una persona che usa Bard per pianificare un viaggio al Grand Canyon. Bard risponde con le date di un messaggio di posta elettronica, informazioni su hotel e voli e altro ancora.

2023: PaLM 2 fa avanzare il futuro dell’IA

A maggio è stato introdotto PaLM 2, il modello che ha migliorato le capacità multilinguistiche, di ragionamento e di programmazione. È più capace, veloce ed efficiente dei suoi predecessori ed è già alla base di oltre 25 prodotti e funzionalità di Google. Tra cui Bard, le funzionalità di IA generativa in Gmail e in Workspace ed SGE, l’esperimento di integrazione profonda dell’IA generativa nella Ricerca Google. PaLM 2 è in teste per far avanzare la ricerca interna su aspetti quali la sanità e la cybersicurezza.

L’articolo Il compleanno di Google e i 25 anni di grandi traguardi proviene da Tra me & Tech.