Google Lens diventa ancora più potente

Lo strumento per la ricerca visiva del colosso integrerà modalità video e vocali, oltre a maggiori informazioni per lo shopping
Quando è stato lanciato nel 2017, Google Lens ha realizzato un'impresa che fino a non molto tempo prima sarebbe sembrata fantascienza: puntando la fotocamera del telefono su un oggetto, l'app ha permesso di identificarlo, mostrarne il contesto e magari anche convincervi a comprarlo. L'app ha introdotto di un nuovo modo di fare ricerche online, senza più bisogno di digitare goffamente la descrizione di quello che si aveva davanti agli occhi.
Le nuove funzioni di Google Lens
Ma Lens ha anche dimostrato come il colosso intenda utilizzare gli strumenti di apprendimento automatico e l'AI per garantire che il suo motore di ricerca spunti su ogni superficie possibile. E dal momento che Google utilizza sempre più spesso i suoi modelli di intelligenza artificiale generativa per sintetizzare informazioni in risposta alle ricerche testuali, anche la ricerca visiva di Google Lens si è evoluta. L'azienda ha infatti annunciato che il servizio, che gestisce circa 20 miliardi di ricerche al mese, supporterà un numero ancora maggiore di modalità, tra cui video e ricerche multimodali.
Un'altra modifica apportata a Lens inoltre fa sì che nei risultati appariranno più informazioni di contesto per lo shopping, senza dubbio uno dei casi d'uso principali dell'app. Se cercate le sneaker di un vostro amico nel vecchio Google Lens, vi verrà mostrato un carosello di articoli simili. Secondo l'azienda, nella versione aggiornata compariranno invece più link diretti per l'acquisto, recensioni di clienti e giornalisti e strumenti per lo shopping comparativo.
Non solo: ora Lens diventa multimodale, una parola molto in voga recentemente nel mondo dell'AI di questi tempi. Nella pratica, gli utenti potranno effettuare ricerche combinando input video, immagini e comandi vocali. Invece di puntare la fotocamera dello smartphone su un oggetto, mettere a fuoco e attendere che Lens vi fornisca i risultati, è possibile puntare l'obiettivo e utilizzare contemporaneamente istruzioni vocali come "Che tipo di nuvole sono quelle?" o "Di che marca sono quelle scarpe e dove posso comprarle?".
Lens inizierà a lavorare anche sull'acquisizione di video in tempo reale, portando lo strumento oltre l'identificazione di oggetti statici. Se avete un giradischi rotto o vedete una spia che lampeggia su un elettrodomestico che non funziona più, avrete la possibilità di fare un rapido video attraverso Lens e leggere i suggerimenti su come ripararlo grazie a un'AI overview, le sintesi generate dall'intelligenza artificiale di Google.
Annunciata per la prima volta all'I/O, questa funzione è ancora sperimentale ed è disponibile solo negli Stati Uniti per le persone che hanno aderito a Google search labs, come spiega il cofondatore di Lens Rajan Patel. Le altre novità – la modalità vocale e l'espansione dello shopping – fanno invece parte di un rilascio più ampio, già in corso.
Il futuro delle ricerche online
La funzione di "comprensione dei video", come la definisce Google, è intrigante per diversi motivi. Nonostante al momento funzioni solo con i video in tempo reale, se o quando Google la estenderà ai vecchi filmati (e magari a interi archivi) – sia nel rullino fotografico di una persona che in un database gigantesco come quello dell'azienda, i video potrebbero potenzialmente diventare taggabili e rimandare direttamente agli acquisti.
La seconda considerazione da fare è che questa funzione di Lens condivide alcune caratteristiche con il Project Astra di Google, che dovrebbe essere disponibile nel corso dell'anno e che come Lens utilizza input multimodali per interpretare il mondo circostante attraverso il telefono. Questa primavera, nell'ambito di una dimostrazione di Astra, l'azienda ha mostrato un prototipo di smart glasses.
Meta nel frattempo ha appena presentato la sua visione per il futuro della realtà aumentata (AR), in cui secondo la società i comuni mortali dovrebbero indossare stravaganti occhiali capaci di interpretare in modo intelligente il mondo che li circonda e mostrare interfacce olografiche. Google, come noto, ha già cercato di trasformare questo futuro in realtà con i Google Glass (che utilizzano una tecnologia fondamentalmente diversa da quella dell'ultima proposta di Meta). E se, insieme ad Astra, le nuove funzionalità di Lens fossero una tappa verso un nuovo tipo di occhiali intelligenti? A questa domanda, Patel si è limitato a rispondere affermando che l'annuncio di Meta è stato "convincente" e sottolineando che Lens è in realtà nato dall'ormai defunto team Daydream di Google, che si occupava di headset computing (anche se concentrandosi più sullo sviluppo di realtà virtuale piuttosto che sull'AR).
"Ci stiamo chiedendo come possiamo rendere ancora più facile per le persone fare domande, come possiamo rispondere alle domande in modo più fluido, e quali sono le funzionalità che dobbiamo costruire – ha raccontato Patel –. Tutti questi sono elementi fondamentali".




