Oggi parliamo dei nuovi update annunciati da Google, LaMDA e soprattutto MUM. Lo faremo però dal punto di vista di chi si sente promettere la luna da 15 anni, ma continua a riscontrare gli stessi problemi.
Cominciamo col dire che LaMDA fa(rà) riferimento ad un modello linguistico per applicazioni conversazionali e sfrutterà l’intelligenza artificiale per conversare con gli utenti ad un livello mai visto prima rispetto alle ricerche vocali. Gli algoritmi avanzati di machine learning, supportati da una potenza di calcolo mai vista prima, produrranno risposte naturali a domande complesse e articolate, proprio come farebbe una persona vera e non un bot.
[adrotate banner=”1″]
Se fai caso alle “sottigliezze”, avrai notato che tutte queste affermazioni sono declinate al futuro. In sostanza abbiamo splendide dichiarazioni di intenti infarcite di termini che richiamano la letteratura cyberpunk e i film di fantascienza, nella tradizione dei Googlers che fanno marketing promettendoci la luna e servendoci nei fatti un motore di ricerca ancora fallace. Perché diciamolo, Google funziona benissimo sulle serp che gli portano soldi e meno bene sulle pagine di risposta minori. Nell’epoca in cui diversi colleghi pure a livelli alti continuano a sostenere (nelle conversazioni private) che la pulizia delle serp venga fatta a mano da migliaia di operatori cinesi e indiani, Google ci fa sognare di colmare il vuoto sociale causatoci dalla pandemia, per mezzo di un nuovo amico virtuale con la parlantina da situation comedy e le risate registrate. Così pensiamo al futuro e nel frattempo chiudiamo un occhio quando Google premia i siti web che ci copiano i testi.
Google MUM
Ma niente paura, Google non ha solo regalato la rivoluzione delle ricerche vocali, ci ha anche messo il carico da 90 annunciando il nuovo algoritmo MUM “Multitask unified model” che funzionerà come BERT “Bidirectional Encoder Representations from Transformers” però 1000 volte più veloce, perché la nuova infrastruttura avrà 1000 volte più nodi rispetto a quella precedente. (!)
Simulando dunque una rete neurale umana capace di prendere decisioni attingendo all’open web, questa nuova avveneristica tecnologia sarà in grado di riconoscere i contenuti di bassa qualità e fornire le stesse risposte di un utente davvero esperto del settore, magari integrandole con immagini e video.
Bello vero? Peccato che ogni update dell’algoritmo di ricerca / risposta venga annunciato grossomodo in questi termini, salvo poi accorgerci che Google continua a non saper determinare chi ha scritto per primo una pagina web. Allora – e mi rivolgo ai Googlers – non venitemi a raccontare di rappresentazioni bidirezionali e altre cose che non posso capire, prima di aver risolto il problema dei contenuti copiati, perché dopo 15 anni (di update fantascientifici) questa storia va ancora avanti e il fatto che ora riuscite a riconoscere i contenuti con poco testo non risolve il problema.
Conclusioni e osservazioni critiche
A voler pensare male, questi annunci clamorosi sono spesso accompagnati o preceduti da altri tipi di proclami come quelli sulla supremazia quantistica e sui qbit che permettono di eseguire più operazioni contemporaneamente, moltiplicando in modo esponenziale la velocità, dunque la potenza di un processore per computer. Ora, io da ignorante quale sono, non mi permetto di dire che si tratta solo di marketing, anche perché il progresso tecnologico non è certo un’invenzione, però negli ultimi 10 anni ho visto le serp migliorare rispetto alle integrazioni con gli altri canali di Google, ma al netto dello Universal Search che ha reso Google un “motore di risposta”, i risultati organici presentano spesso gli stessi problemi di 10 anni fa e per altro con tutte le integrazioni, risultano anche meno visibili di 10 anni fa.
Ad onor del vero, mi piace il modo in cui Google ha bastonato la link building classica come strumento per fare posizionamento, ma per me l’ultimo update davvero significativo è stato Google Caffeine, che probabilmente ricordiamo in 12.
Insomma sarà anche vero che Google migliora sempre, ma per chi?