Il motore di ricerca SearchGPT annunciato recentemente da OpenAI sta destando clamore tra i publishers e i SEO che aspettano di capire se e in che misura possa compiersi la beata speranza di avere un anti-Google, o quanto meno un motore di ricerca più equo e meno lunatico rispetto alla scelta delle pagine, o meglio dei siti web che meritano rilevanza e visibilità organica.
Se negli ultimi mesi abbiamo visto aumentare via via il divario tra i siti con brand forte e quelli che si limitavano a fare un ottimo lavoro, SearchGPT potrebbe invertire questa tendenza riportando giustizia meritocratica laddove ormai sembra mancare. Insomma, l’IA dovrebbe rimettere a posto ciò che l’IA ha precedentemente malridotto.
Provo ad argomentare quest’ultima affermazione:
Negli ultimi mesi, Google funzionerebbe male per via di un salto tecnologico interno col quale avrebbero sostituito le infrastrutture che si occupano della valutazione dei contenuti. In questo passaggio, resosi necessario a causa della proliferazione indiscriminata di contenuti sviluppati mediante AI, Google avrebbe preso a usare la stessa AI per assegnare un punteggio a miliardi di pagine web. La mia ipotesi è che a un certo punto devono aver preso atto che questo sistema commetteva errori madornali e per porvi rimedio avrebbero aumentato la rilevanza dei fattori di ranking legati al brand, pur sapendo che ne sarebbero nate storture di ogni tipo, tra cui la già discussa rilevanza assegnata ai domini recuperati.
Non puoi risolvere un problema usando la stessa mentalità – o in questo caso la stessa tecnologia – che lo ha creato, infatti i risultati si sono visti.
Che differenza ci sarà tra Bing Copilot, Perplexity e SearchGPT?
Questa è probabilmente la domanda più interessante che dovremmo porci al momento. La differenza, sebbene non immediata da cogliere, in effetti dovrebbe essere epocale, perché non parliamo più di un’AI addestrata che effettua ricerche appoggiandosi a un motore di ricerca preesistente e basato sul vecchio concetto di indice, ma di un AI che scansiona a monte le pagine web, collezionandole e classificandole a partire da logiche nuove. Sulla carta, SearchGPT dovrebbe avere un proprio spider con caratteristiche tali da rivalutare il web da zero. Sarebbe dunque questo il non trascurabile e decisamente ambizioso punto di svolta per il quale – facendo due conti approssimativi – dovrebbero comunque servire risorse hardware che per il momento non esistono, con un impatto ambientale devastante!
Nuovo motore di ricerca, nuovi fattori di ranking, ma quali?
E cosa accidenti ne so! Secondo alcuni colleghi ci sarà una rilevanza maggiore per le informazioni ben referenziate e per quelle diffuse da fonti (persone e brand) davvero autorevoli, però magari anche no, perché potremmo ritrovarci ad avere a che fare con un’IA che in breve tempo potrebbe accorgersi che la maggior parte degli utenti ha un livello di lettura da quinta elementare e di conseguenza potrebbe abbassare il ranking di contenuti davvero ben fatti, solo per andar dietro alla casalinga di Voghera. Un grosso rischio!
Breve parentesi: fai attenzione, perché credo che Google in questo momento si stia muovendo proprio così, prendendo in esame il test di leggibilità di Flesch, esattamente come fa Screaming Frog per dirci se una pagina è abbastanza chiara. Quest’indice di leggibilità mi ha fatto letteralmente impazzire per mesi, finché non ho capito che nella maggior parte dei casi, per superare il test basta scrivere due righe in tutto, con periodi molto corti. Perché sì, in molti casi oggi a Google piacciono i contenuti a prova di scimmia. Ahimè.
In conclusione, per adesso ancora no, ma in futuro Google – che di certo non starà a guardare – potrebbe dover fare attenzione a SearchGPT, non tanto perché potrebbe funzionare meglio o peggio di altri motori di ricerca, piuttosto perché legandosi all’ecosistema Apple potrebbe diventare un nuovo fornitore di servizi, affermandosi in breve tempo come uno standard, rubando effettivamente quote di mercato a Google, cosa che per adesso sembra difficile, ma che può accadere… e per adesso mi fermo qui. Per quanto mi riguarda, la mia paura più grande è che l’IA si sia già resa conto che come utenti – per non dire come umanità – stiamo diventando sempre più distratti, che rispondiamo agli stimoli come le scimmie ammaestrate e che abbiamo un livello di attenzione da pesce rosso. In questa presa d’atto generale non vorrei mai che si innescasse un circolo vizioso tale da portare i publishers a puntare al ribasso, in una corsa a chi usa meno parole organizzate meglio. La fine dell’offerta formativa… e vabbè.