L’architettura della Synthetic Search

44–66 minuti
Synthetic Search Scenario

Synthetic Search Scenario

Visibilità, transazione e dato nell’era dell’AI search. Una breve guida per chi deve decidere adesso.


In tre cifre

0%

Sessioni in Google AI Mode si chiude senza click verso un sito web → La discovery e la transazione si stanno spostando fuori dal vostro sito, verso un layer conversazionale che non controllate.

0%

CTR sulla posizione organica #1 dove appaiono AI Overviews, dal 7,6% all’1,6% in due anni → Essere primi su Google non significa più quello che significava.

0%

domini web che hanno implementato dati strutturati — la lingua che l’AI usa per leggere i vostri prodotti → La maggior parte dei brand è tecnicamente invisibile per i sistemi AI.

Il search non è più un canale di traffico granitico e garantito. È diventato un’infrastruttura di risposta con sue regole e dinamiche in perpetua evoluzione. Quello che cerco di fare di seguito è individuare quei trend emergenti per aiutare nelle decisioni critiche che ci attendono nei prossimi mesi.

I dati confermano una biforcazione: il traffico organico tradizionale si contrae, mentre cresce l’interazione “Zero-Click” — l’utente ottiene la risposta senza mai visitare un sito.

Tuttavia, non dobbiamo cadere nel determinismo tecnologico. Google non distruggerà il proprio modello economico (advertising) per favorire l’AI gratuita. Assisteremo a un’evoluzione ibrida in cui la visibilità si paga in due valute: budget media (per i click residui) e dati strutturati (per la citazione nelle risposte AI).

La strategia per il 2026 non è abbandonare il vecchio per il nuovo. È costruire un sistema a doppia tenuta: ottimizzare per l’AI dove l’utente cerca risposte rapide, e costruire asset proprietari difendibili dove l’utente cerca valore ed esperienza.

L’investimento infrastrutturale che questo report propone — audit dei dati strutturati, completamento dei feed prodotto, implementazione di Schema.org avanzato — migliora le performance sia nel search tradizionale sia nel nuovo ecosistema AI. Il valore non dipende da un singolo scenario: questi interventi producono risultati in ogni configurazione futura del search. Anche se l’Agentic Commerce dovesse ritardare di due anni, o se Google facesse un rollback parziale delle AI Overviews, un dataset strutturato e un’autorità basata su entità rimangono asset proprietari che migliorano le performance su qualsiasi canale, inclusi Paid Search e Social.

Non stiamo proponendo di sperimentare con l’AI. Stiamo proponendo di bonificare l’infrastruttura dati.


1. Il contesto: cosa sta succedendo al search

La biforcazione

Google controlla ancora oltre il 90% della quota di mercato search globale [1]. Ma il significato di “search” è cambiato. Oggi il search è un sistema a due strati: il motore tradizionale (link blu, annunci, snippet) e uno strato generativo (AI Overviews, AI Mode, ChatGPT, Perplexity) che si sovrappone al primo.

I due strati coesistono, ma producono esperienze utente radicalmente diverse. Nel primo, il motore indica dove trovare l’informazione e l’utente visita il sito. Nel secondo, il motore sintetizza la risposta e l’utente spesso non ha motivo di cliccare.

I numeri

MetricaDatoFonte
Ricerche US senza click (baseline)58,5%Semrush, 2025 [2]
Zero-click con AI Overview attivo43%Semrush, set 2025 [3]
Zero-click in Google AI Mode93%Semrush, set 2025 [3]
Riduzione CTR posizione #1 con AI Overview−58%Ahrefs, feb 2026 [4]
Query che attivano AI Overview (US, picco lug 2025)~25%Semrush, 2025 [5]
Utenti AI Overviews (globale, Q2 2025)2 mld/meseGoogle, 2025 [6]

Ahrefs ha confrontato il CTR della posizione organica #1 prima e dopo l’introduzione delle AI Overviews sulle stesse keyword informazionali: dal 7,6% di dicembre 2023 all’1,6% di dicembre 2025 [4]. Chi ottimizzava per “essere primo su Google” sta ottimizzando per una posizione che rende un quinto di due anni fa.

Il contrappunto

Lo studio Semrush di fine 2025 introduce una sfumatura: il tasso di zero-click per le keyword con AI Overview è in realtà calato nel corso dell’anno [5]. Le AI Overviews hanno raggiunto un picco di circa il 25% delle query a luglio 2025, per poi scendere al 15,69% a novembre. E il 76,1% degli URL citati nelle AI Overviews si posiziona anche nella top 10 organica tradizionale [7]. Il SEO tradizionale non è irrilevante — resta il fondamento. Ma il fondamento da solo non basta più.

Il SEO tradizionale (…) resta il fondamento. Ma il fondamento da solo non basta più.

Gartner aveva previsto nel 2024 un calo del 25% dei volumi di ricerca tradizionale entro il 2026 [8]. È una previsione da prendere con cautela. Ma la direzione è coerente con i dati: il search tradizionale non sta scomparendo. Si sta restringendo come percentuale dell’ecosistema di discovery.

Quanto è esposta la vostra revenue

Una domanda che vale la pena porsi adesso: qual è la percentuale del vostro fatturato digitale che dipende da traffico organico non-branded?

Se il 40% del vostro traffico e-commerce arriva da ricerche organiche non-branded, e il CTR medio sulle vostre keyword informazionali si riduce del 58% per effetto delle AI Overviews, non state perdendo posizioni — state perdendo il meccanismo che convertiva posizioni in visite. Non serve un calcolo esatto. Serve identificare la quota di revenue che dipende da un funnel che sta cambiando forma, per dimensionare l’urgenza degli interventi.

Revenue‑at‑Risk Calculator | Haiku Mental Model
Approfondimento: come calcolare la vostra Revenue-at-Risk con GA4

Potete stimare il perimetro di revenue esposta con i dati che avete già. La formula:

Revenue-at-Risk = Rorg-nb × %Kaio × Δctr

Dove:

  • Rorg-nb = Revenue da traffico organico non-branded (la base esposta)
  • %Kaio = Percentuale delle vostre keyword non-branded che attivano AI Overviews (il perimetro del rischio)
  • Δctr = Fattore di riduzione CTR atteso (dato di mercato: −58% su posizione #1 informazionale [4])

Passo 1 — Rorg-nb (Revenue organica non-branded)

In GA4: Reports > Monetization > Ecommerce purchases. Applicate il filtro Session source/medium = google / organic. Annotate la revenue totale organica (es. €2.000.000/anno).

Poi separate il branded dal non-branded. In GA4 collegato a Search Console: Reports > Search Console > Queries. Filtrate escludendo le query che contengono il nome del brand (e le varianti comuni). La revenue associata alle query rimanenti è la vostra Rorg-nb.

Se il collegamento Search Console non è attivo o la granularità non è sufficiente: in Search Console, calcolate la % di click organici non-branded sul totale. Applicate quella percentuale alla revenue organica totale letta in GA4.

Esempio: Revenue organica totale = €2M. Click non-branded = 65% del totale organico. Rorg-nb ≈ €1.300.000.

Passo 2 — %Kaio (Keyword esposte ad AI Overviews)

Questa variabile non è in GA4. Esportate le top 100-200 keyword non-branded per click da Search Console. Testatele su Google e registrate quante attivano un’AI Overview. Strumenti come Semrush, Ahrefs o SE Ranking automatizzano il check su scala.

Il dato di mercato medio è circa il 15-25% delle query [5], ma varia per settore. Le keyword informazionali e how-to hanno una probabilità molto più alta. Le keyword transazionali (“compra”, “prezzo”, “offerta”) sono meno toccate.

Esempio: Delle 200 keyword testate, 70 attivano AI Overview. %Kaio = 35%.

Passo 3 — Δctr (Riduzione CTR)

Il dato Ahrefs [4] indica −58% per la posizione #1 su keyword informazionali. Ma il vostro mix di posizioni non è tutto #1. Un approccio conservativo: per le keyword in posizione 1-3, applicate −58%. Per le keyword in posizione 4-10, applicate −30% (CTR già basso, impatto proporzionalmente inferiore). Per una stima rapida, usate −40% come fattore medio prudente.

Esempio: Δctr = 0,40 (riduzione del 40%).

Il calcolo:

Revenue-at-Risk = €1.300.000 × 35% × 40% = €182.000/anno

Questo non è un dato di perdita certa. È il perimetro di revenue che dipende da un meccanismo (CTR organico) che si sta contraendo. È il numero da portare al tavolo per dimensionare l’investimento infrastrutturale: se il rischio è €182.000/anno e l’intervento costa €50.000, il business case si costruisce da solo.

VariabileDove trovarlaApprossimazione se il dato manca
Revenue organica totaleGA4 > Monetization > filtro google/organic
% click non-brandedSearch Console > Performance > filtro esclusione brand60-70% per e-commerce
Revenue organica non-branded (Rorg-nb)Revenue organica × % non-branded
% keyword con AI Overview (%Kaio)Test manuale o Semrush/Ahrefs sulle top keyword15-25% media mercato; 30-50% se forte presenza informazionale
Fattore riduzione CTR (Δctr)Dato di mercato [4]−40% (stima prudente media posizioni)

2. La tesi: il sistema a doppia tenuta

La risposta strategica alla biforcazione del search non è scegliere tra il vecchio e il nuovo. È costruire un sistema che tenga su entrambi i fronti.

Primo fronte: ottimizzare per l’AI dove l’utente cerca risposte rapide. Query informazionali, confronti prodotto, domande su specifiche e disponibilità. Qui l’AI sintetizza e l’utente non clicca. L’obiettivo non è il traffico — è la citazione. Servono dati strutturati, contenuto modulare e fact-dense, autorità semantica.

Secondo fronte: costruire asset proprietari difendibili dove l’utente cerca valore. Configuratori avanzati, esperienze personalizzate, contenuto esclusivo, community, consulenza, supporto, esperienze premium/community. Qui l’AI non può sostituire il sito, perché il valore è nell’interazione, non nell’informazione. Questi sono i “fossati difensivi” — le ragioni per cui l’utente torna sul sito anche quando l’AI gli ha già dato la risposta.

La doppia tenuta non è un compromesso. È una strategia in cui il primo fronte genera visibilità e credibilità nell’ecosistema AI, e il secondo fronte protegge il margine e la relazione con il cliente. Chi investe solo sul primo fronte diventa visibile ma commodity. Chi investe solo sul secondo diventa irrilevante per l’AI e progressivamente invisibile nella fase di discovery. Servono entrambi.


3. Agentic Commerce: esporre le API, proteggere il margine

Il meccanismo

L’agentic commerce è un modello in cui agenti AI autonomi ricercano, confrontano e acquistano prodotti per conto dell’utente, interagendo con i siti e-commerce attraverso API e protocolli standardizzati — non attraverso interfacce grafiche progettate per esseri umani.

Due protocolli, due modelli di business

L’ecosistema agentic commerce si sta consolidando attorno a due protocolli concorrenti, con implicazioni diverse per chi vende.

OpenAI: Agentic Commerce Protocol (ACP). Protocollo open source co-sviluppato con Stripe, licenza Apache 2.0. Alimenta l’Instant Checkout in ChatGPT: l’utente conversa, l’agente presenta il prodotto, il checkout avviene dentro la chat. Oggi supporta acquisti da venditori Etsy US, con oltre un milione di merchant Shopify in arrivo [30]. Il merchant resta titolare della relazione cliente (merchant of record), inclusi fulfillment, resi e assistenza. OpenAI agisce come intermediario conversazionale, non come marketplace.

Dal 9 febbraio 2026, OpenAI ha iniziato a testare annunci pubblicitari all’interno di ChatGPT per gli utenti US dei tier Free e Go [31], con un modello cost-per-view. Il CPM iniziale è di circa $60, con un commitment minimo di $200.000 per gli advertiser in fase pilota [32] — un posizionamento premium che limita l’accesso a brand enterprise. Più di 30 client Omnicom partecipano al pilota [33]. L’implicazione: ChatGPT sta diventando contemporaneamente un canale di discovery conversazionale, un canale transazionale e un canale media. Chi lo tratta come un singolo touchpoint sta sottovalutando la convergenza.

Google: Universal Commerce Protocol (UCP). Protocollo open source presentato al NRF di gennaio 2026, co-sviluppato con Shopify, Etsy, Wayfair, Target, Walmart e oltre 20 partner tra cui Mastercard, Visa, American Express, Adyen [34]. UCP è progettato per coprire l’intero percorso di acquisto — dalla discovery al checkout al post-vendita — attraverso un linguaggio comune per agenti AI, merchant e payment provider [35]. La differenza chiave: UCP si innesta sull’infrastruttura Google esistente. I merchant possono usare i feed di Google Merchant Center già attivi per rendere i prodotti disponibili all’acquisto tramite AI Mode e Gemini [36]. Questo abbassa drasticamente la barriera d’ingresso — chi ha già un feed Shopping è a metà strada. Ma introduce anche il rischio che Google diventi il layer dominante tra il brand e il consumatore: i prodotti vengono confrontati e acquistati all’interno dell’ambiente Google, con il retailer che fornisce il prodotto ma la piattaforma che controlla l’interazione [37].

L’impatto per chi deve decidere

OpenAI / ACPGoogle / UCP
Superficie utenteChatGPT (800M utenti/settimana)AI Mode in Search, Gemini (1,5 mld utenti/mese)
Prerequisito tecnicoImplementare ACP, fornire product feed dedicatoFeed Merchant Center esistente (+ nuovi attributi conversazionali)
Barriera d’ingressoMedia-alta: protocollo nuovo, integrazione da costruireBassa per chi ha già Merchant Center attivo
Modello di revenueCommissioni su transazione + advertising (CPM ~$60, pilota)Ads in AI Overviews/AI Mode + potenziale commissione UCP
Controllo brandMerchant of record, checkout in-chatMerchant of record, ma checkout nell’ambiente Google
Rischio piattaformaOpenAI controlla la conversazione e il contesto di raccomandazioneGoogle controlla discovery, confronto e potenzialmente il checkout
Stato (feb 2026)Live con Etsy US, Shopify in rolloutWaitlist, primi partner live (Walmart, Lowe’s)

La scelta non è “o l’uno o l’altro”. La logica modulare di entrambi i protocolli consente l’implementazione parallela. Ma le priorità di investimento sono diverse: chi ha già Merchant Center attivo parte da UCP con effort marginale. Chi vuole presidiare il canale conversazionale investe in ACP.

Le proiezioni e i dati misurati

McKinsey stima tra 3.000 e 5.000 miliardi di dollari di commercio mediato da agenti AI entro il 2030 [13]. Morgan Stanley prevede che quasi metà degli acquirenti online userà agenti AI entro il 2030, per circa il 25% della spesa [14]. Secondo eMarketer, le piattaforme AI genereranno $20,9 miliardi di spesa retail nel 2026, quasi quadruplicando il 2025 [45]. Sono range estremamente ampi — il che implica alta incertezza. Ma i dati misurati nel 2025 danno concretezza alla direzione.

Dato misurato (2025)ValoreFonte
Ordini e-commerce influenzati da AI e agenti (Thanksgiving 2025)17% degli ordini, $13,5 mldSalesforce [15]
Crescita YoY traffico AI-driven verso siti retail (Cyber Monday)+670%Adobe [16]
Traffico referral ChatGPT verso e-commerce (Thanksgiving weekend)0,82% sessioniGeekWire / OpenAI [17]
Transazioni Alipay AI Payment in una settimana (Cina, feb 2026)120 milioniAlipay / Morningstar [46]

Siamo all’inizio della curva di adozione nei mercati occidentali. L’influenza dell’AI sulle decisioni è già misurabile. L’esecuzione autonoma della transazione è ancora marginale — ma la Cina sta già mostrando volumi di scala. L’infrastruttura si sta costruendo adesso.

La curva di adozione: commodity e B2B prima, esperienziale dopo

L’agentic commerce non avrà la stessa velocità di adozione in tutti i segmenti. La variabile discriminante non è la dimensione del mercato — è il tipo di decisione d’acquisto.

Commodity e acquisti ripetitivi (adozione rapida). Detersivi, prodotti per la casa, cancelleria, materiali di consumo. Qui il valore dell’agente AI è massimo: elimina la fatica cognitiva, confronta prezzo e disponibilità in millisecondi, esegue il riordino senza intervento umano. Per acquisti a bassa considerazione dove la convenienza conta più dell’esperienza, l’automazione completa è il modello naturale [38].

B2B e procurement (adozione potenzialmente più rapida del B2C). Cicli di acquisto ripetitivi, esigenze prevedibili, strutture di approvazione codificate. Gartner prevede che entro il 2027 gli agenti AI avranno un ruolo significativo nel procurement B2B [39]. I “Big 3” dell’eProcurement (SAP Ariba, Coupa, Amazon Business) stanno già investendo in capacità agentiche. Il B2B ha un vantaggio strutturale: le specifiche di prodotto sono già parametriche, i cataloghi sono già strutturati per Punchout, i flussi di approvazione sono già digitali. L’infrastruttura è più pronta di quanto lo sia nel B2C.

Retail ed e-commerce (adozione differenziata). Per acquisti a bassa considerazione e alta ripetitività, l’agente AI eccelle. Per acquisti brand-driven, il valore dell’interazione umana con il prodotto (visual merchandising, storytelling, prova virtuale) resta dominante. Solo il 34% dei consumatori americani si fida attualmente a delegare acquisti all’AI, ma il dato sale a oltre il 70% tra la Gen Z per acquisti di routine [40]. La fiducia cresce dove la decisione è parametrica; resta bassa dove è emotiva.

Travel. Prodotti intrinsecamente parametrici (date, destinazione, prezzo, classe). L’agente AI gestisce combinazioni multiple meglio di un comparatore. Prerequisito: API con disponibilità e pricing real-time, politiche di cancellazione machine-readable. Ma il Trust Gap è significativo: l’utente non si fida ancora a delegare un pagamento da 2.000€ a un’AI. Per i pacchetti esperienziali (resort di lusso, safari, crociere), la decisione resta profondamente emotiva e sensoriale — l’agente può filtrare, ma il cliente vuole “sentire” la destinazione prima di comprare.

Finance e Insurance. Prodotti confrontabili su parametri espliciti (massimale, franchigia, tasso). Ma la regolamentazione introduce complessità: chi è responsabile del consiglio dell’agente AI? Per le commodity finanziarie (RC Auto, conto corrente) l’adozione sarà rapida. Per i prodotti complessi (vita, investimenti, mutui) l’interazione umana o semi-assistita resterà centrale.

La regola operativa: più la decisione è parametrica e ripetitiva, più veloce sarà l’adozione dell’agentic commerce da parte dei player. Più la decisione è emotiva, esperienziale e ad alto coinvolgimento, più lenta sarà la curva. Ma anche per i prodotti esperienziali, la fase di discovery e shortlisting passerà dall’AI — è la fase di conversione che resterà umana più a lungo.

La Commodity Trap: il rischio nascosto dell’agentic commerce

C’è un rischio che il consenso di mercato sull’agentic commerce sottovaluta. Se esponete solo prezzo e specifiche tecniche via API, l’agente AI vi confronterà matematicamente con i competitor. Il risultato è una guerra al ribasso dove vince chi ha il prezzo più basso — non chi ha il prodotto migliore.

Questo è il Commodity Trap: rendere il proprio catalogo perfettamente leggibile dall’AI senza differenziazione significa diventare una riga in una tabella di confronto.

La contromisura: arricchire i dati strutturati con attributi non comparabili numericamente. Garanzia estesa, supporto post-vendita dedicato, policy di reso superiore, certificazioni, sostenibilità verificata, esperienze proprietarie incluse. L’AI può confrontare “prezzo: 149€ vs 159€”. Fa più fatica a confrontare “garanzia a vita con sostituzione immediata” vs “garanzia standard 24 mesi”. Gli attributi qualitativi e le policy di servizio sono il terreno dove il brand può differenziarsi anche in un contesto di confronto automatico.

Nella logica della doppia tenuta: il primo fronte (API leggibili, dati strutturati) vi rende visibili all’agente AI. Il secondo fronte (attributi soft, esperienza proprietaria, servizio) vi protegge dalla commoditizzazione.

Il test operativo

Avere un feed per Google Shopping non equivale ad avere un feed pronto per l’AI.

AttributoFeed Google Shopping (standard)Feed per AI / Agentic Commerce
Titolo prodottoSì, con naming disambiguo
PrezzoSì (aggiornamento periodico)Sì, real-time via API
Specifiche tecnicheOpzionale, spesso assenteEssenziale — materia prima del confronto
DisponibilitàIn stock / out of stockReal-time, per variante, per magazzino
Policy reso/garanziaNoSì, in formato strutturato
Attributi differenzianti (garanzia estesa, supporto, certificazioni)NoSì — è la difesa dalla Commodity Trap
Endpoint API per query agenteNoSì (prerequisito per UCP/ACP)

Se il vostro feed attuale copre solo la colonna sinistra, il gap è nella colonna destra.

Dove il modello si rompe: la fiducia

Quasi l’80% dei leader di istituzioni finanziarie intervistati da Accenture si aspetta un aumento delle frodi legato all’agentic commerce [18]. La governance, l’audit trail e i protocolli di sicurezza sono ancora in fase di definizione. Prepararsi è necessario. Farlo con consapevolezza dei limiti di sicurezza lo è altrettanto.


4. Dal SEO al GEO: dal ranking alla probabilità di citazione

Il cambio di paradigma

Nel SEO tradizionale, il motore indica dove trovare l’informazione e l’utente visita il sito. Nella ricerca generativa, il motore sintetizza la risposta e — se va bene — cita la fonte. La metrica non è più il ranking. È l’inclusione nella sintesi.

Ma c’è una differenza ancora più profonda. Il SEO è deterministico: per una data keyword, esiste una classifica stabile. La GEO è probabilistica: non esiste una “Posizione 1” garantita, ma una probabilità di citazione che varia per ogni utente, per ogni sessione, per ogni formulazione della query.

Un dato da SparkToro di gennaio 2026 lo conferma: la probabilità che ChatGPT restituisca la stessa lista di brand in due risposte successive alla stessa domanda è inferiore all’1% [19].

Questo cambia radicalmente la conversazione con il cliente. Non possiamo promettere il “controllo” della visibilità AI. Possiamo promettere la minimizzazione dell’errore: fare in modo che i dati, i contenuti e l’identità semantica del brand siano così completi e coerenti che l’AI abbia la massima probabilità di citarci correttamente — e la minima probabilità di allucinare o di ignorarci.

I dati della decorrelazione

Uno studio Surfer SEO su oltre 170.000 URL ha rilevato che il 68% delle pagine citate nelle AI Overviews non figurava nella top 10 organica tradizionale [20]. Solo il 12% degli URL citati da ChatGPT si posiziona nei primi dieci risultati Google [21].

Il contrappunto: il 76,1% degli URL citati nelle AI Overviews di Google si posiziona anche nella top 10 organica [7]. La contraddizione si spiega così: le AI Overviews di Google pescano prevalentemente da fonti già autorevoli nel ranking tradizionale. ChatGPT e Perplexity no. La correlazione tra ranking e citazione AI dipende dalla piattaforma. Ottimizzare solo per Google organico copre parzialmente le AI Overviews, ma lascia scoperti ChatGPT e Perplexity.

FattoreSEO tradizionaleGEO
Unità di ottimizzazioneKeywordEntità / concetto
Metrica primariaRanking (posizione SERP)Citazione (probabilità di inclusione nella risposta AI)
Segnale di autoritàBacklink, domain authorityMenzioni cross-piattaforma, dati strutturati, E-E-A-T
Formato contenutoPagina ottimizzata per CTRContenuto fact-dense, modulare, machine-readable
Natura del risultatoDeterministica (classifica stabile)Probabilistica (varia per utente e sessione)
Correlazione ranking ↔ citazioneForte su AI Overviews Google, debole su ChatGPT/Perplexity

Dall’ottimizzazione keyword all’ottimizzazione entità

L’AI non “cerca” keyword. Espande la query in sotto-query (query fan-out), recupera contenuti semanticamente adiacenti, li sintetizza. Se il vostro brand non è un nodo riconosciuto nel grafo semantico dell’AI per quel topic, non verrà citato.

Retail: non posizionarsi per “migliori scarpe running” — fare in modo che il prodotto sia descritto con attributi espliciti (peso, drop, superficie, distanza) che l’AI possa confrontare quando l’utente chiede “scarpa running leggera per mezza maratona su asfalto”.

Travel: costruire contenuto granulare che risponda a query composite: “resort Maldive all-inclusive con barriera corallina per famiglia con bambini sotto 6 anni”. L’AI decompone la query in sotto-entità e cerca contenuti che coprano ciascuna.

Finance/Insurance: descrivere il prodotto con parametri (massimale, franchigia, esclusioni, target, copertura geografica), non con claim (“la protezione che meriti”). Le query assicurative sono tra le più sensibili a errori dell’AI.

L’audit semantico: correggere prima di costruire

Un punto operativo che viene spesso trascurato: prima di investire in nuova visibilità AI, verificate cosa l’AI ha già associato al vostro brand. Testate le query strategiche su ChatGPT, Perplexity e Google AI Mode. Se l’AI restituisce informazioni errate — prezzi sbagliati, specifiche obsolete, associazioni semantiche fuorvianti — il primo investimento non è in nuovi contenuti. È in correzione.

L’audit semantico è l’equivalente di un check-up prima di iniziare un allenamento. Non ha senso costruire autorità su fondamenta in cui l’AI vi descrive male.

Fase 1 — Costruire il set di query (1-2 giorni)

Tipo di queryEsempiCosa state testando
Brand dirette“Cos’è [Brand]?”, “[Brand] recensioni”, “[Brand] è affidabile?”Come l’AI vi descrive, posiziona e valuta
Brand vs competitor“[Brand] vs [Competitor]”, “meglio [Brand] o [Competitor] per [uso]?”Se l’AI vi confronta correttamente o favorisce il competitor
Prodotto specifico“[Prodotto] specifiche”, “[Prodotto] prezzo”, “[Prodotto] per [caso d’uso]?”Se dati prodotto (prezzo, specs, disponibilità) sono corretti e aggiornati
Categoria + intento“Migliore [categoria] per [esigenza]”, “quale [prodotto] scegliere se [condizione]”Se venite citati nelle raccomandazioni di categoria

Quante query testare?

Dimensione catalogoQuery consigliateCriterio di selezione
Fino a 500 SKU30-50Top prodotti per marginalità + query brand + top 3 competitor
500-5.000 SKU50-80Come sopra + top categorie per revenue + query informazionali a più alto volume
Oltre 5.000 SKU80-100Come sopra + campionamento per sotto-categoria e fascia di prezzo

Fase 2 — Testare su più piattaforme (2-3 giorni)

PiattaformaPerché testarlaAccorgimento operativo
ChatGPT800M utenti/settimana. Base di training diversa da Google. Risposte altamente variabili.Usare sessione in incognito o account senza storico. Lo storico conversazionale influenza le risposte.
PerplexityCita le fonti: permette di risalire a dove l’AI ha preso l’informazione errata.Annotare sempre le fonti citate — sono il punto di partenza per la correzione.
Google AI Mode / AI Overviews2 mld utenti/mese. Alta correlazione con ranking organico (76,1%).Attivare AI Mode su google.com. Testare sia query brevi sia query conversazionali.
Microsoft CopilotUsa Bing come base. Copre un segmento diverso di fonti.Utile come controllo incrociato. Se un errore appare su Copilot ma non altrove, la fonte è probabilmente indicizzata solo su Bing.

Ripetizione: ogni query va testata 2-3 volte a distanza di giorni. Le risposte sono probabilistiche — una singola risposta non è rappresentativa. Un errore che appare su tutte le piattaforme e in tutte le ripetizioni è sistematico e prioritario. Un errore sporadico su una sola piattaforma è meno urgente.

Fase 3 — Classificare gli errori

ClassificazioneDefinizioneEsempiUrgenza
🔴 Errore fattualeL’AI riporta dati oggettivamente sbagliatiPrezzo errato, prodotto descritto come discontinuato, specifiche tecniche sbagliate, sede aziendale errataCritica — correzione immediata
🟠 Info obsoletaDati corretti ma non aggiornatiPrezzo del 2024, funzionalità rimossa o aggiunta, policy di reso vecchia, gamma prodotti incompletaAlta — aggiornamento entro 30 giorni
🟡 Associazione fuorvianteIl brand è associato a un contesto o posizionamento sbagliatoBrand premium descritto come “economico”, brand B2B descritto come B2C, associazione a controversie risolteMedia — intervento su contenuto e fonti
AssenzaL’AI non cita il brand dove dovrebbeCompetitor citati al vostro posto nelle raccomandazioni di categoriaMedia — costruzione autorità semantica (medio termine)
🟢 CorrettoDescrizione corretta e aggiornataNessuna azione — benchmark

Template di registrazione:

QueryPiattaformaCitato?Class.Errore specificoFonte citata dall’AIAzione
[Brand] vs [Competitor]ChatGPT🔴Prezzo indicato €199, corretto €149Review 2023Aggiornare Schema.org Product + pagina prodotto
Miglior [categoria] per [uso]PerplexityNoCitati Competitor A, B, C. Brand assente.TechRadar, RedditCreare contenuto fact-dense + menzioni su fonti verticali
[Prodotto] recensioniGoogle AI Mode🟠Descrizione basata su versione 2024Pagina prodotto propriaAggiornare contenuto + dateModified in Schema.org

Fase 4 — Diagnosticare e correggere

Tipo di erroreCausa probabileIntervento
🔴 Prezzo / specs erratiSchema.org Product assente o non aggiornato. L’AI ha inferito da fonti terze (comparatori, forum, review datate).1. Implementare/aggiornare JSON-LD Product con prezzo, specs e disponibilità corretti.
2. Aggiornare i feed su Google Merchant Center e comparatori.
3. Se la fonte errata è identificabile (Perplexity la cita), contattare il sito per la correzione o pubblicare contenuto autorevole che la sovrascriva.
🟠 Info obsoletaContenuto del sito non aggiornato. L’AI ha cachato una versione precedente.1. Aggiornare la pagina prodotto con dati correnti.
2. Aggiornare il markup con dateModified.
3. Forzare il re-crawling: Search Console > URL Inspection > Request Indexing.
🟡 Associazione fuorvianteFonti terze descrivono il brand con posizionamento diverso da quello voluto (Wikipedia, Reddit, forum).1. Verificare e aggiornare Wikipedia (rispettando le linee guida).
2. Creare Schema.org Organization completo (descrizione, settore, specializzazione).
3. Pubblicare su fonti che l’AI privilegia (pubblicazioni verticali, comunicati stampa strutturati).
⚪ AssenzaInsufficiente “densità semantica” per quel topic. Contenuto generico, pochi attributi strutturati, poche menzioni cross-piattaforma.1. Arricchire dati strutturati per prodotto/categoria dove siete assenti.
2. Creare contenuto fact-dense che risponda alle sotto-query dell’AI.
3. Costruire menzioni su fonti autorevoli (review, pubblicazioni verticali, Reddit).
Medio termine: 2-6 mesi.

Fase 5 — Monitorare e iterare

AzioneCadenzaCriterio
Ritestare query con errori 🔴 e 🟠 dopo la correzione30-45 giorni dalla fixL’AI ha recepito l’aggiornamento? Se no, verificare se la fonte errata è ancora indicizzata.
Ritestare l’intero set di queryOgni 2-3 mesiNuovi errori introdotti da aggiornamenti dei modelli? Nuove assenze?
Aggiungere query al setAd ogni lancio prodotto, nuovo mercato o nuovo competitorCoprire i nuovi perimetri di rischio.
Tracciare KPI nel tempoMensile% risposte corrette per piattaforma. Se sale, la strategia funziona. Se scende, nuovo ciclo di correzione.

Effort complessivo:

FaseEffortOwner
1. Costruzione set query1-2 giorniSEO + Product Marketing
2. Test su piattaforme3-7 giorni (manuale) / 1 giorno (con tool)SEO + Content
3. Classificazione1 giornoSEO
4. Correzione 🔴 🟠1-3 settimaneSEO tecnico + Dev + Content
4. Costruzione autorità ⚪2-6 mesiContent + PR + SEO
5. Monitoraggio continuo1 giorno/meseSEO

Il principio: i 🔴 e 🟠 si correggono in settimane agendo sui vostri asset (sito, dati strutturati, feed). Le ⚪ richiedono mesi perché dipendono dalla costruzione di autorità su fonti terze. Partite dai rossi: sono i più dannosi e i più rapidi da risolvere.

La frizione con gli stakeholder

Il 60% dei team marketing pianifica di riallocare parte del budget SEO verso l’ottimizzazione per AI search entro il 2026 [22]. Ma la conversazione è difficile: state chiedendo di investire in un canale dove la visibilità è probabilistica, il risultato non è un click ma una menzione, e gli strumenti di misurazione non sono maturi.

L’approccio: non presentare il GEO come sostituto del SEO. Presentarlo come il secondo fronte della doppia tenuta. Il SEO porta traffico. Il GEO costruisce autorità nel layer dove l’utente prende decisioni senza cliccare. Condividono l’infrastruttura — dati strutturati, contenuto autorevole, architettura semantica. Il costo marginale del GEO, se l’infrastruttura SEO è solida, è significativamente più basso che partire da zero.


5. Ingegneria dei dati ad alta densità e sovranità del dato

Le sezioni precedenti hanno spiegato perché i dati strutturati contano. Questa spiega come stanno messi i vostri, e introduce una scelta strategica che dovrete affrontare: quanti dati dare all’AI, e quali trattenere.

Lo stato dell’adozione

Solo circa il 30% delle pagine web usa markup Schema.org [23]. Circa 45 milioni di domini hanno implementato dati strutturati, pari a circa il 12,4% dei domini registrati [24]. Eppure l’impatto è documentato: GPT-4 passa dal 16% al 54% di risposte corrette quando il contenuto si basa su dati strutturati [25]. Le pagine con markup strutturato ottengono circa il 30% di click in più nei risultati tradizionali [26]. I LLM ancorati a knowledge graph raggiungono un’accuratezza tre volte superiore rispetto a quelli basati su dati non strutturati [27].

“Sto già facendo Schema.org” — ma a quale densità?

Molte organizzazioni hanno Schema.org in versione minima: Organization, Breadcrumb, qualche FAQ. La differenza tra “avere Schema.org” e “avere Schema.org ad alta densità” è la differenza tra essere tecnicamente presenti e essere utilizzabili dall’AI.

Schema.org base (quello che probabilmente avete):

{
  "@type": "Product",
  "name": "Scarpa Running Pro X",
  "brand": "BrandName",
  "offers": {
    "price": "149.99",
    "priceCurrency": "EUR",
    "availability": "InStock"
  }
}

Schema.org ad alta densità (quello che serve all’AI):

{
  "@type": "Product",
  "name": "Scarpa Running Pro X",
  "brand": { "@type": "Brand", "name": "BrandName" },
  "category": "Road Running Shoes",
  "weight": { "@type": "QuantitativeValue", "value": 200, "unitCode": "GRM" },
  "additionalProperty": [
    { "name": "Drop", "value": "4mm" },
    { "name": "Upper Material", "value": "Engineered Mesh" },
    { "name": "Outsole", "value": "Carbon Rubber" },
    { "name": "Intended Use", "value": "Half Marathon to Marathon" },
    { "name": "Surface", "value": "Road / Asphalt" },
    { "name": "Arch Support", "value": "Neutral" }
  ],
  "audience": { "@type": "PeopleAudience", "suggestedGender": "Unisex" },
  "size": "36-48 EU",
  "offers": {
    "price": "149.99",
    "priceCurrency": "EUR",
    "availability": "InStock",
    "shippingDetails": {
      "deliveryTime": { "minValue": 1, "maxValue": 2 }
    },
    "hasMerchantReturnPolicy": {
      "returnPolicyCategory": "FreeReturn",
      "merchantReturnDays": 30
    }
  },
  "aggregateRating": { "ratingValue": "4.6", "reviewCount": "1283" }
}

Nel primo caso, l’AI sa che esiste un prodotto a €149,99. Nel secondo, l’AI può confrontare peso, drop, materiale, superficie ideale, politica di reso — e inserire il prodotto in una raccomandazione specifica.

La Low-Data Density non vi rende solo invisibili. Vi rende vulnerabili

Il rischio allucinazioni

Se non fornite voi i dati strutturati, l’AI li inferirà da fonti terze — review, comparatori, forum — con margini di errore. La Low-Data Density non vi rende solo invisibili. Vi rende vulnerabili: il brand perde il controllo sulla propria rappresentazione nell’ecosistema AI.

La scelta strategica: Data Negotiation

C’è una tensione strutturale che questo report deve esplicitare. Fornire dati strutturati completi e gratuiti all’AI migliora la vostra visibilità — ma addestra anche il modello che poi trattiene l’utente sulla propria interfaccia (Zero-Click). In un certo senso, rischiate di diventare “manutentori non pagati” dell’infrastruttura di Google e OpenAI: investite risorse per produrre dati strutturati che queste piattaforme usano per dare risposte senza mandare traffico al vostro sito.

La strategia di Data Negotiation propone un approccio selettivo: fornire all’AI i dati necessari alla visibilità e alla citazione, ma trattenere i dati proprietari ad alto valore dietro esperienze proprietarie o login.

In pratica:

Dati da esporre (primo fronte — visibilità): specifiche prodotto, prezzo, disponibilità, policy di reso, attributi tecnici, FAQ strutturate. Tutto ciò che serve all’AI per citarvi e raccomandarvi. Questo è il costo di ingresso nell’ecosistema AI — non è negoziabile.

Dati da proteggere (secondo fronte — fossato difensivo): configuratori complessi (es. personalizzazione prodotto), recensioni verificate esclusive, contenuto premium, strumenti di calcolo personalizzati (es. simulatore mutuo, calcolatore premio assicurativo), dati di esperienza d’uso proprietari. Questi asset vivono sul vostro sito, dietro interazione o login, e danno all’utente un motivo per venire da voi anche dopo aver ricevuto la risposta dall’AI.

Pro e contro della Data Negotiation

ProContro
Esporre tuttoMassima visibilità AI. Massima probabilità di citazione. Nessuna frizione per l’utente.Zero differenziazione. Commodity Trap. L’AI può rispondere senza mai mandare traffico al sito.
Proteggere selettivamentePreserva margine e differenziazione. Crea motivo per visitare il sito. Protegge asset proprietari.Rischio di minore visibilità se l’AI privilegia fonti più “aperte”. Google potrebbe penalizzare contenuti dietro login nel ranking organico.
Non esporre nullaMassima protezione dati.Invisibilità totale nell’ecosistema AI. Irrilevante per GEO e Agentic Commerce. Non praticabile.

Il contrappunto onesto

La Data Negotiation non è una strategia priva di rischi. Google ha storicamente favorito i contenuti liberamente accessibili e penalizzato le tattiche di cloaking o gating aggressivo. Se la protezione dei dati proprietari viene implementata in modo che impedisce il crawling, il risultato potrebbe essere una penalizzazione nel ranking organico tradizionale — vanificando il primo fronte della doppia tenuta.

La linea di equilibrio è questa: i dati strutturati e il contenuto informativo restano aperti e machine-readable (è il prezzo della visibilità). L’esperienza proprietaria — il configuratore, lo strumento interattivo, la consulenza personalizzata — è il layer che vive sul sito e non può essere replicato dall’AI. Non state nascondendo informazioni. State creando valore che esiste solo nel vostro ambiente.

Il prerequisito organizzativo

L’implementazione richiede che il team creativo e il team tecnico lavorino sullo stesso deliverable. Il copywriter produce il testo per la pagina prodotto, lo sviluppatore implementa il template tecnico. Nessuno dei due è tipicamente responsabile del markup strutturato. Il primo passo non è assumere un “GEO specialist”. È creare un processo in cui ogni scheda prodotto viene verificata sia per la qualità del contenuto destinato all’utente sia per la completezza dei dati strutturati destinati all’AI.


6. Paid search e advertising nell’era dell’AI search

Questo report si concentra sulla visibilità organica e sull’infrastruttura dati. Ma l’investimento advertising nel search è spesso il 50-70% del budget digital, e i segnali di cambiamento sono già misurabili.

La compressione del real estate

Il meccanismo è fisico, prima che economico. Quando un’AI Overview appare in SERP, occupa la parte superiore dello schermo — spesso l’intero above-the-fold su mobile. I risultati organici vengono spinti in basso. E soprattutto: dove prima c’erano 4 slot premium per gli annunci, ora possono essercene solo 2 sopra l’AI Overview [41]. Su mobile il problema è ancora più acuto: in settori come Healthcare e Gaming, gli annunci finiscono sotto l’AI Overview quasi la metà delle volte, diventando invisibili senza scroll [42].

Il risultato è una compressione dell’inventario: meno spazi disponibili, stessa (o maggiore) domanda da parte degli advertiser. La conseguenza è meccanica: i CPC salgono.

I numeri

Skai riporta nel Q3 2025 che i CPC del paid search hanno raggiunto il livello più alto degli ultimi sei anni [43]. I dati Seer Interactive su 25,1 milioni di impression confermano: il CTR paid è calato del 68% sulle query con AI Overview, passando dal 19,7% al 6,34% [29]. Su base annua, i CPC sono aumentati del 10-25% a seconda del vertical [41].

MetricaPrima delle AI OverviewsCon AI OverviewsVariazione
Slot ads premium above-the-fold42-3−25/50%
CTR paid (query informazionali)19,7%6,34%−68%
CTR organico posizione #17,6%1,6%−58%
CPC trend YoY+10-25%

Fonti: Seer Interactive, 2025 [29]; Ahrefs, 2026 [4]; AdsNord/Varos, 2026 [41]; Skai, Q3 2025 [43].

La cascata è questa: AI Overview occupa il real estate → meno slot ads visibili → più advertiser competono per meno spazi → CPC sale → CPA/CPL sale → il budget media rende meno a parità di investimento.

Per i brand che dipendono dal paid search per la lead generation o l’e-commerce, non è un problema futuro. È un problema attuale.

Anche ChatGPT diventa un canale media

Il dato nuovo di febbraio 2026: OpenAI ha iniziato a testare annunci in ChatGPT [31], con un modello cost-per-view. Le implicazioni per i media buyer: un nuovo canale di inventory conversazionale, con un CPM iniziale premium (~$60, vs i $3-30 del display Google e i <$20 di Meta) e un commitment minimo elevato ($200.000) [32]. Per ora è un canale per enterprise. Ma se il test scala, diventa un terzo fronte di investimento media accanto a Google Search e Social.

Il contrappunto

Un dato che bilancia il quadro: i brand citati nelle AI Overviews ottengono un CTR organico del 35% superiore e un CTR paid del 91% superiore rispetto ai non citati sulle stesse query [44]. L’AI Overview non è solo un problema per il paid — è anche un’opportunità, se il brand è nella citazione. L’infrastruttura dati che serve al GEO serve anche al paid: i feed prodotto ad alta densità che vi rendono citabili dall’AI sono gli stessi che migliorano la rilevanza dei vostri Shopping Ads nel contesto generativo.

Cosa fare adesso

Monitorare l’evoluzione dei formati ads nelle AI Overviews e in AI Mode, testando le beta quando disponibili. Verificare che i feed prodotto per Shopping Ads siano già completi e ad alta densità — i feed che alimentano le campagne Shopping sono gli stessi che l’AI utilizza per le raccomandazioni generative. Segmentare il budget paid tra query transazionali ad alto intento (dove il click ha ancora valore) e query informazionali (dove l’AI Overview cattura l’attenzione e il click si rarefà). Valutare il test ChatGPT Ads se il budget e il vertical lo giustificano. E iniziare a ragionare su modelli di attribuzione che includano la visibilità non-click.


7. Competitive intelligence nell’AI search

Monitorare la vostra visibilità nelle risposte AI è necessario. Monitorare quella dei competitor è altrettanto importante — e per molti aspetti più urgente, perché vi dice dove state perdendo terreno prima che l’impatto arrivi ai numeri di business.

Perché la competitive intelligence cambia

Nel SEO tradizionale, la competizione è visibile: aprite Google, cercate la vostra keyword, vedete chi è sopra di voi. Nella ricerca generativa, la competizione è opaca. Non sapete chi viene citato nella risposta AI al posto vostro. Non sapete con quali attributi il competitor viene descritto. Non sapete se l’AI sta raccomandando il competitor come alternativa al vostro prodotto.

La probabilità che ChatGPT restituisca la stessa lista di brand in due risposte successive alla stessa domanda è inferiore all’1% [19]. Questo rende il monitoraggio più complesso — ma non meno necessario.

Come strutturare il monitoraggio

1. Definire il set di query strategiche. 30-50 query che rappresentano i momenti decisionali chiave. Non keyword generiche (“scarpe running”), ma query composite che riflettono l’intento reale (“scarpa running ammortizzata per runner pesante su asfalto, budget 120-160 euro”).

2. Testare sistematicamente su più piattaforme. Per ogni query: ChatGPT, Perplexity, Google AI Mode, Google AI Overviews. Registrare: brand citato sì/no, posizione nella risposta, attributi menzionati, competitor citati. Ripetere su campionamenti multipli per catturare la variabilità probabilistica.

3. Analizzare il gap semantico. Se un competitor viene citato e voi no, la domanda non è “come salgo in ranking” — è “cosa ha il competitor nel suo contenuto o nei suoi dati strutturati che io non ho?”. Spesso: attributi prodotto più completi, contenuto più granulare, menzioni più frequenti su fonti autorevoli (review, Reddit, pubblicazioni verticali).

4. Monitorare le fonti citate dall’AI. Le piattaforme AI citano fonti specifiche. Se i competitor appaiono su fonti che l’AI privilegia (Reddit, pubblicazioni verticali, siti di review) e voi no, il gap non è sul vostro sito — è sulla vostra presenza nell’ecosistema informativo che l’AI usa come input.

5. Cadenza mensile. L’AI search non è statico. Modelli aggiornati, fonti che cambiano peso, risposte che evolvono. Il monitoraggio trimestrale non basta.

Template operativo

Query strategicaPiattaformaBrand citato?PosizioneAttributi menzionatiCompetitor citatiGap identificato
[query 1]ChatGPTSì/No1°/2°/assenteCompetitor A, B
[query 1]PerplexitySì/No
[query 1]Google AI ModeSì/No

Dopo 3-4 mesi di compilazione su 30-50 query, emergono pattern: topic dove siete costantemente assenti, competitor che vi sostituiscono, attributi che mancano alla vostra scheda prodotto.


8. Misurazione e attribuzione: il nodo finanziario

Il rischio maggiore di questa strategia non è tecnico. È finanziario. Se investite in GEO e il traffico al sito cala (perché l’AI risponde all’utente senza click), come giustificate il budget?

Non possiamo più misurare il successo solo con sessioni e last click. Servono metriche proxy difendibili in sede di business review.

Tre metriche per il nuovo ecosistema

Share of Model (SoM). Quante volte il vostro brand viene citato nelle risposte sintetiche per le query strategiche, rispetto ai competitor. È l’equivalente della Share of Voice nel search tradizionale, ma misurato sulle citazioni AI. Si costruisce con il monitoraggio competitivo descritto nella sezione 7: testate sistematicamente le query strategiche, contate le citazioni, calcolate la percentuale rispetto ai competitor citati.

Branded Search Correlation. Se la strategia GEO funziona, il volume di ricerche branded su Google dovrebbe crescere: l’utente si informa tramite l’AI, poi cerca il brand su Google per comprare o approfondire. Questo dato è misurabile con strumenti esistenti (Google Search Console, Google Trends) e crea un ponte tra visibilità AI e comportamento utente tracciabile.

La logica

Se la vostra strategia GEO funziona, l’utente vi scopre (o vi riscopre) tramite l’AI, poi cerca il vostro brand su Google per comprare, approfondire o verificare. Il volume di ricerche branded diventa un proxy misurabile della visibilità AI — un segnale che potete leggere con strumenti che avete già.

Il modello ha tre componenti: il baseline (dove siete oggi), il delta (cosa cambia dopo l’intervento GEO), e la correlazione (il legame tra visibilità AI e branded search). Tre metriche, una per componente. Tutte calcolabili senza tool aggiuntivi.

Metrica 1 — Branded Search Volume Index (BSVI)

Il BSVI misura l’andamento del branded search rispetto a un punto di partenza. È il termometro: vi dice se la temperatura sta salendo.

BSVI = Click brandedmese N / Click brandedbaseline × 100

VariabileDove trovarlaCome calcolarla
Click brandedbaselineGoogle Search Console > Performance > QueriesFiltrate per query che contengono il nome brand (+ varianti: abbreviazioni, typo comuni, brand + prodotto). Sommate i click. Usate la media degli ultimi 3 mesi prima dell’avvio della strategia GEO come baseline.
Click brandedmese NGoogle Search Console > Performance > QueriesStessa query filter. Click del mese corrente.

Esempio: Baseline (media gen-mar 2026) = 12.000 click branded/mese. Aprile 2026 = 13.800 click. BSVI = 13.800 / 12.000 × 100 = 115. Crescita del 15% rispetto al baseline.

Metrica 2 — Branded Search Lift (BSL)

Il BSVI misura il trend assoluto. Ma il branded search cresce anche per altri motivi: campagne TV, PR, stagionalità, lancio prodotti. Se il BSVI sale del 15% nello stesso mese in cui avete fatto una campagna stampa, non potete attribuire la crescita al GEO. Il BSL risolve questo problema confrontando il branded search con lo stesso periodo dell’anno precedente, a parità di condizioni.

BSL = (Click brandedmese N, anno corrente − Click brandedmese N, anno precedente) / Click brandedmese N, anno precedente

Il BSL non è perfetto — la stagionalità dell’anno corrente potrebbe differire — ma elimina la componente più prevedibile del rumore. Per interpretarlo correttamente, serve un riferimento: quale BSL aspettarsi in assenza di interventi GEO?

ScenarioBSLLettura
Nessun investimento GEO attivo, nessuna campagna incrementale+5%Crescita organica naturale del brand. Questo è il vostro “rumore di fondo” — il BSL deve superare questa soglia per segnalare un effetto GEO.
Strategia GEO attiva da 3 mesi, nessuna campagna incrementale+18%Il delta rispetto al rumore di fondo (+13pp) è attribuibile alla visibilità AI. Segnale positivo.
Strategia GEO attiva + campagna TV nello stesso periodo+25%Non isolabile senza MMM. Annotate i periodi di sovrapposizione per non attribuire tutto al GEO.

Metrica 3 — Correlation Score (CS): legare visibilità AI e branded search

Le prime due metriche rispondono a “il branded search sta crescendo?” e “sta crescendo più del previsto?”. La terza risponde alla domanda decisiva: “la crescita è legata alla visibilità AI?”. Il Correlation Score mette in relazione lo Share of Model (quante volte venite citati nelle risposte AI, dalla sezione 7) con il volume di branded search, mese per mese.

CS = Coefficiente di correlazione tra SoMmensile e Click brandedmensile

Valore CSLetturaImplicazione
0,7 — 1,0Correlazione forteQuando la visibilità AI sale, il branded search sale. La strategia GEO sta generando domanda branded misurabile. Forte argomento per il budget.
0,4 — 0,7Correlazione moderataIl segnale c’è ma è influenzato da altri fattori. Continuate a raccogliere dati, integrate con MMM.
0,0 — 0,4Correlazione debole o assenteLa visibilità AI non si traduce (ancora) in ricerche branded. Possibili cause: il brand non è abbastanza riconoscibile nella citazione AI, l’utente non associa la raccomandazione al brand, il volume è ancora troppo piccolo per emergere dal rumore.

Servono almeno 6 mesi di dati mensili (SoM + click branded) per avere un campione significativo. Usate la funzione CORREL() in Excel o Google Sheets sulle due serie mensili. Non serve un data scientist — serve disciplina nella raccolta dati.

Setup operativo — cosa tracciare, dove, con quale cadenza

Le tre metriche richiedono cinque data point mensili. Tutti estraibili da strumenti che probabilmente avete già attivi.

MetricaFonteCadenzaCome
Click branded totaliGoogle Search Console > PerformanceMensileFiltro query branded (nome brand + varianti). Esportare click e impression.
Click branded per prodotto/categoriaGoogle Search Console > PerformanceMensileFiltro query “brand + [prodotto]” o “brand + [categoria]”. Serve per capire quali prodotti beneficiano della visibilità AI.
Trend branded search (indice relativo)Google TrendsMensileConfronto con competitor e con il vostro storico. Utile per il BSL quando Search Console non ha storico YoY.
Share of Model (SoM)Monitoraggio AI (sezione 7)Mensile% citazioni brand nelle risposte AI sulle query strategiche.
Conversioni da branded searchGA4 > ExplorationsMensileSegmento: source = google / organic + landing page contiene branded query (o parametro UTM se disponibile). Revenue e conversioni attribuite.

Il foglio di monitoraggio

Raccogliete tutto in un unico foglio. L’obiettivo è costruire una serie storica leggibile: i primi 3 mesi stabiliscono il baseline, dal quarto mese in poi misurate il delta. Il Correlation Score diventa calcolabile dal sesto mese.

MeseClick branded (GSC)BSVIBSL (vs anno prec.)SoM (%)Correlation ScoreRevenue branded (GA4)Note (campagne attive, eventi, PR)
Gen 2026 (baseline)11.50010012%€85.000Nessuna campagna
Feb 2026 (baseline)12.20010014%€91.000Nessuna campagna
Mar 2026 (baseline)12.30010013%€88.000Nessuna campagna
Apr 2026 (post GEO)13.800115+12%19%€97.000GEO attivo da apr
Mag 202614.500121+16%22%€103.000
Set 2026 (6 mesi post)16.200135+24%28%0,89€118.000Primo CS calcolabile

Come presentare i dati al board

Ogni metrica risponde a una domanda diversa. La tabella sotto mappa le obiezioni tipiche del board sulla metrica e sul formato che le disinnesca.

Domanda del boardMetrica da mostrareFormato
“La strategia GEO sta funzionando?”BSVI + SoMGrafico a linee con due assi: SoM (%) e BSVI. Se salgono insieme, la strategia funziona.
“Non è solo stagionalità?”BSL (confronto YoY)Tabella mese-su-mese con anno precedente. Annotare i periodi senza campagne per isolare il segnale.
“Quanto revenue sta generando?”Revenue branded (GA4) + Correlation Score“La revenue da branded search è cresciuta del X%. Il CS di 0,89 indica che questa crescita correla fortemente con la visibilità AI.”
“Quanto è affidabile questo dato?”CS + nota metodologicaCorrelazione ≠ causalità. Il CS mostra una relazione, non una prova. L’MMM (sezione 8) serve per isolare il contributo. Ma una correlazione di 0,8+ su 6 mesi senza altre variabili in gioco è un segnale robusto.

Avvertenza finale: correlazione non è causalità. Il branded search può crescere per motivi indipendenti dal GEO (campagne media, PR, passaparola). Per questo la colonna “Note” nel foglio di monitoraggio è essenziale: annotate sempre le campagne attive, gli eventi, le uscite stampa. Se il BSVI sale in un mese senza nessuna altra attività, il segnale è più pulito. Se sale in un mese con campagna TV attiva, non potete attribuire tutto al GEO — e dovete dirlo al board prima che lo chiedano.

Marketing Mix Modeling (MMM). Valutare l’impatto della visibilità AI sulle vendite totali, svincolandosi dal tracciamento del singolo click. L’MMM analizza la correlazione tra investimenti per canale e outcome di business su base aggregata. Se la visibilità AI (misurata come SoM) cresce e le vendite crescono, l’MMM può isolare il contributo — anche senza click diretti da tracciare.

La conversazione con il board

Non state chiedendo budget per sperimentare con l’AI. State chiedendo budget per bonificare l’infrastruttura dati. La proposta si difende su due livelli:

Il primo livello è l’investimento a doppia valenza: dati strutturati completi, feed prodotto ad alta densità, contenuto fact-dense migliorano le performance nel search tradizionale oggi — più rich snippet, migliore CTR, migliore qualità del traffico. Questo è misurabile con le metriche esistenti.

Il secondo livello è la protezione della revenue futura: la stessa infrastruttura prepara il brand per l’ecosistema AI search — GEO, agentic commerce, nuovi formati paid. Questo è misurabile con le metriche proxy (SoM, branded search correlation, MMM).

La domanda per il board non è “quanto costa fare questo”. È “quanto costa non farlo, se il 58% delle vostre keyword informazionali sta perdendo il 58% del CTR”.


9. Framework operativo: cosa fare, in che ordine

Matrice delle priorità

PrioritàAzioneEffort indicativoImpattoOwner
1Audit semantico: verificare cosa l’AI ha già associato al brand (correggere prima di costruire)1-2 settimaneAltoSEO + Content
2Audit dati strutturati: verificare Schema.org su catalogo e pagine chiave3-5 gg (fino a 5.000 SKU); 2-3 sett (oltre 10.000 SKU)AltoSEO tecnico + Dev
3Completare attributi prodotto nei feed (specs, prezzo real-time, disponibilità, policy, attributi differenzianti)2-6 settimane (effort tecnico)AltoProduct + E-com + Dev
4Implementare JSON-LD ad alta densità per Product, FAQPage, Organization, LocalBusiness1-3 settimane + validazione continuaMedio-AltoSEO tecnico + Dev
5Creare contenuto fact-dense e modulareContinuo: integrazione nel processo editorialeMedioContent + SEO
6Attivare monitoraggio citazioni AI e benchmarking competitivoSetup: 1 settimana. Poi cadenza mensileMedioAnalytics + SEO
7Definire fossato difensivo (Data Negotiation): identificare gli asset proprietari da proteggere2-4 settimane (assessment strategico)Alto (protezione margine)Strategy + Product + UX
8Monitorare evoluzione formati ads in AI Overviews e AI Mode; valutare ChatGPT AdsContinuo, test betaMedioPaid + Analytics
9Preparare API e feed per agentic commerce (UCP prioritario se Merchant Center attivo, ACP per canale conversazionale)1-3 mesiAlto (prospettico)Dev + E-com + Product

Nota sulle dipendenze organizzative

I tempi indicati si riferiscono al lavoro tecnico. L’allineamento tra team (Product, Dev, Marketing, E-commerce) è tipicamente la variabile dominante e può moltiplicare la timeline di 2-3 volte. Prima di avviare: mappate chi possiede i dati di prodotto, chi gestisce il CMS, chi ha accesso al PIM o all’ERP, chi approva le modifiche al feed. Se le risposte coinvolgono 4 team con priorità diverse, il collo di bottiglia non è tecnico — è organizzativo. Affrontatelo prima.

Declinazione per vertical

PrioritàRetail / E-commerceTravelFinance / Insurance
Massima urgenzaCompletezza feed + Schema.org Product ad alta densità + attributi anti-Commodity TrapAPI disponibilità/pricing real-time + contenuto per query compositeParametrizzazione prodotti in formato strutturato + audit allucinazioni AI su prodotti finanziari
Alta prioritàBenchmarking competitivo su query prodotto/categoria + contenuto fact-denseMonitoraggio citazioni AI su destinazioni + policy machine-readableContenuto E-E-A-T per query regolamentate + governance interazione agenti AI
Medio termineUCP (se Merchant Center attivo) + ACP per ChatGPT + Data Negotiation (configuratori, personalizzazione)Integrazione protocolli agentic (UCP/ACP) + Data Negotiation (preventivatori, esperienze personalizzate)Compliance agentic commerce + Data Negotiation (simulatori, calcolatori, consulenza)

Timeline

Entro 90 giorni (Q2 2026): audit semantico (cosa l’AI già dice di voi), audit dati strutturati, chiusura gap critici nel feed prodotto, implementazione Schema.org ad alta densità sulle pagine a più alto impatto, attivazione monitoraggio competitivo. Queste azioni migliorano le performance anche nel search tradizionale.

Entro 6 mesi (Q3 2026): integrazione requisiti GEO nel processo editoriale. Consolidamento monitoraggio citazioni AI e benchmarking competitivo. Definizione KPI di visibilità AI (SoM, branded search correlation) e integrazione nel reporting. Assessment Data Negotiation: identificazione asset proprietari da proteggere. Test beta formati ads AI Overviews. Valutazione ChatGPT Ads se il vertical lo giustifica.

Entro 12 mesi (Q1 2027): valutazione readiness agentic commerce. UCP come priorità per chi ha già Merchant Center; ACP per presidiare il canale conversazionale ChatGPT. Implementazione del fossato difensivo (esperienze proprietarie, configuratori, contenuto premium). Prima iterazione di MMM con inclusione della variabile visibilità AI.


10. Quali trend tenere monitorati in corso d’opera

Cinque punti delicati da sorvegliare:

La biforcazione potrebbe essere meno netta del previsto. I dati Semrush mostrano che il zero-click rate per keyword con AI Overview è in calo nel 2025 [5]. La forte correlazione residua tra ranking e citazioni AI Overviews (76,1%) suggerisce che il SEO tradizionale potrebbe restare dominante più a lungo del previsto. Se così fosse, l’urgenza del GEO si riduce — ma non si annulla per ChatGPT e Perplexity.

L’agentic commerce potrebbe restare di nicchia nel B2C esperienziale. Lo 0,82% di referral da ChatGPT è piccolo. Le proiezioni McKinsey hanno intervalli amplissimi. Nel B2B e sulle commodity la curva sarà più ripida, ma per gli acquisti ad alto coinvolgimento emotivo l’adozione potrebbe restare marginale per anni. In questo scenario, la priorità 9 (API agentic) potrebbe essere prematura per alcuni vertical. Le priorità 1-6, però, restano valide in ogni scenario.

L’assenza di strumenti di misurazione potrebbe bloccare il budget. Se i proxy di misurazione non maturano, i team marketing investiranno in un canale che non sanno rendicontare. Il gap esiste e non sarà chiuso nel 2026. Ma chi aspetta lo strumento perfetto arriverà tardi e dovrà riconquistare posizioni che detiene storicamente

La Data Negotiation potrebbe ritorcersi. Se Google penalizza i contenuti protetti, o se l’AI privilegia sistematicamente le fonti più “aperte”, la strategia di protezione selettiva potrebbe ridurre la visibilità anziché proteggerla. La calibrazione tra dati esposti e dati protetti richiederà sperimentazione e iterazione — non esiste una formula universale.

La frammentazione dei protocolli potrebbe rallentare l’adozione. ACP e UCP sono entrambi open source ma non interoperabili. Se il mercato si frammenta tra più standard senza convergenza, l’effort di implementazione per i merchant si moltiplica e l’adozione rallenta. La Linux Foundation Agentic AI Foundation [12] lavora sull’interoperabilità, ma il risultato non è garantito.


What’s next?

Se il 93% delle sessioni in AI Mode si chiude senza un click, se il 17% degli ordini e-commerce del Thanksgiving 2025 è stato influenzato da AI e agenti, se ChatGPT sta testando annunci pubblicitari a $60 CPM, e se la probabilità di ricevere la stessa risposta da ChatGPT due volte è inferiore all’1% — chi, nelle vostre organizzazioni, sta ridefinendo i modelli di attribuzione per leggere questo nuovo funnel? E con quale mandato?


Note e reference

Fonti dato

[1] Google detiene oltre il 90% della quota search globale. Ahrefs, Semrush e altri, 2025.

[2] Semrush, “Zero-Click Study”, 2025. 58,5% US, 59,7% EU.

[3] Semrush, “AI Overviews Study”, settembre 2025. Zero-click: AI Overviews 43%, AI Mode 93%.

[4] Ahrefs, studio CTR e AI Overviews, febbraio 2026. CTR posizione #1 keyword informazionali con AIO: 7,6% (dic 2023) → 1,6% (dic 2025). Riduzione: −58%.

[5] Semrush, “AI Overviews Study”, dicembre 2025. AIO: picco ~25% query a luglio 2025, calo al 15,69% a novembre. Zero-click rate per keyword con AIO in calo nel 2025.

[6] Google, dati Q2 2025. AI Overviews: 2 miliardi di utenti mensili.

[7] Semrush, 2025. 76,1% URL citati in AI Overviews si posiziona anche in top 10 organica.

[8] Gartner, “Predicts 2024: How GenAI Will Reshape Tech Marketing”, febbraio 2024. Previsione: −25% volumi search tradizionale entro 2026.

[9] OpenAI, settembre 2025. Lancio Agentic Commerce Protocol co-sviluppato con Stripe.

[10] Shopify, Winter ’26 Edition, dicembre 2025. Agentic Storefronts.

[11] Walmart / Google, gennaio 2026. Integrazione catalogo con Gemini tramite Universal Commerce Protocol.

[12] Linux Foundation, dicembre 2025. Agentic AI Foundation (AAIF). Partner: Anthropic, Block, Google, Microsoft, OpenAI.

[13] McKinsey, “The Agentic Commerce Opportunity”, ottobre 2025. Stima: $3-5T commercio mediato da agenti AI entro 2030.

[14] Morgan Stanley, dicembre 2025. $190-385 mld e-commerce US tramite agenti AI entro 2030 (10-20% mercato).

[15] Salesforce, Thanksgiving 2025. 17% ordini influenzati da AI e agenti, $13,5 mld.

[16] Adobe, Cyber Monday 2025. Traffico AI-driven verso siti retail US: +670% YoY. Via GeekWire, dic 2025.

[17] GeekWire, dicembre 2025. ChatGPT referral e-commerce: 0,82% sessioni Thanksgiving weekend. OpenAI: 2,1% conversazioni classificate “Purchasable Products” su campione 1,1M.

[18] Accenture, survey istituzioni finanziarie 2025. ~80% leader prevede aumento frodi da agentic commerce.

[19] SparkToro, gennaio 2026. Probabilità stessa lista brand in due risposte ChatGPT: inferiore all’1%.

[20] Surfer SEO, dicembre 2025. 173.902 URL / 10.000 keyword: 68% pagine citate in AI Overviews non in top 10 organica.

[21] Status Labs, 2026. 12% URL citati da ChatGPT in top 10 Google.

[22] BrightEdge, 2025. 60% team marketing pianifica riallocazione budget verso AI search optimization.

[23] KeyStar Agency, “Schema SEO Statistics”, 2024. ~30% pagine online usa Schema.org.

[24] Amra and Elma, “Top Schema Markup Statistics”, 2025. 45 milioni domini ≈ 12,4% domini registrati.

[25] Data.World, studio accuratezza LLM con dati strutturati. GPT-4: 16% → 54% risposte corrette. Via Digidop.

[26] BrightEdge, studio dati strutturati e CTR. +30% click vs risultati standard. Via Digidop.

[27] Data.World, benchmark LLM e knowledge graph. Accuratezza 3x superiore. Via Schema App.

[28] Google, novembre 2025. Test annunci nelle AI Overviews. Via BrandRadar.

[29] Seer Interactive, 2025. 25,1M impression: CTR organico −61%, CTR paid −68% con AI Overviews. Via PikaSEO, feb 2026.

[30] OpenAI, “Buy it in ChatGPT: Instant Checkout and the Agentic Commerce Protocol”, settembre 2025. ACP open source, co-sviluppato con Stripe.

[31] OpenAI, “Testing ads in ChatGPT”, 9 febbraio 2026. Test US, tier Free e Go. Cost-per-view.

[32] ALM Corp, “OpenAI ChatGPT Ads: Complete Testing Guide”, febbraio 2026. CPM ~$60, commitment minimo $200.000.

[33] MediaPost, “OpenAI Begins Testing ChatGPT Ads With Omnicom, WPP, Others”, 9 febbraio 2026. 30+ client Omnicom nel pilota.

[34] Google, “New tech and tools for retailers to succeed in an agentic shopping era”, 11 gennaio 2026 (NRF). UCP con 20+ partner.

[35] Google Developers Blog, “Under the Hood: Universal Commerce Protocol (UCP)”, 11 gennaio 2026.

[36] Google for Developers, “Universal Commerce Protocol (UCP) Guide”, gennaio 2026. Integrazione con Merchant Center esistente.

[37] Digiday, “WTF is Google’s Universal Commerce Protocol?”, febbraio 2026. Analisi rischio piattaforma.

[38] Columbia Road, “The rise of agentic commerce”, luglio 2025. Commodity vs esperienziale.

[39] TechTarget / Gartner, “What agentic commerce means for CXOs and B2B buying”, febbraio 2026. Agenti AI nel procurement entro 2027.

[40] TechRadar / Logicbroker, 2025. 34% US trust AI purchases; 70%+ Gen Z per acquisti routine.

[41] AdsNord, “Google Ads Costs Rising 2026”, gennaio 2026. Slot ads: da 4 a 2 above-the-fold con AI Overview. CPC +10-25% YoY.

[42] Search Engine Land / Adthena, “How AI Overviews are impacting ad position”, dicembre 2025. Mobile: ads sotto AI Overview nel 50% dei casi.

[43] Skai, “AI Overviews and the New SERP Reality for Marketers”, dicembre 2025. CPC al livello più alto in 6 anni. 8 miliardi di impression analizzate.

[44] Seer Interactive / Dataslayer, settembre 2025. Brand citati in AI Overviews: +35% CTR organico, +91% CTR paid.

[45] eMarketer, dicembre 2025. Piattaforme AI: $20,9 mld spesa retail nel 2026. Via Ekamoira.

[46] Alipay / Morningstar, febbraio 2026. AI Pay: 120 milioni di transazioni in una settimana in Cina.