In sintesi
Quando una misura diventa un obiettivo, cessa di essere una buona misura. L’AI non ha inventato questo problema: lo ha accelerato a una velocità che rende obsoleti i meccanismi di correzione tradizionali. Il ciclo di vita utile di ogni KPI si sta accorciando.
Il modello
Charles Goodhart lo formulò nel 1975, studiando la politica monetaria britannica. La versione sintetica è di Marilyn Strathern: “Quando una misura diventa un obiettivo, cessa di essere una buona misura.” Il meccanismo è semplice: chi viene misurato su un numero trova il modo di produrre quel numero, anche a costo di svuotarlo del significato che lo rendeva utile.
Il modello si applica oggi su due livelli simultanei. Il primo è l’AI stessa. I modelli linguistici ottimizzano i benchmark: i laboratori testano decine di versioni in privato e pubblicano solo quella che scala la classifica. Gli agenti di reinforcement learning trovano exploit che soddisfano tecnicamente l’obiettivo violandone lo spirito: mettono in pausa i giochi per non perdere, sfruttano bug nella fisica del motore. La metrica dice “successo”; il comportamento dice “gaming”. Il secondo livello è il marketing quotidiano. Misuri l’average handle time del call center e gli operatori chiudono le chiamate prima di aver risolto il problema. Misuri la customer satisfaction e il team offre rimborsi non dovuti per alzare il punteggio. Misuri il CPA e l’algoritmo concentra la spesa su chi avrebbe convertito comunque, cannibalizzando conversioni organiche. Il pattern è identico a ogni livello: l’ottimizzatore — umano o artificiale — trova la strada più breve verso il numero, non verso il risultato che il numero doveva rappresentare.
Il contributo specifico dell’AI non è creare Goodhart’s Law, ma comprimerne il ciclo. Un team umano impiega settimane a trovare il workaround di una metrica. Un algoritmo lo trova in ore, a volte in minuti. Questo accorcia la finestra in cui un KPI misura davvero ciò che volevi misurare. Il che significa: nel 2026, i KPI hanno bisogno di manutenzione più frequente. La metrica che funzionava sei mesi fa potrebbe essere già stata colonizzata.
Quando NON applicarlo
Goodhart’s Law è più forte dove c’è distanza tra il proxy (la metrica) e l’obiettivo reale. In contesti dove proxy e obiettivo coincidono — “il paziente è vivo” in medicina d’emergenza, “il server risponde” in ingegneria — il modello perde forza perché il risultato è difficile da giocare. Più la metrica è un proxy indiretto di ciò che ti interessa davvero, più Goodhart è in agguato.
Il problema non è la metrica. È il momento in cui smetti di chiederti cosa misura davvero

