Ogni soluzione a un problema di scala può creare un incentivo perverso che aggrava il problema originale. Il meccanismo è vecchio di un secolo, ma l’AI lo sta replicando a una velocità senza precedenti: automatizzare la produzione di contenuti non riduce il rumore, lo sposta al livello successivo.
Il modello
L’origine è nell’India coloniale britannica. Il governo di Delhi, preoccupato per la popolazione di cobra, offrì una ricompensa per ogni cobra morto consegnato alle autorità. Funzionò, per un po’. Poi la gente iniziò ad allevare cobra per incassare la ricompensa. Quando il governo se ne accorse e cancellò il programma, gli allevatori liberarono i cobra ormai privi di valore. La popolazione di cobra aumentò rispetto al punto di partenza. La soluzione aveva creato l’incentivo che aveva peggiorato il problema.
Nel marketing digitale contemporaneo, lo stesso meccanismo si ripete in catena. Primo anello: l’AI automatizza la produzione di contenuti, il costo marginale crolla e il volume esplode. Secondo anello: il rumore aumenta, e serve più curation per trovare il segnale — newsletter curate, aggregatori, filtri algoritmici. Terzo anello: qualcuno automatizza anche la curation, e il rumore filtrato inizia a sembrare segnale. Il problema non è scomparso: si è spostato a un livello più alto, con più complessità e meno visibilità. Lo stesso pattern si manifesta nell’email marketing: automatizzi le email, il volume in inbox aumenta, i tassi di apertura crollano, automatizzi la personalizzazione, le inbox si riempiono di email “personalizzate” tutte identiche nella struttura. E nel paid media: automatizzi il bidding, l’efficienza sale, tutti automatizzano il bidding, il costo d’asta sale, il vantaggio competitivo scompare, servono budget più alti per ottenere lo stesso risultato di prima.
Il denominatore comune è che ogni efficienza locale, quando viene adottata su scala da tutti gli attori del sistema, crea un nuovo problema di scala al livello successivo. La soluzione non è evitare l’automazione — sarebbe come rinunciare alle ricompense per i cobra senza affrontare il problema dei cobra. La soluzione è anticipare il secondo ordine: prima di implementare, chiedersi “se tutti adottano questa soluzione, cosa succede al sistema?”
Quando NON applicarlo
L’effetto cobra richiede un sistema adattivo — attori che cambiano comportamento in risposta alla soluzione. In un sistema chiuso, dove sei l’unico attore e nessun altro può reagire al tuo incentivo, il rischio di effetto cobra è trascurabile. Se automatizzi un processo interno che non interagisce con un mercato competitivo, il modello perde rilevanza. Diventa critico quando operi in un ecosistema: piattaforme advertising, mercati dei contenuti, canali di comunicazione condivisi.
il miglior stress-test per una nuova regola è chiedersi come le persone la aggireranno su larga scala

