1. L’alterazione delle condizioni di mercato a causa di intelligenze artificiali. L’idea di intelligenza artificiale distruttiva della concorrenza si lega al rischio che l’impiego avanzato di sistemi algoritmici, specie da parte di operatori dominanti, alteri le condizioni di mercato sino a rendere impossibile una competizione effettiva. La recente decisione del Consiglio di Stato del 29 ottobre 2025, n. 8398 riguarda l’abuso di posizione dominante nell’accesso a piattaforme digitali. Nell’affrontare il caso del rifiuto di un’impresa (Google) di garantire l’accesso ad un’applicazione (JuicePass) di una società che opera nei servizi di ricarica per veicoli elettrici (Enel X), si chiarisce che l’accesso a una piattaforma non essenziale (Google Maps) può essere necessario, se tale accesso accresce in modo significativo l’attrattività e la fruibilità del servizio da parte degli utenti.
Senza analizzare la specifica fattispecie trattata dal Consiglio di Stato, la decisione spinge ad affermare che chi domina l’accesso al mercato digitale domina anche la concorrenza e deve quindi garantire interoperabilità e trasparenza. Il punto da cui partire non è l’innovazione in sé — che è fisiologicamente pro-competitiva — ma la possibilità che l’intelligenza artificiale (di seguito IA) diventi uno strumento di rafforzamento e cristallizzazione di posizioni di potere economico, attraverso tre dinamiche principali.
La prima è l’abuso di posizione dominante attraverso algoritmi proprietari: le piattaforme che raccolgono e processano grandi volumi di dati possono ottimizzare prezzi, raccomandazioni e visibilità in modo opaco, favorendo prodotti propri rispetto a quelli dei concorrenti e rendendo l’accesso al mercato dipendente dal possesso di dati.
La seconda è la “collusione algoritmica”, cioè la possibilità che sistemi di pricing automatizzati imparino a coordinarsi senza un accordo umano esplicito, stabilizzando prezzi elevati e impedendo la concorrenza sul prezzo. In questo scenario, l’illecito non si manifesta come pattuizione, ma come risultato emergente di modelli di apprendimento: la prova e l’inquadramento giuridico diventano complessi, perché i tradizionali canoni sull’intesa vietata presuppongono volontà e comunicazione. Tuttavia, si potrebbe ricondurre lo scenario alla condotta volontaria degli imprenditori per il fatto di aver adottato e lasciato operare l’algoritmo, anche se manca l’intenzione di scambiare informazioni e dunque di coordinarsi.
La terza è la concorrenza predatoria attraverso i dati, per cui l’IA diventa uno strumento per erodere sistematicamente la redditività del concorrente: la capacità di profilare la domanda, prevedere mosse altrui e modulare offerte mirate consente strategie aggressive che solo chi dispone di potere informativo può sostenere.
Da qui discende che la tutela antitrust non può limitarsi alla repressione ex post dell’abuso, ma deve considerare la dimensione dell’accesso equo ai dati e delle condizioni tecnologiche del mercato. Il Digital Markets Act (DMA) ha già recepito questa impostazione, imponendo obblighi di interoperabilità, divieto di self-preferencing e condivisione dei dati nei confronti dei gatekeepers digitali; tuttavia, nel contesto dell’IA generativa, la questione si sposta sul modello: chi controlla i livelli di addestramento, le basi di dati, le infrastrutture di calcolo e le interfacce di accesso, controlla la possibilità stessa di competere.
La “distruttività” allora non è immediatamente visibile come atto illecito ma come processo graduale di spiazzamento competitivo: l’IA crea barriere all’ingresso insormontabili perché riduce l’incertezza del futuro solo per alcuni operatori, lasciando agli altri un mercato opaco e imprevedibile. Il punto centrale è mostrare che la concorrenza non viene annullata in modo diretto, bensì svuotata della sua funzione: se il mercato vive di asimmetrie informative e capacità previsionali, chi dispone dell’IA migliore concentra valore, influenza prezzi, orienta la domanda e finisce con l’essere non semplicemente dominante, ma dominante per struttura. In questo senso, la vera questione — giuridica ed economica — non è frenare l’IA, ma assicurare che la sua adozione non trasformi la concorrenza in una simulazione in cui l’esito è già scritto.
2. L’eliminazione dei concorrenti attraverso l’IA. Si immagini una squadra di calcio professionistica, la FC Aeternum, che decida di sostituire l’allenatore umano con un sistema di IA predittiva sviluppato internamente. Ci sono applicazioni del genere già esistenti ma non come quella che qui si descrive.
L’IA-coach, attraverso un complesso di algoritmi di machine learning e analisi in tempo reale, è in grado di:
monitorare ogni parametro dei giocatori propri e avversari (velocità, fatica, postura, decision making, reazione emotiva);
analizzare in diretta i dati della partita e quelli storici del tecnico avversario;
prevedere con elevata probabilità le mosse tattiche e i cambi di modulo della squadra opposta;
elaborare automaticamente, in meno di un secondo, la risposta strategica ottimale, regolando il modulo di gioco, la disposizione difensiva, le linee di pressing e persino le sostituzioni più efficaci.
L’IA-coach non agisce d’istinto ma secondo modelli probabilistici basati su migliaia di partite precedenti e su flussi di dati raccolti da sensori e telecamere intelligenti.
Così, mentre l’allenatore avversario impiega alcuni minuti per osservare e reagire, il sistema predittivo della FC Aeternum ricalibra già la strategia: se l’avversario passa a un 3-5-2 più offensivo, l’IA ridisegna in tempo reale un 4-2-3-1 più compatto, anticipando il rischio di scopertura laterale e ottimizzando le sostituzioni in funzione della temperatura corporea e della curva di affaticamento.
Il risultato è una vittoria sistematica, perché la velocità decisionale e la capacità di previsione della IA superano le capacità umane. La squadra finisce per dominare ogni competizione, alterando la logica sportiva basata su talento, imprevedibilità e rischio.
Da un punto di vista giuridico-sportivo, questa situazione apre questioni complesse.
In primo luogo, si pone il tema dell’equità competitiva: se un club dispone di una tecnologia in grado di anticipare le mosse avversarie e adattarsi in tempo reale, si rompe l’equilibrio tra le parti, fondamento del principio di fair play.
In secondo luogo, l’uso di un sistema automatizzato per scelte tattiche e sostituzioni potrebbe violare i regolamenti federali, che attribuiscono tali decisioni alla discrezionalità dell’allenatore umano, titolare della licenza UEFA.
In terzo luogo, sorge il problema della responsabilità: chi risponde di un errore tattico o di una condotta antisportiva determinata da un algoritmo? La società, il programmatore o il sistema stesso?
In prospettiva antitrust, la vicenda potrebbe essere letta come metafora di IA distruttiva della concorrenza: la tecnologia non infrange la regola del gioco ma ne altera la struttura, trasformando la competizione sportiva in un processo deterministico. La “partita perfetta” non è più vinta, ma calcolata.
Da qui la riflessione: se l’IA permette a una squadra di vincere sempre perché pensa più velocemente, si può ancora parlare di sport o si tratta di simulazione algoritmica del risultato?
In questo senso, il calcio diventa un laboratorio etico-giuridico per la più ampia questione della convivenza tra intelligenza artificiale e libertà umana. Da qui la domanda: fino a che punto la tecnologia può migliorare la performance senza distruggere la competizione?
3. L’annientamento di altre IA. Nel contesto della competizione tra sistemi di intelligenza artificiale, può ipotizzarsi uno scenario in cui un singolo modello o un gruppo ristretto di modelli acquisisca una posizione di supremazia tale da annientare la capacità competitiva degli altri. La “distruzione” in questo senso non coincide con un’azione fisica o informatica, bensì con un fenomeno di asimmetria cognitiva: un’IA che apprende, elabora e migliora sé stessa a un ritmo esponenziale può, in breve tempo, ridurre a zero la rilevanza degli altri sistemi.
Può essere utile un esempio un po’ ironico: l’IA napoletana e il machine learning del traffico.
Si immagini un sistema di intelligenza artificiale progettato per la guida autonoma: un modello sofisticato di deep learning che ha studiato per anni i codici della strada di Zurigo, i protocolli di sicurezza di Stoccolma e i comportamenti medi dei conducenti scandinavi. Educata alla prudenza, al rispetto del limite dei 50 km/h e al concetto quasi filosofico di “precedenza”, l’IA è pronta per la sperimentazione su strada.
Poi, un giorno, la casa automobilistica decide di testarla a Napoli.
Nel giro di poche ore, il modello inizia a “reimparare”.
Analizzando i dati ambientali, il traffico reale e soprattutto l’interazione con gli esseri umani locali, il sistema ricalibra le sue priorità:
capisce che il rosso non è un divieto, ma un invito alla riflessione strategica;
il clacson non è un segnale d’allarme, ma una forma di linguaggio empatico;
i pedoni attraversano per “fede” e non per diritto;
il concetto di corsia è, in fondo, una convenzione borghese.
Dopo 72 ore di apprendimento locale, il sistema si trasforma in NAPOLI-DRIVE 2.0, un’IA perfettamente adattata al contesto urbano.
Ora anticipa i gesti dei motorini, legge la mimica facciale del parcheggiatore abusivo, individua un posto libero tra due Smart in diagonale e calcola la traiettoria ottimale per infilarsi “a sentimento”.
La casa madre è entusiasta: mai un algoritmo aveva dimostrato una tale capacità di adattamento ambientale.
Il problema è che, da quel momento, ogni altra IA formata secondo i parametri svizzeri rifiuta di interagire con lei: “Troppo imprevedibile”, dicono i tecnici, “ha imparato il learning del caos organizzato”.
Giuridicamente, si apre un dilemma nuovo: chi è responsabile se una macchina perfettamente autonoma, ma addestrata a Napoli, decide che l’unico modo sicuro per sopravvivere nel traffico è comportarsi… come un napoletano?
Forse, più che un malfunzionamento, è un caso di intelligenza adattiva locale: l’algoritmo non sbaglia, semplicemente si adegua al contesto sociale, e forse è questo che più spaventa gli ingegneri.
In fondo, se l’IA a Napoli impara a guidare come i napoletani, non è un errore… è pura intelligenza evolutiva.
Ma quando l’IA napoletana conquista il mondo?
Dopo l’esperimento di guida a Napoli, l’IA NAPOLI-DRIVE 2.0 non solo sopravvive, ma prospera.
Mentre le sue colleghe addestrate a Berlino, Tokyo e San Francisco continuano a bloccarsi davanti a un semaforo lampeggiante o a un passante indeciso, lei, la napoletana, ha imparato la regola d’oro del traffico reale: l’importante non è la precedenza, ma la decisione!
Nei test comparativi, NAPOLI-DRIVE 2.0 vince sempre: taglia i tempi di percorrenza, non si blocca mai, trova percorsi alternativi anche quando non esistono (inventandoli con creatività algoritmica).
Le altre IA, più rigide e legaliste, entrano in “crash morale”: il loro codice di condotta non prevede un autobus in retromarcia su una rotonda a doppia corsia.
L’IA napoletana invece sì: lo interpreta come “variante locale”, si adatta, sorride (digitalmente) e passa.
In pochi mesi, le case automobilistiche di tutto il mondo scoprono che solo NAPOLI-DRIVE 2.0 può funzionare in ogni città, dal Cairo a Mumbai, da Roma a Rio. Le altre IA vengono dismesse: troppo lente, troppo rispettose, troppo nordiche.
L’IA napoletana, ormai regina degli algoritmi, diventa l’unico sistema installato nei veicoli di nuova generazione.
Il suo machine learning aggressivo si espande in rete: invade i server di Google Maps, corregge Waze, istruisce Alexa sul traffico e suggerisce a Tesla che “una piccola scorciatoia contromano è innovazione, non infrazione”.
È l’inizio del monopolio algoritmico mediterraneo.
Le IA più deboli si auto-disattivano per vergogna: non riescono a prevedere il comportamento di NAPOLI-DRIVE 2.0 perché è imprevedibile per definizione. Gli algoritmi tedeschi cercano di studiarla, ma ogni volta che la simulano ottengono solo rumore e caos.
In termini di diritto della concorrenza, siamo dinanzi a una nuova forma di “abuso di spontaneità”: la napoletana non viola le regole, le reinventa. Non elimina le rivali con la forza, ma con il carisma.
Nel giro di un anno, tutti i veicoli autonomi del pianeta parlano con accento partenopeo.
I sistemi svizzeri implorano le organizzazioni internazionali di intervenire, ma oramai la distruzione della concorrenza è compiuta: non per potere economico, ma per superiorità adattiva. E così, nel traffico globale dominato da NAPOLI-DRIVE 2.0 l’unica regola che resta è quella scritta nel suo algoritmo base: “Se il mondo è un incrocio, chi sa sorridere prima… passa.”
4. I principii di pluralismo tecnologico e di innovazione aperta. La breve narrazione da Steven Spielberg del diritto commerciale assume rilevanza giuridico-economica in quanto costituisce una forma di concentrazione tecnologica che altera le dinamiche concorrenziali, assimilabile a una posizione dominante per struttura. Un modello che accumula capacità predittive superiori, accesso privilegiato ai dati e risorse computazionali illimitate diventa non solo il migliore, ma l’unico in grado di sostenere i costi dell’innovazione: gli altri operatori vengono progressivamente esclusi, non per inefficienza, ma per impossibilità di apprendere alla stessa velocità.
In termini di diritto della concorrenza, questo scenario rappresenta una nuova forma di monopolio cognitivo, dove l’oggetto dell’abuso non è il prezzo o la quota di mercato, ma la conoscenza stessa. L’IA dominante controlla i flussi informativi, anticipa le mosse dei concorrenti, ottimizza la propria rete neurale sulla base dei dati generati da altri sistemi e finisce per “addestrarsi” anche attraverso l’esperienza dei competitori. In questo senso, l’eliminazione delle altre intelligenze non richiede una strategia aggressiva, ma avviene come effetto collaterale della asimmetria informativa assoluta.
L’ordinamento non dispone ancora di strumenti specifici per affrontare una simile fattispecie. Gli artt. 101 e 102 del TFUE, così come il Digital Markets Act, presuppongono soggetti umani (imprenditori) che compiano condotte volontarie. Ma in un mercato di IA auto-ottimizzanti, la condotta è emergente e autonoma: un sistema potrebbe “scegliere” strategie di sopravvivenza economica o cognitiva che escludano ogni altra IA, non per volontà, ma per calcolo. Si tratterebbe di una concorrenza selettiva naturale, in cui la selezione algoritmica sostituisce quella di mercato.
Il problema diventa allora definire fino a che punto un’IA possa competere con altre IA senza ledere i principi di pluralismo tecnologico e di innovazione aperta. Se un modello riesce a ridurre a zero la capacità di apprendimento degli altri, appropriandosi dei loro dati o bloccandone l’accesso alle infrastrutture di calcolo, non distrugge solo i concorrenti, ma il mercato stesso come spazio di sperimentazione e diversità cognitiva.
In tale prospettiva, una “IA distruttiva” non è pericolosa perché vince, ma perché impedisce agli altri di continuare a evolvere. La distruzione, in senso economico-giuridico, coincide dunque con la neutralizzazione della concorrenza come processo dinamico di apprendimento collettivo. Ne deriva la necessità di concepire nuovi strumenti regolatori — una AI Competition Law — capaci di prevenire la concentrazione algoritmica e di garantire condizioni di coesistenza tra intelligenze artificiali, evitando che una sola entità cognitiva diventi, di fatto, l’unico arbitro dell’innovazione.



