Editoriali

Società e concorrenza 17.06.2025

Intelligenza artificiale e mercato: dalla guerra al possibile equilibrio

Visualizzazione ZEN

< > x

1. L’impatto dell’intelligenza artificiale sul diritto della concorrenza

È passato solo un anno e mezzo da quando pubblicai su questa Rivista l’editoriale dal titolo “La guerra dei mercati dell’intelligenza artificiale”, in cui iniziavo a riflettere sulle regole da rispettare in tema di concorrenza, con particolare attenzione ai comportamenti abusivi di un’intelligenza artificiale (di seguito anche IA) dominante, determinando il ruolo delle autorità, già esistenti ovvero da istituire. 

In pochissimo tempo l'IA, con la sua capacità di apprendere, ragionare e prendere decisioni, ha trasformato radicalmente le dinamiche dei mercati, ponendo il diritto di fronte a problemi del tutto nuovi. Nel frattempo, con l’approvazione del Regolamento UE 2024/1689 (AI Act), è stato introdotto un divieto assoluto per otto categorie di pratiche di intelligenza artificiale ritenute incompatibili con i diritti fondamentali dell’Unione Europea (art. 5, AI Act), tra cui vanno annoverati il diritto alla privacy, la non discriminazione e la sicurezza personale. Tra i divieti vanno qui ricordati quelli inerenti all’uso di tecniche subliminali o manipolative, allo sfruttamento di vulnerabilità personali (età, disabilità, povertà), ai sistemi di social scoring, allo scraping massivo di immagini biometriche, al riconoscimento delle emozioni in contesti lavorativi o scolastici, alla deduzione algoritmica di dati sensibili (religione, orientamento, opinioni) e all’identificazione biometrica remota in tempo reale nei luoghi pubblici, salvo limitate eccezioni per la sicurezza.

Le Linee Guida della Commissione Europea sull’AI Act pubblicate nel febbraio 2025 chiariscono le implicazioni di questi divieti, sollecitando le imprese a integrare precocemente strumenti di valutazione d’impatto, misure tecniche e organizzative preventive, e meccanismi di sorveglianza continua sull’intero ciclo di vita dei sistemi IA. Il documento sottolinea l’importanza della documentazione, della trasparenza e della sinergia con gli obblighi del GDPR (General Data Protection Regulation), ovvero il Regolamento UE 2016/679 sulla protezione dei dati personali, che impongono a chi tratta dati personali (titolari e responsabili del trattamento) una serie di doveri per garantire la tutela della privacy degli interessati, specie quando si trattano dati biometrici o si impiegano modelli ad alto rischio.

La pubblicazione delle prime linee guida attuative del Regolamento europeo sull'IA rappresenta, dunque, un momento decisivo per la riflessione giuridica su questi temi. È proprio alla luce di questa attualità normativa e del contenzioso aperto tra la Commissione Europea e una delle principali piattaforme digitali globali, accusata di abuso algoritmico, che si impone oggi un'analisi dell'intreccio tra intelligenza artificiale, concorrenza e regole del mercato (Facebook avrebbe abusato della sua posizione dominante favorendo la visibilità del proprio servizio Marketplace all’interno del social, esponendolo automaticamente agli utenti anche quando non lo cercavano, con l’obiettivo di danneggiare i concorrenti nel mercato delle inserzioni classificate online).

L'applicazione di IA nei processi decisionali, nelle strategie commerciali e nella gestione dei rapporti economici incide profondamente sia sull'organizzazione dell'impresa, sia sulle condizioni di concorrenza, con riflessi importanti sulla posizione del consumatore. Il diritto commerciale e in particolare quello industriale, avendo notevole rilievo il diritto della concorrenza e la disciplina della protezione dei dati, devono essere riletti alla luce di questo mutamento. L’AI Act ha segnato un passo decisivo verso una disciplina organica, introducendo un approccio basato sul rischio e una classificazione dei sistemi IA (vietati, ad alto rischio, a rischio limitato, a rischio minimo). La combinazione fra questo regolamento e il GDPR forma oggi il pilastro della regolazione algoritmica in Europa.

2. La definizione del mercato rilevante in ambito digitale 

Nel diritto della concorrenza, la delimitazione del mercato rilevante è il punto di partenza di qualsiasi analisi concorrenziale, perché consente di stabilire i confini entro i quali valutare il comportamento delle imprese e il loro potere di mercato. Il mercato rilevante è, di regola, definito sulla base di tre dimensioni: prodotto, territorio e tempo. Il mercato del prodotto comprende tutti quei beni o servizi che sono tra loro sostituibili dal punto di vista del consumatore, cioè che soddisfano gli stessi bisogni. Il mercato geografico riguarda l’area in cui le condizioni di concorrenza sono sufficientemente omogenee (può essere locale, nazionale o transnazionale). Il mercato temporale, meno frequentemente distinto, considera la sostituibilità in determinati periodi o contesti (es. stagionalità, tecnologie in fase di obsolescenza).

La presenza di piattaforme digitali multifaccia, l'interazione tra più categorie di utenti e l'interdipendenza tra hardware, software e dati alterano profondamente i confini tradizionali del mercato. I mercati digitali presentano, infatti, caratteristiche strutturali molto diverse da quelli tradizionali, tali da mettere in discussione molte delle categorie classiche del diritto della concorrenza. In particolare, essi si basano su una dinamica algoritmica in cui il prezzo, l’offerta, il posizionamento dei prodotti e le interazioni con i consumatori sono determinati non più da scelte umane dirette, ma da sistemi automatizzati che apprendono e si adattano in tempo reale. Questo genera una realtà in cui i confini del mercato, i rapporti tra imprese e le stesse condizioni competitive possono mutare con velocità e opacità senza precedenti. 

Una delle specificità più rilevanti è rappresentata dai mercati a più versanti, tipici delle piattaforme digitali (marketplace, motori di ricerca, social network, app store, servizi di pagamento online). In questi mercati, la piattaforma agisce da intermediario tra due o più gruppi di utenti – ad esempio, venditori e acquirenti, utenti e inserzionisti – che traggono valore l’uno dalla presenza dell’altro. Si crea così un effetto di retroazione positiva (network effect): più utenti ci sono su un lato della piattaforma, maggiore è il valore per quelli sull’altro lato, e viceversa. Questo rende la concorrenza particolarmente fragile: chi conquista una posizione dominante, tende a consolidarla grazie alla crescita esponenziale dell’interazione interna, creando una struttura di mercato di tipo tendenzialmente monopolistico o oligopolistico.

Un’altra caratteristica strutturale è la interdipendenza tra hardware, software e dati. Nei mercati digitali, non esiste più una separazione netta tra prodotto e infrastruttura: l’efficienza e l’attrattività di un servizio dipendono dal controllo integrato di dispositivi fisici (smartphone, server, chip), codici applicativi (app, sistemi operativi, algoritmi) e, soprattutto, dal flusso continuo di dati. Il vantaggio competitivo non deriva tanto da un singolo elemento, quanto dalla capacità di combinarli in modo sinergico, creando un ecosistema chiuso e autosufficiente, difficile da replicare da parte di nuovi entranti.

In questo contesto, i dati diventano una risorsa economica strategica, al pari del capitale o del lavoro. Sono la materia prima su cui si addestrano gli algoritmi, si personalizzano le offerte, si segmentano i consumatori e si anticipano le decisioni di mercato. Ma, al tempo stesso, i dati rappresentano una barriera all’ingresso potentissima: chi ne possiede grandi volumi – specie se in forma esclusiva e storicizzata – può offrire servizi migliori, più rapidi e più predittivi. I nuovi operatori, privi di basi dati comparabili, difficilmente riescono a competere in condizioni paritarie. Non a caso, molte operazioni di concentrazione nel settore tech mirano proprio all’acquisizione di dataset unici o all’integrazione di flussi informativi già consolidati.

In sintesi, i mercati digitali e algoritmici non si lasciano regolare con gli stessi strumenti pensati per le economie industriali. Essi richiedono un aggiornamento delle categorie giuridiche, capaci di cogliere il potere strutturale derivante dal controllo delle piattaforme, dalla proprietà dei dati e dall’opacità degli algoritmi. Solo così sarà possibile garantire concorrenza effettiva e libertà economica nell’economia digitale.

Gli strumenti classici come il SSNIP test (Small but Significant and Non-transitory Increase in Price) - che simula un piccolo aumento di prezzo per valutare se i consumatori passerebbero ad altri prodotti (se sì, quei prodotti fanno parte dello stesso mercato) - vanno adattati a una realtà in cui il valore si genera dall'interazione e dalla raccolta dei dati. In questi mercati, la risorsa strategica non è solo il bene o servizio, ma il controllo dei dati e la capacità di personalizzare algoritmicamente l'offerta. Tale controllo, come di seguito si esporrà, genera effetti di lock-in (blocco tecnologico o dipendenza da una piattaforma), rafforzando le barriere all'ingresso e rende la posizione dominante meno contestabile. L’offerta più innovativa non emerge, se gli utenti restano “prigionieri” degli ecosistemi tecnologici dominanti.

3. Le nuove forme di concorrenza sleale abilitate dall’intelligenza artificiale 

Il diritto italiano, con l’articolo 2598 c.c., riconosce atti di concorrenza sleale che oggi trovano nuova espressione attraverso l'uso distorto dell'IA. L'imitazione servile non è più solo la copia di un prodotto, ma la replicazione del comportamento digitale di una piattaforma. L'appropriazione di segreti aziendali si compie attraverso scraping (estrazione automatica di dati online) o reverse engineering algoritmico (ricostruzione di funzionamento da output), che consentono di ricostruire modelli e flussi decisionali. Il discredito può manifestarsi attraverso deepfake (contenuti audio-video generati artificialmente ma apparentemente realistici), recensioni generate artificialmente o contenuti manipolativi. Le interfacce progettate per indurre comportamenti svantaggiosi (dark patterns) e la profilazione scorretta rappresentano violazioni della correttezza professionale. In questi contesti, l'art. 2598 c.c. deve essere interpretato evolutivamente, per ricomprendere l'impiego sleale dell'informazione, della manipolazione psicologica e della tecnologia predittiva.

In particolare, vi è da segnalare l’appropriazione di segreti industriali tramite AILe tecnologie di intelligenza artificiale possono essere impiegate per analizzare banche dati, software, manuali tecnici o informazioni accessibili online, con l’obiettivo di ricostruire formule, processi produttivi o know-how riservato. Anche quando non si configura un accesso abusivo nel senso penalistico, la riproduzione funzionale o comportamentale di una tecnologia protetta può costituire appropriazione indebita di segreti aziendali o sfruttamento indebito di altrui investimenti, in violazione dell’art. 2598, n. 2 c.c. In particolare, le IA possono essere addestrate ad apprendere meccanismi di funzionamento non documentati (reverse engineering automatizzato), compromettendo la protezione dell’innovazione industriale.

Un'altra questione si pone con la manipolazione informativa e la profilazione scorretta. La raccolta e il trattamento dei dati personali o comportamentali mediante IA può condurre a forme di profilazione commerciale opache o aggressive, tali da alterare la libertà contrattuale del consumatore. Se un algoritmo personalizza offerte, raccomandazioni o prezzi in base a criteri non dichiarati, o con scopi manipolativi, si entra in un territorio che confina con la concorrenza sleale: l’impresa trae vantaggio dalla manipolazione della volontà altrui, sfruttando asimmetrie informative create artificialmente. È il caso dei c.d. dark patterns: interfacce progettate per spingere l’utente verso scelte economicamente svantaggiose, ma psicologicamente indotte.

Infine, la possibilità di generare contenuti sintetici tramite IA (testi, immagini, video, audio) apre la porta a forme di disinformazione pubblicitaria che possono rientrare tra gli atti di discredito o confusione. L’uso di deepfake in spot, recensioni, testimonianze fittizie o comparazioni fraudolente può indurre in errore il pubblico e sviare la clientela, violando i canoni di correttezza professionale. Se tali contenuti sono diffusi in modo automatico e virale, il danno è amplificato e difficile da contrastare, ma giuridicamente riconducibile agli atti sleali ai sensi art. 2598, n. 3 c.c., e, nei casi più gravi, anche al diritto penale o alla disciplina della pubblicità ingannevole (D.lgs. n. 145/2007).

In conclusione, l’IA può essere usata non solo per innovare, ma anche per agire slealmente, sfruttando il vantaggio tecnologico per alterare l’equilibrio competitivo. Il diritto deve quindi adattare le sue categorie alla nuova grammatica dell’algoritmo.

4. L’abuso di posizione dominante attraverso algoritmi 

Per quanto riguarda la disciplina antimonopolistica, con particolare riguardo al fronte dell'abuso di posizione dominante, l'uso degli algoritmi consente forme di discriminazione occulta che incidono sulla visibilità dei concorrenti e sulla scelta del consumatore. Il self-preferencing è uno degli esempi più noti: la piattaforma privilegia nei ranking (classifiche) o nei risultati di ricerca i propri servizi, alterando la concorrenza. 

Anche la negazione di accesso a dataset strategici o l'imposizione di condizioni contrattuali sfavorevoli agli operatori più piccoli costituisce una barriera tecnologica. I gatekeeper digitali, identificati dal DMA (Digital Markets Act), ossia dal Regolamento UE 2022/1925, esercitano un potere che si estende oltre le tradizionali metriche di quota di mercato: controllano flussi informativi, interfacce e modalità di interazione economica. Nel contesto dell’economia digitale, come già esposto, i dati costituiscono la principale risorsa strategica, al pari – se non più – del capitale o del lavoro. Le imprese che controllano grandi volumi di dati, in particolare dati comportamentali, di consumo, geolocalizzazione o preferenze individuali, acquisiscono un vantaggio competitivo decisivo nell’addestramento degli algoritmi, nella personalizzazione dell’offerta e nella previsione dei comportamenti di mercato. In questo scenario, alcuni soggetti – tipicamente le grandi piattaforme – assumono il ruolo di gatekeeper digitali, cioè di intermediari indispensabili per l’accesso ai mercati o per la visibilità online. I gatekeeper hanno la capacità di stabilire le regole di accesso per gli altri operatori, decidere quali dati possono essere condivisi e imporre condizioni contrattuali spesso non negoziabili. Il loro potere non deriva solo dalla quota di mercato, ma dal controllo esclusivo delle interfacce tecnologiche, degli utenti e delle informazioni. Questo genera asimmetrie strutturali: le imprese minori sono costrette a dipendere dalla piattaforma dominante per raggiungere il pubblico, ma non hanno accesso paritario ai dati generati dalla loro stessa attività. 

Una conseguenza diretta di questo potere è il fenomeno del lock-in tecnologico: gli utenti (consumatori o imprese) restano legati a una determinata piattaforma o servizio non per libera scelta, ma perché i costi economici, tecnici o informativi per cambiare fornitore sono troppo elevati. Questo accade, ad esempio, quando non è possibile trasferire facilmente i propri dati, le impostazioni o le abitudini da un sistema all’altro, oppure quando l’alternativa manca di interoperabilità.

L’interoperabilità – cioè la possibilità che sistemi e piattaforme diverse dialoghino tra loro in modo aperto e standardizzato – è un presupposto fondamentale per la concorrenza effettiva nei mercati digitali. In sua assenza, anche l’offerta più innovativa rischia di non emergere, perché gli utenti restano “prigionieri” degli ecosistemi tecnologici dominanti. Il legislatore europeo ha individuato proprio nella promozione dell’interoperabilità e nell’accesso equo ai dati due leve chiave per rompere i monopoli digitali e garantire pluralismo, libertà di scelta e apertura dei mercati.

In sintesi, l’accesso ai dati e la possibilità di dialogo tra sistemi sono oggi strumenti di potere economico, che richiedono una regolazione precisa per evitare che l’innovazione diventi un meccanismo di esclusione anziché un’opportunità per tutti.

In tale scenario, la valutazione dell'abuso richiede un'indagine approfondita sugli effetti escludenti e sulle asimmetrie generate.

5. Le collusioni automatizzate

Un'altra area di crescente attenzione riguarda le c.d. collusioni algoritmiche. L'art. 101 TFUE e l'art. 2 della legge n. 287/1990 vietano le intese restrittive della concorrenza, ma nel contesto dell'IA, l'accordo può essere sostituito da un allineamento spontaneo indotto da algoritmi che apprendono e reagiscono tra loro. Il price-fixing automatizzato (fissazione automatica e coordinata dei prezzi) è l'esempio più evidente: sistemi autonomi che osservano i prezzi dei concorrenti e adattano le proprie tariffe, generando stabilità artificiale. Un esempio concreto è quello di imprese che adottano lo stesso algoritmo o lo affidano a fornitori comuni, che, nel regolare i prezzi sulla base dell’osservazione del mercato, generano un allineamento sistematico privo di giustificazioni competitive. 

La mancanza di un’intenzione soggettiva esplicita rende difficile dimostrare l’esistenza dell’intesa e si pongono complessi problemi probatori e di imputazione soggettiva: l'impresa può essere ritenuta responsabile anche in assenza di un'istruzione esplicita, in virtù del dovere di controllo sul funzionamento del sistema. Le autorità antitrust europee e americane stanno elaborando criteri per l'auditing degli algoritmi (verifica e controllo indipendente) e per la definizione di standard di diligenza tecnologica. L'obiettivo è prevenire zone franche di irresponsabilità e garantire un controllo effettivo sui meccanismi di apprendimento e reazione automatica. L’uso dell’IA non esonera, infatti, dal dovere di controllo: l’impresa ha l’obbligo di sapere – o almeno prevedere – che l’algoritmo potrebbe produrre esiti anticoncorrenziali, ed è tenuta ad adottare misure correttive. Questa impostazione mira a evitare zone franche di irresponsabilità, che potrebbero incentivare l’uso strategico dell’opacità tecnologica per eludere la legge.

In prospettiva, sarà necessario rafforzare gli strumenti di auditing algoritmico e definire standard di diligenza tecnologica, per garantire che la delega alle macchine non diventi uno scudo contro le regole del mercato.

6. Il controllo delle concentrazioni nel settore tech

Anche il controllo delle concentrazioni richiede oggi strumenti nuovi. Le killer acquisitions (acquisizioni strategiche per eliminare futuri concorrenti), che mirano a neutralizzare start-up promettenti, sfuggono spesso alle soglie di notifica, ma possono avere un impatto sistemico sulla concorrenza futura. Il diritto europeo sta promuovendo una valutazione qualitativa del potere di mercato potenziale, tenendo conto non solo del fatturato ma delle risorse immateriali strategiche (dati, know-how, brevetti). La Commissione UE ha incentivato l'applicazione dell'art. 22 del Reg. (CE) 139/2004 anche a operazioni sotto soglia, mentre gli Stati Uniti rivedono le proprie linee guida per evitare concentrazioni seriali. 

Infatti, nei mercati tradizionali, il potere di mercato si misura in base a quote attuali, fatturato e struttura concorrenziale. Ma nel settore dell’intelligenza artificiale, queste metriche risultano spesso inadeguate. Le imprese innovative, come start-up o centri di ricerca avanzati, pur non generando profitti rilevanti, possono detenere un potenziale tecnologico enorme: un algoritmo in fase di sviluppo, un brevetto su un sistema di addestramento, o l’accesso esclusivo a un dataset strategico. La valutazione del potere di mercato potenziale diventa allora cruciale per comprendere il rischio concorrenziale derivante da acquisizioni finalizzate a neutralizzare futuri concorrenti.

In quest’ottica, le autorità devono analizzare non solo la posizione attuale dell’impresa target, ma la probabilità che, senza acquisizione, diventi un concorrente effettivo, il valore strategico delle sue risorse (know-how, algoritmi, dati), la volontà dell’acquirente di integrare o eliminare tale innovazione.

7. La tutela dei consumatori

Dal lato dei consumatori, l'impiego di IA genera rischi specifici: prezzi personalizzati non trasparenti, ranking ingannevoli, manipolazione comportamentale e mancanza di spiegabilità (explainability). Il GDPR, in particolare all'art. 22, e l'AI Act prevedono diritti alla trasparenza, al controllo umano e alla protezione da decisioni automatizzate pregiudizievoli. La simmetria informativa è ribaltata: l'algoritmo conosce tutto dell'utente, mentre l'utente non sa nulla del funzionamento del sistema. La regolazione è quindi chiamata a ripristinare un equilibrio, garantendo affidabilità, correttezza e accountability algoritmica (responsabilità trasparente dell'uso del sistema).

L'ecosistema giuridico richiede strumenti efficaci di enforcement (attuazione e vigilanza). Le autorità competenti (AGCM, Commissione UE, FTC) possono adottare misure cautelari, sanzioni pecuniarie, obblighi informativi e interventi strutturali. 

Il ruolo della giurisdizione si espande attraverso azioni individuali, class action e richieste di disclosure algoritmica (obbligo di rendere noto il funzionamento del sistema). L'auditing algoritmico diventa una componente essenziale della compliance (adeguamento normativo). In prospettiva, il bilanciamento tra regolazione ex ante (AI Act) e controllo ex post (antitrust) rappresenta la sfida più grande. Il diritto della concorrenza dovrà confrontarsi non solo con le logiche tradizionali di prezzo e quota, ma con nuovi fattori: accesso ai dati, struttura informativa, potere predittivo e controllo delle interfacce. Il capitalismo delle piattaforme sfida la sovranità normativa e democratica: l'Europa tenta di rispondere promuovendo una concorrenza orientata alla pluralità, alla sostenibilità e all'inclusione. Il diritto non può limitarsi a reprimere gli abusi: deve costruire le condizioni per un mercato digitale giusto, aperto e umano-centrico.

GRATIS PER 10 GIORNI

RESTA AGGIORNATO SUI
CONTENUTI DI GIUSTIZIACIVILE.COM

NEWSLETTER