Ha inizio il 2024 in cui l’intelligenza artificiale (IA) rivestirà un ruolo importante per le nuove tecnologie in tutti i campi, compresa la scienza giuridica. Il 2023 si è da poco chiuso con importanti novità legislative: in Spagna, con l’istituzione dell’Agencia Española de Supervisión de Inteligencia Artificial; in Europa, con la bozza di European Artificial Intelligent Act tra i paesi dell’UE; in sede ONU, con il neocostituito AI Advisory body. E sul finire dell’anno, ha avuto una vasta eco l’atto di citazione del New York Times nei confronti di OpenAI (che gestisce ChatGPT) e Microsoft per violazione del copyright. È opportuno, dunque, iniziare a riflettere sulle regole da rispettare in tema di concorrenza e sui comportamenti abusivi di un’IA dominante, determinando il ruolo delle Authority già esistenti. Si prospetta, dunque, l’opportunità di istituire un’autorità sull’IA, seguendo il modello spagnolo.
Intelligence (AI) will play a significant role in new technologies across various fields, including legal science. The year 2023 recently concluded with noteworthy legislative developments: in Spain, the establishment of the Agencia Española de Supervisión de Inteligencia Artificial; in Europe, the draft of the European Artificial Intelligent Act among EU countries; at the United Nations, the newly formed AI Advisory Body. Towards the end of the year, there was widespread attention to the New York Times' legal action against OpenAI (the operator of ChatGPT) and Microsoft for copyright infringement. Consequently, it is pertinent to begin contemplating the rules to be adhered to in terms of competition and abusive behaviors of a dominant AI, determining the role of already existing authorities. Therefore, the opportunity arises to establish an AI authority, following the Spanish mode.
1. L’intelligenza artificiale (IA) ha conquistato il centro del dibattito in tutte le scienze, compresa quella giuridica. Si presenta un 2024 in cui l’IA sarà al centro delle innovazioni e riempirà l’agenda di tutti i settori economici. In campo giuridico, al termine dello scorso anno, ci sono state numerose novità, con l’inizio delle prime battaglie legali, che possono trasformarsi in una vera e propria guerra senza frontiere nel corso del 2024.
Il 27 dicembre scorso il New York Times ha citato in giudizio dinanzi ad una corte distrettuale, la Southern District of New York, sia OpenAI (che gestisce ChatGPT) sia Microsoft, con cui la prima ha stretto accordi sull’IA (ChatGPT utilizza Bing, il motore di ricerca della Microsoft). La nota testata giornalistica afferma di aver subito la violazione del diritto di autore, aprendo così un nuovo fronte dell’intensa battaglia legale sull’uso non autorizzato di opere pubblicate per l’addestramento di IA. Nel corposo atto di citazione, gli avvocati del New York Times indicano numerosi esempi in cui gli articoli del giornale sono stati usati per addestrare chatbot (i software che simulano ed elaborano le conversazioni umane scritte o parlate) che ora sono in concorrenza con il quotidiano come forma affidabile di informazione. Gli strumenti di IA generativa, così come riportato nell’atto di citazione, sono stati costruiti copiando e utilizzando in modo approfondito milioni di articoli di notizie protetti da copyright del Times (indagini, articoli di opinione, recensioni, guide pratiche e altro ancora). Il New York Times aveva tentato un accordo con le controparti, poi non raggiunto. Come si legge nella citazione, «The Times objected after it discovered that Defendants were using Times content without permission to develop their models and tools. For months, The Times has attempted to reach a negotiated agreement with Defendants, in accordance with its history of working productively with large technology platforms to permit the use of its content in new digital products (including the news products developed by Google, Meta, and Apple). The Times's goal during these negotiations was to ensure it received fair value for the use of its content, facilitate the continuation ofa healthy news ecosystem, and help develop GenAl technology ina responsible way that benefits society and supports a well-informed public».
In sostanza, il New York Times ha affermato di aver contattato Microsoft e OpenAI, affermando le preoccupazioni sull'uso della sua proprietà intellettuale, per raggiungere una soluzione concordata della questione; aveva, pertanto, proposto di “ricevere un valore equo” per l'uso dei suoi contenuti nonché di facilitare la continuazione di un ecosistema di notizie sano, così da aiutare a sviluppare la tecnologia GenAI in modo responsabile, a beneficio della società e a sostegno di un pubblico ben informato.
Recente è anche la notizia che proviene dall’Albania, secondo cui si vuole impiegare il ChatGPT per tradurre in albanese le disposizioni legali comunitarie, che devono essere integrate nell’ordinamento nazionale, col fine ultimo di accelerare il processo di adesione all'Unione europea. Nel contempo, si attende di conoscere in modo preciso l’accordo sullo European Artificial Intelligent Act tra i paesi dell’UE. E all’ONU il neo costituito AI Advisory body ha pubblicato le sue prime raccomandazioni per una gestione condivisa, equa e responsabile di queste nuove tecnologie. Il rapporto intermedio è arrivato appena due mesi dopo l’insediamento ufficiale del comitato di esperti. È possibile inviare le proprie considerazioni sul documento, dal sito del comitato www.un.org/ai-advisory-body entro il 31 marzo 2024. Per quel che qui interessa, va anticipato che gli esperti non hanno ancora formulato una proposta unitaria e definitiva che porti alla effettiva istituzione di un organo di controllo. Al momento il documento consultabile sul web lascia aperta la possibilità che le funzioni ivi elencate possano essere svolte o da una nuova istituzione internazionale o da un network di istituzioni già esistenti. Le forme istituzionali che potrà assumere l’organo di controllo verranno proposte solo nel rapporto finale.
È, dunque, fondamentale che la concorrenza tra IA si sviluppi nel rispetto delle regole soprattutto per prevenire abusi, anche e soprattutto da parte di chi possa assumere una posizione dominante sul mercato. Nel caso di Chat GPT, quali prodotti alternativi esisterebbero? ChatSonic, Contents.com, Jasper, DeepL Write, Rytr., Elsa Speaks, YouChat, per citarne alcuni. Ma OpenAI prevede anche che la c.d. IA superumana possa essere sviluppata nei prossimi anni. Come si fa, allora, a stabilire il mercato di riferimento per verificare una posizione dominante da parte di un’IA?
Più agevole, infatti, è individuare il mercato dei motori di ricerca. Secondo i dati di SimilarWeb, il motore di ricerca più utilizzato al mondo è Google, con una quota di mercato di circa il 91% (90,7% a giugno 2023; secondo StatCounter Global Stats 91,5% a novembre 2023). Con l'introduzione di ChatGPT, però, un altro motore di ricerca, Bing, ha avuto un'ascesa straordinaria, a danno di altri concorrenti (come Yahoo, Yandex ecc.), raggiungendo un traguardo di 100 milioni di utenti attivi giornalieri nel 2023, con un incremento del 600% rispetto al periodo antecedente l'integrazione di questa tecnologia. Orbene, ChatGPT ha accesso al web e può fare delle ricerche in tempo reale prima di fornire l’output richiesto; ma, come prima esposto, per queste ricerche, salvo espressa indicazione dell’utente, ChatGPT utilizza Bing, il motore di ricerca della Microsoft. Questo spiega l’ascesa di Bing sul mercato dei motori di ricerca, attraverso il legame tra OpenAI e Microsoft, e perché oggi Google sia così fortemente interessata al mercato delle IA, tanto da realizzare una sua IA: Gemini. Il lancio della IA di Google avverrà per fasi, con versioni meno sofisticate di Gemini, chiamate "Nano" e "Pro", che saranno immediatamente incorporate nel chatbot di Google Bard e nello smartphone Pixel 8 Pro.
In sintesi, l’innovativo legame tra un’IA e un motore di ricerca rivoluziona il modo in cui gli utenti interagiscono con il web, anche se al momento Google ha mantenuto la sua posizione dominante solo grazie ai suoi prodotti rivoluzionari (si pensi a Google Maps, Google Earth, ecc.), avendo in passato incentivato la domanda per questi prodotti, così da trasformare lo stile di vita e le abitudini dei consumatori.
In relazione alle regole da rispettare, anche in tema di concorrenza, il problema delle IA riguarderà l’associazione ai dispositivi (personal computer e cellulari). Nel 2024, infatti, anche Apple entrerà nel settore dell'IA con un suo chatbot, chiamato Apple GPT. L’Apple, che non vuole seguire la strada delle altre imprese, si sta assicurando che l'elaborazione avvenga direttamente sul telefono. Come per i sistemi operativi della società fondata da Steve Jobs, il nuovo Apple GPT, il cui nome in codice sarebbe Ajax, sarebbe sviluppato per integrare più profondamente l'IA nell'intero ecosistema di Apple.
Le iniziative in tema di IA da parte delle principali imprese che operano nel campo delle innovazioni digitali impongono di anticipare i contenuti del dibattito giuridico sulla concorrenza tra IA e gli effetti della conquista del mercato da parte di una di esse e, dunque, sull’autorità che dovrà intervenire, anche preliminarmente, per evitare abusi.
2. Sicuramente preminente in questo quadro è il problema di determinare l’esistenza di una posizione dominante; quindi, riveste preliminare importanza la definizione del mercato rilevante, in relazione a tutti i prodotti o servizi che sono considerati interscambiabili o sostituibili dal consumatore in relazione a loro caratteristiche. Non è semplice determinare il perimetro del mercato cui fare riferimento, considerata la tendenza dell’Autorità Garante della Concorrenza e del Mercato (AGCM) a frammentazioni (ad esempio, i mercati di pneumatici per automezzi pesanti rispetto a quelli più ampio degli pneumatici in genere). E nell’economia digitale, delimitare il mercato è ancora più difficile.
Per semplificare, può sicuramente utilizzarsi la distinzione sulla base delle definizioni di IA. Pertanto, si possono distinguere i mercati anche in relazione a:
- Artificial Narrow Intelligence, ossia l’IA limitata (ANI), che viene classificata come IA “debole”, perché in grado di gestire una gamma ristretta di parametri e situazioni, come avviene, ad esempio, nel riconoscimento vocale o nelle auto a guida autonoma;
- Artificial General Intelligence, ossia l’IA generale (AGI), che viene considerata un’intelligenza “forte”, perché opera ad un livello superiore, paragonabile all'intelligenza umana;
- Artificial Super Intelligence, ossia la super IA, che di fatto ancora non esiste, attraverso la capacità di una macchina di superare l'intelligenza umana.
L’ANI è la forma di IA più semplice da riconoscere e viene già utilizzata dalla maggioranza delle persone.
Tra gli esempi di ANI più noti, si possono determinare ulteriori sottoinsiemi per delimitare ulteriormente i mercati:
- dispositivi ad attivazione vocale, ad esempio da Siri ad Alexa, che moltissimi consumatori possiedono e usano ogni giorno;
- filtri per la posta elettronica, assai diffusi, in quanto tutte o quasi le caselle di posta in arrivo offrono la possibilità di intercettare lo spam e contrassegnare i messaggi speciali;
- auto a guida autonoma, con particolare riguardo alle auto senza guidatore, anche prive di volante e pedali, che viaggiano orientandosi con mappe 3D e sono guidate da un Google Chauffeur.
L’ultimo modello offre una riflessione di fondo sulla loro utilizzazione con possibili differenziazioni che possono orientare le scelte dell’utenza. Qualche esempio può agevolare l’introduzione del problema cui si vuole fare cenno.
Un’IA applicata alla gestione delle crisi di impresa potrebbe eseguire scelte di fondo, come quella della liquidazione dell’azienda ovvero del rilancio dell’impresa, sulla base di un’impostazione del sistema, diretto a salvaguardare, a parità di risultati per i creditori, il mantenimento del maggior numero di posti di lavoro, anche a rischio di un successivo peggioramento dei risultati economici. Del resto, nel campo delle procedure concorsuali è frequente il richiamo ad un “ottimo paretiano” ai fini dell’allocazione ottimale delle risorse. Un’IA, utilizzata per risolvere una crisi di impresa, implicherebbe allora delle scelte a monte (ad esempio, tra margini di continuazione e quelli di liquidazione) attraverso il c.d. fronte di Pareto, costituito da tutti i punti non dominati (situazioni per le quali non esiste alcun punto che sia migliore contemporaneamente per tutti gli obiettivi considerati nella funzione di ottimizzazione).
Altri esempi possono provenire dall’applicazione di un’IA alla guida dei veicoli. Si immagini la scena di un anziano signore, fermo sul marciapiede, e una mamma con il suo neonato che attraversa la strada, malgrado il semaforo sia rosso per i pedoni. L’automobile, dotata di IA, che giunge all’incrocio non potendo evitare l’impatto con chi attraversa con il rosso, che alternativa sceglierebbe? quella di sacrificare l’anziano per mantenere in vita una donna e un neonato, spostando il veicolo sul marciapiede? Ogni uomo per istinto frenerebbe, inchiodandosi sull’asfalto, sperando in un miracolo di Nostro Signore (l’IA può credere in Dio? E quale Dio?), un miracolo che salvi mamma e neonato, senza neanche immaginare di poter deviare e uccidere al loro posto l’anziano signore. L’IA, in tale ipotesi, porrebbe delle scelte preimpostate secondo un criterio stabilito dal suo produttore (o un successivo manipolatore), come, ad esempio, utilizzando teorie utilitaristiche.
Non vi è dubbio, dunque, che un’IA, all’atto di dominare un determinato mercato, così come delimitato, potrebbe essere capace di orientare anche altri mercati in modo continuativo, in assenza di ulteriori interventi umani, finendo anche per porre delle scelte di base (nell’esempio svolto relativamente alla guida di veicoli, la salvezza della mamma con il neonato a fronte della morte dell’ignaro anziano, fermo sul marciapiede) che finirebbero per diventare preferite (anche inconsapevolmente) da tutti gli uomini, estranei alla creazione di quella determinata IA: ad esempio, i giudici del processo sulla responsabilità del proprietario dell’auto o del suo produttore.
Inoltre, se si passa ad esaminare i possibili sviluppi delle IA “forti”, può sin da ora ritenersi che alcune IA abbiano raggiunto una potenza sufficiente per generare autonomamente nuovi strumenti di IA più piccole; il tutto senza richiedere alcun intervento umano. Infatti, un gruppo di scienziati provenienti dal MIT e da diverse sedi dell'Università della California, in collaborazione con la società di tecnologia Aizip, ha recentemente affermato di poter indurre alcuni modelli di IA, come quelli alla base di ChatGPT, a replicarsi automaticamente.
3. Una volta acquisita la delimitazione del singolo mercato di IA in cui possa realizzarsi una posizione dominante, la questione riguarda i comportamenti da sanzionare. La detenzione di mercati “senza prezzo” nel settore del digitale è molto estesa. Si può qui indicare, come esempio l’installazione di una determinata IA nei dispositivi telematici, preimpostata dal produttore (ad esempio, dei sistemi Android), così da escludere la concorrenza di altre IA.
Da sanzionare sarebbe anche il rifiuto di contrarre da parte del titolare di IA. L’Antitrust (sia nazionale sia europeo), del resto, tende a considerare abusivo anche il rifiuto ingiustificato di mettere a disposizione di concorrenti proprie infrastrutture o risorse essenziali per poter operare in un settore diverso, anche se contiguo all’impresa dominante (c.d. essencial facility). Risulta più evidente nel caso di big data; la questione riguarda la sostituibilità di un’IA con un’altra e se possano individuarsi concretamente condotte escludenti o discriminatorie, come accade con i big data. Ma la differenza con le vicende di big data riguarda le peculiarità di IA, in grado di realizzare persuasione negli uomini, come prima chiarito con alcuni esempi; e ciò ben prima che si raggiunga un’IA superumana. In sintesi, l’IA può essere produttiva di notevoli cambiamenti nel comportamento umano.
La questione a questo punto si sposta nel decidere quale debba essere l’authority deputata a governare l’IA. Negli ultimi tempi, si è molto discusso della recente proposta di regolamentazione dell’Unione Europea (AI ACT) e, proprio di recente, degli accordi raggiunti giorni fa in seno agli organi eurounitari. Persino Papa Francesco, in riferimento alle discussioni che si sono aperte sul possibile testo delle norme, è intervenuto, proprio per segnalare la necessità di un corretto sviluppo e quindi controllo sull’innovazione tecnologica determinata da IA. In attesa del testo definitivo, si possono solo delineare modelli regolamentari di massima, attraverso la lettura dei “considerando” della bozza di regolamento, diretti alla massima sicurezza delle IA a tutela degli utenti (e dunque la tutela dei diritti fondamentali) e alla certezza delle regole per incentivare investimenti, così da facilitare lo sviluppo del mercato UE.
È importante che la disciplina europea preveda l’istituzione di un Comitato europeo per l’IA (composto da rappresentanti degli Stati membri, probabilmente con una piattaforma di coordinamento e un organo consultivo della Commissione), che dovrà coordinarsi con il Garante Europeo di Protezione dei Dati (GEPD). Occorre sin da ora chiedersi quale sarà l’autorità competente in Italia, visto che a livello nazionale gli Stati membri dovranno designare una o più autorità nazionali competenti ai fini del controllo.
Tra quelle già esistenti, la scelta potrebbe ricadere tra AGCM, Garante per la Protezione dei Dati Personali (GPDP o Garante della privacy) e l’Autorità per le Garanzie nelle Comunicazioni (AGCom). Tuttavia, noto è il problema del loro coordinamento su fattispecie di cui possono occuparsi le stesse Autorità. Indubbiamente, sulla base delle brevi considerazioni qui raccolte, potrebbe preferirsi l’AGCM, ma occorre tenere presenti le peculiarità delle IA, di cui pure si è fatto qui cenno. Pertanto, se, da un lato, l’UE non prevede l’istituzione di ulteriori organismi a livello di Stati membri, questi ultimi, dall’altro, possono scegliere autonomamente le autorità settoriali esistenti, cui affidare anche poteri di monitoraggio e controllo sulle IA operanti nel mercato, nonché di applicazione delle disposizioni della regolamentazione Occorre iniziare a pensare ad una soluzione in Italia.
Per molti, duplicare in Italia le authorities comporterebbe solo l’aumento dei costi e la complicazione dell’organizzazione amministrativa, già complessa. Tuttavia, i frequenti conflitti di competenze tra Autorità esistenti – AGCM, AGCom, Privacy – derivanti dalla valutazione da parte loro delle medesime condotte, implicano una scelta diversa. Invero, la sovrapposizione delle discipline settoriali, a loro riferibili, ha la conseguenza di dovere stabilire una prevalenza o comunque regole per definire con certezza quali siano le autorità competenti per ciascuna fattispecie. Non si può trascurare una sovrapposizione, che pone tra l’altro anche conflitti nei procedimenti sanzionatori, non potendosi escludere casi nei quali qualcuno sia sanzionato prima da un’autorità e poi dall’altra, in violazione del principio per cui nessuno può essere processato due volte per la stessa condotta (ne bis in idem). Questo conflitto potrebbe essere risolto se si istituisse un’autorità ad hoc per l’IA.
La scelta spagnola è andata verso questa direzione. Infatti, con il Real Decreto 729/2023, del 22 agosto scorso è stato approvato lo Statuto della Agencia Española de Supervisión de Inteligencia Artificial (AESIA),la cui istituzione è prevista in applicazione della Legge di Bilancio 22/2021 per l’anno 2022 e della Legge 28/2022 di promozione dell’ecosistema delle imprese emergenti. La costituzione dell’AESIA è coerente con il Plan de Recuperación, Transformación y Resiliencia, finalizzato a sviluppare un’agenda di investimenti e riforme strutturali che ha, tra i suoi obiettivi trasversali, la promozione della transizione ecologica e digitale. All’interno di queste politiche, si inserisce la strategia nazionale per l’IA, con cui la Spagna mira a ritagliarsi un ruolo da protagonista all’interno dell’innovazione algoritmica dell’economia mondiale. Gli spagnoli, infatti, hanno l’ambizioso obiettivo di posizionarsi come nazione leader dell’IA, promuovendo la creazione di lavoro qualificato, con il fine di trattenere il talento nazionale e attrarre quello globale, anche perché l’IA è importante per migliorare la produttività delle imprese, ma anche della Pubblica Amministrazione. Si pensi anche alla verifica di nuovi testi legislativi rispetto a quelli già esistenti (si rinvia a Rubino De Ritis, Il mercato dei consumatori di norme di fronte al nudging legislativo: la moratoria “automatizzata” quale prova tecnica di diffusione di istituti giuridici, in questa Rivista, 1° dicembre 2023).
La sede istituzionale dell’autorità spagnola sull’IA sarà a La Coruña, coerentemente con la strategia governativa di decentralizzazione del settore pubblico e strutturazione del territorio, con il fine di poter rendere la Galizia un polo tecnologico di attrazione in base alla Estrategia Gallega de Inteligencia Artificial 2021-2030 (EGIA), con cui da tempo quel territorio si prepara a diventare l’enclave strategico dell’IA in Spagna. Non solo turismo, quindi, lungo il Cammino di Santiago di Compostela, perché il turismo da solo non genera innovazione, anche se porta molto danaro, ma principalmente nel breve periodo, in quanto con il tempo i flussi turistici sono destinati anche a modificarsi.
È quanto in Italia parallelamente può e deve sostenersi con l’istituzione nel Mezzogiorno dell’autorità sull’IA, con una strategia governativa di decentralizzazione del settore pubblico e ristrutturazione del territorio industriale del nostro Paese, liberandoci dall’egemonia di Roma in campo pubblico e di Milano in quello economico. Infatti, l’Autorità sull’IA dovrà essere indipendente non solo dai mercati, ma anche dall’autorità governativa, in quanto entrambi saranno utilizzatori abituali di IA.