1. Nella odierna realtà le informazioni estratte dai dati attraverso il filtro dei modelli computazionali riescono a governare decisioni che coinvolgono la dimensione sociale ed economica (dal calcolo della rata di un mutuo o di un premio assicurativo alla definizione della quantità e dell'oggetto degli annunci pubblicitari che riceviamo o del prezzo che dobbiamo pagare per un prodotto), per attingere anche a quella propriamente giuridica (come la valutazione del merito creditizio o del grado di probabilità di recidiva di un imputato).
Il potere di imporre una regola tecnica si è ben presto tradotto in vero e proprio potere regolatorio, ossia nel potere di imporre una regola con efficacia giuridica tanto sul piano dell'autonomia privata, quanto su quello dell'azione pubblica. Inoltre l'affermarsi della regola tecnica ha reso sempre più labile e sfuggente la distinzione tra dimensione di mercato e dimensione pubblica, a tutto favore della prima [1]. Al perdurante entusiasmo per le capacità attuali e prospettiche della connettività si è così affiancata una crescente diffidenza verso l'intelligenza artificiale, potenzialmente affetta, a monte, da errori di programmazione e suscettibile finanche di determinare, a valle, paventati processi di de-umanizzazione dell'ordine socio-economico [2].
Come ricorda Shoshana Zuboff, nel libro The Age of Surveillance Capitalism [3] le tecnologie informatiche, essendo pervasive, possono anche dar luogo a modificazioni comportamentali ed hanno un ruolo centrale nel funzionamento della contemporanea economia dell'informazione: siamo dunque entrati, attraverso uno slittamento di paradigma, non solo in una nuova fase tecnologica, ma anche in una nuova epoca della politica economica.
Non sorprende quindi che il 21 aprile 2021 la Commissione europea abbia formulato una proposta di regolamento che stabilisce regole armonizzate sull'intelligenza artificiale (IA). Con tale sintagma si fa riferimento agli algoritmi attraverso i quali le macchine e i sistemi informatici simulano i processi di intelligenza umana. Le applicazioni specifiche dell'IA includono sistemi come la stesura di documenti, l'elaborazione del linguaggio naturale, il riconoscimento vocale e la visione artificiale.
Tale proposta mira ad assicurare che i sistemi di IA immessi sul mercato dell'Unione e utilizzati nell'Unione siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell'Unione, ad assicurare la certezza del diritto al fine di facilitare gli investimenti e l'innovazione nell'intelligenza artificiale, a migliorare la governance e l'applicazione effettiva della normativa esistente in materia di diritti fondamentali e sicurezza nonché a facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili, evitando nel contempo la frammentazione del mercato [4].
Il Consiglio dell'UE, il 25 novembre 2022 ha adottato la sua posizione comune ("orientamento generale") relativa alla disciplina contenuta nella bozza di regolamento proposto dalla Commissione, ribadendo che il suo obiettivo è assicurare che i sistemi di intelligenza artificiale immessi sul mercato dell'UE e utilizzati nell'Unione siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell'Unione. Per garantire che la definizione di sistema di IA fornisca criteri sufficientemente chiari per distinguere l'IA dai sistemi software più semplici, il testo del Consiglio limita la definizione ai sistemi sviluppati mediante approcci di apprendimento automatico e approcci basati sulla logica e sulla conoscenza.
2. I profili che la proposta di regolamento affronta sono copiosi e per molti aspetti controversi. Tra questi dev'essere annoverato quello riguardante la nozione di IA, ovvero la sua classificazione a seconda della tipologia di rischio; i requisiti che i sistemi ad alto rischio debbono rispettare, nonché la procedura di convalida e certificazione dei sistemi stessi, sino ad arrivare agli obblighi gravanti su alcuni soggetti che rientrano nella catena del valore. Infine, alcune disposizioni sono dedicate al sistema di governance e al quadro sanzionatorio.
Il legislatore europeo non affronta direttamente il profilo della responsabilità, rinviando ad un futuro intervento della Commissione sul punto, ancorché una lettura critica della proposta legislativa fornisca ineluttabilmente indicazioni. In letteratura già si possono rintracciare le prime letture e, quindi, delineare il dibattito che si è aperto. Si sottolinea infatti come il modello del legislatore europeo sembrerebbe essere diretto ad una correlazione tra tipologie di sistemi di IA e le corrispondenti modalità di immissione nel circuito di utilizzo, con la conseguente individuazione dei soggetti che possono essere coinvolti rispetto agli obblighi su di loro gravanti [5]. Tutto ciò al fine di garantire adeguati standard di tutela «e, soprattutto, assicurare la predeterminazione dei diversi livelli di responsabilità» [6].
Il dato che anzitutto risalta, nel design dell'opera cui è chiamato il legislatore europeo in tale delicata materia, è il primato dei valori.
Sembrerebbe che l'antica disputa tra Tecne e Nomos, tra la (pre)potenza di una tecnica che vuole farsi legge a se stessa e la superbia del Leviatano, convinto di poter ordinare ogni apparato in funzione della propria sovrana volontà [7], si risolva appunto con la prevalenza del primato dei valori, dunque con l'affermazione della dignità dell'uomo come valore preponderante, alla cui protezione deve essere improntata l'intera disciplina [8]. E il primato della persona non rimane proclamazione astratta, ma è valore che si traduce in princìpi – responsabilità, sicurezza, trasparenza, divieto di discriminazioni e pregiudizi – cui dev'essere improntato l'intero articolato normativo [9].
Di particolare interesse, nella bozza di regolamento, è altresì la prescelta tecnica di drafting normativo. In buona parte del testo, anziché prescrizioni di dettaglio, dunque fattispecie che ambiscano a fornire una specifica disciplina per ogni possibile caso – che pure si riscontrano, specie nel titolo II avente ad oggetto le pratiche di intelligenza artificiale espressamente vietate – il legislatore europeo si limita a individuare gli obiettivi di compliance, lasciando agli operatori una discrezionalità nella scelta delle più idonee modalità per raggiungerli.
Tale scelta di indicare, in molti casi, non le condotte da tenere, ma l'obiettivo da perseguire, esprime un approccio legislativo flessibile e aperto alla condivisione, cioè alla progressiva individuazione, anche grazie al contributo degli attori coinvolti, delle soluzioni tecnologiche via via più idonee, anche alla luce dell'evoluzione delle conoscenze e delle buone pratiche, a raggiungere quegli obiettivi [10].
In questo slittamento dalla logica solipsistica del comando ad una coregolazione fondata su principi, flessibile e dinamica, sembra cogliersi il compimento della svolta pos-moderna segnalata da Paolo Grossi [11] dalla costruzione gerarchica (top-down) del diritto al recupero della sua dimensione bottom-up. Se il fatto si sottrae alla presa della fattispecie non è per un assunto di carattere teorico, bensì perché – nella vivente realtà che il diritto osserva, prima di poterla qualificare – l'innovazione tecnologica procede ad una velocità tale che il regolatore, anche volendo, non potrebbe disciplinarla mediante rigidi schemi di qualificazione [12]. È il diritto stesso a dover assumere un'attitudine realistica, dandosi modo e tempo di osservare i fenomeni, registrarne i cambiamenti, costantemente adeguare la disciplina, sempre tenendo ferma la stella polare dei principi.
La preferenza per una regolazione flessibile e dinamica si coglie in particolar modo nella previsione di spazi di sperimentazione normativa che consentano lo sviluppo e il testing di nuovi sistemi di intelligenza artificiale in un'area protetta, in cui gli organi di controllo possano monitorare l'impatto delle innovazioni. Nelle regulatory sandboxes [13], infatti, le imprese possono operare per un determinato periodo di tempo, così da poter testare il prodotto in un ambiente reale, senza essere vincolate al rispetto di ogni previsione normativa, ma, per l'appunto, sottoponendosi volontariamente al controllo del regolatore, il quale a sua volta esamina l'impatto del prodotto sugli interessi meritevoli di tutela. Il regolatore, dunque, non fornisce ex ante una qualificazione del prodotto, ma osserva per poter valutare e, in attesa di acquisire elementi idonei ad una qualificazione informata, da un lato non ostacola lo sviluppo o addirittura l'introduzione sul mercato di prodotti innovativi, dall'altro consente di operare in un'area delimitata e protetta, adottando le misure necessarie ad evitare l'impatto dannoso su consumatori o utenti di tali prodotti.
Anche solo scorrendo la bozza di Regolamento europeo sull'intelligenza artificiale, dunque, non mancano spunti di un certo interesse ai fini del discorso sulla complessità del procedimento di formazione del diritto contemporaneo.
Il primato dei principi, anzitutto: la disciplina europea sull'intelligenza artificiale ha una sua propria identità assiologica, ponendo la dignità dell'uomo ed il rispetto dei diritti fondamentali come propria Grundnorm.
In secondo luogo, la condivisione della funzione regolatoria tra istituzioni, europee e nazionali, ed attori privati: ciò nella consapevolezza che la migliore regolazione derivi anche dalla prudente considerazione – se l'espressione è consentita – della natura delle cose, delle buone pratiche, della valutazione fornita dagli esperti, così intrecciando il classico approccio top-down con uno realistico sguardo bottom-up. È, dunque, la legge della complessità a porre fine alla solitudine del legislatore [14].
In terzo luogo, la compresenza tra hard law e soft law; la flessibilità e sperimentalità della regolazione (che si scrolla di dosso ogni rigidità, disponendosi a costanti verifiche e aggiornamenti).
Infine, il principio di responsabilità richiesto agli attori privati, non più meri sudditi destinatari di comandi, ma attori coinvolti proattivamente nel funzionamento del processo regolatorio [15].
Nella bozza di Regolamento, in sintesi, si registra una rinnovata consapevolezza che la regolazione della complessità deve, da un lato, ruotare intorno a principi [16] (e quindi valori) chiari e definiti, dall'altro svilupparsi in modo flessibile, dinamico ed incentivare la partecipazione attiva al processo regolatorio, facendo leva sull'assunzione di responsabilità degli operatori.
La direzione intrapresa, dunque, è quella di un eco-sistema di co-regolazione flessibile e dinamica, improntato a condivisione, responsabilità, fiducia e atto a garantire lo sviluppo di sistemi di intelligenza artificiale nel pieno rispetto della dignità dell'uomo.
3. Il giurista munito di una minima consapevolezza culturale non può dirsi disorientato al cospetto di una filosofia della regolazione quale quella che ha ispirato la recente proposta di Regolamento europeo in materia di intelligenza artificiale.
Da tempo la scienza giuridica contemporanea ha acquisito la consapevolezza che il diritto contemporaneo, sceso dal piedistallo su cui si poneva l'antico legislatore, si dispone ad osservare il reale, cogliendone le specificità. Occorre riconoscere che l'esperienza giuridica è opera intersoggettiva alla cui edificazione cooperano molti attori, fino a far sfumare la tradizionale contrapposizione tra autori e destinatari della regola e lo stesso sacro confine tra astratto e concreto. Di più: l'ordinamento pos-moderno prende atto che l'incertezza non è una patologia da prevenire, facendo leva su incontaminati schemi di qualificazione che si illudano di poter anticipare e così sterilizzare il futuro, ma è un sentiero nel quale inoltrarsi con gli strumenti adatti, adeguando le proprie fattispecie alle situazioni concrete ed in continua evoluzione [17].
Quando il diritto si cala nella concretezza dell'esperienza e si contamina con la sua umanissima fattualità, non può temere il confronto con l'incertezza, anzi la coglie come occasione per mettere a punto e aggiornare le proprie regole, affinare le soluzioni pratiche, inventare [18] il giusto nel caso concreto.
È così che lo storia del diritto, disponendoci all'ascolto autentico della lezione del passato, offre chiavi di lettura per comprendere il presente e, soprattutto, il futuro [19], attraverso un dialogo arricchente tra passato e presente [20].
Ecco perché la decostruzione delle mitologie giuridiche della modernità è precondizione di una corretta comprensione del diritto futuro. Certo sarebbe fuori luogo la proposta di un modello medievale per la costruzione del diritto di oggi e di domani. Sembra però doverosa piuttosto la presa d'atto che la logica del comando è ormai superata dalla storia, che lo Stato legislatore dimostra la sua desolante incapacità di ordinare il magma socio-economico e il suo rapido attuale movimento/mutamento e così accetta di condividere con altri attori l'opera di ordinamento del reale [21].
In questo senso, l'approccio del legislatore europeo ai fenomeni dell'innovazione nasce proprio dalla consapevolezza non solo di trovarsi «di fronte a una dinamica economica sempre più bisognosa di ampie proiezioni spaziali e di fronte a tecniche e tecnologie sempre più insofferenti a oppressivi e artificiosi confini politici», ma di dover dare forma ad «un ordine giuridico complesso, che si vuole scandito in più strati, che si vuole soprattutto poggiante su uno strato profondo, radicale, dove i valori diventano principii e i principii consentono il riconoscimento di diritti fondamentali» [22].
A dispetto delle molte apologie del disincanto – sia che flettano verso la weberiana gabbia d'acciaio rideclinata in chiave digitale, sia che navighino dolcemente in una liquidità priva di direzione e di senso –, l'ingresso nell'era della complessità può significare, per l'esperienza giuridica, la conquista di una nuova consapevolezza e di un nuovo senso di responsabilità. Ed è la lezione della storia a suggerirci la via per comprendere, regolare e gestire l'innovazione – dove il nuovo sta per ciò che non è e non sarà mai anticipabile ex ante – e così proseguire il cammino, sempre guardando ai principi, finalmente liberi dai retaggi di ingannevoli mitologie [23].
4. Gli strumenti di intelligenza artificiale pongono, come si è sopra accennato, questioni e problemi non solo europei ma globali, per risolvere i quali forse non sono sufficienti nuove regole legislative ma occorre un nuovo e diverso approccio culturale al fenomeno giuridico.
Al diritto e ai giuristi non compete modificare la consistenza pervasiva e l'estensione indefinita delle nuove tecnologie ma resta la funzione di individuare i principi e “inventare” (nel senso latino del verbo di cercare e trovare) le regole per consentire la convivenza pacifica tra le persone e, se del caso, arginare la “dittatura degli algoritmi” [24].
Le nuove tecnologie rappresentano un problema per il giurista contemporaneo ma anche un'opportunià, consegnandogli un più intenso compito valutativo ed un accresciuto onere argomentativo, con la necessità di sviluppare una coscienza critica in grado di fronteggiare il mito della delega alla macchina. La tecnologia va demistificata in quanto non pare sufficiente ad esaurire in sé stessa il sociale e il giuridico.
Riferimenti bibliografici:
[1] Per maggiori riferimenti mi permetto di rinviare a M. PALAZZO, Il contratto nella pluralità degli ordinamenti, Napoli, Editoriale Scientifica, 2021, 35 ss. e 299 ss.
[2] Maggiori riferimenti in S. MANNONI, G. STAZI, Sovranità.com. Potere pubblico e privato ai tempi del cyberspazio, Napoli, Editoriale scientifica, 2021, 31 ss.
[3] S. ZUBOFF, The Age of Surveillance Capitalism. The Fight for a Human Future at the New Frontier of Power, Profile Books Ltd, 2019. Ma v. anche K. PISTOR, Il codice del capitale. Come il diritto crea ricchezza e disuguaglianza, Roma, Luiss University Press, 2021, 230. Oltre ai due contributi citati si veda, in generale, la letteratura in materia di market surveillance regulation. Tra i tanti, si rinvia al recente studio di C. BUSCH, Rethinking Product Liability Rules for Online Marketplaces: A Comparative Perspective, Consumer Law Scholars Conference in Boston (March 4-5, 2021), 2021, disponibile su ssrn.com.
[4] Per una perspicua analisi di tale documento v. G. FINOCCHIARO, La proposta di regolamento sull'intelligenza artificiale: il modello europeo basato sulla gestione del rischio, in Diritto dell'informazione e dell'informatica, 3, 2022, 303 ss.
[5] G. DI ROSA, Quali regole per i sistemi automatizzati “intelligenti”?, in Riv. dir. civ., n. 5/2021, 851.
[6] DI ROSA, op. cit., L'A. richiama quanto già rilevato da R. MONTINARO, Responsabilità del prodotto difettoso e tecnologie digitali tra soft law e hard law, in Pers. merc., n. 4/2020, 378.
[7] N. IRTI, E. SEVERINO, Dialogo su diritto e tecnica, Roma-Bari, Laterza, 2001.
[8] «La proposta [si legge in apertura della Relazione di accompagnamento] si basa sui valori e sui diritti fondamentali dell'UE e si prefigge di dare alle persone e agli altri utenti la fiducia per adottare le soluzioni basate sull'IA, incoraggiando al contempo le imprese a svilupparle. L'IA dovrebbe rappresentare uno strumento per le persone e un fattore positivo per la società, con il fine ultimo di migliorare il benessere degli esseri umani. Le regole per l'IA disponibili sul mercato dell'Unione o che comunque interessano le persone nell'Unione dovrebbero pertanto essere incentrate sulle persone, affinché queste ultime possano confidare nel fatto che la tecnologia sia usata in modo sicuro e conforme alla legge, anche in termini di rispetto dei diritti fondamentali» [corsivi aggiunti]. Sul tema AI e dignità umana, cfr. ad esempio L. PALAZZANI, Tecnologie dell'informazione e intelligenza artificiale. Sfide etiche al diritto, Roma, Studium, 2020, 68 ss.
[9] Ancora nella Relazione si legge: «Per i sistemi di IA ad alto rischio i requisiti di qualità elevata dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana, precisione e robustezza sono strettamente necessari per attenuare i rischi per i diritti fondamentali e la sicurezza posti dall'IA e che non sono oggetto di altri quadri giuridici in vigore».
[10] Sempre dalla Relazione: «La presente proposta presenta un approccio normativo orizzontale all'IA equilibrato e proporzionato, che si limita ai requisiti minimi necessari per affrontare i rischi e i problemi ad essa collegati». «La proposta definisce un quadro giuridico solido e flessibile. Da un lato, è completa e adeguata alle esigenze future per quanto concerne le sue scelte normative fondamentali, compresi i requisiti basati sui principi che i sistemi di IA dovrebbero soddisfare. Dall'altro, mette in atto un sistema normativo proporzionato incentrato su un approccio normativo ben definito basato sul rischio che non crea restrizioni inutili al commercio, motivo per cuil'intervento legale è adattato alle situazioni concrete nelle quali sussiste un motivo di preoccupazione giustificato o nelle quali tale preoccupazione può essere ragionevolmente prevista nel prossimo futuro. Allo stesso tempo il quadro giuridico comprendemeccanismi flessibili che fanno sì che esso possa essere adeguato dinamicamente all'evoluzione della tecnologia e all'emergere di nuove situazioni di preoccupazione» [corsivi aggiunti].
[11] Della produzione scientifica di Paolo Grossi, benché notissima nel dibattito nazionale e internazionale, vanno ricordati almeno: L'ordine giuridico medievale, Milano, Giuffrè, 1995; Assolutismo giuridico e diritto privato, Milano, Giuffrè, 1998; Scienza giuridica italiana: un proflilo storico 1860-1950, Milano, Giuffrè, 2000; Mitologie giuridiche della modernità, Milano, Giuffrè, 2001; L’Europa del diritto, Roma-Bari, Laterza, 2007; Ritorno al diritto, Roma-Bari, Laterza, 2016; L'invenzione del diritto, Roma-Bari, Laterza, 2017; Oltre la legalità, Roma-Bari, Laterza, 2020; Il diritto civile in Italia tra moderno e posmoderno. Dal monismo legalistico al pluralismo giuridico, Milano, Giuffrè, 2021.
[12] S. RANCHORDAS, Constitutional Sunsets and Experimental Legislation: A Comparative Perspective, Edward Elgar, Cheltenham 2014, 3-4: «The rapid “social and technological acceleration of society” [...] does not interact well with slow-going legislators, resistance to legal change, obsolete laws, excessive administrative burdens and a perception of the rule of law as “a law of [permanent] rules”».
[13] Si tratta di una metodologia di verifica del prodotto in condizioni di sicurezza rafforzata. Si veda European Parliament. Policy Department for Economic, Scientific and Quality of Life Policies, Regulatory Sandboxes and Innovation Hubs for FinTech. Impact on innovation, financial stability and supervisory convergence, Regulatory Sandboxes and Innovation Hubs (europa.eu), 20: Regulatory sandboxes «can be seen as a way of regulatory experimentation, which allows the supervisor to test a certain customised regulatory approach to an innovative service, product or business model, instead of regulating, potentially prematurely or inadequately».
[14] Sugli equilibri tra digital governance, regulations e digital ethics, importanti puntualizzazioni G. RESTA, Governare l'innovazione tecnologica: decisioni algoritmiche, diritti digitali e principio di uguaglianza, in Pol. dir., n. 2/2019, 199 ss. Ma v. anche L. FLORIDI, Soft Ethics and the Governance of the Digital and the General data Protection Regulation, in Philosophical Transactions of the Royal Society, A, 15 October 2018, https://royalsociety.org/journals/.
[15] Riflettendo sul diritto nell'era della globalizzazione a partire dal pensiero di Paolo Grossi, V. SCALISI, Ritorno al diritto (dialogo con Paolo Grossi), Riv. dir. civ., n. 1/2017, 126, scrive: «Privatizzazione e relativizzazione, decentramento e poli-centrismo, funzionalismo e mobilità, de-territorialità e sconfinatezza, posteriorizzazione e libera scelta della regola rappresentano altrettante cifre del nuovo diritto globale, risultato più di fattori complessi che di scelte a priori imposte dall'alto, un diritto insofferente a percorsi verticistici e piuttosto vocato a disporsi a forma più di “rete” che di “piramide”, come tale rinveniente nella effettività, ossia nella osservanza più che nella semplice validità e nell'obbedienza, il criterio fondante della propria riconoscibilità e vitalità».
[16] Si veda il volume curato da G. D'AMICO, Principi e clausole generali nell'evoluzione dell'ordinamento giuridico, Milano, Giuffrè, 2017 e, in particolare, la Presentazione di P. GROSSI, IX ss.
[17] Scrive T. GRECO, Paolo Grossi, teorico del diritto orizzontale, in Riv. fil. dir., n. 1/2016, 55-56: «Se il verticale può divenire orizzontale è soprattutto perché, grazie al lavoro sapiente e prudente dei giuristi, il diritto può operare sulla base di uno schema cooperativo». E ancora: «Il giurista che guardava verso l'alto e attendeva dall'alto la Parola decisiva ora è chiamato a guardare verso il basso, o meglio a muovere verso il basso, e non per salire verso l'alto – ciò che reitererebbe il dispositivo verticale –, ma per guardare davanti a sé la realtà dei suoi simili, cogliendone quei bisogni materiali e spirituali che si traducono in necessità normative e in ansia di giustizia».
[18] Grossi torna spesso sulla fondamentale distinzione tra creare e inventare, v. ad esempio, P. GROSSI, L'invenzione del diritto, cit., 82: «Consapevoli, come siamo, che il diritto appartiene alle radici profonde della società, siamo altrettanto consapevoli che non è suscettibile di essere creato, neppure dal legislatore (purché non si tratti di un tiranno), tanto meno da giureconsulti teorici e pratici. Il vocabolo invenzione (e lo stesso vale per inventare, inventivo) deve essere qui inteso nel significato che hanno i vocaboli originarii latini invenire e inventio, i quali mettono a fuoco un'attività consistente nel cercare e nel trovare. E non può che essere oggi così, essendo la nostra un'età di incertezze, di stratificazioni molteplici, di interrelazioni tra i varii strati». Sul punto sia consentito rinviare per qualche puntualizzazione a M. PALAZZO, La recuperata consapevolezza della complessità nel processo di formazione del diritto. A margine del volume di Paolo Grossi Oltre la legalità, in Giust. civ., n. 4/2020, 812: «Sono “inventori” del diritto in primo luogo i legislatori ed i giudici, ma, poi, fuori dalla vulgata corrente, anche gli altri giuristi teorici e pratici nella loro complessa funzione. Particolare attenzione è dedicata anche infatti alla prassi negoziale, definita da Grossi “un diritto privato prodotto da privati”. Nasce così un law in action che, accanto al nucleo più solido di un diritto di produzione giudiziale, si sostanzia di germinazioni diffuse a carattere spontaneo e spontaneamente osservate, di soft law, che prospera e si diffonde in un contesto che, rompendo il monopolio e il rigido controllo statale del diritto, riduce significativamente in nome dell'effettività, la centralità della legge nell'ordinamento».
[19] Il punto è già messo a fuoco da G. ZACCARIA, La storicità recuperata: l'insegnamento di Paolo Grossi, in Riv. dir. civ., n. 1/2013, 175 e 176: «Paolo Grossi, da storico di razza, coglie tempestivamente i mutamenti del divenire sociale e delle stesse categorie giuridiche; e viene progressivamente a scoprire il nuovo volto del diritto che emerge dalle “sabbie mobili” della globalizzazione». E ancora: «Grossi coglie con tempestività la profonda dissimmetria che si è instaurata tra un ordine assolutamente artificioso delle fonti del diritto e un disordine effettivo; e registra efficacemente la “nuova” transizione dal monismo legislativo al pluralismo giuridico che si è prodotta nei sistemi giuridici contemporanei».
[20] P. GROSSI, Oltre la legalità, cit., 6. Sul punto, cfr. le sue tre lezioni in Uno storico del diritto alla ricerca di se stesso, Bologna, Il Mulino, 2008, nonché l'intera prima sezione di Società, diritto, stato, cit. Significativamente in esergo al volume La cultura del civilista italiano. Un profilo storico,Milano, Giuffrè, 2002, Grossi volle porre la condivisibile massima tratta da Keynes: «Uno studio della storia del pensiero è premessa necessaria all'emancipazione della mente e non so cosa renderebbe un uomo più conservatore, se il non conoscere null'altro che il presente, oppure null'altro che il passato».
[21] P. GROSSI, op. cit., 18.
[22] P. GROSSI, op. cit., 37-38.
[23] Come si legge nella chiusa di P. GROSSI nel volume L'Europa del diritto, cit., 255, scavare nella storia è «far posto ai basamenti di un nuovo edificio giuridico in coerenza con quanto è richiesto dalla nuova maturità di tempi in lenta formazione».
[24] S. RODOTÀ, Il mondo in rete, Roma-Bari, Laterza, 2017.