
Intelligenze a confronto
di Enrica Priolo (Avvocata in Cagliari)
Leggo spesso di visioni catastrofiche su cosa rappresenta l’intelligenza artificiale. Visioni in
cui l’uomo verrà sottomesso e piegato dalle sue stesse creature.
Ma è davvero così? È davvero così pericoloso affidarsi alle macchine?
Propongo un angolo visuale in cui la percezione della macchina è vissuta con più serenità, con più fiducia.
Alcuni sostengono che ci sia un pericoloso passaggio di attribuzione di responsabilità dagli uomini alle macchine pensanti, le quali dovrebbero in qualche misura surrogarci, ma probabilmente non sono in grado di surrogarci, quindi costituiscono sempre di più una esteriorizzazione di capacità umane che fanno sì che le macchine si potenzino quantitativamente, ma rimangano con dei limiti qualitativi molto evidenti e da qui i pericoli intrinseci in questa stessa cultura che sempre più va verso quello che uno studioso chiama il “simbionte”.
Il simbionte è una figura nuova in cui vi è una sintesi tra vita e macchina sino al punto che non solo la macchina è l’estrinsecazione del corpo umano ma è anche la sua integrazione, nel senso che sempre di più noi interiorizziamo parti di macchine e che è difficile distinguere un essere umano nei tratti biologici da quelli che, invece, sarebbero tratti tecnologici.
La tecnologia si impadronisce in modo esponenziale del cuore della biologia e in questa funzione alcuni vedono grandi pericoli, altri vedono grandi speranze e altri ancora sono incerti tra una cosa e l’altra.
Ecco dunque che la cornice che propongo si rifà ad una storia molto antica che va dagli scritti sugli automi antichi di Losano, passando per il mondo classico delle macchine semoventi (ricordiamoci del colosso di Rodi) e il medioevo cristiano e il medioevo musulmano e arabo -che hanno avuto una grande influenza in occidente- e finanche per le macchine automatiche giapponesi.
La lunghissima storia dell’automatismo meccanico -che ha avuto capitoli grandiosi nel 400 in Leonardo da Vinci- si compie ai primi del 900, quando arriva l’automa di tipo elettrico e ci porta fino ai giorni nostri al robot cibernetico.
Quali sono i punti fondamentali del ragionamento che ci propone?
Cosa significa automa?
Significa ciò che si muove da sé, anche se alcuni traducono ciò che pensa da sé, ma in quel caso è lo stesso pensiero il principio del movimento, quindi diamo per buona la definizione di ciò che si muove da sé.
Ebbene, secondo una scuola di pensiero ci sono soltanto due automi veri: il dio e l’animale perché solo questi possono essere legittimamente chiamati automi come vita che si muove da sé e in questo campo l’uomo non compare, non viene considerato ciò che si muove da sé, si vedrà perché.
Nell’uso corrente la parola automa viene usata dimenticando la sua stessa origine e si applica a congegni (quindi a produzioni macchiniche) di vario genere che simulano il muoversi da sé. Quando istintivamente pensiamo all’automa, pensiamo all’ automa di film famosi per esempio, che ha qualcosa di mostruosamente inquietante perché simula l’uomo, simula l’azione umana e qui nascono tutti gli equivoci e le paure che assegnano il nostro sapere contemporaneo alla vita automatica, alla vita cd. Cibernetica.
In particolare, la paura più forte risiede nel fatto che intendendo l’automa come una ripetizione dell’uomo, una ripetizione della sua vita autonoma soggettiva, ci sia il rischio che eguagli il suo stesso creatore.
Ad esempio, una delle domande più frequenti è: come faremo se gli automi diventeranno liberi di pensare a modo loro e quindi, magari, nemici ostili?
La questione, forse, va impostata evitando l’errore che sempre si compie in generale in questo tipo di approccio. Si dice l’uomo bravo pensa, allora agisce (uomo modello); l’uomo è libero o l’uomo non è libero a seconda delle varie opzioni morali; questo approccio mette al centro l’uomo perché è l’uomo che costruisce l’automa.
Qui il dio e l’animale diventano umbratili, perché il primo non si fa presenza e l’altro non dice di sé, non avendo la parola.
In sostanza, se l’uomo è capace può costruire un automa che è in tutto simile a sè stesso e si può mettere al posto del creatore divino, in questo modo dando luogo ad una nuova vita intelligente -che prima non c’era- assemblando la pura materia.
Così si finisce per intendere l’uomo come padrone della vita e della morte (della macchina).
In realtà sono dell’idea che il primo automa sia proprio l’uomo, perché è l’uomo che mostra di muoversi da sé, ma non si muove da sé.
Si intende dire come dall’ominizzazione si costituisca quel corpo macchina che poi darà vita all’automa. Come l’uomo, per muoversi da sé si serva di strumenti.
Ma quando uno strumento è uno strumento e come accade uno strumento?
Se per strumento intendiamo quello che gli antropologi definiscono un oggetto “esosomatico” (qualche cosa che sta fuori del corpo), intendiamo che lo strumento va al di là del corpo vivente in azione.
Come è accaduto che l’uomo ha potuto trovare un prolungamento della sua vita animale, della sua vita istintiva priva di sapere perché agisce semplicemente come vita – che poi è diventa un “di fuori”, un suo patrimonio, appunto un suo strumento calcolato, calcolabile e costruibile?
È accaduto che l’uomo si è avvalso di protesi; così come si intende nella sua origine greca la parola protesi (προτίθημι) porre qualcosa accanto a qualcos’altro porre qualcosa fuori, esporsi fuori.
Lo sappiamo perché analizziamo cosa accade nel corpo in azione del vivente -non soltanto dell’uomo, quindi, ma anche del corpo animale – e scopriamo una soglia che sta a mezza via tra quello che potremmo chiamare “corpo vivente” e quello che potremmo chiamare “corpo cosa” (Husserl).
Perché funzioni però è necessario che ci sia oltre a questa esteriorizzazione del corpo anche lo scopo e la funzione di esercitare questa esteriorizzazione nelle sue azioni vitali.
Quando questa esteriorizzazione si trasferisce dalla cosa materiale all’agente succede qualcosa di interessante.
Se uno scimpanzé trova un bastone e lo usa inconsapevolmente non gli torna indietro come uno strumento, il gesto non basta: serve qualcosa che accade soltanto all’essere umano perché si possa creare quella situazione di viventi che si dotano di strumenti.
La nostra civiltà è fatta di viventi pieni di strumenti, o addirittura simbionti, che gli strumenti ce li hanno dentro, addirittura dentro il corpo. Ed allora deve accadere qualche cosa che partendo dal corpo si proietta fuori del corpo, diventa un fenomeno esosomatico, una specie di specchio sul quale ed a partire dal quale il ritorno fa si che il soggetto che prima agiva in maniera inconsapevole ora si vede.
Succede che non soltanto si sa fare, ma si sa anche che cosa si fa; quello di cui si parla parte da una sola ipotesi che è il gesto vocale (come atteggiamento comunicativo espressivo, come azione in comunità).
Ecco allora che abbiamo il primo strumento: le parole.
Ovviamente anche le parole si costruiscono nel tempo, ma abbiamo fuori il vocabolario mentale (un bimbo si educa), abbiamo gli attrezzi attraverso i quali accadono due cose senza le quali l’essere umano non emerge.
Parlo, intanto, della possibilità di riferirsi all’altro e quindi a sè stesso (questo specchio di me che mi torna indietro come me) che chiamiamo la relazione con l’altro.
La seconda cosa è un potere analitico nei confronti del mondo di straordinaria efficacia e disporre di un vocabolario mentale vuol dire avere l’unità di misura con cui descrivere il mondo.
E questi sono algoritmi.
La parola è anzitutto un algoritmo, cioè una unità di misura, molto primitiva, ovviamente insufficiente per la scienza di oggi che preferisce la matematica, ma non si arriva alla matematica senza questo primo algoritmo.
E questo primo algoritmo è la descrizione che consente all’essere umano non solo di agire quel che agisce e di fare quel che fa, ma di costruirsi una mappa di quello che fa (l’uomo si costruisce un deposito mentale).
Se guardiamo esattamente quello che stiamo descrivendo dobbiamo convenire, senza paura, che noi siamo il prodotto del linguaggio e non i produttori del linguaggio.
Il cammino sterminato del primo grande strumento ci dimostra che l’essere umano è il prodotto di tutto ciò, che, come dice la parola automa, mostra di pensare da sé, ma non pensa da sé.
Immaginiamoci cosa succede se passiamo da questo primo strumento ai successivi, come le prime grandi scritture (l’agghindarsi del corpo, la maschera, la tomba, i geroglifici, la scrittura greca, la matematica, gli algoritmi moderni).
Capiamo ancora meglio perché l’uomo è un automa, perché la sua azione è organizzata, determinata, orientata a quella che noi che chiamiamo la cultura, la conoscenza.
Il vero automa è la cultura, di cui l’uomo è il prodotto.
L’automa-cultura partendo dalla vita traduce la vita in una attività vitale sapiente. Ma la parola è morta (Hegel), manca di individualità, non appena nomino qualcosa l’ho già perduta.
La vita non la posso “dire”, la posso tradurre in una parola che è il sapere e che è una macchina.
Allora molte preoccupazioni vengono meno, se la cultura è la costruzione di una macchina esosomatica; se è la trascrizione della vita in una analiticità che è il corpo-cosa, il corpo che si esternalizza sino a diventare corpo-altro (l’alfabeto, la scrittura, tutte le macchine che abbiamo inventato) se questo è il nostro sapere, se questo è l’automatismo del nostro sapere, non c’è niente di strano nel pensare che noi costruiremo e già stiamo costruendo delle macchine assolutamente capaci di pensare, se pensare vuol dire calcolare, se pensare vuol dire ragionare, cioè dedurre, inferire.
Ma le facciamo già, non c’è nessuno scandalo, perché non abbiamo fatto altro che questo!
Abbiamo costruito macchine che ci hanno aiutato nella quotidianità, che ci hanno aiutato a pensare anche, abbiamo dato al bambino la lingua.
Questo è esattamente come nella macchina cibernetica, essa è diversa nel tipo di scrittura, ma è la stessa cosa.
Ciò che, però, una macchina non farà mai è vivere, perché non può fare due cose: non può ricordare e non può sbagliare.
La macchina certamente può raccogliere le tracce e calcolarle, ma non può fare questa cosa fondamentale -che è tipica del vivente, dell’eterno vivente (dio) e dell’animale e dell’uomo – che è dimenticare per ricordare.
Cioè, solo colui che dimentica può ricordare, solo chi ha perso il momento vivente può riportarlo nel cuore (lat. recŏrdari, der., col pref. re-, di cor cordis «cuore», perché il cuore era ritenuto la sede della memoria), riportarvisi nella differenza incolmabile di un vissuto ricordato e, quindi, perduto. Di un vissuto ricordato e, quindi, dimenticato.
Ho scelto di raccontare cosa deve dirigere la macchina nel suo allenamento, il sapere.
In questa ottica esprimo alcune considerazioni sul dibattito in corso, oggetto anche di un tema congressuale del prossimo Congresso Nazionale Forense che si terrà a Lecce.
Uno dei campi del sapere in cui si discute maggiormente delle conseguenze della primazia delle macchine sull’uomo è senz’altro quello del diritto, in particolare delle decisioni giudiziarie cosiddette automatizzate.
È vero che avremo un giudice robot molto presto?
Per rispondere, si individui prima cosa si intende, in generale, per previsione e predizione.
Esistono almeno quattro situazioni nelle quali il diritto e gli operatori (giuristi e legislatori) si misurano con la “previsione” ovvero con la necessità/capacità di vedere e valutare in anticipo ciò che accadrà in futuro.
Vediamole.
1) La previsione normativa.
Nel lessico dei giuristi compare spesso l’espressione “previsione normativa” per indicare la situazione astratta che il legislatore immagina e alla cui esistenza viene riconnesso il sorgere di determinate conseguenze. In dati contesti coincide con la cosiddetta “fattispecie astratta”.
Il concetto di previsione è, quindi, connaturato a quello di norma: il compito di quest’ultima è prefigurare una situazione possibile del futuro.
Quando interpretiamo un enunciato normativo siamo portati, da un lato, ad immaginare le circostanze di fatto nelle quali esso può trovare applicazione e, dall’altro, a chiederci il perché di quella previsione, cercando di individuare le ragioni che hanno spinto il legislatore a fare o a non fare certe scelte.
2) La previsione/prevedibilità della risposta dell’ordinamento: la certezza del diritto.
In una prospettiva connessa a quanto appena detto si colloca la previsione dell’esito di una controversia.
La sentenza segna il passaggio dalla “previsione normativa” astratta alla giustizia del singolo caso al quale quella previsione viene applicata. È il momento nel quale la fattispecie concreta si adatta perfettamente alla fattispecie astratta secondo un modello di ragionamento di tipo sillogistico. L’idea di un “diritto calcolabile” riposa sulla convinzione che l’esito di ogni controversia debba essere “prevedibile”.
Proprio tale assunto dà corpo ad uno dei pilastri della nostra civiltà giuridica: quello della “certezza del diritto”.
Il sistema giuridico compulsato in ordine ad un determinato problema deve fornire sempre la medesima risposta. Perché certo è solo ciò che è prevedibile.
3) La previsione degli effetti della regolazione.
Assumendo l’ottica propria dei regolatori/legislatori (e dei giuristi che con loro collaborano) si deve ricordare come, da qualche lustro, sempre maggiore enfasi venga posta sulla necessità di “prevedere” gli effetti delle norme e della regolazione: le norme si devono emanare solo se, al termine di una adeguata istruttoria, si è ragionevolmente certi che sortiranno gli effetti voluti e previsti.
Occorre quindi essere ragionevolmente in grado di “prevedere”:
a) come reagiranno i consociati alle nuove regole (se terranno o meno i comportamenti auspicati e/o imposti);
b) se davvero gli effetti prodotti dalle nuove regole porteranno al conseguimento degli obiettivi voluti.
4) La previsione/predittività dell’intelligenza artificiale.
La nuova frontiera è rappresentata dalle capacità predittive dell’intelligenza artificiale, anche se meglio sarebbe dire della “data science” e del “data mining” applicati al mondo del diritto (“legal analytics“).
Qui si intende la capacità di elaborare previsioni mediante un calcolo probabilistico effettuato da algoritmi operanti su base semplicemente statistica o su base logica.
La “legal analytics” può essere usata per prevedere l’esito di un giudizio.
Nel 2016, ad esempio, è stato svolto uno studio che, grazie ai progressi nell’elaborazione del linguaggio naturale e nell’apprendimento automatico, si proponeva di costruire modelli predittivi utili a svelare gli schemi che guidano le decisioni giudiziarie.
Il lavoro ha previsto l’esito dei casi analizzati dalla Corte europea dei diritti umani basandosi sul loro contenuto testuale: la previsione è riuscita nel 79% dei casi. E, più in generale, può essere usata per predire i comportamenti di tutti gli attori del sistema giuridico.
Lex Machina, una emanazione di Lexis-Nexis, combina dati e software per creare set di dati su giudici, avvocati, parti e soggetti di cause legali, analizzando milioni di pagine di informazioni sulle controversie. Con questi dati gli avvocati possono prevedere i comportamenti e gli esiti che produrranno le diverse possibili strategie legali.
La “legal analytics” si propone di predire gli esiti dei processi: non già sulla base di un rigoroso e meccanico ragionamento giuridico, bensì alla luce di sofisticate analisi algoritmico/statistiche di moli enormi di dati (big data).
Un conto è ipotizzare possibili orientamenti di una corte, dei giudici, degli operatori. Altra cosa è prevedere con certezza l’esito del singolo giudizio.
Per ottenere questo dovremmo disporre di algoritmi in grado di governare incertezza e imprevedibilità. E, in ogni caso, residuerebbe il problema etico circa la legittimità di affidare una decisione giuridica a questo tipo di algoritmo.
A proposito di quest’ultimo aspetto, è doveroso richiamare il lavoro fatto dalla Commissione Europea per l’efficienza della giustizia (CEPEJ), la quale ha adottato la cosiddetta Carta Etica Europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi.
La Carta, emanata nel 2018, ha stabilito cinque princìpi cardine sull’uso della Intelligenza Artificiale nel sistema “giustizia”.
Intanto, si veda cosa intende l’Europa per intelligenza artificiale.
Insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani.
Gli attuali sviluppi mirano a far svolgere alle macchine compiti complessi precedentemente svolti da esseri umani.
Tuttavia, l’espressione “intelligenza artificiale” è criticata dagli esperti, che distinguono tra intelligenze artificiali “forti” (capaci di contestualizzare problemi specializzati di varia natura in maniera completamente autonoma) e intelligenze artificiali “deboli” o “moderate” (alte prestazioni nel loro ambito di addestramento).
Alcuni esperti sostengono che le intelligenze artificiali “forti”, per essere in grado di modellizzare il mondo nella sua interezza, necessiterebbero di progressi significativi della ricerca di base e non soltanto di semplici miglioramenti delle prestazioni dei sistemi esistenti.
Gli strumenti menzionati nel presente documento sono sviluppati utilizzando metodi di apprendimento automatico, ovvero intelligenze artificiali “deboli”.
E che cosa intende per Predictive justice (Giustizia Predittiva)
Per giustizia predittiva si intende l’analisi di una grande quantità di decisioni giudiziarie mediante tecnologie di intelligenza artificiale al fine di formulare previsioni sull’esito di alcune tipologie di controversie specialistiche (per esempio, quelle relative alle indennità di licenziamento o agli assegni di mantenimento).
Il termine “predittivo” utilizzato dalle società di legal tech è tratto dalle branche della scienza (principalmente la statistica) che consentono di predire risultati futuri grazie all’analisi induttiva.
Le decisioni giudiziarie sono trattate al fine di scoprire correlazioni tra i dati in ingresso (criteri previsti dalla legge, fatti oggetto della causa, motivazione) e i dati in uscita (decisione formale relativa, per esempio, all’importo del risarcimento).
Le correlazioni che sono giudicate pertinenti consentono di creare modelli che, qualora siano utilizzati con nuovi dati in ingresso (nuovi fatti o precisazioni introdotti sotto forma di parametri, quali la durata del rapporto contrattuale), producono secondo i loro sviluppatori una previsione della decisione.
Alcuni autori hanno criticato questo approccio sia formalmente che sostanzialmente, sostenendo che, in generale, la modellizzazione matematica di determinati fenomeni sociali non è un compito paragonabile ad altre attività quantificabili più facilmente (isolare i fattori realmente causativi di una decisione giudiziaria è un compito infinitamente più complesso di giocare, per esempio, una partita di I’m king o riconoscere un’immagine): il rischio di false correlazioni è molto più elevato. Inoltre, in dottrina, due decisioni contraddittorie possono dimostrarsi valide qualora il ragionamento giuridico sia fondato.
Conseguentemente la formulazione di previsioni costituirebbe un esercizio di carattere puramente indicativo e senza alcuna pretesa prescrittiva.
Fissati i termini, scopriamo quali sono i principi basilari stabiliti dalla CEPEJ.
1) Principio del rispetto dei diritti fondamentali:
assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale che siano compatibili con i diritti fondamentali. Quando gli strumenti di intelligenza artificiale sono utilizzati per dirimere una controversia, per fornire supporto nel processo decisionale giudiziario, o per orientare il pubblico, è essenziale assicurare che essi non minino le garanzie del diritto di accesso a un giudice e del diritto a un equo processo (parità delle armi e rispetto del contraddittorio).
Ciò significa che, fin dalle fasi dell’elaborazione e dell’apprendimento, dovrebbero essere pienamente previste norme che proibiscono la violazione diretta o indiretta dei valori fondamentali protetti dalle Convenzioni sovranazionali.
Human rights by design.
2) Principio di non-discriminazione:
prevenire specificamente lo sviluppo o l’intensificazione di qualsiasi discriminazione tra persone o gruppi di persone. Data la capacità di tali metodologie di trattamento di rivelare le discriminazioni esistenti, mediante il raggruppamento o la classificazione di dati relativi a persone o a gruppi di persone, gli attori pubblici e privati devono assicurare che le metodologie non riproducano e non aggravino tali discriminazioni e che non conducano ad analisi o usi deterministici.
Il metodo deve essere NON discriminatorio.
3) Principio di qualità e sicurezza:
in ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili con modelli elaborati multidisciplinarmente, in un ambiente tecnologico sicuro.
I creatori di modelli di apprendimento automatico dovrebbero poter fare ampio ricorso alla competenza dei pertinenti professionisti del sistema della giustizia e ricercatori nei campi del diritto e delle scienze sociali.
La costituzione di squadre di progetto miste, per brevi cicli di elaborazione, al fine di produrre modelli funzionali è uno dei metodi organizzativi che permettono di ottenere il meglio da tale approccio multidisciplinare.
Più siamo a progettare, meglio è.
4) Principio di trasparenza, imparzialità ed equità:
rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne.
Deve essere raggiunto un equilibrio tra la proprietà intellettuale di alcune metodologie di trattamento e l’esigenza di trasparenza (accesso al processo creativo), imparzialità (assenza di pregiudizi), equità e integrità intellettuale (privilegiare gli interessi della giustizia) quando si utilizzano strumenti che possono avere conseguenze giuridiche, o che possono incidere significativamente sulla vita delle persone.
Dovrebbe essere chiaro che tali misure si applicano all’intero processo creativo, così come alla catena operativa, in quanto la metodologia di selezione e la qualità e l’organizzazione dei dati influenzano direttamente la fase dell’apprendimento.
L’Intelligenza Artificiale deve poter essere verificata da terze parti.
5) Principio del “controllo da parte dell’utilizzatore”
precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte.
L’utilizzo di strumenti e servizi di intelligenza artificiale deve rafforzare e non limitare l’autonomia dell’utilizzatore.
L’utilizzatore deve essere informato con un linguaggio chiaro e comprensibile del carattere vincolante o meno delle soluzioni proposte dagli strumenti di intelligenza artificiale, delle diverse possibilità disponibili, e del suo diritto di ricevere assistenza legale e di accedere a un tribunale. Deve inoltre essere informato in modo chiaro di qualsiasi precedente trattamento di un caso mediante l’intelligenza artificiale, prima o nel corso di un procedimento giudiziario, e deve avere il diritto di opporvisi, al fine di far giudicare il suo caso direttamente da un tribunale ai sensi dell’articolo 6 della CEDU.
Essere correttamente informati per controllare le proprie scelte.
Conclusioni
A ben vedere i principi dettati dalla CEPEJ ci indicano un via, che può essere riassunta (adattandola al contesto giudiziario) con una nozione elaborata durante il dibattito internazionale sviluppatosi nell’ambito dell’ONU sulle armi autonome.
Nell’impossibilità di determinare lo stato computazionale dello strumento di intelligenza artificiale e, quindi, un controllo completo sull’esecuzione dell’algoritmo predittivo, per ovviare all’alterazione della “correttezza e della parità del contraddittorio fra le parti e fra queste ed il giudice” dovrebbe rinforzarsi la richiesta che la decisione predittiva sia resa senza servirsi unicamente dei risultati meramente probabilistici ottenuti, non soltanto poiché́ il suo assolvimento non è sempre adeguatamente verificabile.
Ci si riferisce al suggerimento dottrinale secondo cui andrebbe sancito che l’impiego della macchina in sede giurisdizionale sia assoggettato a un controllo umano significativo rappresentato dalle seguenti imprescindibili condizioni:
- che il suo funzionamento sia reso pubblico e vagliato conformemente ai criteri di peer review;
- che sia noto il potenziale tasso di errore;
- che adeguate spiegazioni traducano la “formula tecnica” costitutiva dell’algoritmo nella regola giuridica, così da renderla leggibile e comprensibile dal giudice, dalle parti e dai loro difensori;
- che sia salvaguardato il contraddittorio sulla scelta degli elementi archiviati, sui loro raggruppamenti e sulle correlazioni dei dati elaborati dall’apparato di intelligenza artificiale, particolarmente in relazione all’oggetto della controversia;
- che la loro accettazione da parte del giudice sia giustificata alla luce di quanto emerso in giudizio e per le circostanze di fatto valutato secondo il principio del libero convincimento.
(Al momento della redazione del presente articolo, è in attesa di emanazione l’AI ACT -il Regolamento Europeo sulla Intelligenza Artificiale).
Bibliografia:
- Intelligenza Artificiale. Un approccio moderno, Russell e Norvig, Pearson.
- G.W.F. HEGEL, Lineamenti di filosofia del diritto, 1821, trad. it., Bari, 1996.
- G. ROMANO, Diritto, robotica e teoria dei giochi: riflessioni su una sinergia, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pisa, 2020
- G. TAMBURRINI, Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale, Roma, 2020
- U. RUFFOLO – A. AMIDEI, Intelligenza Artificiale, human enhancement e diritti della persona, in Intelligenza artificiale. Il diritto, i diritti, l’etica, già anticipate in U. RUFFOLO – A. AMIDEI, Intelligenza Artificiale e diritti della persona: le frontiere del “transumanesimo”, in Giur. it., 2019
- J. LASSÈGUE, Justice digitale. Révolution graphique et rupture anthropologique, Paris, 2018
- J. NIEVA-FENOLL, Intelligenza artificiale e processo, 2018, trad. it., Torino, 2019
- INTERPRETAZIONE DELLA LEGGE CON MODELLI MATEMATICI (II Edizione): Processo, a.d.r., giustizia predittiva, 2018
- S. SIGNORATO, Giustizia penale e intelligenza artificiale. Considerazioni in tema di algoritmo predittivo, in Riv. dir. proc., 2020
- G. Longo, “Il simbionte. Prove di una umanità futura”, 2013
- Libro Bianco sulla IA della Commissione Europea
Sitografia:
- https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348
- https://teseo.unitn.it/biolaw/article/view/1353
- https://www.agendadigitale.eu/cultura-digitale/predire-il-futuro-fra-machine-learning-e-magia/
- https://archiviodpc.dirittopenaleuomo.org/d/6735-sistema-penale-e-intelligenza-artificiale-molte-speranze-e-qualche-equivoco
- S. QUATTROCOLO, Equità del processo penale e automated evidence alla luce della convenzione europea dei diritti dell’uomo, in Rev. italo-española der. proc., 2019, consultabile su http://www.revistasmarcialpons.es/rivitsproc/
- https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf
- https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf
- https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf
Credits: www.kemichal.it
#TOPICS: ultimi articoli
Avvocati, cosa… come…?
Massimo Corrado Di Florio
Autentici depositari di una fede di libertà
Rilevanza strategica
Andrea Buti
Inquadrare il problema, individuare le opzioni, immaginare gli scenari
Per prima cosa, uccidiamo tutti gli avvocati
Aldo Luchi
Le battaglie per i diritti di tutti e non per il privilegio di pochi
Lo sguardo laico
Nicola Cirillo
Una funzione propulsiva del progresso e dello sviluppo sociale
Dieci ragazzi per noi
Ileana Alesso
Il linguaggio del legame sociale è un linguaggio “speciale” che deve essere “normale
Sentimenti e regole
Antonio Pascucci
Le regole sono il fondamento di ogni comunità strutturata, necessarie per garantire un equilibrio tra ordine e libertà
Un fiocco di tanti colori
Paola Furini
Ai ragazzi e alle ragazze è stata garantita la possibilità di partecipare alla vita pubblica
Rubriche: ultimi articoli
Alessandra Capuano, Giovanna Fava, Ida Grimaldi, Andrea Mazzeo, Elvira Reale Il malcelato tentativo di negazione della violenza domestica e di genere che si vuole mantenere fuori dai Tribunali civili e dalle cause di affidamento dei minori
Andrea Mazzeo Le condotte conflittuali o di sopraffazione tra i coniugi non sono equiparabili al mobbing nel mondo del lavoro
Anna Frasca
Esiste una correlazione inversa tra il lavoro domestico e il desiderio di avere figli
Paola Regina
La giurisprudenza della Corte Europea dei diritti dell’uomo ha elaborato
nozioni autonome di diritto e di legge
Emilio De Capitani
Elementi fondanti per il diritto all’auto determinazione di ogni individuo e per il funzionamento di una società democratica
Roberta De Monticelli
L’idea di trasparenza è il luogo dove la logica si salda con l’etica
Stefania Cavagnoli
L’importanza del diritto e della sua comunicazione come strumento di relazione e di garanzia
Massimo Corrado Di Florio
Le parole non devono essere ingannatrici
Trasparenza delle leggi e strumenti di democrazia partecipativa in Italia e in Europa
Ileana Alesso
Se un linguaggio che non è possibile capire e parlare è un linguaggio che rende muti, ferisce le persone e la comunità, occorre la bussola di una lingua comune per l’orizzonte disegnato dalla Costituzione
Povera, si direbbe.Che già ad essere figlia di Agamennone e…
Giovanna Fava
Le richieste di provvedimenti in materia di famiglia sono tutte urgenti
Angelo Santi
Un campo di azione in cui esplicare la libertà delle parti