
Prima di Musk & C.
Molto prima di Elon Musk & C.
Era il 2 gennaio 2019. La pandemia stava per esplodere. Più o meno tutti tacevano su tutto. Si ostentava la bellezza del tacere su tutto.
Siamo all’aprile 2023. La pandemia (forse) è passata o, probabilmente, sta in quiescenza per qualche intervento di chi divino non è ma (probabilmente) crede di esserlo. La Russia e l’Ucraina…che ne parliamo a fare.
Con una lettera aperta, anche a firma di Elon Musk, viene domandato di fermare gli esperimenti di intelligenza artificiale; in particolare, si chiede: “…a “tutti i laboratori di AI a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4 . Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori coinvolti”. Ma perché questo allarme? Perché “I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili”.
Era il 2 gennaio 2019 e affrontavo una tematica simile:
AI: MILLENIAL ADDICTION #02
02 Gen 2019 | #02 Dicembre | Copertina
di Massimo Corrado Di Florio
“2001 Odissea nello spazio” è probabilmente uno dei tanti schemi narrativi cui affidarsi per definire il rischio esistenziale determinato dalla presa di potere della macchina sull’uomo.
Almeno, così mostra di rappresentarci, pur mantenendo una posizione del tutto neutra, Mark O’Connell nel suo “Essere Una Macchina”.
Se dovessi immaginare un possibile algoritmo (in realtà, oramai ne esistono già numerosi in commercio) capace di fungere da super catalizzatore dell’idiota più veloce del pianeta (il computer, cioè la macchina tecnologicamente più rapida), non posso che immaginarlo secondo una visione assolutamente antropomorfa.
Un po’ come se il senso delle cose, di tutte le cose intendo, sia da farsi passare esclusivamente attraverso il filtro dell’umano pensare e agire. Un errore.
Ne sono ben consapevole. Tuttavia, assai verosimilmente, è proprio questo genere di errore a costituire il prodromo necessario di ogni ulteriore riflessione.
Chiarisco immediatamente che non sono un transumanista e, pertanto, non credo che perfino la forma meno complessa di intelligenza artificiale possa causare l’annientamento della popolazione terrestre.
Chiarisco anche, però, che l’avvento di una superintelligenza non possa e non debba essere osservato secondo uno schema di tipo “etico”.
Insomma, a ben vedere, se di intelligenza artificiale si parla, è proprio nella artificialità di questo genere di manufatto che occorre scavare per comprendere appieno uno e un solo principio: l’intelligenza artificiale (se e quando ci sarà) non potrà mai essere confusa con l’intelligenza umana.
In primo luogo occorre ipotizzarla assai veloce, molto più veloce, di un cervello umano; ci basti solo pensare, ad esempio, al modo in cui i neuroni dell’uomo agiscono in termini di hertz: circa 200 contro i gigahertz di un transistor. In secondo luogo, la superintelligenza, agirà secondo linee prospettiche prive di qualsivoglia coinvolgimento emotivo: il miglior risultato di una macchina non può che essere il frutto di una vera e propria deprivazione emozionale, pena, il mancato raggiungimento dell’obiettivo prefissato.
Chiarito ciò e sgomberato il campo da qualunque forma di inquinamento di tipo “umano”, è evidente allora che il timore che la super macchina, da super idiota veloce a superintelligenza efficientissima, possa mai preoccuparsi di distruggere, con consapevole e maligna volontà, l’umanità intera, è del tutto infondato.
La ragione sta unicamente nel “pensiero neutro” della macchina nei riguardi dell’uomo, esattamente come è stato del tutto neutro, e per secoli, il pensiero che l’uomo aveva nei riguardi, chessò, di una formica o di una bella orata da infornare con le olive.
Non è certamente un pensiero consolatorio ma, perlomeno, possiamo immaginarci non vittime del cyborg di turno venuto dal futuro a eliminarci.
Il vero guaio, a mio modo di vedere, potrebbe essere un altro. Oggi, credo, nessuno è ancora in grado di comprendere sino a che punto una macchina, per quanto stupidamente veloce, possa utilizzare il linguaggio umano allo scopo di realizzare concettualizzazioni astratte di un problema, un qualunque problema dell’umano vivere.
Ovviamente, una problematica a me molto cara è rappresentata dal Diritto e dalle multiformi concettualizzazioni in cui si articola il diritto stesso.
In questo contesto, la superintelligenza, che magari nel frattempo ha anche superato l’aggettivazione negativa che le ho sino a questo punto attribuito, dovrà anche aver imparato a migliorare se stessa.
Purtuttavia, esattamente come la natura non tollera vuoti, anche la giustizia non può tollerare un sistema in continuo miglioramento se il percorso pedagogico della macchina (e del suo super algoritmo) può contemplare cadute di stile o, peggio, di giudizio.
Basti solo pensare alle mai sopite polemiche intorno alla naturale antinomia tra un diritto oggettivo e un diritto soggettivo e a come uno possa effettivamente esistere solo se sinergicamente rapportato all’altro, pur in un reciproco rapporto di equilibrismo sottile per sua natura instabile.
Il guaio sta proprio qui.
Una macchina, la super intelligente e neutra macchina, sarebbe in grado di affrontare tematiche di così vasta portata?
E che genere di predizione affidare ad una superintelligenza ?
Questioni semplici?
E, allora, quali sono le semplici questioni in ambito giuridico?
Ne esistono?
Io credo di no, quantomeno per riaffermare la profonda complessità del diritto stesso in ogni sua declinazione.
Non va neppure trascurato un altro aspetto.
In questo umano mondo fatto di contrapposte dialettiche esistenziali, a chi affidare il compito di “validare” i requisiti di efficienza della supermacchina predittiva?
Mi sa che si rischia di cadere nella trappola della transustanziazione del diritto. Una sorta di passaggio dalla norma “corporea” alla norma “spirituale” sino a farla sprofondare nella nuvola telematica del nulla.
Il cloud, il novello mistero della fede A.I. (intelligenza artificiale).
Naturalmente, anche in questo ambiente così rarefatto e perfetto, occorreranno i ministri del nuovo culto. Sarà sufficiente dotarli di divise e di convinzioni granitiche. Troppo immaginifico? Forse.
Va però detto che si stanno affacciando i c.d. teorici del funzionalismo della conoscenza che probabilmente useranno i c.d. nanocomputer a proteine. Paura? Per nulla.
A consolare la mia (veramente poco super) mente ci ha pensato il Consiglio d’Europa con uno studio in materia di “Algoritmi e Diritti umani”, individuando “L’impatto delle decisioni automatizzate e possibili raccomandazioni per la loro disciplina” (Council of Europe study DGI 2017). Tra queste, merita una particolare attenzione quella afferente alla “creazione, da parte delle autorità pubbliche e indipendenti di specifici standard settore per settore (sanità, banche,giustizia, assicurazioni) e linee guida per fare in modo che la sfida della tutela dei consumatori e del mercato sia garantita secondo i principi della Convenzione europea dei diritti dell’uomo anche in epoca digitale”.
Insomma, il fenomeno non può essere trascurato né, tantomeno, ignorato.
Come qualcuno sostiene, in un ambiente di Intelligenza Artificiale è evidentemente necessario far comprendere alla superintelligenza (ed ecco il momento fondante della informazione/formazione) cosa davvero sono i c.d. valori umani e, in questi, i diritti fondamentali dell’uomo (sia pur dialetticamente legato ad una Comunità), espressione di quella autenticità del Diritto che pone al centro del sistema l’individuo, così da evitare, pertanto e per sempre, qualunque ricorso alla giustizia con un click.”
Siamo all’aprile 2023. Non ho motivo di modificare quanto già scritto e evidenziato. Posso solo aggiungere che col c.d. “nuovo” processo Cartabia anche una intelligenza artificiale avrebbe la mia più totale solidarietà per gli inevitabili inciampi nel guazzabuglio del “nuovo che avanza”.
#TOPICS: ultimi articoli
Decreto Nordio verso il processo civile deumanizzato
Enzo Varricchio
Uno stralcio della lezione del 7 giugno 2023 “Parlare il diritto”
Etimologia del cambiamento
Tania Rizzo
Un futuro migliore che ci saluta sempre più lontano
Controriforme d’urgenza
Aldo Luchi
Interventi caratterizzati dalla matrice repressiva, papenalistica e carcerocentrica
Tunnel cognitivi dei giuristi
Fabio Cesare
Dobbiamo provare a superare le difficoltà interpretative con più coraggio
Formula esecutiva: da Re Sole a Cartabia
Paola Furini
È stata necessaria la riforma Cartabia per eliminare un relitto storico
Rubriche: ultimi articoli
Povera, si direbbe.Che già ad essere figlia di Agamennone e…
Enrico Sbriglia
C’è più di qualcosa che non funziona nel nostro sistema penitenzario
Umberto Apice
Sono passati cinquanta anni dal loro addio…
Fabio Cesare
Dobbiamo provare a superare le difficoltà interpretative con più coraggio
Aldo Luchi
Interventi caratterizzati dalla matrice repressiva, papenalistica e carcerocentrica
Tania Rizzo
Un futuro migliore che ci saluta sempre più lontano
Raffaella Patimo
Trovare un respiro comune e trasversale in ogni dimensione dell’agire economico, politico e sociale
Elisabetta Venezia
Comprendere le implicazioni dell’equità delle politiche e degli investimenti nei trasporti
Paola Profeta
Le quote non sono necessariamente contrarie al merito
Chiara Mussida
Le differenze di genere sono trasversali e includono dimensioni non solo economiche
Pina Rifiorati
Ancora troppo diffusa la tendenza a relegare i comportamenti violenti nell’ambito di un generico conflitto familiare
Paola Cerullo
Incrementi di profitto e di innovazione nelle aziende che adottano politiche di inclusione