L’ETICA AL TEMPO DELLA “MACCHINA SAPIENS” da S.ISAIABLOG
Saperi. In assenza di un grande collettore politico prevalgono le specializzazioni, manca il dialogo tra i saperi e la frammentazione blocca le potenzialità del pensiero critico. Una parziale cartografia degli studiosi italiani di varie discipline
Cultura, Saperi, Università, Dialogo
16612
post-template-default,single,single-post,postid-16612,single-format-standard,cookies-not-set,stockholm-core-2.4.4,select-child-theme-ver-1.0.0,select-theme-ver-9.10,ajax_fade,page_not_loaded,,qode_menu_,wpb-js-composer js-comp-ver-7.6,vc_responsive

L’ETICA AL TEMPO DELLA “MACCHINA SAPIENS” da S.ISAIABLOG

L’ETICA AL TEMPO DELLA “MACCHINA SAPIENS”

Sebastiano Isaia  17/06/2024

Scienza e tecnica costituiscono una

 potenza dell’espansione del capitale.
K. Marx, Il Capitale, I.

A quanto pare Giorgia Meloni è rimasta favorevolmente impressionata dal discorso papale al G7 di Borgo Egnazia sulla cosiddetta intelligenza artificiale. Un discorso che la premier ha definito di «portata storica», anche perché non si era mai visto un Papa regalare perle di cattolica saggezza ai “sette grandi della Terra”. Una parola bergogliana sembra averla particolarmente colpita: algoretica. L’algoretica è «l’etica applicata agli algoritmi», ossia la riflessione circa l’uso, buono o cattivo, che la società fa della cosiddetta intelligenza artificiale, la quale si basa appunto sugli algoritmi sviluppati e organizzati in vista di un risultato: redigere un testo, creare immagini, elaborare informazioni di varia natura, realizzare un comando di qualche tipo e così via.     

Ma diamo volentieri la parola al Pontefice: «Quando i nostri antenati affilarono delle pietre di selce per costruire dei coltelli, li usarono sia per tagliare il pellame per i vestiti sia per uccidersi reciprocamente. Lo stesso si potrebbe dire di altre tecnologie molto più avanzate, quali l’energia prodotta dalla fusione degli atomi come avviene sul Sole, che potrebbe essere utilizzata certamente per produrre energia pulita e rinnovabile ma anche per ridurre il nostro pianeta in un cumulo di cenere. L’intelligenza artificiale, però, è uno strumento ancora più complesso. Direi quasi che si tratta di uno strumento sui generis. Così, mentre l’uso di un utensile semplice (come il coltello) è sotto il controllo dell’essere umano che lo utilizza e solo da quest’ultimo dipende un suo buon uso, l’intelligenza artificiale, invece, può adattarsi autonomamente al compito che le viene assegnato e, se progettata con questa modalità, operare scelte indipendenti dall’essere umano per raggiungere l’obiettivo prefissato». Di qui, osserva Bergoglio, la necessità che l’uomo non ne perda mai il controllo.

Propongo il ragionamento che segue. Se io uso un coltello non per tagliare il pellame, cosa peraltro di cui non sono capace, ma per uccidere una persona, questa pessima volontà è nel coltello o nella mia testa? La risposta è fin troppo ovvia: è nella mia testa. Sono io che uccido il malcapitato, non lo strumento che uso per raggiungere il pessimo risultato. È la Luna che dobbiamo guardare, non il dito che ce la indica. Si può applicare, in tutto o solo in parte, questo elementare ragionamento all’intelligenza artificiale? Vediamo.

Chi stabilisce l’obiettivo da centrare usando una “macchina intelligente” di qualche tipo  non è mai quest’ultima, ma è sempre la volontà (umana, c’è bisogno di precisarlo?) che quella macchina ha costruito proprio in vista di un determinato obiettivo: ridurre i tempi di un processo produttivo (magari rendendo obsoleti lavori manuali e/o intellettuali), creare testi e/o immagini, calcolare distanze e velocità, riconoscere voci e volti, potenziare (ad esempio, attraverso la “realtà aumentata”) sistemi d’arma, e così via. L’adattamento autonomo di cui parla il Papa non ha insomma niente a che fare con la volontà della macchina, la quale ovviamente non ha alcuna volontà (come non ha alcuna intelligenza) (1), ma è una qualità tecnica (da sempre posta al centro della cibernetica) che risponde alle esigenze di chi ha investito ingenti capitali per ottenere una macchina in grado di «adattarsi autonomamente al compito», cioè a dire che non necessita di continui comandi (input) da parte di un operatore per eseguire determinate funzioni al variare di determinate condizioni esterne. In questo caso si parla di self-learning: la macchina è in grado di “imparare” attraverso l’”esperienza”. Si tratta cioè, e sempre semplificando al massimo il discorso, di un’autonomia funzionale voluta dall’investitore (privato o pubblico che sia) per “portare a casa” certi risultati. Parlare di “autonomia”, sebbene funzionale, può indurre a concentrare la propria attenzione sulla macchina, non sul soggetto che l’ha progettata e costruita per ricavarne un profitto o una “utilità” di qualche genere: controllare, reprimere, uccidere, operare un paziente in remoto, ecc. È per questo che la terminologia “analogica” (autoapprendimentoesperienzaintelligenza, ecc.) con cui esprimiamo certi concetti tecnici va sempre approcciata criticamente, in modo da non scivolare, del tutto inconsapevolmente, in una concezione feticistica della cosiddetta tecnologia intelligente. Per gli esseri umani umanizzare (rendere a nostra immagine e somiglianza) anche le cose, ciò che umano non è, è una tendenza spontanea, “naturale” (come sanno bene ad esempio i costruttori di robot e di “assistenti digitali” per uso domestico) che solo in determinate circostanze diventa una pessima qualità.

Naturalmente si corre sempre il rischio di perdere il controllo della “macchina intelligente”, ma questo vale anche per le macchine che “intelligenti” non sono, e in entrambi i casi è sufficiente “staccare la spina” per fermare la macchia e ripararla, se è possibile, o sostituirla nel caso contrario. Inutile dire che il mal funzionamento della macchina può ferire o uccidere chi la usa e anche altre persone, non necessariamente coinvolte in un determinato processo produttivo – è quello che accade ad esempio con la fuoriuscita di sostanze tossiche (o radioattive: pensiamo a quanto avvenne a Chernobyl) da una fabbrica. Certo, nel caso di Chernobyl “staccare la spina” non è servito a molto… Questo semplicemente per dire che la macchina, “intelligente” o “stupida” che sia, opera sempre per conto di un soggetto (un programmatore, un capitalista, uno Stato, una società), e se fallisce nel suo compito, non è perché essa ha acquisito autonomia nei confronti di quel soggetto, ma perché qualcosa è andato storto, perché qualcosa non ha funzionato come avrebbe dovuto, perché essa si è “rotta”. Semplicemente. Analogamente, se la macchina mente, inganna e discrimina, come lamentano certi “profeti di sventura” allucinati dal feticismo tecnologico di cui si diceva, significa che essa è stata programmata per ingannare, per mentire e per discriminare: come sempre il problema non sta nella cosa, ma in chi se ne serve (2).

Proprio perché la “macchina intelligente” non è (semplicemente non può esserlo) intelligente, chi la riempie di informazioni (ad esempio, scaricando nel suo “cervello” miliardi di parole, milioni di fotografie e quant’altro) deve verificare continuamente se essa “mente”, “inganna” e “discrimina” gli utenti e i cittadini genericamente intesi senza che il costruttore, il programmatore e il padrone della macchina intendessero ottenere questo risultato. La “macchina intelligente” può dare risultati razzisti, sessisti e “politicamente scorretti” (tutte cose già accadute) senza che nessuno lo volesse, per mero errore “macchinico”, e di questo chi la gestisce deve tenere conto – anche per non pagare cospicue multe, per non incorrere nei rigori della legge. Alla fine il controllo di qualità è una responsabilità (economica, civile, penale, politica) che cade sempre sulle spalle di un soggetto – la macchina, per quanto “intelligente”, non intasca profitti e non va in galera! L’uso di una nuova tecnologia pone sempre alla società nuovi problemi (economici, giuridici, politici, etici), che essa cerca di risolvere sulla base dei rapporti sociali dominanti, sul fondamento degli interessi materiali e politici che orientano l’insieme della prassi sociale.  

Ma tutto questo il Papa lo sa meglio di chi scrive, come si evince dai passi che seguono: «Nessuna innovazione è neutrale. La tecnologia nasce per uno scopo e, nel suo impatto con la società umana, rappresenta sempre una forma di ordine nelle relazioni sociali e una disposizione di potere, che abilita qualcuno a compiere azioni e impedisce ad altri di compierne altre. Affinché i programmi di intelligenza artificiale siano strumenti per la costruzione del bene e di un domani migliore, debbono essere sempre ordinati al bene di ogni essere umano. Devono avere un’ispirazione etica».

L’attuale «forma di ordine nelle relazioni sociali» e l’attuale «disposizione di potere» sono «ordinati al bene di ogni essere umano», oppure al bene degli investimenti capitalistici, al bene delle classi dominanti, dello Stato, della nazione? A mio modesto avviso la risposta giusta ci parla del dominio sociale capitalistico, del dominio di un rapporto sociale fondato sullo sfruttamento degli esseri umani e della natura, ci parla cioè di una realtà sociale, di dimensione planetaria, che rende francamente illusoria – per non dire ridicola – l’aspettativa di una prassi sociale ispirata eticamente, orientata cioè «al bene di ogni essere umano». Questa realtà conferisce all’auspicata (dal Papa e dai suoi seguaci) algoretica un significato ideologico complementare al feticismo di chi crede che le magagne associate alle “macchine intelligenti” (e alla tecnoscienza in generale) siano da ricercarsi nelle macchine stesse, e non nel loro uso capitalistico, nel loro essere, dall’inizio alla fine, capitale – il quale, come insegnava l’algoeretico di Treviri, non è una cosa, non è uno strumento: è in primo luogo un rapporto sociale di dominio e di sfruttamento. Per questo «Scienza e tecnica costituiscono una potenza dell’espansione del capitale» (3).

Un “classico” esempio di feticismo tecnologico: «L’esistenza di macchine sapiens chiede di mettere in piedi un nuovo linguaggio universale che sappia tradurre queste direttrici etiche in delle direttive eseguibili dalla macchina. Ma come fare questo? Il mondo nell’epoca del Digital Age è regolato degli algoritmi. Più di qualcuno parla di una algocrazia. Per evitare che ci sia questo dominio dell’algoritmo anche grazie alle Ai dobbiamo iniziare a sviluppare questo linguaggio comune dell’algoretica. […] Nella relazione tra uomo e macchina il vero conoscitore e portatore di valore è la parte umana. La dignità umana e i diritti umani ci dicono che è l’uomo da proteggere nella relazione tra uomo e macchina» (4). Qui si confonde il dominio del Capitale con il dominio dell’algoritmo, il potere sociale di esso (Marx parlava di «autocrazia del capitale») con il potere dell’algoritmo, il rapporto sociale di produzione capitalistico con la relazione tra l’uomo e il suo mezzo di lavoro. «Il problema è innanzitutto filosofico ed epistemologico»: nient’affatto! Il problema è in primo luogo sociale e politico: non si dà «autentico sviluppo umano» nella società che nega in radice, con assoluta necessità (la “cattiva volontà” spiega pochissimo il mondo che ci ospita), una vita autenticamente umana.

Come ho scritto altre volte, gli esseri umani non corrono il rischio di perdere il controllo di una tecnologia particolarmente potente e invasiva (nonché “intelligente”): essi hanno già perduto il controllo della loro vita, i cui aspetti fondamentali (a cominciare dalla produzione della loro vita materiale) sono informati dagli interessi che fanno capo al Moloch-Capitale e che sono difesi dal suo più agguerrito cane da guardia: lo Stato. Il «pericolo tecnocratico» di cui parla Francesco non è che un pallido riflesso di una realtà che fa del Capitale «una potenza estranea e ostile». Ci sono «strategie», dice il Papa, che «mirano a indebolire la politica per sostituirla con l’economia»: ma da sempre l’economia sussume sotto le sue impellenti necessità la politica, e solo chi rimane alla superficie del processo sociale corre il rischio di rovesciare i termini reali con cui si presenta la «condizione umana» nel XXI secolo, nell’epoca del dominio totalitario dei rapporti sociali capitalistici; solo chi rimane impigliato nella complessa e contraddittoria fenomenologia “sovrastrutturale” di quel processo, e crede in ottima fede che la società divisa in classi sia un destino inevitabile per gli esseri umani, può pensare che «la politica è la più alta forma di carità, la più alta forma dell’amore», sempre per citare il Papa. Naturalmente egli si riferisce alla politica dei governi, degli Stati, delle classi dirigenti, che esalta («La politica serve!») per denunciare appunto «il pericolo tecnocratico». Per gli anticapitalisti la politica è invece l’espressione più verace dell’antagonismo che dilania la cosiddetta società civile; essa è la forma più compiuta che assume la lotta tra le classi e dentro le classi: altro che carità, altro che amore!

In ogni caso, l’autonomia della politica si esercita dentro un campo molto ristretto perché essa deve fare i conti con l’interesse generale delle classi dominanti (che viene presentato alla gente in guisa di “interesse generale del Paese” dagli «azzeccagarbugli ideologici» al servizio dello status quo sociale) e con processi sociali estremamente potenti.

Com’è noto, gli anticapitalisti considerano i “lati buoni” e i “lati cattivi” della tecnologia (e in generale della società) come le due facce della stessa medaglia, come due realtà intimamente intrecciate: non è possibile eliminare un “lato” (quello “cattivo”, naturalmente) senza sopprimere al contempo l’altro (il supposto “lato buono”) (5). Come sappiamo, la stessa macchina che può salvare una vita, se usata in modo diverso può sopprimerne un’altra: posta la vigente società, nella stragrande maggioranza dei casi non è possibile tenerci l’uso benigno di una macchina (di una tecnologa) ed eliminare il suo uso maligno. Semplicemente non ne abbiamo il potere in quanto comunità di esseri umani. Nella società capitalistica il “libero arbitrio” si dispiega dentro confini a dir poco ristretti e problematici, tanto per usare un eufemismo. Esistono fondi di investimento dedicati esclusivamente alle start up ad altissimo contenuto tecnologico in grado di produrre “tecnologie intelligenti” e biotecnologie dual use, buone cioè tanto per impieghi civili quanto per impieghi militari (6). Qui si apprezza davvero l’autentico “spirito del capitalismo” nella fase imperialista del suo dominio.   

Del resto, non si tratta solo dell’uso capitalistico delle tecnologie,  ma anche del tipo di tecnologie adeguate a una comunità che fosse autenticamente umana: non esistono tecnologie buone per ogni società, per ogni tipo di rapporto sociale di produzione. Anche in questo senso la tecnologia (come la scienza) non è affatto neutrale, tutt’altro – e questo anche in riferimento al rapporto stringente e vitale tra l’umanità e la natura. Qui beninteso sto ponendo un problema teorico e politico fondamentale, non mi sto esprimendo in termini positivi su questo stesso problema, cioè a dire a favore o a sfavore di una tecnologia piuttosto che di un’altra. Anticipare il – possibile e certamente da me auspicato – futuro è cosa che esula dalle mie “competenze”, diciamo così. Per me è comunque importante, nella riflessione sulla tecnoscienza, tenere insieme i due corni del problema.

A mio avviso solo un’etica che sia in grado di guardare in faccia la disumana/mostruosa realtà qui “schizzata”, non corre il rischio di rovesciarsi in ideologia al servizio dello status quo sociale.

Il Santissimo Padre comunque crede in un uso umanamente accettabile della cosiddetta Intelligenza Artificiale (ovviamente a invarianza sociale!): «Non si può fermare la creatività umana e il suo sogno di progresso, ma piuttosto di incanalare tale energia in modo nuovo. Questo è proprio il caso dell’intelligenza artificiale. Spetta ad ognuno farne buon uso e spetta alla politica creare le condizioni perché un tale buon uso sia possibile e fruttuoso». Chi sono io per impedire a Tizio, Caio o Francesco di coltivare le pie illusioni che il loro cuore desidera ardentemente coltivare?

Nella richiamata, all’inizio di questo post, conferenza stampa tenuta alla fine del G7, Giorgia Meloni ha posto, sempre a proposito di “intelligenza artificiale”, il problema che segue: una volta la tecnologia sostituiva il lavoro manuale o lo rendeva meno faticoso; oggi la tecnologia espelle dal processo produttivo lavoro intelligente, creativo, ed è per questo che la politica deve interrogarsi sull’uso delle nuove tecnologie. Le parole della Premier mi hanno fatto ricordare, quanto scrisse Marx a proposito dell’introduzione delle macchine nel processo produttivo: «In quanto le macchine permettono di fare a meno della forza muscolare, esse diventano il mezzo per adoperare operai senza forza muscolare o di sviluppo fisico immaturo, ma di membra più flessibili. Quindi lavoro delle donne e dei fanciulli è stata la prima parola dell’uso capitalistico delle macchine!» (7). È possibile stabilire, senza forzare troppo la mano ai concetti, un’analogia tra forza muscolare (resa superflua e comunque non più decisiva come un tempo dalle macchine) e forza intellettuale? E in quali termini?

(1) «Quando si tratta di affrontare semplici problemi di logica, questi sistemi così sofisticati sembrano ancora fallire miseramente. Uno studio condotto dall’organizzazione LAION ha messo alla prova numerosi modelli linguistici di punta, come GPT-3, GPT-4 e GPT-4o di OpenAI, Claude 3 Opus di Anthropic, Gemini di Google, Llama di Meta e Mixtral di Mistral. Il protocollo di test era apparentemente semplice: rispondere al cosiddetto problema di “Alice nel paese delle meraviglie”. La domanda in questione era: “Alice ha [X] fratelli e anche [Y] sorelle. Quante sorelle ha il fratello di Alice?“. Nonostante la sua apparente semplicità, quasi tutti i modelli testati hanno fallito nel fornire una risposta corretta, dimostrando lacune inaspettate nella loro capacità di ragionamento logico. Ciò che ha sorpreso maggiormente i ricercatori è stata non solo l’incapacità dei modelli di risolvere l’enigma, ma anche l’eccessiva fiducia dimostrata nelle loro risposte errate. Alcuni modelli AI, come Llama 3 di Meta, hanno fornito spiegazioni dettagliate ma assurde per giustificare le loro soluzioni palesemente sbagliate, rendendole apparentemente plausibili» (Punto Informativo).
(2) «Secondo i criteri di valutazione il tasso di errore del miglior software attuale, GPT-4, è tra il 2,5 per cento e il 25. Questi errori sono estremamente plausibili, affermati con autorità e quindi ancora più pericolosi delle classiche fake news. L’industria li chiama allucinazioni. Il termine, magico, simpatico e fortemente neutralizzante, serve soprattutto a nascondere una realtà politica e sociale: l’IA generativa è un’arma di disinformazione di massa. Ed è quindi il peggior strumento possibile da impiegare per strutturare la ricerca e la gerarchizzazione dell’informazione online. Se un tasso di errore del 2,5 per cento sembra basso, ricordate che il motore di ricerca Google risponde a 8,5 miliardi di domande… al giorno. Ecco le fake news. Le allucinazioni sono inevitabili. Sono una proprietà strutturale di questi sistemi. Non si possono correggere. L’industria lo sa bene» (Voxeurop).
(3) K. Marx, Il Capitale, I, p. 662, Editori Riuniti, 1980.
(4) P. Benanti, La necessità di una algoretica, Osservatore Romano, 20/12/2021.
(5) Qui non posso fare a meno di citare la polemica marxiana contro Proudhon, uno dei maggiori teorici della concezione piccolo-borghese dei “lati opposti”: vediamo ora a quali modificazione Proudhon sottopone la dialettica do Hegel applicandola all’economia. Per lui, per Proudhon, ogni categoria economica ha due lati, l’uno buono, l’altro cattivo. Egli si prospetta le categorie come il piccolo borghese si prospetta i grandi uomini della storia: Napoleone è un grand’uomo; ha fatto molto di buono, ma ha fatto anche molto di male. Il lato buono e il lato cattivo, il vantaggio e lo svantaggio presi assieme formano, per Proudhon, la contraddizione in ogni categoria economica. Tutto il problema da risolvere consiste nel conservare il lato buono, eliminando quello cattivo. […] Il movimento dialettico proprio di Proudhon è la distinzione dogmatica del bene e del male» (K. Marx, Miseria della filosofia, 1847, Opere, VI, pp. 174-175, Editori Riuniti, 1973). Il «movimento dialettico proprio» dell’anticapitalista è invece la soppressione dei poli della contraddizione attraverso il superamento rivoluzionario della causa che pone in essere, necessariamente, quella contraddizione. Se vuoi conservare il (supposto) lato buono del capitalismo, devi tenerti anche il suo lato cattivo: viceversa, dimostri di non conoscere l’essenza della cosa di cui parli.
(6) Un solo esempio: «Non solo carri armati, aerei e munizioni: la Nato punta dritto sull’innovazione ed è pronta a investire circa 1 miliardo di euro per finanziare start-up tecnologiche, dall’intelligenza artificiale alle biotecnologie. Tecnologie dual use, ossia che varranno per fini sia militari, sia civili.  Il nuovo fondo si chiama Nato innovation fund (Nif), e avrà sede ad Amsterdam» (Europa Today).
(7) K. Marx, Il Capitale, I, pp. 437-438.

No Comments

Post a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.