L’UMANA SCIENZA ALLE PRESE CON LA IA da IL MANIFESTO
Saperi. In assenza di un grande collettore politico prevalgono le specializzazioni, manca il dialogo tra i saperi e la frammentazione blocca le potenzialità del pensiero critico. Una parziale cartografia degli studiosi italiani di varie discipline
Cultura, Saperi, Università, Dialogo
11158
post-template-default,single,single-post,postid-11158,single-format-standard,stockholm-core-2.3.2,select-child-theme-ver-1.0.0,select-theme-ver-9.0,ajax_fade,page_not_loaded,,qode_menu_,wpb-js-composer js-comp-ver-6.7.0,vc_responsive

L’UMANA SCIENZA ALLE PRESE CON LA IA da IL MANIFESTO

L’intelligenza conservatrice

NÉ INTELLIGENTE NÉ ARTIFICIALE. Le Ia non rispecchiano il mondo, ma scelte politiche e ideologiche. Vendute come rivoluzionarie, sono tecnologie per perpetuare lo status quo

Giovanna Branca  10/02/2023

«I risultati raggiunti a livello di immagini e testi da questa tecnologia sono sconvolgenti», osserva a proposito delle intelligenze artificiali come Chat Gpt Daniel Leufer, senior policy analist di Access Now, esperto di Ia e fondatore del sito Ai Myths, nato per sfatare le leggende su questo sviluppo tecnologico che lo rendono «magico e imperscrutabile» agli occhi del pubblico. E infatti, sottolinea, «occorre essere molto critici». A partire dall’uso delle parole: «Credo che lo stesso termine Ia sia problematico, servirebbe piuttosto utilizzare termini specifici come machine learning, altrimenti si rischia di scivolare in una sorta di scenario fantascientifico».

Cosa sono i Large language models come Chat Gpt?

Chat Gpt e altri modelli di linguaggio simili “apprendono” da una mole immensa di dati, che negli ultimi anni è cresciuta a dismisura: parliamo di miliardi di parametri, infatti l’ “addestramento” di questi modelli è diventato molto costoso. È il machine learning: si imposta l’algoritmo perché apprenda dai dati, secondo il principio per il quale se alla macchina vengono forniti abbastanza esempi saprà coglierne i tratti comuni, ne inferirà delle regole. Ed è un processo che può andare decisamente storto: ha prodotto risultati fantastici – ad esempio nel riconoscimento degli oggetti – ma oltre a porre questioni problematiche, come il riconoscimento facciale, fa moltissimi errori. Nel tentativo di insegnare al sistema a distinguere i grizzly dagli orsi polari sono state inserite tantissime immagini di entrambi gli animali, e il riconoscimento si è rivelato accurato al 100%. Ma si è scoperto che ciò che l’Ia stava facendo per discernere le immagini era di cercare se ci fosse neve nella foto. Penso che sia un buon esempio di come questi sistemi possano avere un’ottima performance e superare i test, ma potrebbero farlo per il motivo sbagliato. Si tratta di tecnologie complesse, con tantissimi parametri e stratificazioni: è difficile sapere perché vengono prese certe decisioni invece di altre. È innegabile che ciò che queste intelligenze artificiali sono in grado di fare allo stato attuale sia impressionante, ma questo non vuol dire siano perfette o che la perfezione si possa raggiungere “nutrendole” di dataset sempre più grandi.

Uno degli aspetti più problematici di questa tecnologia è il modo in cui riflette i pregiudizi contenuti nel linguaggio di cui viene “nutrita”.

Quando si parla di questi modelli di linguaggio (ma anche quelli multimodali come Stable Diffusion) è fondamentale riflettere su come vengono assemblati i dati. Stable Diffusion, ad esempio, è stata inizialmente “allenata” sul database Laion, con 400 milioni di immagini prelevate da internet. La versione attuale invece è allenata su 5 miliardi di immagini. Ma non accetto l’idea che si tratti di numeri troppo grandi per poter “curare” il dataset. Le persone che promuovono questi sistemi sostengono che siano il futuro dell’umanità – risulta quindi un po’ stonato che non abbiano intenzione di fare tutti gli sforzi possibili per renderli più sicuri. Il dataset Laion è pieno di pornografia, e non di un “bel” tipo: contenuti violenti, sessisti, razzisti. Se si cerca sul database una qualunque parola relativa a un uomo le immagini ottenute non avranno problemi, se si fa una ricerca che suona in qualche modo collegata all’ambito femminile, si otterrà solo del porno. Sarebbe stato un problema semplicissimo da risolvere prima di rendere accessibile il dataset. Emad Mostaque, il Ceo di Stability Ai (che produce Stable Diffusion) presenta questo strumento come se fosse del tutto neutrale. La sua posizione è che, dal momento in cui Stable Diffusion è stato reso accessibile in versione open source, le persone ne fanno l’uso che credono. Ma questo non è vero: l’Ia è costruita a partire dal dataset Laion, che abbiamo visto essere molto problematico. Sono entrambe tecnologie open source, e le compagnie che le producono parlano di democratizzazione della Ia, mentre Open Ai – a dispetto del suo nome – è chiusa, solo persone selezionate possono interrogare il suo dataset. L’attitudine dei creatori di queste tecnologie non è accettabile, si schermano dietro l’affermazione che le Ia rispecchiano il mondo per ciò che è, ma non è affatto vero: riflettono decisioni fortemente politiche e ideologiche.

In tanti sostengono che le nostre società si troveranno di nuovo impreparate di fronte a un’altra ondata di innovazione tecnologica, incapaci di proteggersi da ciò che viene deciso da un pugno di persone nella Silicon Valley.

Credo che uno dei temi politici più importanti del 2023 sarà proprio lo sviluppo di strategie per gestire questi sistemi, per evitare di assistere al capitolo due di Move fast break things (il motto di Facebook fino al 2014, ndr). I produttori di Ia si rappresentano come una nuova generazione di compagnie tecnologiche che si oppone a big tech, sostenendo che la strategia open source contrasterà questa “cultura dei gatekeeper”. I campanelli d’allarme, al contrario, sono tanti. Ci vengono vendute come tecnologie rivoluzionarie, ma spesso non si tratta che di strumenti profondamente conservatori, funzionali alle misure di austerity. In Automating Inequality Virginia Eubanks racconta di diverse realtà americane in cui gli assistenti sociali vengono rimpiazzati dagli algoritmi. Non si tratta quindi di creare qualcosa di nuovo, ma di consentire il perpetuarsi di una situazione terribile.

Il ricercatore Aviv Ovadya sostiene che rilasciare sistemi simili senza che prima ci sia stata una «riflessione democratica collettiva» è come «immettere una specie invasiva nel mondo», per via di come possono agire online in maniera indistinguibile dagli esseri umani.

Hanno un immenso potenziale nel generare deepfake e produrre disinformazione a basso costo. Una compagnia polacca ha elaborato un sistema che rende semplicissimo creare dei falsi vocali immettendo un campione della voce di una persona, e poi un testo da farle leggere. È uno strumento che progredirà rapidamente. Allo stesso tempo stanno aumentando gli strumenti per riconoscere i falsi. Ma è una scelta cinica, una classica strategia di business: crea un problema, poi vendi la soluzione. Molte di queste attività nocive sono possibili anche senza l’Ia: le truffe, il phishing, la disinformazione. Conosciamo tutti le “fabbriche” dove centinaia di persone producono contenuti falsi. Ma l’Ia lo rende economico, e più semplice. Sistemi come Chat Gpt potrebbero per esempio scrivere migliaia di articoli su una teoria del complotto. Open Ai ha dei filtri che lo impediscono, ma credo che non ci vorrà molto prima che un sistema simile venga rilasciato open source – e a quel punto non ci sarebbero più ostacoli. A riprova di come entrambi gli approcci siano problematici: quello chiuso lascia in mano le decisioni solo a un numero ristretto di persone, quello aperto prospetta scenari altrettanto inquietanti.

Si perderanno posti di lavoro?

Il tema del lavoro in generale associato all’Ia è problematico. A partire dalla delocalizzazione per la catalogazione dei dati: gli immensi progressi nel machine learning sono costruiti sullo sfruttamento del lavoro sottopagato, e che resta invisibile. Per quanto riguarda invece la perdita di posti di lavoro penso sia importante riflettere sulla tendenza dell’Ia a offrire soluzioni scadenti, introdotte perché sono a basso costo. Un buon esempio sono gli algoritmi per la valutazione dei lavori degli studenti. Ultimamente si discute molto del fatto che ora si può usare Chat Gpt per scrivere i saggi accademici. Ma il boom dell’Ia nell’educazione è in corso da anni, ed è stato interamente avverso agli studenti, senza che nessuno se ne facesse un problema. Per correggere i compiti prima venivano sfruttati dottorandi e specializzandi, costretti a farlo dalle loro condizioni precarie. Poi sono stati introdotti gli algoritmi: un sistema automatizzato non può correggere un saggio, ma se si fa notare che il risultato non è buono la risposta è che se le persone sono sopraffatte dalla quantità di compiti che devono svolgere non faranno comunque un buon lavoro – quindi tanto vale subappaltarlo all’algoritmo. Un’altra dimostrazione di come sia una tecnologia conservatrice: c’è un sistema sul punto di implodere, e invece di correggerlo si impiega la Ia per alleviare la pressione, senza che venga cambiato nulla. In generale, non credo sia inevitabile che delle categorie di lavoratori perdano il loro posto, ma è impossibile prevedere il futuro. Già vediamo scrittori o illustratori freelance a cui vengono diminuiti i compensi, perché invece di venirgli commissionate opere originali devono limitarsi a correggere e sistemare i prodotti dell’Ia. Ancora una volta non perché la soluzione “artificiale” sia migliore, ma perché è più economica e consente di abbassare i salari.

L’umana scienza alle prese con la Ia

NÉ INTELLIGENTE NÉ ARTIFICIALE. Anche le ricercatrici e i ricercatori scientifici, nonostante la notevole dote di intelligenza naturale a loro disposizione, devono fare i conti che le opportunità e le insidie di quella artificiale. […]

Andrea Capocci  10/02/2023

Anche le ricercatrici e i ricercatori scientifici, nonostante la notevole dote di intelligenza naturale a loro disposizione, devono fare i conti che le opportunità e le insidie di quella artificiale. Una rete neurale come ChatGpt può intervenire in tutte le fasi della ricerca scientifica. Potrebbe aiutare uno scienziato a individuare le linee di ricerca più promettenti. Oppure, scovare correlazioni nei dati meglio degli strumenti tradizionali. Infine, accelerare il lavoro di redazione degli articoli scientifici. Non è impensabile, e questo è lo scenario che più interroga la comunità scientifica, che presto o tardi l’intelligenza artificiale (Ia) assuma su di sé l’intero processo di innovazione della conoscenza. Sono già numerose le ricerche in cui gli autori dichiarano che il contenuto è da attribuire almeno in parte all’Ia. Nelle ultime settimane ne sono comparse altre che annoverano ChatGpt direttamente tra gli autori, con pari dignità dei colleghi umani.

Di fronte a questa prospettiva, le riviste scientifiche Science e Nature, le più influenti e dalle cui pubblicazioni può dipendere la carriera di un ricercatore, hanno messo paletti chiari: l’Ia non è uno scienziato e non potrà figurare tra gli autori delle scoperte. Troppo alto il rischio di pubblicare contenuti non originali e magari sbagliati. «In un’epoca in cui cresce la sfiducia nei confronti della scienza, è fondamentale che gli scienziati dedichino la massima attenzione ai dettagli» ha scritto Holden Thorp, direttore di Science. «La trasparenza nei metodi e l’onestà e la verità da parte degli autori sono le fondamenta su cui si basa il progresso scientifico» e l’Ia non fornisce sufficienti garanzie, recita l’editoriale di Nature.

Le preoccupazioni non sembrano infondate. Un team di psichiatri dell’università di Amsterdam, ad esempio, ha mostrato che ChatGpt compie errori grossolani quando deve sintetizzare le conoscenze acquisite in un campo di ricerca di elevato impatto sociale, come l’efficacia dei farmaci anti-depressivi. Anche nel mondo dell’istruzione i docenti più innovativi stanno usando ChatGpt per così dire «al contrario», chiedendo agli studenti di correggere le soluzioni a semplici problemi di fisica e matematica su cui l’intelligenza artificiale sbaglia con frequenza allarmante.
Allo stesso tempo, tuttavia, fuori dalle scienze più «dure» ChatGpt è in grado di superare i filtri della valutazione umana. In un esperimento svolto alla Northwestern University di Chicago (Usa), un gruppo di esperti umani ha saputo rilevare il contributo dell’intelligenza artificiale solo nel 66% dei testi di argomento medico scritti da ChatGpt. Che ha pure superato esami universitari di giurisprudenza e economia – anche se con votazioni piuttosto basse, a dire dei docenti delle università del Minnesota e della Pennsylvania che hanno dovuto valutarli.

I meccanismi di controllo nel tempo potranno essere perfezionati. Ma subappaltare la scienza alle macchine rischia di sovvertire le regole che si è data la comunità scientifica. Come il sistema dei brevetti, con cui si premiano le tecnologie innovative attribuendo un monopolio ventennale ai loro inventori. Anche in questo ambito iniziano a comparire le prime «invenzioni» messe a punto dall’Ia. Le regole attuali, fanno notare i giuristi australiani Alexandra George e Toby Walsh in un commento su Nature, si rivelano inadatte nell’attribuire la paternità e il tasso di innovazione delle tecnologie: ogni invenzione compiuta da un’Ia rischia infatti di apparire ovvia rendendone impossibile la brevettabilità. Dire addio alla proprietà intellettuale – non un male di per sé – potrebbe però disincentivare le ricerche in campi fondamentali come quello dei farmaci, con un danno per tutta la società. «Invece di forzare la vecchia legge sui brevetti per adattarsi alle nuove tecnologie – scrivono George e Walsh – proponiamo che i governi elaborino un nuovo diritto brevettuale che protegga le invenzioni delle intelligenze artificiali».

L’aumento del rischio di frodi e le controversie legali sui brevetti potrebbero essere solo i primi segnali che l’impatto dell’Ia sul mondo della ricerca è più vasto di quanto pensiamo. A partire dall’era moderna, la società ha architettato un delicato equilibrio di incentivi (prestigio, carriere, premi) e disincentivi (i monopoli brevettuali) per stimolare la comunità scientifica a perseguire ricerche innovative. Questo sistema di regole è strettamente legato alla natura umanissima dello scienziato, dotato come tutti di immaginazione, ambizione, idiosincrasie. Se il fattore umano ne venisse espulso, l’architettura della scienza che ha funzionato per secoli rischia di crollare.

No Comments

Post a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.