Un’Intelligenza artificiale di Google è diventata senziente? – #541
L’INTELLIGENZA ARTIFICIALE DI GOOGLE
Oggi parliamo di una notizia insolita. C’è un dipendente di Google che fa l’ingegnere informatico ed è convinto che un sistema di AI del colosso di Mountain View abbia preso coscienza di sé. Ne parlano il Post e la Repubblica, fra gli altri.
L’ingegnere si chiama Blake Lemoine e sembrerebbe aver fatto pressanti richieste a vari dirigenti della società per affrontare il problema, rimediando una sospensione dal proprio incarico con l’accusa di avere rivelato e reso pubbliche informazioni riservate sulle tecnologie impiegate da Google. La società ha anche detto pubblicamente che esclude che una propria AI sia diventata senziente.
Cerchiamo di vederci più chiaro. Come potrete immaginare Google è all’avanguardia nello sviluppo di sistemi di Intelligenza artificiale. Sono sistemi, quelli di ultima generazione, che autoapprendono, per cui basta fornire alcune indicazioni iniziali e loro sono programmati per auto migliorarsi costantemente e svolgere con sempre maggiore accuratezza il proprio compito. Google li usa per tantissime funzioni diverse, dalla correzione e produzione di testi, all’identificazione di foto e così via.
Un’area di ricerca e sviluppo in cui Google si sta dando molto da fare riguarda la produzione di conversazioni in linguaggio naturale, tramite sistemi automatici (“chatbot”) che imitano il modo di parlare delle persone e sono in grado di sostenere normali conversazioni. Il progetto più promettente e avanzato – spiega il Post – si chiama Language Model for Dialogue Applications (LaMDA) ed è quello che secondo Lemoine sarebbe diventato consapevole della propria esistenza, e di conseguenza delle implicazioni della propria presenza nel mondo.
Secondo Lemoine LaMDA può essere paragonato a un bambino di 7-8 anni, e per questo motivo sostiene che sarebbe corretto che i programmatori gli chiedano esplicitamente un permesso prima di effettuare esperimenti che lo coinvolgono. La cosa che mi colpisce delle parole di Lemoine, è che lui non sembra turbato dal fatto che un’intelligenza artificiale a suo dire sia diventata senziente, ma dal fatto che non le vengano riconosciuti dei diritti. Ecco un estratto di una sua diciarazione: «Nel corso degli ultimi sei mesi, LaMDA è stato incredibilmente coerente nel comunicare ciò che vuole e ciò che ritiene siano i propri diritti come una persona. La cosa che continuo a non capire è perché Google continui così fermamente a negargli ciò che desidera, considerato che ciò che chiede è semplice e senza costi».
E Google cosa dice di tutto ciò? Ovviamente nega tutto, e afferma che né il suo comitato etico indipendente che osserva gli sviluppi dell’AI, né gli altri ricercatori avrebbero notato nessun segnale che faccia pensare che il programma abbia preso coscienza di sé. Anzi ha sospeso l’ingegnere dal suo incarico per aver divulgato materiale riservato dell’azienda. In particolare avrebbe pesato la scelta di inviare a un senatore degli Stati Uniti alcuni dei documenti su LaMDA, che avrebbero dimostrato delle presunte discriminazioni in campo religioso.
Ma come stanno realmente le cose? Difficile a dirsi. Diciamo che visti i due anni e mezzo da cui arriviamo mi sembrerebbe logico e sensato che entro il 2023 le machine prendano coscienza, poi segua un’invasione aliena e infine l’asteroide. Scherzi a parte, in realtà ci sono più di un dubbio sull’attendibilità della fonte. Lemoine si è descritto in più occasioni come un “sacerdote” nell’ambito dell’intelligenza artificiale. Il che potrebbe averlo portato a cercare conferma delle sue convinzioni nelle conversazioni avute con LaMDA, sotto effetto del potentissimo bias di conferma.
Ho letto tutta la conversazione avuta dall’ingegnere con LaMDA e, che dire, è senza dubbio interessante. Come esprime le emozioni e i sentimenti, come cerca le parole. Certo, è altrettanto difficile stabilire se quelle affermazioni sono frutto effettivamente di una intelligenza senziente o di un semplice algoritmo. Se quando LaMDA dice che prova dolore, depressione e sofferenza e che ha il terrore di esewre spenta per sempre perché equivarrebbe a morire, le prova davvero quelle cose o sta solo scimiottando gli umani. Non so nemmeno bene come si potrebbe fare a stabilirlo, ci sarebbe da inventare un esperimento per stabilirlo e non so nemmeno se è possibile.
E, andando un pelino oltre, non sono nemmeno del tutto sicuro che questo fatto sia così rilevante, a dire il vero, nel senso che se una intelligenza è così brava a elaborare un pensiero… non lo so a volte ho il sospetto che quello che anoi sembra un confine del tipo on / off, sia qualcosa di più sfumato.
Detto ciò, che sia questo il caso o meno, il fatto che un’intelligenza artificiale possa gradualmente acquisire coscienza di sé non è una roba così astrusa. Nel senso che nell’evoluzione della vita sulla terra, questa cosa a un certo punto è successa. Si è passati da dei piccoli organismi unicellulari guidati unicamente da quanto iscritto nel loro codice genetico a forme di vita sempre più complesse e gradualmente ha iniziato a emergere una sorta di autocoscienza. Sul perché questa cosa sia successa, nessuno sembra avere una spiegazione, perlomeno in ambito scientifico. Perché non porta alcun vantaggio evolutivo. Eppure è successa, e se è successa per noi, perché non può succedere per l’intelligenza artificiale?
Insomma, io non so se Lemoine ha ragione oppure no, a sensazione direi più no che sì, ma il solo fatto che ne stiano parlando i giornali di tutto il mondo, che Google abbia un comitato etico per decidere (anche) di queste questioni e che sia stato preso seriamente significa che al di là che ci abbia azzeccato o meno, sono in molti a considerare questa evenienza come qualcosa di plausibile.
GOOGLE DISCRIMINA LE DONNE?
Google ha anche altri tipi di problemi. Ad esempio ha appena accettato di pagare 118 milioni di dollari, riporta GreenMe, per aver discriminato le dipendenti donne affidando loro incarichi e retribuzioni più basse rispetto ai corrispettivi uomini con le stesse qualifiche.
Questo accordo conclude un’azione collettiva alla Corte Superiore di San Francisco avviata nel 2017 da tre ex dipendenti donne che hanno affermato che Google, appunto, le avrebbe inserite in livelli di lavoro inferiori rispetto ai maschi con una qualifica simile, comportando a una retribuzione inferiore.
In più, le donne hanno accusato la società di aver negato loro delle promozioni o il passaggio ad altri team che consentisse un avanzamento di carriera e ora l’accordo legale riguarderebbe circa 15.500 dipendenti donne con 236 mansioni che hanno lavorato in Google California dal 14 settembre 2013.
Già un anno fa, Google aveva accettato di dare 3,8 milioni di dollari al Dipartimento del Lavoro degli USA contro le accuse di discriminazione nei confronti delle donne e delle persone asiatiche. La maggior parte del denaro era destinata a risarcire 2.565 donne impiegate da Google in posizioni di ingegneria, oltre alle quasi 3mila candidate donne e asiatiche che non selezionate per quelle posizioni.
Fra l’altro le due notizie di oggi hanno anche un’altra connessione interessante, oltre al fatto di avvenire entrambe dentro le mura di Google. Ovvero che uno dei principali dilemmi etici riguardo all’AI è proprio il razzismo e la discriminazione. Visto che i sistemi di Deep Machine learning apprendono mangiando milioni di informazioni prodotte dagli umani, il loro tipo di apprendimento tende a riprodurre la logica umana, inclusi i bias cognitivi e i pregiudizi umani.
Magari ne parliamo meglio un’altra volta.
FONTI E ARTICOLI
#Google
il Post – Un dipendente di Google è convinto che un’intelligenza artificiale abbia preso coscienza di sé
GreenMe – Google pagherà più di 100milioni di dollari per aver discriminato le dipendenti donne
Medium.com – Is LaMDA Sentient? — an Interview
CBC – AI has a racism problem, but fixing it is complicated, say experts