Dibattuto e divisivo, il tema dell’intelligenza artificiale sta attirando sempre di più l’attenzione della società tanto sorpresa quanto impreparata a gestire una trasformazione così impattante e repentina. Una trasformazione che proprio per la sua portata ha dei risvolti etici che andrebbero affrontati subito, per evitare impatti più dirompenti dopo. L’intelligenza artificiale andrebbe attenzionata non tanto in sé, ma quanto sull’uso che se ne può fare, in vari settori, come ad esempio, ai fini della sostenibilità. Di potenzialità, di limiti, di criticità dell’intelligenza artificiale ne abbiamo parlato con il Professor Luciano Floridi, Direttore del centro sull’etica digitale dell’Università di Yale e Docente di sociologia della cultura e della comunicazione all’Università di Bologna.
Siamo nell’era dell’intelligenza artificiale. Si tratta di trasformazione unica, come altre nella storia, ma dalle molte implicazioni sul breve ma soprattutto sul lungo periodo? Come si può definire l’AI e quali le implicazioni positive e negative per la nostra società e il genere umano?
Quando si parla di IA, ci si riferisce a sistemi che 1) gestiscono, creano, manipolano contenuti che possono essere video, audio e testo, ecc e 2) nel farlo ci rendono la vita più semplice, in quanto interagiscono con altre tecnologie fungendo da interfaccia. Capire questo è importante per comprendere le implicazioni di natura economica che da questo discendono. Laddove, infatti, c’è gestione dei contenuti, ci potrà essere una trasformazione di alcuni lavori. Si pensi a tutti quelli dei cosiddetti colletti bianchi, le cui prestazioni lavorative, pur non sparendo del tutto, vengono trasformate, diventano meno dirimenti e possono essere compiute da un minor numero di persone, in meno tempo e con minor dispendio di energia. È altrettanto vero, però, che questa trasformazione richiederà nuove figure professionali, che ancora non esistono ma di cui abbiamo bisogno e non riusciamo a formare.
Se guardiamo poi al rapporto di interfaccia, che vuol dire decisioni, processi, interazioni, scenari per possibilità decisionali, che l’IA avrà con altre realtà digitali, assistiamo a una profonda trasformazione. Un esempio per capire: se prima era necessario disporre di una certa expertise per scrivere due righe di codice, oggi queste possono essere scritte da questi nuovi strumenti. Ovviamente poi questi dati andranno controllati prima di essere implementati, ma si tratta di un aiuto esterno notevole, con implicazioni importanti sul mercato del lavoro.
Tuttavia, è errato pensare che le implicazioni abbiano solo valenza distruttiva (in termini di lavori che scompaiono o vengono cambiati), perché esiste anche una valenza costruttiva relativa, come detto prima, alla creazione di nuovi profili professionali. La percezione negativa deriva dal fatto che tutte queste trasformazioni sono più veloci e profonde di quanto la società sia in grado di gestirle, a differenza del passato in cui le trasformazioni sono state molto lente (come quella agricola o industriale). Fino a un anno fa, la gente comune non sapeva cosa fosse ChatCPt o bard. Serve quindi intervenire per capire quali sono le difficoltà di oggi e le opportunità di domani.
Sempre in ragione della loro rapidità, queste trasformazioni rischiano di sorprendere nei risultati. Tuttavia agli addetti ai lavori, ma dovrebbe esserlo per tutti, è noto che le nuove strumentazioni godono di una certa libertà di realizzazione ma solo all’interno di spazi circoscritti. Di nuovo un esempio ci viene in aiuto: il robot che taglia l’erba avrà un aggiornamento software per cui taglierà meglio, o peggio di un umano, ma sarà addestrato a fare quello, non potrà mai svolgere un attività di natura diversa. L’intelligenza artificiale è universale nel senso che può essere applicata a vari settori della vita ,ma non può passare liberamente da un’attività all’altra. Dovrà essere programmato per farlo.
Con il tempo però la sorpresa si andrà a spegnere, inizieremo ad abituarci a tutto ciò e inizieranno i problemi, quali quelli relativi alla privacy, alla discriminazione, alla manipolazione, e soprattutto, alla nostra autonomia, perché più deleghiamo più siamo nelle mani di chi questi strumenti li produce e li utilizza. Anche in questo caso però, non bisogna entrare nella logica di colpevolizzare l’IA. Questo è e rimarrà sempre uno strumento progettato e programmato da qualcuno, non qualcosa che opera da sé. Da qui deriva un appello a evitare di credere a superstizioni e cose non veritiere e dare molta più enfasi alla responsabilità che abbiamo nel costruire queste tecnologie.
Perché si parla di etica dell’Intelligenza Artificiale? E perché è così importante parlarne oggi agli incipt di quella che potrebbe essere una rivoluzione?
È importante parlare di etica perché siamo all’inizio di questa trasformazione e proprio per questo bisogna agire subito e in tempo. Così come nel caso di un problema ai denti, se il ricorso al dentista è rapido, i costi sono minori e il dolore contenuto. In caso di ritardi, sarà tutto più oneroso e doloroso. La stessa cosa vale per la tecnologia: se anticipiamo i problemi, pensiamo a un quadro regolativo e indirizziamo eticamente il suo sviluppo ne potremmo solo che trarre risultati positivi, perché in questa fase, da un punto di vista finanziario, costa meno ed è meno doloroso in termini di sofferenza umana.
Ma una domanda sorge spontanea, perché l’IA genera tutti questi problemi etici? Perché è una forza di azione, una capacità di azione che risolve i problemi o si prende cura di processi (guida autonomica, ricerca automatica dei contenuti, generazione automatica dei contenuti) e lo fa al posto nostro e a volte anche meglio di noi. Si tratta, infatti, di strumenti statistici che fanno cose straordinarie solo se usati in maniera intelligente, concetto questo che va ribadito e su cui regna molta disinformazione, come quella che attualmente caratterizza le elezioni negli USA.
L’IA è un nuovo pezzo sulla scacchiera, ma non ha nessuna intelligenza. Lo muoviamo noi, ma ad un certo punto lo rendiamo autonomo. Quindi con intelligenza zero: punto questo che tengo molto a sottolineare. Se quindi succede qualche pasticcio, questo è imputabile a chi ha programmato e non all’IA in sé, ma in quanto tale il pasticcio va risolto, quindi vanno regolamentate, di qui i problemi etici fondamentali.L’IA oggi dalle grandi aziende è presentata come un matrimonio fra biologia e ingegneria. La biologia ci da il concetto di intelligenza, l’ingegneria ci da l’artefatto. È come se avessimo noi artefatti che avessero una qualche forma di intelligenza quasi biologica o soprattutto superiore a quella biologica. Questa storia è una narrativa, anche voluta, che non coglie il punto, secondo me diverso: non si tratta di un matrimonio, ma un divorzio fra la capacità di agire e la necessità di essere intelligenti per avere successo nell’agire. Per spiegare il concetto usiamo un esempio: immaginiamo di giocare a scacchi con il telefonino, che in teoria dovrebbe avere intelligenza pari a zero eppure gioca meglio di noi. Cosa è successo? La capacità di agire, in questo caso di giocare a scacchi, è stata dissociata, scollata dalla necessità di essere intelligenti nel vincere a scacchi. Questo è straordinario.
Noi fino , in questo trentennio, se volevi fare una cosa con successo avresti dovuto esercitare un po' di intelligenza, ma ora sono un po' di anni che questo non è più vero. Una vera trasformazione che però è un delta, uno iato, un divorzio, una separazione tra agire e intelligere. Capacità di azione e intelligenza zero.
Alla luce di ciò cosa facciamo in questo divorzio? Tutti i problemi che abbiamo oggi si collocano attorno a questa spaccatura fra il capire e l’agire. Siccome sono a intelligenza zero, i problemi sono molti perché è una “forza di natura” che è in grado di fare la differenza nel mondo. Una volta capito questo, molte cose sono più chiare, perché la legislazione, i problemi del lavoro ecc si inseriscono in questa spaccatura di cui abbiamo detto sopra.
Un esempio concreto per i nostri lettori. Se le dico Intelligenza Artificiale-Energia- e Ambiente quale nesso è possibile trovate?
Se ne discute da tanto tempo. Il problema è riemerso ora solo perché ce ne siano riaccorti: l’intelligenza artificiale, come il digitale, purtroppo è parte del problema in termini di impatto ambientale. Consuma moltissima energia e richiede grandissimi investimenti e alla fine l’output che restituisce non controbilancia l’input costoso in termini finanziari e ambientali.
Detto questo, io sono molto ottimista sull’opportunità che l’IA passi dall’essere un problema da un punto di vista della sostenibilità all’essere una soluzione. Ci sono già dei lavori o importanti progetti con compagnie come Microsoft, Google e Facebook che utilizzano l’IA a sostegno degli obiettivi di sviluppo delle Nazioni Unite. Si tratta di progetti concreti e realizzabili, ma che ancora non partono. Basterebbe poco perché l’IA diventasse una grande soluzione, promettendo soluzioni durante tre diverse direttrici tra loro complementari. 1) Fare molto di più con molto meno, basti pensare al riscaldamento urbano. Ad esempio utilizzare l’IA per abbattere di un 30% il riscaldamento della città di Milano, sarebbe possibile con un vantaggio enorme in termini ambientali. In questo caso tutta l’energia che abbiamo utilizzato per sviluppare questi strumenti sarà ripagata 100 volte.
2) Poi si possono fare le cose diversamente rispetto a come sono state fatte sino ad oggi. Se facciamo un passo avanti nella fusione fredda, nel quantum compiuting, lo facciamo grazie all’IA e non riusciremmo a raggiungere questi risultati senza grandi investimenti in machine learning. 3) Ed è possibile farlo per la prima volta. Un tempo non era immaginabile fare alcuni processi aziendali perché costavano molto, non c’erano risorse, il trattamento dei dati sarebbe stato insostenibile. Oggi invece con l’IA si può fare di più con meno, diversamente e per la prima volta: questo tridente applicato alla sostenibilità ci permetterebbe di salvare umanità e pianeta.
Ma tutto ciò lo stiamo facendo? La risposta è no. Lo potremmo fare? Sì. Lo faremo? Ho qualche dubbio, perché l’umanità capisce solo sbattendo la testa contro il muro. Se il muro sarà reversibile bene, ma temo che stavolta giochiamo con dinamiche inconvertibili. Una partita che stiamo giocando rischiando molto solo per non fare prevenzione. Questo spiega anche perché è importante l’etica, perché pensarci oggi significa non avere conseguenze peggiori!
In conclusione, riguardo all’intelligenza artificiale, vedo dell’ottimismo sulle opportunità da cogliere, ma pessimismo sulla capacità di coglierle! Non stiamo facendo bene, ma c’è spazio per fare tantissimo.