Sempre più imprese si rivolgono all’intelligenza artificiale (IA), ma è importante che questo avvenga dentro una prospettiva strategica chiara, che non rincorre l’innovazione tecnologica fine a se stessa ma la utilizza per servire il purpose delle persone e delle aziende e la trasforma in un fattore reale di creazione di valore.

Tutto questo non è scontato perché per anni la tecnologia è sembrata un valore in quanto tale.

Da un certo punto di vista, bisogna riconoscere che essa ha incrementato le nostre capacità economiche, dandoci opportunità che nella Storia non si erano mai presentate. Con la tecnologia, e in particolare con la digitalizzazione, abbiamo creato “sistemi esponenziali” che permettono alle aziende di competere a livello globale senza le incombenze collegate ai classici fattori di produzione, come il lavoro, il capitale, le infrastrutture e le risorse naturali. In questo senso, la tecnologia ha costituito un importante elemento di accelerazione che ha permesso a un ingente numero di imprese di partecipare alla definizione di un nuovo equilibrio geostrategico e, in questo modo, ha rinnovato l’infrastruttura economica.

Non eravamo pronti, però, ad assorbire gli effetti collaterali derivanti dall’introduzione della tecnologia: pensavamo fossero gestibili, ma nel tempo lo sono diventati sempre di meno. Si è rivelata errata, soprattutto, l’equazione per cui, a fronte della possibilità tecnica di sostituire il lavoro di una persona con il lavoro di un algoritmo e/o di una tecnologia robotica, ci sarebbe sempre stato un motivo o un incentivo economico per procedere in tal senso, secondo una logica di sostituzione del tipo 1:1. Ne sono derivati fenomeni di frammentazione sociale che non avevamo previsto, e i principali attori del nostro tempo – socioeconomici e istituzionali – sono diventati molto più deboli e stanno soffrendo la transizione in corso.

Nel ventesimo secolo, finita la stagione delle grandi guerre mondiali, la democrazia e il libero mercato si sono imposti come paradigmi di riferimento, ma la famosa “mano invisibile” di Adam Smith ha funzionato solo per 70 anni e cioè finché la tecnologia, con i suoi effetti collaterali, ha fatto saltare la narrazione che ne era alla base. Oggi, pertanto, abbiamo bisogno di nuove narrazioni, di nuove storie, che diano un nuovo equilibrio alla nostra possibilità di accedere con facilità alle tecnologie. Dobbiamo cioè capire come coniugare la “poesia” dell’innovazione tecnologica con la “prosa” dei suoi effetti sociali, perché le frammentazioni che si sono prodotte non sono semplici da ricomporre. Occorre, insomma, un purpose, una nuova bussola con cui orientarci. Che deve partire, però, da una presa di coscienza.

La tecnologia, anzitutto, non cancella completamente gli errori umani, che continuano a presentarsi. Uno di questi errori, per esempio, riguarda la percentuale delle professioni che entro il 2020 si sarebbero in qualche modo “trasferite” per effetto dell’avvento delle nuove tecnologie: si pensava a un 45% dei lavori esistenti, ma il 2020 ormai è quasi arrivato e il dato reale non supera il 14%.

La stessa IA, a sua volta, non è immune dagli errori che ci caratterizzano, e in ogni caso l’identificazione dei problemi che pretendiamo di risolvere con la tecnologia deve rimanere in capo all’uomo. Per quanto raffinata, infatti, l’IA non può davvero pensare: è capace di creare correlazioni statistiche molto complesse, ma non pensa nel modo in cui lo fa un essere umano.

A livello globale, del resto, non abbiamo ancora un orientamento chiaro sugli aspetti etici e comportamentali connessi all’intelligenza artificiale, e dobbiamo ancora creare un nesso fra il purpose e la tecnologia, che fino ad oggi è stata concepita e adottata in esclusiva funzione della sua capacità di generare efficienza economica. Certo: finché l’automazione ha semplicemente accelerato quello che prima facevano gli uomini, l’idea di una tecnologia che serve solo a generare efficienza economica poteva reggere, ma oggi lo scenario è cambiato e sarebbe ingenuo non rendersene conto. La tecnologia, in particolare, non è più uno strumento neutro ma cambia l’identità delle imprese che la adottano e quella di chi lavora al loro interno e, al tempo stesso, si configura come un vero e proprio sistema di comprensione della realtà, riflettendo pregiudizi che sono figli delle forme mentali di chi l’ha progettata.

Le imprese, inoltre, sono a tutti gli effetti realtà sociali, antropiche, culturali, di cui una tecnologia – per quanto efficiente – non può governare il funzionamento, soprattutto nel momento in cui passiamo da una logica basata esclusivamente sull’item misurabile del profitto a una logica basata anzitutto sul purpose e sul valore sociale dell’impresa, di cui il profitto diventa una conseguenza. Quando appaltiamo alla tecnologia una funzione di indirizzo che deve necessariamente rimanere umana, le disuguaglianze si acuiscono perché vengono a mancare i classici sistemi di redistribuzione della ricchezza. Ecco perché bisogna evitare che l’IA sia di esclusiva pertinenza dei dipartimenti di IT, rimettendola invece nelle mani della più generale strategia con cui l’impresa si posiziona sul mercato. Questo è l’indirizzo assunto da molte importanti realtà a livello mondiale, come Goldman Sachs o Bloomberg, per le quali la tecnologia è sì un asset strategico ma nell’ambito di una ricerca di trasversalità fra i dipartimenti di IT e quelli deputati alla strategia complessiva dell’organizzazione. Quando questa trasversalità viene meno, e la tecnologia torna nelle sole mani dei tecnici, si creano condizioni che favoriscono gli errori degli algoritmi, perché questi non vengono più progettati a partire da una visione e/o da un purpose.

Affinché l’AI si sviluppi dentro un perimetro funzionale, dobbiamo quindi fare attenzione ad alcune questioni fondamentali.

La prima riguarda l’etica, la correttezza, la cosiddetta fairness. Come anticipato, l’IA è tutt’altro che neutra, perché è programmata da persone che vi riversano i propri modelli mentali e occorrono meccanismi che riconoscano questa sua caratteristica e gli errori che ne possono derivare. Senza questo presidio, si crea un determinismo tecnologico che è l’ultima cosa di cui abbiamo bisogno. Quello che ci serve, all’opposto, è una tecnologia che supporti e migliori la nostra capacità di prendere decisioni, senza mai decidere al posto nostro. L’algoritmo, quindi, non deve più essere una scatola nera, ma deve aprirsi e diventare trasparente. In tutto questo c’è un tema di equità che interessa le policy delle imprese e la stessa attività dei governi, che devono aiutare e favorire questa riflessione, come già accade per esempio in Francia.

La seconda questione è legata all’intelligibilità. Gli algoritmi, in altri termini, devono poter essere spiegati, proprio per poter risalire alle forme mentali di cui sono espressione, capire i problemi della programmazione e favorire i processi che consentono alla tecnologia di diventare un vero e proprio asset delle strategie delle imprese.

La terza questione è quella della privacy. Su questo fronte l’Europa è più avanti degli Stati Uniti, ma anche negli USA si stanno sviluppando riflessioni importanti, come quella sui “dividendi collettivi”, che dovrebbero essere riconosciuti al titolare di quei dati privati dall’uso dei quali è stata generata una certa ricchezza. È difficile che tutto questo si traduca subito in realtà, ma è significativo che il dibattito pubblico cominci a orientarsi nella direzione corretta.

L’ultima dimensione da presidiare è quella dell’autonomia. Dobbiamo cioè riflettere sul modo in cui difendere l’autonomia dell’uomo rispetto alla macchina, evitando che essa lo sostituisca in toto. L’IA, ad esempio, ci aiuta a scoprire correlazioni altrimenti invisibili ma si tratta di un’opportunità a cui lavorare in un’ottica di intelligenza simbiotica, in cui tra uomo e macchina non ha luogo un compromesso ma una vera e propria integrazione, come ben esemplificato dai processi di decision making che hanno luogo in ambito medico grazie all’utilizzo diagnostico dell’IA.