Intelligenza artificiale: opportunità o minaccia?

Siamo andati sulla Luna grazie ai Commodore 64. Quella che ad una prima lettura può sembrare una battuta o il classico meme che, come tanti, vengono pubblicati sui social network, in realtà nasconde una mezza verità: sul nostro satellite naturale ci siamo andati grazie a computer che oggi verrebbero considerati dinosauri informatici. Considerazione che assume maggior rilievo se pensiamo alla novità che da qualche mese è diventata oggetto di discussione tra gli appassionati dell’informatica e non solo: l’Intelligenza Artificiale.
Per i più, queste due termini rimandano a parole come ChatGpt, l’intelligenza artificiale di tipo testuale che permette, tramite “chat”, di richiedere informazioni su quasi qualsiasi argomento, ma anche, ad esempio, scrivere canzoni, articoli o domande da rivolgere ad un ipotetico relatore durante un convegno. Le risposte arrivano in pochissimi secondi. Non sempre accurate già con il primo quesito, ma migliorano durante la conversazione con il nuovo amico. Per avere un’idea del funzionamento, basti pensare alle chatbot dei servizi clienti degli Istituti Bancari o Servizi di Utilità. Spesso, è proprio con il servizio clienti che gli utenti prendono familiarità con l’I.A., la quale prova a risolvere i problemi che le vengono posti, prima di passare eventualmente la chiamata ad un operatore umano.
Ovviamente questo nuovo servizio non è limitato alle chat del “servizio clienti”, ma ha potenzialità enormi, per alcuni aspetti non ancora espressi. Per conoscerli, è doveroso provare a capire prima di tutto cosa sia l’Intelligenza Artificiale e quali aspetti essa include.
Per farlo, abbiamo rivolto alcune domande a Andrea Cavallini, Project Manager in ambito Artificial Intelligence & Machine Learning e Responsabile del “AI & ML Competence Center” presso RHEA Group.
Partiamo dall’inizio: cosa si intende con “Intelligenza Artificiale”?
Domanda un po’ troppo ampia che richiederebbe una risposta complessa e anche filosofica, ma per semplificare possiamo dire che un’Intelligenza Artificiale è un qualsiasi sistema in grado di eseguire dei compiti più o meno complessi con un certo grado di “intelligenza” paragonabile a quella dell’uomo. A suo modo una calcolatrice, in grado di replicare la capacità umana di eseguire calcoli può essere, in maniera estremamente banale, un esempio di I.A.. Purtroppo, spesso quando si parla di I.A., la nostra mente torna ai libri e ai film di fantascienza che ci hanno dato una visione un po` distorta come i più conosciuti Terminator con Skynet, la rete intelligente che si ribella all’uomo, o Matrix “La cui sinistra coscienza produsse una nuova generazione di macchine” (cit.), o a Io Robot e le famose tre leggi della robotica di Asimov giusto per citarne alcuni. Ovviamente questi esempi non possono che incutere terrore e ovvie paure nell’uomo comune. In realtà l’I.A. è presente nelle nostre vite da parecchi anni, ne facciamo un uso quotidiano ma probabilmente senza rendercene molto conto.
Qualche esempio?
Quando Netflix, Amazon, Facebook o Google ci propongono dei suggerimenti per qualcosa che potrebbe piacerci o interessarci, dietro c’è sempre un sistema di I.A. che ha analizzato i nostri comportamenti e che cerca di proporci offerte pertinenti ai nostri gusti o, nella sua accezione negativa, cerca di portarci ad acquistare un determinato prodotto avendo imparato a riconoscere le nostre “debolezze”. Quando “interagiamo” con Alexa o Siri che interpretano il suono della nostra voce fino a trasformarlo in un comando pratico come accendere una luce o riprodurre una canzone. Il cellulare stesso, quando lo sblocchiamo con il volto, lo facciamo attraverso un sistema basato su I.A. in grado di riconoscere la nostra faccia dentro un insieme di pixel.
Quindi questa Intelligenza Artificiale non sembrerebbe una novità degli ultimi mesi?
Il concetto fondamentale di I.A. e reti neurali che replicano (anche se in maniera semplice) una struttura cerebrale è ben noto fin da metà degli anni 50, ma solo in questo ultimo decennio si è vista la sua esplosione grazie ai recenti progressi tecnologici derivanti, ma non esclusivamente, dal mondo del “gaming”. Infatti, per poter addestrare adeguatamente un’I.A. è richiesta una potenza di calcolo elevata e commisurata sia alla complessità del compito richiesto sia alla mole di dati da elaborare per questo scopo. Per poter quindi addestrare in tempi ragionevoli una I.A. si utilizzano batterie di schede grafiche (dette GPU) che sono dei prodotti hardware altamente ottimizzati al calcolo matematico. Si possono impiegare GPU da poche centinaia di euro per I.A. considerate semplici fino a diverse GPU del costo di decine di migliaia di euro in casi più complicati. Il tutto è collegato appunto alla complessità del compito richiesto all’I.A. e in quanto tempo si ha il bisogno di avere pronta una rete ben addestrata. È facile intuire che realizzare una qualsiasi applicazione basata su I.A. è un procedimento costoso, complesso e relativamente lento.
Torniamo alla domanda iniziale: che cos’è un I.A.?
È genericamente una soluzione software che può essere eseguita su un computer o altro dispositivo (un cellulare, un drone, un satellite, etc.) in grado di eseguire compiti di una certa complessità velocemente ed in maniera accurata. Ogni I.A. è realizzata per assolvere ad un determinato scopo: esistono reti che si occupano di analisi e manipolazioni di immagini (quali i sistemi di riconoscimento facciale, identificazione automatica di oggetti in sistemi di sicurezza, etc.) altre di analisi e comprensione del testo (pensiamo ai risultati accurati di Google o a quelli di ChatGPT e Midjourney) fino a complessi sistemi di decisione autonoma (un esempio classico le macchine a guida autonoma). Identificata la tipologia di rete neurale in base al nostro scopo, si passa all’addestramento della stessa, dopo aver preparato i dati necessari. Questo è un processo iterativo e ciclico con il quale si insegna all’I.A. ad eseguire il compito richiesto. Per fare un esempio facile, immaginiamo di voler insegnare ad un bambino, partendo da alcune foto, i nomi di animali che non conosce e che non ha mai visto prima. In una sequenza più o meno casuale, gli mostriamo queste foto chiedendogli di identificare il nome dell’animale rappresentato. Le prime volte chiaramente il bambino non saprà rispondere o non darà la risposta giusta. Ad ogni suo tentativo forniremo al bambino comunque la risposta corretta e con il passare del tempo l’accuratezza delle sue risposte andrà sempre di più migliorando. Il cervello del bambino con questo processo sta appunto apprendendo. Il tempo richiesto per imparare pochi animali non sarà elevato, ma se volessimo insegnare al bambino a riconoscere 100 specie diverse è facile capire come la questione si complichi e come il processo di apprendimento necessiti di un tempo superiore. Dopo un certo numero di test e di tempo, alla fine il bambino sarà, teoricamente, in grado di riconoscere tutti o quasi gli animali. Per capire se effettivamente ha imparato a riconoscere questi animali in maniera accurata, si esegue quella che si chiama una validazione: ossia gli vengono mostrate sempre foto di animali che sta imparando a riconoscere ma attraverso nuove immagini non viste precedentemente e su queste si valuta la sua effettiva capacità di apprendimento. Starà poi a noi decidere se la percentuale di successo nell’identificazione può essere ritenuta soddisfacente oppure proseguire, fermo restando che potremmo non riuscire mai ad ottenere il 100% e che chiaramente dovremmo prevedere delle pause tra una sessione ed un’altra per far riposare la mente del bambino. Alla stessa stregua funziona l’addestramento e l’esecuzione di una I.A. tranne per il fatto che una macchina non si stanca e si può prolungare all’infinito questo procedimento. Questo è un classico esempio di Machine Learning che afferisce ai sistemi di IA, cioè la capacità di un sistema informatico di “imparare” attraverso i dati ed i suoi errori o successi ad eseguire un compito specifico. Ovviamente stiamo solo vedendo la punta dell’iceberg.
Se il buon funzionamento deriva da un buon addestramento, viceversa una I.A. addestrata male può funzionare male o addirittura diventare pericolosa?
I concetti di “buon funzionamento” e “pericoloso” hanno ovviamente una doppia natura: parliamo esattamente di una I.A. addestrata male, e quindi non accurata nel suo compito, o dell’uso sbagliato che possiamo farne? Affrontiamo prima il caso di una I.A. “pericolosa” che viene utilizzata in maniera non etica. Pensiamo ad un DeepFake che permette di sostituire uno o più volti all’interno di un video con altri a nostro piacimento. Possiamo vederne un utilizzo utile, per esempio, nel mondo cinematografico: tutte le scene con stunt possono essere riprese ravvicinate (cosa che normalmente si tende a non fare per non far scoprire il trucco) sostituendo poi in post-produzione il volto della controfigura con quello dell’attore famoso di turno. Anche io durante una presentazione interna per la mia azienda dove mostravo le potenzialità dell’IA ho rimpiazzato il mio volto con quello di Tom Cruise e Ryan Reynolds. Ma se invece venisse usato per scopi meno nobili e si volesse manipolare la realtà? Visto che oggi si può replicare anche la voce di una persona, ci si potrebbe sostituire “facilmente” a persone famose, magari anche a politici, con gli evidenti problemi pratici che questo potrebbe comportare. Già viviamo un periodo minato da costanti fake-news, immaginiamo quale sarebbe la difficoltà di discernere tra realtà e finzione: qualcuno potrebbe creare video artefatti per screditare una persona, magari un avversario politico tanto per dirne una. Pensiamo anche all’attuale piaga del Revenge Porn, dove il volto di una persona qualsiasi potrebbe essere inserito in una scena di un film hard. Non a caso, a chi realizza queste soluzioni tecnologiche, viene richiesta eticamente la creazione di un meccanismo, detto Watermark, necessario per poter riconoscere in maniera univoca un video reale da uno manipolato o completamente artefatto. Il problema però è sempre morale: chi ha intenzioni e scopi illeciti troverà sempre un modo per aggirare una qualsiasi limitazione. Come con le armi da fuoco se ci pensiamo: si può regolamentare la vendita, ma esisterà sempre un mercato parallelo proprio per chi ha scopi ed intenti criminosi. Vediamo ora invece le implicazioni di una I.A. addestrata male e quando può diventare “pericolosa”. Come dicevo prima, una I.A. viene addestrata partendo da informazioni che una persona ha preparato in maniera più o meno adeguata. Tornando ad un esempio precedente, diciamo di voler creare una App che attraverso la fotocamera del cellulare sia in grado di riconoscere le diverse specie animali. Se non addestro opportunamente la rete, questa non fornirà all’utente risultati accurati è, nella peggiore delle ipotesi, la mia App sarà considerata inutile e non verrà più utilizzata. Se invece addestro male un sistema di guida autonoma o se non sono in grado di pensare e prevedere tutte le casistiche possibili, il problema diventa decisamente più serio. Il primo incidente mortale della Tesla sembrerebbe essere dovuto all’incapacità del sistema di riconoscere un camion che stava incrociando la sua strada perché il colore del mezzo si confondeva con lo sfondo del cielo. In questa situazione, se non per disattenzione, difficilmente un uomo si sarebbe sbagliato nell’identificare correttamente il camion sebbene dello stesso colore del cielo. Purtroppo, una rete neurale, deve in qualche modo semplificare e ridurre un mondo complesso e con le sue dinamiche ad una sequenza temporale di pixel. Questo però genera tantissime domande. In primis, chi deve essere ritenuto responsabile dell’incidente? Il conducente anche se non stava fisicamente guidando lui? La Tesla come azienda? Gli ingegneri della Tesla? Questo può sembrare un caso lampante e potrebbe essere fin troppo facile dare la colpa principalmente (ma non esclusivamente) agli ingegneri che hanno preparato i dati di addestramento, di test e di validazione non avendo previsto questo caso particolare (pur sempre possibile) e a chi non ha verificato adeguatamente il sistema. Ma non è solo questo. Infatti, un punto cruciale nella progettazione di un IA è relativo a quello che è chiamato Bias o pregiudizio: chi produce i dati di addestramento può volontariamente o involontariamente (come in questo caso) introdurre o omettere delle informazioni che possano compromettere il corretto funzionamento del sistema? Soffermiamoci un attimo sul discorso del Bias facendo nuovamente un paio esempi pratici. Riprendiamo nuovamente l’esempio dell’App di prima. Per poter addestrare la nostra rete probabilmente non potremo realizzare da noi le immagini, quindi ci rivolgiamo ad una società che ci fornisce le foto che ci servono. Ipotizziamo che queste foto siano state scattate tutte all’interno di uno Zoo con macchine fotografiche professionali perché la società è seria e vuole darci immagini di altissima qualità. Dopo un periodo di addestramento, di test e validazione partendo da queste foto siamo soddisfatti dell’accuratezza raggiunta e mettiamo finalmente in commercio la nostra App. Quasi subito iniziamo a ricevere feedback negativi perché la nostra App spesso non riesce ad identificare correttamente gli animali. Come mai? Semplicemente per due fattori: il primo è che l’immagine che arriva alla nostra App fatta tramite la fotocamera interna è di qualità sicuramente inferiore a quella usata per addestrare la rete ed anche il contesto, magari in un bosco, è diverso dallo Zoo. In questo caso il Bias è dato dal non aver considerato l’uso e la qualità delle immagini nel contesto reale dell’applicazione. Ora invece supponiamo di trovarci in America e voler automatizzare lo screening dei passeggeri in un aeroporto o in un qualsiasi luogo pubblico al fine di identificare quanto prima possibile tramite I.A. le persone il cui comportamento possa essere ritenuto sospetto. Per l’addestramento ci serviranno sicuramente immagini o video ripresi da telecamere di sorveglianza e per questo scopo decidiamo di rivolgerci alle forze dell’ordine. Tante volte si è discusso di come la polizia americana abbia un pregiudizio razziale e ipotizziamo che ci vengano forniti video e immagini di arresti senza ricevere, o tanto meno chiederle, però informazioni relative a quanti di questi si siano poi rivelati corretti (anche se fossero in percentuale maggiore). Senza saperlo, staremo trasferendo questo pregiudizio anche nella nostra rete neurale che tenderebbe ad identificare come potenziali sospettati, in maniera predominante, le persone di colore. Da questo esempio si può intuire facilmente come la situazione si possa complicare in maniera esponenziale ponendoci di fronte alla domanda: è se questo Bias fosse (anche involontariamente) introdotto in droni da combattimento che potrebbero non essere in grado di riconoscere accuratamente un nemico da un civile spaventato in fuga?

Questo comporta un problema etico di non poco conto.
Assolutamente sì. Infatti, ci sono almeno diverse considerazioni importanti su cui ragionare. Sicuramente l’etica è un aspetto che viaggia di pari passo con lo sviluppo delle soluzioni in questo ambito. Spesso in contesti di bando Europeo, ma non solo, vengono richieste delle certificazioni proprio per garantire che quello che stiamo sviluppando non arrechi danni all’uomo e che non alteri la sua capacità di giudizio (pensiamo ai danni anche attuali di chi si affida a Google per una diagnosi medica). La fantascienza come nei libri di Asimov aveva già anticipato alcuni dei temi etici che si stanno discutendo in questi ultimi anni. Cercando sempre di rendere pratica una questione estremamente complessa e delicata, torniamo nuovamente ai sistemi di guida autonoma. Diciamo che ci troviamo in una situazione dove un pedone improvvisamente attraversa la strada e l’incidente è inevitabile con solo due scenari possibili: o si investe il pedone o si sterza mettendo a rischio l’incolumità dei passeggeri. Cosa deve fare il sistema? Quale decisione e scelta operare? Garantire l’incolumità dei passeggeri a discapito della vita del pedone o evitare a tutti i costi di investirlo sacrificando i passeggeri magari anche con il rischio di coinvolgere ed uccidere altri automobilisti? Come rendere parametrizzabile questa scelta? Chiaramente oltre al discorso etico ce n’è uno commerciale non banale: chi comprerebbe o si affiderebbe ad una macchina a guida autonoma con il dubbio che questa potrebbe decidere di “sacrificarci”? Come poter modellare opportunamente il concetto di “male minore”? Il problema quindi della responsabilità delle scelte resta un tema molto delicato senza una risposta precisa. Non a caso in questi contesti si ricorre al noto “problema del carrello ferroviario”, un dilemma di filosofia etica formulato nel 1967 da Philippa Ruth Foot: un treno che non è in grado di fermarsi tempestivamente viaggia su un binario su cui si trovano quattro persone legate. L’unico modo per poterle salvare è quello di azionare uno scambio per far cambiare percorso al treno. Purtroppo, anche su quel binario alternativo c’è una persona legata. Cosa fare? Sacrificarne una per salvarne quattro? Può essere solo il fattore numerico una variabile discriminante? È se fossero quattro anziani da una parte ed un bambino dall’altra? Allora potremmo decidere in base all’età? Ma se avessimo sul binario con una sola persona una persona sì anziana rispetto agli altri quattro, ma critica nel suo ruolo all’interno della società come un capo di stato? Possiamo complicare a piacere lo scenario e la complessità della valutazione, ma questo dimostra praticamente come non sia un problema di facile ed univoca risoluzione. Ma anche se avessimo identificato dei parametri precisi, possiamo essere sicuri che l’uomo in quella circostanza avrebbe la lucidità, freddezza e capacità di operare sempre la scelta giusta? Questo ci riporta al problema di quanto sia giusto è fino a che livello possiamo / dobbiamo delegare la nostra responsabilità verso una macchina. Purtroppo esisteranno sempre delle situazioni in cui bisognerà operare delle scelte critiche (i medici in sala operatoria per esempio le prendono continuamente). Pensiamo come nel caso del picco durante il COVID-19 con la saturazione delle terapie intensive. Durante quel periodo purtroppo si è dovuta operare una scelta basata sull’età, stato fisico e probabilità di sopravvivenza. Però, sono state scelte, giuste o sbagliate, prese da persone che possono poi rispondere nel bene o nel male del loro operato. In ogni caso, senza demonizzare troppo l’I.A., dal punto di vista etico da anni ci si scontra su questi problemi, pensiamo infatti alle tristemente famose “bombe intelligenti” o ai droni da combattimento che hanno causato la morte di molti civili.
Possiamo dire che l’IA è potenzialmente un buon strumento che, come tutti gli strumenti, aiuteranno l’uomo, ma non potranno sostituirlo almeno nella fase decisionale?
Anche qui purtroppo non esiste una risposta univoca, ci sono diverse considerazioni da fare. Innanzitutto ad oggi, l’I.A. può essere applicata in ogni aspetto della nostra vita. Non a caso, ci sono già molte attività sia in ambito di ricerca che in ambito industriale che stanno andando in questa direzione. I principi di automazione e di supporto alle decisioni sono tra quelli più richiesti ma anche qui lo spettro di applicabilità è vasto che va da sistemi non critici (l’esempio delle chatbot che automatizzano un servizio clienti) a quelle più cruciali (sistemi di armamento, sistemi di guida autonoma, etc.). Il problema etico rientra anche nell’ambito delle decisioni soprattutto quelle che devono essere prese velocemente e in momenti di forte stress o di stanchezza fisica e mentale. Sappiamo benissimo come la capacità di giudizio di una persona sia influenzata pesantemente dallo stress o come la sua velocità di reazione possa essere lenta rispetto a contesti veloci. Consideriamo un astronauta o un pilota di linea che vengono addestrati ripetendo procedure standard e d’emergenza migliaia e migliaia di volte proprio per cercare di renderli pronti ad ogni situazione. Esisterà purtroppo sempre l’imprevisto, quella situazione mai affrontata prima d’ora che li metterà in difficoltà. In questi casi l’I.A. può dare un contributo che può fare la differenza oltre magari ad anticipare efficacemente un evento potenzialmente catastrofico. Facendo sempre qualche esempio pratico, l’I.A. può accorgersi se un guidatore (da un automobilista ad un autotrasportatore) inizi a mostrare segni di stanchezza e, oltre ad avvertirlo, potrebbe “decidere” autonomamente di ridurre la velocità del veicolo fino a farlo fermare in sicurezza nel caso rilevi l’incapacità del guidatore nel proseguire. Questo tipo di applicazioni sono sicuramente da incoraggiare e perseguire. Però si torna sempre ed in maniera circolare al problema di chi è responsabile per una decisione di un sistema di I.A.. Purtroppo l’ambito militare offre moltissimi spunti di riflessione. Infatti, le guerre sono diventate sempre più tecnologiche e veloci: in caso di un attacco nemico, l’uomo potrebbe essere troppo lento nell’interpretare correttamente una situazione e di conseguenza la reazione, per cui dovrebbe demandare questa sua responsabilità ad una macchina. Si tratta comunque di dover valutare sempre pro e contro di ogni soluzione.
Prima abbiamo detto che l’I.A. è un fattore che già da qualche anno viene utilizzato, ma che sta esplodendo grazie a computer sempre più performanti. Quali potranno essere, in un prossimo futuro, le applicazioni di maggior uso? E che impatto avranno o potranno avere ad esempio nel mondo del lavoro?
Le applicazioni sono pressoché illimitate soprattutto considerato che di fatto l’I.A. è solo la tecnologia che può rendere fattibile una qualsiasi idea basata su un concetto complesso che con la programmazione tradizionale non riusciremmo a fare o che in passato sembrava pura fantascienza. Ti racconto a tal proposito un aneddoto personale. Viziato dal mio background informatico, ammetto di non godermi mai i momenti clou dei film dove grazie alla capacità dell’hacker di turno o a sconosciuti e potentissimi mezzi informatici si riesce a dare una svolta nella trama. Sorridevo sempre (e parlo volutamente al passato) quando vedevo con quale facilità la polizia riusciva a identificare una persona o una targa di un auto da un’immagine ripresa da una telecamera di sicurezza ovviamente di scarsa qualità. Con un semplice click l’immagine nitida si ricomponeva rivelando l’indizio fondamentale per risolvere il caso. Qui anche a causa non solo delle mie competenze informatiche, ma anche fotografiche ho sempre storto il naso perché sapevo benissimo cosa voleva dire ricreare un effetto di nitidezza (perché oltre ad un’apparenza, miracoli non se ne potevano fare) in un’immagine sfocata e di bassa risoluzione. Oggi, grazie all’I.A. questa cosa non è né fantasiosa né impossibile. Il concetto di “super-resolution” è a tutti gli effetti presente in molti ambiti. Anche noi, in RHEA, abbiamo realizzato un’applicazione in grado di incrementare la risoluzione e la nitidezza di immagini satellitari. Esistono anche dei plugin per Photoshop e non solo che fanno in ambito fotografico questa stessa cosa. Ora anche molte TV forniscono sistemi di up-scaling basato su I.A. Dal punto di vista lavorativo sicuramente vedremo una crescita esponenziale di applicazioni in grado di eseguire più di un solo compito preciso, quindi soluzioni in grado di abbracciare più domini. La prossima rivoluzione arriverà con i computer quantistici che tra le altre cose in questo ambito accorceranno drasticamente i tempi di addestramento rendendo possibile addestramenti estremamente complessi rispetto alla tecnologia attuale. Non ci dobbiamo stupire se nell’immediato futuro macchine autonome (non dico espressamente robot che possono riportare la nostra mente ad una visione alla Terminator) faranno sempre più parte della nostra vita affiancandoci nei lavori e nelle attività più comuni di tutti i giorni. Ma senza pensare ad esempi estremi, anche gli smart watch attuali, che già in alcune circostanze hanno salvato alcune persone rilevando infarti imminenti. Immaginiamoci prodotti che possono non solo rilevare ma anche anticipare questi attacchi di cuore. Può far paura e spaventare l’idea di qualcosa di integrato con il nostro corpo (i famosi chip sottopelle che spesso vengono mistificati) ma se avessimo un sistema in grado di rilevare H24 per tutta la durata delle nostre vite, per esempio, i parametri del nostro sangue (invece di fare analisi del sangue in maniera saltuaria), avremmo una quantità di informazioni tali da poter addestrare reti allo scopo di riconoscere ma soprattutto prevenire con largo anticipo una grandissima quantità di malattie. Ovviamente questo è l’aspetto positivo e sappiamo sempre che c’è anche il rovescio della medaglia. Ad ogni modo, come si può vedere non c’è veramente limite, potremmo passare tempo infinito ad ideare soluzioni. Per concludere vorrei riusare una risposta molto bella che ho letto tempo fa ad una domanda analoga: ancora non è stato inventato il lavoro del futuro dei ragazzi che ora stanno ancora studiando. Di questo ne sono assolutamente convinto. In ambito I.A. sicuramente nasceranno in maniera più frequente figure in grado di operare e manutenere questi sistemi complessi alla stessa stregua di un operaio. Quindi non ruberanno il lavoro, ma lo modificheranno. Stiamo a tutti gli effetti vivendo una nuova rivoluzione industriale.

Dalle risposte ricevute emerge che questa nuova tecnologia impatterà molti settori aziendali, ma non solo. Nel mondo del lavoro, come per qualsiasi “rivoluzione”, ci saranno mansioni che andranno a sparire o quantomeno a ridursi. Ad esempio, all’inizio di questo articolo, è stato fatto l’esempio del servizio clienti che, almeno nella parte iniziale, è stato “liberato” del fattore umano. Lo stesso discorso si potrebbe fare per il mondo finanziario, dove la nuova tecnologia potrebbe sostituire il consulente umano nella valutazione di investimenti e/o redazione di report. Inoltre, l’impatto potrà essere anche indiretto, come ad esempio nel mondo informatico: serviranno meno informatici così come li abbiamo intesi finora, per passare a figure più vicine a laureati con formazione matematica, con competenze “STEM” (informatici ed analizzatori), figure che attualmente, seppur forte la richiesta da parte delle aziende, sembra mancare fortemente.
Ovviamente, anche il mondo delle imprese, inteso come mercato e organizzazione, ne verrà impattato e, in parte, lo è già stato. In particolare, i nuovi strumenti digitali, porteranno due diverse novità: da un punto di vista esterno all’impresa, l’I.A. innoverà i mercati con il venir meno di alcuni servizi e prodotti, ma al tempo stesso facendone emergere di nuovi; dall’altro, internamente, pur non sostituendo la componente umana e le sue esperienze pluriennali, l’I.A. diventerà sempre più un supporto per agevolare e velocizzare le fasi decisionali. Fattori sempre più importanti in un mondo sempre in continuo cambiamento, anche e soprattutto in chiave sostenibilità, la quale sta spingendo le imprese a modificare i propri processi, le proprie procedure, la propria organizzazione. L’intelligenza artificiale, coerentemente settata sulla base delle caratteristiche dell’azienda e del suo contesto di riferimento, servirà per analizzare tutti i dati ad essa sottoposti, al fine di descrivere gli scenari futuri e le strategie le imprese potranno perseguire per raggiungere i propri obiettivi. Di contro, come è emerso anche dalle parole di Andrea Cavallini, un errore nel processo di realizzazione di una rete neurale può portare a risultati fortemente errati. Per questi motivi un buon sistema dovrà prevedere un I.A. ben integrata con la componente umana con ottime competenze nell’analisi dei dati (senso critico). Un esempio di come l’Intelligenza Artificiale potrà migliorare o comunque impattare l’impresa lo possiamo vedere nell’area del controllo di gestione: sfruttare questa tecnologia permette, in poco tempo, di effettuare un’analisi di dati molto più approfondita sia nel periodo di analisi, sia tramite il confronto con i periodi precedenti, opportunamente predisposti. Questo, in previsione futura, può portare ad un miglioramento delle previsioni che da tali dati prendono origine.