Intelligenza artificiale, risorsa o pericolo per l’uomo?

Intelligenza artificiale, risorsa o pericolo per l’uomo?

Isaac Asimov diceva che «anche da giovane non riuscivo a condividere l’opinione che, se la conoscenza è pericolosa, la soluzione ideale risiede nell’ignoranza. Mi è sempre parso, invece, che la risposta autentica a questo problema stia nella saggezza. Non è saggio rifiutarsi di affrontare il pericolo, anche se bisogna farlo con la dovuta cautela. Dopotutto, è questo il senso della sfida posta all’uomo fin da quando un gruppo di primati si evolse nella nostra specie.

Qualsiasi innovazione tecnologica può essere pericolosa: il fuoco lo è stato fin dal principio, e il linguaggio ancora di più; si può dice che entrambi siano ancora pericolosi al giorno d’oggi, ma nessun uomo potrebbe dirsi tale senza il fuoco e senza la parola». Una lunga citazione che ben introduce i dubbi e le perplessità sollevati da scienziati, esperti e pensatori ed esposti in una lettera aperta pubblicata nel 2016 sul sito del Future of Life Institute (FLI), dal titolo Priorità di ricerca per un’intelligenza artificiale forte e benefica; un documento allegato contiene delle tracce sulle priorità che la ricerca deve avere in questo ambito. I firmatari della lettera sono convinti che i benefici dell’«intelligenza artificiale» (AI) siano enormi, dal momento che ad oggi tutto ciò che la società offre è frutto della sola intelligenza umana. Di conseguenza non si può sapere quello che si potrà ottenere quando questa intelligenza verrà amplificata dagli strumenti che arriveranno dall’«intelligenza artificiale». È fondamentale quindi capire come sfruttarne i benefici per l’umanità, evitando potenziali insidie e rischi.

Ma di che cosa si occupa l’«intelligenza artificiale»? La «AI» è una disciplina che studia se e come riprodurre i processi mentali più complessi mediante l’uso di un computer, «teoria e tecniche per lo sviluppo di algoritmi che consentano alle macchine, tipicamente i calcolatori, di mostrare un’abilità e/o un’attività intelligente tipica delle mente umana».

La preoccupazioni dei firmatari — tra questi c’erano il fisico Stephen Hawking, Elon Musk (fondatore di PayPal, produttore delle automobili elettriche Tesla, creatore di Space X la prima azienda ad aver mandato in orbita un’astronave senza fondi pubblici, e altro ancora) e l’italiana Francesca Rossi (docente di informatica a Padova e Harvard) — è che lo sviluppo dell’«intelligenza artificiale» possa trasformarsi in una minaccia per il genere umano, innescandone addirittura la fine, una minaccia «più pericolosa del nucleare». Per questo è fondamentale regolamentare e regolare l’evoluzione e i progressi in un campo che permetterà di creare sistemi software e robot in grado di eseguire mansioni sempre più complesse, capaci di eguagliare e superare l’uomo anche in attività creative ed intellettuali. Già ora metodi e tecnologie dell’«AI» sono utilizzati per esempio nella diagnostica medica, nella selezione del personale, nel riconoscimento facciale, nelle macchine che si guidano da sole: «L’intelligenza artificiale può farci raggiungere risultati ambiziosi, come l’eradicazione delle malattie e della povertà, ma deve fare solo quello che noi vogliamo che faccia», lavorando «sugli effetti economici dell’uso dell’intelligenza artificiale, per evitare che i sistemi intelligenti facciano perdere il lavoro a milioni di persone. A lungo termine, invece, i ricercatori devono assicurarsi che, nel momento in cui l’intelligenza artificiale avrà il controllo sulle infrastrutture, siano in campo anche mezzi di contenimento nel caso ci siano avarie nel sistema».

Al di là di catastrofici scenari fantascientifici, questa lettera ha il doveroso compito di riportare appunto anche un equilibrio, ricordando sì la necessità di guidare la ricerca, ma frenando anche le posizioni apocalittiche, puntando piuttosto l’attenzione ad aspetti da affrontare in tempi brevi, come la legislazione per veicoli senza guidatore, problematiche relative all’etica delle macchine. Se ad alcuni può far sorridere la questione, guardandola come lontana se non addirittura irreale, non si deve però dimenticare che si parla di qualcosa che già esiste ed influenza le nostre vite, un qualcosa che evolve e si sviluppa velocemente e costantemente, «che comincerebbe a gestirsi da sola e si riprogrammerebbe ad una velocità sempre maggiore», e potrebbe essere necessario scrivere, come osservato dal Direttore del settore ingegneristico di Google Ray Kurzweil, un codice morale algoritmico in grado di limitare un software superintelligente.

Fino ad oggi nessun calcolatore è riuscito a superare il Test di Turing, un criterio utile per determinare se una macchina sia in grado di pensare, come «HAL 9000», il supercomputer senziente di 2001: Odissea nello spazio; ma è indiscutibile la necessità di una linea guida, come ad esempio stabilire come si debba comportare un veicolo senza guidatore costretto a scegliere tra la sicurezza dei passeggeri e quella dei pedoni. Un qualcosa di simile alle Tre Leggi della Robotica di Isaac Asimov, dove si enuncia con la Prima Legge che «un robot non può recare danno agli esseri Umani, né può permettere che, a causa del suo mancato intervento, gli esseri Umani ricevano danno»; con la Seconda Legge che «un robot deve obbedire agli ordini impartiti dagli essere Umani, a meno che ciò non contrasti con la Prima Legge»; e con la Terza Legge che «un robot deve salvaguardare la propria esistenza, a meno che ciò contrasti con la Prima o la Seconda Legge». Il futuro sta diventando presente.

Se ti è piaciuto questo articolo seguici su Twitter e Facebook