Dietro le quinte di OpenAi: il progetto Q* è davvero una minaccia all’umanità?
Nel cuore della Silicon Valley, il presunto progetto segreto Q* di OpenAI ha scatenato una tempesta di controversie, evidenziando le tensioni interne sul futuro dell‘intelligenza artificiale (IA). Si parla di un’aspra disputa tra la cautela del CEO Sam Altman e la spinta più aggressiva di altri dirigenti, culminando nel temporaneo licenziamento di Altman.
Conflitti e fazioni in OpenAi
Il chiacchierato progetto Q* sull’intelligenza artificiale è stato alla base di tutti i recenti scombussolamenti che hanno caratterizzato vita della Silicon Valley. In particolare, all’interno di OpenAi, realtà famosa per aver lanciato Chatgpt circa un anno fa. Ora, Q* è un progetto semi-segreto: non abbiamo ancora troppi dettagli riguardanti il corso del suo sviluppo; tuttavia, sappiamo che è legato al miglioramento delle prestazioni dell’intelligenza artificiale, soprattutto sulla componente in cui Chatgpt è più carente: quella logico matematica. Anzi, sembra che il progetto stia andando così bene e che abbia potenzialità di sviluppo così ampie da avere generato una frattura nelle direzioni e nelle volontà dello stesso board di OpenAi.
Sembrerebbe che da un lato via sia chi, come il CEO Sam Altmann, avrebbe nutrito il desiderio di un procedimento strategico più cauto. Soprattutto, tenendo bene a mente il potenziale impatto di un progetto così rivoluzionario da poter creare, paradossalmente, più problemi sociali che stravolgimenti positivi nell’immediato. Dall’altro lato della barricata invece, sembra concentrarsi una fazione meno propensa alla cautela. Anzi, fortemente convinta della necessità di battere il ferro finché è caldo per poi impiegare il potenziale di Q* in una logica di ritorno commerciale. È a partire da questo conflitto di vedute che sarebbe scaturito il momentaneo licenziamento di Sam Altmann.
Qualche indizio su Q*
È legittimo preoccuparsi di ciò che avviene dietro le quinte della Silicon Valley? La momentanea cacciata di Sam Altmann è sintomo di un mostro che si agita sotto i nostri letti? Si può rispondere a questa domanda solo restando fedeli alle ricostruzioni disponibili in merito al progetto Q*. Innanzitutto, ci sono buone probabilità che il tutto sia collegato a un progetto che fu annunciato da OpenAi intorno a maggio. Esattamente, nel momento in cui l’azienda ha fatto sapere di aver ottenuto incredibili risultati grazie ad una tecnica chiamata “supervisione dei processi”. Quest’ultima, consentirebbe di allenare un modello di intelligenza artificiale a scomporre i passaggi e le operazioni necessarie a risolvere un problema. Di conseguenza, la sperimentazione in questione sarebbe stata volta a ridurre gli errori logici commessi dai modelli linguistici di grandi dimensioni (Llm).
Andrew Ng, professore e ricercatore dell’Università di Stanford, sostiene che: “Gli Llm non sono molto bravi in matematica, ma non lo sono nemmeno gli esseri umani”, sottolinea poi sempre Ng: “Se però mi date carta e penna divento molto più bravo nelle moltiplicazioni, e penso che non sia così difficile affinare un Llm“. Il sito Reuters riporta da una fonte anonima che: “Grazie ad ampie risorse di calcolo, il nuovo modello è stato in grado di risolvere alcuni problemi matematici“. Inoltre: “anche se è in grado di eseguire solo calcoli al livello di studenti delle elementari, il fatto che abbia superato questi test ha reso i ricercatori molto ottimisti sul successo di Q*“. Secondo il sito The Information: “Per l’addestramento di nuovi modelli, la ricerca ha comportato l’uso di [dati]** generati dal computer al posto di dati reali come testi o immagini estratti da internet**”. In sintesi, vi sarebbe la possibilità che OpenAi stia addestrando da mesi intelligenze artificiali con enormi quantità di dati sintetici.
I rischi reali dello sviluppo dell’intelligenza artificiale
Ma quindi, bisogna preoccuparsi? Secondo Nathan Lambert, ingegnere specializzato in apprendimento automatico, non proprio. O meglio, il tipo di implementazioni che si potrebbero importare all’intelligenza artificiale non hanno alcuna correlazione con una sua possibile capacità di eludere il controllo umano. Piuttosto, i rischi concreti dello sviluppo di un AI così potente sono un po’ quelli di cui si discute da sempre. Una forma di intelligenza artificiale capace di fare ragionamenti in grado di superare l’intelligenza umana potrebbe sconvolgere molti settori di mercato. Principalmente, perché potrebbe lasciare indietro intere categorie di lavoratori non formati ed aggiornati a sufficienza per utilizzare questi nuovi strumenti. Di certo, però, non comporterebbe alcuna ribellione delle macchine.
È per questi dubbi che il tema dell’impatto dell’intelligenza artificiale sulla società è sempre più centrale. Non perché si presagisce uno scenario alla Io, Robot. Quanto perché ne va del nostro tessuto produttivo. Infatti, già a livello istituzionale e culturale si stanno moltiplicando le iniziative di discussione in merito. L’Unione Europea dibatte sull’AI-Act; l’ONU ha istituito un consiglio sull’intelligenza artificiale; il governo italiano ha implementato un comitato di coordinamento per l’aggiornamento delle strategie sull’utilizzo dell’intelligenza artificiale. La discussione tutt’ora è ampia, tanto quanto gli interessi economici e il potenziale impatto sociale che questa tecnologia potrebbe avere. Il suo futuro delle sue applicazioni non è spaventoso, è semplicemente la prossima sfida collettiva da affrontare.