Perché Sam Altman è stato licenziato e poi riassunto?
Cos'è Q* e come influenzerà il futuro dell'AI
28 Novembre 2023
Di recente OpenAI, che gestisce ChatGPT, ha annunciato che Sam Altman tornerà a essere l’amministratore delegato dell’azienda, dopo che è stato trovato un accordo per la sostituzione di quasi tutti i membri del consiglio di amministrazione – lo stesso organo che lo aveva licenziato poco tempo fa. Altman è uno dei profili più rilevanti nel campo dell’intelligenza artificiale, e in molti gli attribuiscono il successo di OpenAI, di cui è uno dei fondatori, e della stessa ChatGPT – il tool più famoso della società. Il suo allontanamento era avvenuto senza preavviso e con quasi nessuna spiegazione: Altman lo aveva scoperto poco dopo essere stato invitato a una riunione in videoconferenza con il consiglio di amministrazione. La stessa Microsoft, che ha investito in OpenAI 13 miliardi di dollari e possiede il 49 per cento della società, aveva appreso della decisione solo qualche minuto prima che venisse resa pubblica con un comunicato. OpenAI è stata fondata nel 2015 da Altman, Ilya Sutskever, Greg Brockman e Elon Musk, come un’iniziativa senza scopo di lucro per la ricerca e lo sviluppo di sistemi di intelligenza artificiale. Nel 2018 Altman affiancò a questa no-profit una società commerciale, chiamata sempre OpenAI, che ottenne molto supporto tecnologico e finanziario da Microsoft. La decisione di licenziare Altman è stata presa dal consiglio di amministrazione della società no-profit: questa risponde solo in maniera limitata alle richieste degli azionisti, che invece si confrontano principalmente con la controparte aziendale. Subito dopo il licenziamento di Altman, investitori e dipendenti avevano fatto pressioni sul consiglio di amministrazione per far riassumere il co-fondatore di OpenAI. Quasi tutti gli impiegati della società avevano firmato una lettera aperta che chiedeva il suo ritorno, minacciando in caso contrario dimissioni di massa. La stessa Microsoft aveva annunciato molto rapidamente l’assunzione di Altman e di un altro dirigente rimosso assieme a lui, Greg Brockman, e si era detta disponibile a farsi carico anche dei circa 700 dipendenti firmatari della lettera.
Il licenziato di Altman c’entra con Q*?
Ufficialmente, il consiglio di amministrazione aveva ricollegato la rimozione di Altman alla sua mancanza di trasparenza rispetto a determinate decisioni e iniziative (non meglio specificate), che avrebbero impedito di supervisionare adeguatamente l’azienda. Di recente, però, l’agenzia di stampa Reuters ha sostenuto che, pochi giorni prima del licenziamento del co-fondatore di OpenAI, alcuni ricercatori della società avrebbero avvisato il consiglio di amministrazione dei timori legati a un progetto specifico, chiamato Q* (si pronuncia Q-Star), che rappresenterebbe una svolta nel campo dell'intelligenza artificiale cosiddetta “generale”. Prendendosi qualche licenza, si può dire che l’AI generale (Agi) è quella che abbiamo imparato a conoscere nei film di fantascienza, cioè un sistema che presenta abilità cognitive paragonabili (o superiori?) a quelle degli esseri umani. Per molti addetti ai lavori questo sarebbe potenzialmente il punto di arrivo delle ricerche nel settore dell’intelligenza artificiale, e sulla carta lo è anche per OpenAI, ma la possibilità di avere un sistema di questo tipo appare ancora molto remota, se non del tutto irraggiungibile secondo i più scettici. La stessa ChatGPT è lontanissima dall'essere un’AI generale: sebbene il suo successo risieda anche e soprattutto nella capacità di dare risposte come farebbe una persona, è molto meno “intelligente” di quanto sembri. Il tool è infatti classificabile come un’AI “ristretta”, cioè un sistema che è estremamente efficiente nello svolgere un singolo compito, ma che è incapace di occuparsi di qualsiasi altra mansione differente. Secondo quanto riporta Reuters, alcuni membri di OpenAI avrebbero sollevato preoccupazioni al consiglio di amministrazione sulle implicazioni e gli effetti di sistemi di intelligenza artificiale sempre più sofisticati, di natura “generale”, come per l’appunto si pensa sia Q*. Dalla società di San Francisco non è stata commentata l’indiscrezione, mentre è stata ammessa l’esistenza di una comunicazione interna relativa al progetto Q*.
Il futuro dell’AI passa per una maggiore regolamentazione?
Altman in passato era già stato accusato da vari membri dell’azienda di voler sfruttare la grande visibilità di OpenAI per attirare nuovi investimenti ed espandersi, senza verificare se le varie e possibili evoluzioni dei sistemi di intelligenza artificiale costituissero un pericolo per le persone. Più in generale l’iniziale allontanamento del co-fondatore di OpenAI potrebbe essere scaturito – oltre che dai timori relativi a Q* – anche da una visione diversa, rispetto a quella del consiglio di amministrazione, in merito alle prospettive future del settore dell’intelligenza artificiale. In riferimento alla velocità con cui sviluppare, diffondere e commercializzare questi sistemi, il versante no-profit di OpenAI sembra voler mantenere una posizione più cauta, valutando prima ogni possibile conseguenza – al contrario di Altman. Con le tecnologie disponibili oggi, uno scenario in cui un’intelligenza artificiale provochi problemi reali all’umanità è improbabile, per non dire impossibile, ma secondo chi chiede maggiori controlli le cose potrebbero cambiare visti i rapidi progressi in questo campo, soprattutto nell’eventualità che sistemi più potenti – come sembrerebbe essere il progetto Q* – vengano impiegati senza i dovuti controlli.