Il ceo di SpaceX, Twitter e Tesla Elon Musk, il co-fondatore di Apple e tra i padri dei moderni personal computer Steve Wozniak e altri eminenti esponenti dell’ecosistema tecnologico e industriale mondiale hanno sottoscritto una petizione che chiede lo stop per almeno sei mesi dello sviluppo e del training di nuove soluzioni di intelligenza artificiale. La lettera, redatta dall'istituto Future of Life e pubblicata a questo indirizzo, chiede sostanzialmente alle big tech operanti negli ambiti dell’intelligenza artificiale di congelare per almeno sei mesi lo sviluppo di sistemi più potenti di Gpt-4, al fine di permettere una regolazione a livello sovranazionale del settore che metta al riparo il pubblico dagli eventuali pericoli generati dalle nuove soluzioni tecnologiche. “I sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l'umanità, come dimostrato da ricerche approfondite”, si legge nella petizione: “L’AI avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra, e dovrebbe essere pianificata e gestita con le dovute cautele e risorse”. Alla luce di queste criticità - “Dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli appaganti? Dovremmo sviluppare menti non umane che, un domani potrebbero sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà?” - i sostenitori dell’istanza giungono a una conclusione piuttosto lineare: “Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili”. Di qui, l’appello. “Invitiamo tutti gli sviluppatori di intelligenza artificiale a sospendere immediatamente, per almeno 6 mesi, i processi di training a soluzioni di AI più potenti di GPT-4”, si legge nel testo: “Questa pausa dovrebbe essere pubblica e verificabile, e dovrebbe includere tutti i player più importanti. Nel caso una sospensione come quella proposta non possa essere messa in atto rapidamente, i governi dovrebbero intervenire e istituire una moratoria”. Addetti ai lavori e società dovrebbero sfruttare il time-out proposto, secondo il documento, per “per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di sistemi avanzati, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Ciò non significa una pausa nello sviluppo dell'IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa verso modelli sempre più potenti quanto imprevedibili. La ricerca e lo sviluppo dell'intelligenza artificiale dovrebbero essere riorientati per rendere i sistemi potenti e all'avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, solidi, affidabili e leali”. L’appello sarà accolto o - al contrario - è destinato a restare lettera morta, sacrificato sull'altare della competizione tra multinazionali informatiche? L’elenco dei firmatari, a un prima occhiata, pare lasciare spazio a qualche possibilità. Oltre a Musk, co-fondatore e finanziatore di OpenAI Incorporated, che non più tardi di due settimane fa ha lanciato proprio GPT-4, adesioni rilevanti sono quelle di Emad Mostaque, CEO di Stability AI, Evan Sharp, co-fondatore di Pinterest e Chris Larsen, co-fondatore di Ripple. Senza dimenticare quelle della co-fondatrice del Future of Life Institute Victoria Krakovna, di Zachary Kenton e di Ramana Kumar, trio di ricercatori di spicco coinvolto in DeepMind, in centro di sviluppo di intelligenza artificiale di Alphabet, società madre di Google.