Sam Altman (Open AI) al Senato USA: «Se non interveniamo sugli usi malevoli di queste tecnologie le cose possono mettersi molto male»
18 Maggio 2023Sam Altman, capo di OpenAI e padre di ChatGPT, parlando lo scorso 16 maggio davanti al Senato di Washington, chiedendo di valutare regole sull’uso e l’evoluzione della tecnologia di intelligenza artificiale. Ma sarebbe davvero possibile mettere le redini allo sviluppo della AI e guidarne le evoluzioni?
Partiamo dalle parole di Altman, egli ha proposto di creare un’agenzia federale che assegnerà le licenze per lo sviluppo dei grandi modelli di intelligenza artificiale (come ChatGPT o Bard di Google) col potere di revocarle se quei modelli non rispetteranno i parametri fissati. Individuare standard di sicurezza per questi modelli valutando anche la loro capacità di autoriprodursi o di sfuggire al controllo del gestore agendo in modo autonomo o restando esposti a manipolazioni dall’esterno. Introdurre un sistema di verifiche delle prestazioni dei modelli affidato a esperti indipendenti.
Altman si è detto convinto che l’intelligenza artificiale offrirà all’umanità vantaggi che superano i rischi e gli effetti negativi come la perdita di posti di lavoro automatizzati, ma non ha affatto sottovalutato i pericoli: «Se non interveniamo sugli usi malevoli di queste tecnologie le cose possono mettersi molto male: dobbiamo dirlo ad alta voce e lavorare col governo per evitare che ciò accada».
Sarebbe davvero possibile costruire una infrastruttura di regole così come proposto? La risposta non è semplice. La maggior parte dei modelli AI si basano su codice open source, ergo disponibile per chiunque abbia le competenze per sviluppare applicazioni di questo tipo. Le possibilità sarebbero quindi infinite, se da un lato imprese pubbliche e private potrebbero essere sottoposte a delle regolamentazioni, sarebbe alquanto complesso limitarne le applicazioni in ambito militare o semplicemente privato. Uno sviluppatore indipendente, con le giuste skills, potrebbe realizzare una applicazione che utilizza la AI senza passare attraverso alcun controllo di qualsivoglia agenzia. Inoltre, come visto per molte altre innovazioni, la regolamentazione in una nazione non preclude lo sviluppo in paesi più flessibili dal punto di vista normativo.
Quindi quale potrebbe essere la soluzione? Soccombere alle macchine come paventato da molteplici racconti di fantascienza? Oppure tornare al medioevo e mettere fine allo sviluppo tecnologico?
No, una possibile mitigazione dei rischi si sviluppa su due livelli. Come affermato da John Villasenor, Professore alla University of California, il primo problema è regolatorio, da un lato esistono già delle norme che limitano l’uso dei dati che servono ad addestrare le AI al livello di privacy e dall’altro è storicamente dimostrato come regolare una tecnologia emergente sia inutile e a volte anche dannoso. Villasenor porta ad esempio una legge approvata dal senato degli Stati Uniti nel 1986 per regolamentare la privacy delle email, questa limitava la protezione a 180 giorni visto che all’epoca gli spazi digitali in cui archiviare i messaggi erano decisamente troppo ridotti e costosi per permettere di andare molto oltre, ad oggi questa protezione risulta molto limitata e anacronistica. Il secondo problema è educativo, il professor S. Shyam Sundar della Penn State University, afferma infatti che esista un “machine heuristic” ovvero la sensazione dell’essere umano che qualsiasi risultato prodotto da una macchina sia accurato, obiettivo e infallibile. Educare la comunità sui rischi e sul funzionamento delle AI potrebbe facilmente portare ad una consapevolezza di massa sui problemi ad essa correlati e quindi a mitigare i rischi riportati da Altman.
Per vedere l’intervento di Samuel Altman al Senato clicca qui
Federico Amendola – Junior consultant
Lucio Pascarelli – Senior Advisor