di Alessandro Scassellati
All’inizio di quest’anno, a un ricercatore è stato concesso l’accesso dalla società madre di Facebook, Meta, a un software di intelligenza artificiale incredibilmente potente e lui lo ha fatto trapelare al mondo. Sebbene Meta sia stata violata dalla fuga di notizie, ne è uscita vincitrice: ricercatori e programmatori indipendenti stanno ora correndo per migliorare o costruire sulla base di LLaMA (Large Language Model Meta AI – la versione con marchio di Meta di un modello di linguaggio di grandi dimensioni o LLM, il tipo di software alla base di ChatGPT), con molti che condividono apertamente il proprio lavoro con il mondo.
Ciò potrebbe posizionare Meta come proprietario del fulcro della piattaforma di IA dominante, più o meno allo stesso modo in cui Google controlla il sistema operativo Android open source che è costruito e adattato dai produttori di dispositivi a livello globale. Se Meta dovesse garantire questa posizione centrale nell’ecosistema della IA, avrebbe la leva per plasmare la direzione dell’IA a un livello fondamentale, controllando sia le esperienze dei singoli utenti sia ponendo limiti a ciò che le altre aziende potrebbero e non potrebbero fare. Allo stesso modo in cui Google raccoglie miliardi dalla pubblicità Android, dalle vendite di app e dalle transazioni, questo potrebbe preparare Meta per un periodo altamente redditizio nello spazio AI, la cui struttura esatta deve ancora emergere.
Apparentemente la società ha emesso avvisi di rimozione per mettere offline il codice trapelato, poiché doveva essere accessibile solo per uso di ricerca, ma in seguito alla fuga di notizie, il capo scienziato AI della società, Yann LeCun, ha dichiarato: “La piattaforma che vincerà sarà quella aperta“, suggerendo che l’azienda potrebbe semplicemente correre con il modello open source come strategia competitiva.
Sebbene i sistemi Bard di Google e ChatGPT di OpenAI siano gratuiti, non sono open source. Bard e ChatGPT si affidano a team di ingegneri, moderatori di contenuti e analisti delle minacce che lavorano per impedire che le loro piattaforme vengano utilizzate a scopo di causare un danno: nelle loro attuali iterazioni, (si spera) non aiuteranno nessuno a costruire una bomba, pianificare un attacco terroristico o creare falsi contenuti progettati per interrompere un’elezione. Queste persone e i sistemi che costruiscono, mantengono ChatGPT e Bard allineati con valori umani specifici.
Il LLaMA semi-open source di Meta e i suoi modelli discendenti LLM (large language models), tuttavia, possono essere eseguiti da chiunque disponga di hardware sufficiente per supportarli: l’ultima progenie può essere utilizzata su laptop disponibili in commercio. Ciò offre a chiunque, dalle consulenze politiche senza scrupoli all’agenzia di intelligence GRU di Vladimir Putin, dotata di risorse adeguate, la libertà di gestire l’IA senza alcun sistema di sicurezza in atto.
Gli esperti immaginano che il team di Putin sia già alla ricerca di alcuni ottimi strumenti di intelligenza artificiale per interferire nelle elezioni presidenziali statunitensi del 2024 (e probabilmente anche in quelle di altri paesi). Pensano che gli LLM emergenti disponibili gratuitamente come LLaMA e tutto il software che si sta costruendo attorno a loro possano aggiungersi al suo arsenale. Potrebbero essere utilizzati per rendere più convincenti i contenuti falsi (molti dei contenuti russi distribuiti nel 2016 presentavano deficit grammaticali o stilistici) o per produrne molti di più, oppure potrebbe anche essere riproposto come un “classificatore” che scansiona le piattaforme dei social media per contenuti particolarmente incendiari creati da veri cittadini da amplificare con falsi commenti e reazioni. Potrebbero anche scrivere sceneggiature convincenti per deepfake (video alterati) che sintetizzano video di candidati politici che dicono cose che non hanno mai detto.
L’ironia di tutto questo è che le piattaforme di Meta (Facebook, Instagram e WhatsApp) saranno tra i più grandi campi di battaglia su cui dispiegare queste “operazioni di influenza“. Purtroppo, il team per l’integrità civica di Meta è stato chiuso nel 2020 e, dopo molteplici cicli di licenziamenti, probabilmente la capacità dell’azienda di contrastare queste operazioni risulterà molto ostacolata.
Ancora più preoccupante, tuttavia, è che ora siamo entrati nell'”era del caos” dei social media e la proliferazione di piattaforme nuove e in crescita, ciascuna con team di “integrità” o “fiducia e sicurezza” separati e molto più piccoli, potrebbero essere addirittura molto meno posizionate rispetto a Meta per rilevare e fermare le “operazioni di influenza”, specialmente negli ultimi giorni e ore delle campagne elettorali, sensibili al fattore tempo, quando la velocità è più critica.
Le preoccupazioni non si fermano ai rischi per l’erosione della democrazia. Gruppi di ricerca che lavorano sull’IA responsabile, registrando i potenziali danni dell’IA e cercando modi per renderla più sicura ed equa per la società, sostengono che i sistemi di intelligenza artificiale di Meta, come di altri gruppi digitali, possono facilitare la discriminazione abitativa, creare associazioni razziste ed escludere le donne dal vedere annunci di lavoro visibili agli uomini. Sistemi di intelligenza artificiale fuori del controllo aziendale dei grandi gruppi digitali hanno raccomandato pene detentive più lunghe per i neri, non sono riusciti a riconoscere con precisione i volti delle donne dalla pelle scura e hanno causato innumerevoli incidenti aggiuntivi, migliaia dei quali sono catalogati nel database degli incidenti dell’IA.
La parte che più spaventa, tuttavia, è che gli incidenti descritti sopra sono stati, per la maggior parte, le conseguenze indesiderate dell’implementazione di sistemi di intelligenza artificiale su larga scala. Quando l’IA è nelle mani di persone che ne abusano deliberatamente e maliziosamente, i rischi di disallineamento aumentano in modo esponenziale, aggravandosi ulteriormente con l’aumentare delle capacità dell’IA.
Sarebbe giusto chiedersi: gli LLM non diventeranno comunque inevitabilmente open source? Dalla fuga di notizie di LLaMA, numerose altre aziende e laboratori si sono uniti alla gara, alcuni LLM editoriali che rivaleggiano con LLaMA al potere con licenze open source più permissive. Un LLM basato su LLaMA promuove con orgoglio la sua natura “non censurata“, citando la sua mancanza di controlli di sicurezza come una caratteristica, non un difetto. Meta sembra distinguersi oggi, tuttavia, per la sua capacità di continuare a rilasciare modelli sempre più potenti unita alla sua volontà di metterli nelle mani di chiunque li desideri. È importante ricordare che se malintenzionati riescono a mettere le mani sul codice, è improbabile che si preoccupino di ciò che dice il contratto di licenza.
Stiamo vivendo un momento di così rapida accelerazione delle tecnologie di intelligenza artificiale che persino bloccarne il rilascio, in particolare il loro rilascio open source, per alcuni mesi potrebbe dare ai governi il tempo di mettere in atto normative critiche. Questo è ciò che chiedono amministratori delegati come Sam Altman, Sundar Pichai ed Elon Musk. Le aziende tecnologiche devono anche esercitare controlli molto più severi su chi si qualifica come “ricercatore” per l’accesso speciale a questi strumenti potenzialmente pericolosi.
Anche le piattaforme più piccole (e i team svuotati di quelle più grandi) hanno bisogno di tempo affinché i loro team di fiducia e sicurezza/integrità si mettano al passo con le implicazioni degli LLM in modo da poter costruire difese contro gli abusi. Le società di intelligenza artificiale generativa e le piattaforme di comunicazione devono lavorare insieme per implementare un’azione di “filigranatura” per identificare i contenuti generati dall’IA e le firme digitali per verificare che i contenuti prodotti da persone umane siano autentici.
La corsa verso il basso sulla sicurezza dell’IA che stiamo vedendo in questo momento deve finire. Nelle audizioni del mese scorso al Congresso degli Stati Uniti, sia Gary Marcus, un esperto di intelligenza artificiale, sia Sam Altman, CEO di OpenAI, hanno chiesto la creazione di nuovi organismi di governance internazionali specifici per l’IA, simili agli organismi che governano la sicurezza nucleare. L’Unione Europea è molto più avanti degli Stati Uniti su questo, ma purtroppo la sua pionieristica Legge sull’intelligenza artificiale, approvata dal Parlamento Europeo nei giorni scorsi, potrebbe non entrare pienamente in vigore fino al 2025 o oltre. Probabilmente, troppo tardi per fare la differenza in questa corsa.
Fino a quando non saranno in vigore nuove leggi e nuovi organi di governo, purtroppo dovremo fare affidamento sulla tolleranza degli amministratori delegati dei grandi gruppi tecnologici per impedire che gli strumenti più potenti e pericolosi cadano nelle mani sbagliate. Gli amministratori delegati dovrebbero rallentare la corsa prima di distruggere la democrazia, mentre i legislatori dovrebbero fare in fretta a regolamentare questo settore.