top of page
Immagine del redattoreMatteo Trevisan

OpenAI autorizza lo sviluppo di applicazioni militari basate sull'intelligenza artificiale

Fino al 10 gennaio, le regole di utilizzo di ChatGPT vietavano esplicitamente l'impiego dell'IA a fini bellici, ma una modifica apportata in segreto da OpenAI ha modificato il panorama per l'utilizzo di questa tecnologia nel contesto militare. Non solo questo, ma l'organizzazione ha annunciato una collaborazione in corso con il dipartimento della Difesa americano. In sintesi, le modifiche alle politiche registrano un cambiamento che era già avvenuto.


La scoperta di questo cambiamento silenzioso è stata fatta da The Intercept. Fino a pochi giorni fa, la lista degli utilizzi non autorizzati del modello includeva attività militari ad alto rischio di danni fisici. Successivamente, questa dicitura è stata eliminata e nella nuova versione è rimasto solo il divieto di utilizzare ChatGPT per sviluppare o utilizzare armi, ferire persone o distruggere proprietà.

Secondo una dichiarazione iniziale di OpenAI, la riscrittura è stata effettuata per rendere più chiara la lettura delle regole, cercando di creare principi universali facili da ricordare e applicare. Tuttavia, la collaborazione con il dipartimento della Difesa americano ha aggiunto ulteriori dettagli che non erano stati condivisi in precedenza. La politica di OpenAI ora ammette casi di utilizzo per la sicurezza nazionale in linea con la missione dell'organizzazione, come la creazione di strumenti di cybersecurity per proteggere le infrastrutture critiche degli Stati Uniti.

OpenAI ha rivelato che già collaborava con la Darpa, l'agenzia governativa del Dipartimento della Difesa statunitense responsabile dello sviluppo di nuove tecnologie a uso militare. Questa collaborazione è stata attiva da tempo, ma non era chiara sotto le politiche precedenti di OpenAI.

L'aggiornamento alle regole è stato motivato dalla necessità di fornire chiarezza e consentire la discussione su questi casi di utilizzo. Tuttavia, c'è preoccupazione per le potenziali implicazioni, in particolare per il rischio di bias e allucinazioni nei large language models, che potrebbero portare a operazioni imprecise e distorte durante situazioni belliche, aumentando i danni collaterali e le vittime civili. In sintesi, sebbene l'uso di ChatGPT per creare armi vere e proprie sia ancora escluso, le nuove regole aprono la porta all'impiego dell'intelligenza artificiale in altre attività dell'industria bellica.

(c) riproduzione riservata

0 visualizzazioni

Comments


bottom of page