Occorre ridurre l’intersezione dell’Intelligenza Artificiale, IA, con le minacce CBRN, (chemical, biological, radiological and nuclear). L’avanzamento dell’intelligenza artificiale genera legittime aspettative mentre pone anche gravi interrogativi circa la minaccia CBRN: un report federale valuta il potenziale della IA se utilizzata in modo corretto o se in grado di attivare minacce.
Gli ostacoli per schierare un’arma di distruzione di massa sono significativi: ma l’aumento dell’accesso pubblico agli strumenti IA se combinati con scarse conoscenze dei regolamenti di sicurezza chimica e biologica stanno abbassando le barriere. Per gestire il rischio e evitare che l’IA diminuisca i livelli di sicurezza creando nuove minacce CBRN, occorre lavorare con solerzia aumentando la collaborazione tra Governi, settore privato e Università, per garantire che gli strumenti di controllo restino forti e evoluti.
Con lo sviluppo da parte di DHS CWMD, Countering Weapons of Mass Destruction Office, di consultazioni ampie con esperti di governo, il report riflette il tipo di azione coordinata a mitigare la minaccia.
Dal 2023 con il Voluntary Committments, Frontier AI Developers è già al lavoro per uno sviluppo sicuro e trasparente della tecnologia IA. Il report fornisce diverse riflessioni per garantire alla popolazione americana continuità in sicurezza. Cbrneworld.com – 24 giugno 2024 – Redazione