Milano, 6 feb. (askanews) - Ci devono essere "garanzie assolute" sull'uso dell'intelligenza artificiale in guerra altrimenti "sarà un disastro". La riflessione dell'esperto Stuart Russell - co-direttore dell'associazione internazionale per una AI sicura e etica -arriva durante l'Ai Action Summit, vertice di capi di Stato, organizzazioni e aziende a Parigi, e all'indomani del cambiamento di policy di Google che non esclude più di far usare l'AI per armamenti. Un segno dei tempi e di quello che ci aspetta in futuro, spiega Russell."Avremmo armi in cui l'AI decide chi attaccare, quando attaccare e così via. E presumibilmente opererebbe con istruzioni piuttosto generiche, come attaccare e distruggere tutto ciò che si muove in questa regione, per esempio. Ma potrebbe anche essere usato in modi molto più pericolosi. Ad esempio, 'uccidere chiunque corrisponda alla seguente descrizione. La descrizione potrebbe essere per età, per sesso, per gruppo etnico, per affiliazione religiosa, o anche per un particolare individuo".Ci sono 75 paesi al mondo che stanno sviluppando armi a controllo remoto e pensando a come renderle del tutto autonome. Altri 100 invece le vogliono vietare. Serve una decisione a livello mondiale, con l'intervento dell'Onu, ha precisato Russell."Sembra ragionevole, soprattutto quando si parla di estinzione umana che potrebbe arrivare da sistemi di intelligenza artificiale molto più intelligenti di noi e molto più capaci di influenzare il mondo, chiedere garanzie assolute. Non solo: 'Faremo uno sforzo', o "Fidatevi di noi, sappiamo cosa stiamo facendo', giusto? Ci devono essere garanzie assolute sotto forma di prove statistiche o matematiche che possano essere ispezionate, che possano essere verificate attentamente. E qualsiasi cosa al di sotto di questo farà solo rischiare di disastro".
Categoria
🗞
NovitàTrascrizione
00:00Ci devono essere garanzie assolute sull'uso dell'intelligenza artificiale in guerra,
00:04altrimenti sarà un disastro. La riflessione dell'esperto Stuart Russell, co-direttore
00:09dell'Associazione Internazionale per un'intelligenza artificiale sicura e etica,
00:13arriva durante l'AI Action Summit, vertice di capi di Stato, organizzazioni e aziende,
00:18a Parigi e all'indomani del cambiamento di policy di Google che non escude più di far
00:23usare l'intelligenza artificiale per gli armamenti. Un segno dei tempi e di quello
00:28che ci aspetta in futuro, spiega Russell. Avremmo armi in cui l'intelligenza artificiale
00:34decide chi attaccare, quando e così via. Presumibilmente opererebbe con istruzioni
00:39piuttosto generiche, come attaccare e distruggere tutto ciò che si muove in questa regione ad
00:44esempio, ma potrebbe anche essere usata in modi molto più pericolosi. Ad esempio uccidere
00:49chiunque corrisponda alla seguente descrizione, e la descrizione potrebbe essere per età,
00:53per sesso, per gruppo etnico, per affiliazione religiosa o anche proprio per un particolare
00:58individuo. Al mondo ci sono 75 paesi che stanno sviluppando armi a controllo remoto e pensando
01:04a come renderle del tutto autonome, altri 100 invece le vogliono vietare. Serve una
01:10decisione a livello globale con l'intervento dell'ONU, ha precisato Russell. Sembra ragionevole
01:19chiedere garanzie assolute, soprattutto quando si parla di estinzione umana,
01:23che potrebbe arrivare da sistemi di intelligenza artificiale molto più intelligenti di noi,
01:27molto più capaci di influenzare il mondo. E non solo faremo uno sforzo, fidatevi di noi,
01:32sappiamo cosa stiamo facendo, giusto? Ci devono essere garanzie assolute, sotto forma di prove,
01:37statistiche o matematiche, che possano essere ispezionate, verificate attentamente,
01:42qualsiasi cosa al di sotto di questo livello farà solo rischiare un disastro.