Calcoli scientifici suggeriscono che sarà impossibile controllare un’Intelligenza Artificiale superintelligente

L’idea dell’intelligenza artificiale che sovverti l’umanità è stata discussa per molti decenni e nel gennaio 2021 gli scienziati hanno emesso il loro inquietante verdetto sulla possibilità di controllare una super-intelligenza informatica di alto livello:

Alla domanda se sarò possibile per l’umanità riuscire a garantire un certo controllo anche sulle macchine “superintelligenti”, la risposta si è rivelata negativa. Anche se computer “cattivi” come Hal 900, per ora, restano personaggi cinematografici facenti parte delle nostre paure più nascoste, il problema reale è che controllare una super-intelligenza ben oltre la comprensione umana richiederebbe una simulazione di quella super-intelligenza che possiamo analizzare. Ma se non siamo in grado di comprenderlo, è impossibile creare una simulazione del genere:

- Prosegue dopo la pubblicità -

Regole come “non causare danni agli esseri umani” non possono essere stabilite se non comprendiamo il tipo di scenari che un’intelligenza artificiale si presenterà, suggeriscono gli autori del documento del 2021. Una volta che un sistema informatico funziona a un livello superiore alla portata dei nostri programmatori, non possiamo più porre limiti. “Una super-intelligenza pone un problema fondamentalmente diverso da quelli tipicamente studiati sotto la bandiera dell'”etica dei robot””, hanno scritto i ricercatori. “Questo perché una superintelligenza è multiforme e quindi potenzialmente in grado di mobilitare una varietà di risorse per raggiungere obiettivi potenzialmente incomprensibili per l’uomo, per non parlare di controllabili”. Parte del ragionamento del team deriva dal problema dell’arresto proposto da Alan Turing nel lontano 1936:

- Prosegue dopo la pubblicità - ---- Comunicazione di servizio di GloboChannel.com ---- l'articolo prosegue più sotto ----- ---- Fine comunicazione di servizio di GloboChannel.com ---- l'articolo prosegue qui sotto -----

Il problema è incentrato sul sapere se un programma per computer raggiungerà o meno una conclusione e risponderà (quindi si interrompe), o semplicemente continuerà a cercare all’infinito di trovarne uno. Come Turing ha dimostrato attraverso alcuni calcoli intelligenti , mentre possiamo sapere che per alcuni programmi specifici, è logicamente impossibile trovare un modo che ci permetta di saperlo per ogni potenziale programma che potrebbe mai essere scritto. Questo ci riporta all’intelligenza artificiale, che in uno stato super-intelligente potrebbe contenere in memoria ogni possibile programma per computer contemporaneamente:

Qualsiasi programma scritto per impedire all’intelligenza artificiale di danneggiare gli esseri umani e distruggere il mondo, ad esempio, può raggiungere una conclusione (e fermarsi) o meno: è matematicamente impossibile per noi essere assolutamente sicuri in entrambi i casi, il che significa che non è contenibile. “In effetti, questo rende inutilizzabile l’algoritmo di contenimento“, ha detto lo scienziato informatico Iyad Rahwan, dell’Istituto Max-Planck per lo sviluppo umano in Germania a gennaio. L’alternativa all’insegnare all’IA un po’ di etica e dirle di non distruggere il mondo – cosa che nessun algoritmo può essere assolutamente certo di fare, dicono i ricercatori – è limitare le capacità della super-intelligenza. Potrebbe essere tagliato fuori da parti di Internet o da determinate reti, ad esempio. Il recente studio respinge anche questa idea, suggerendo che limiterebbe la portata dell’intelligenza artificiale:

- Prosegue dopo la pubblicità -

L’argomento è che se non la useremo per risolvere problemi al di fuori della portata degli umani, allora perché crearla? Se andiamo avanti con l’intelligenza artificiale, potremmo anche non sapere quando arriva una super-intelligenza fuori dal nostro controllo, tale è la sua incomprensibilità. Ciò significa che dobbiamo iniziare a porre alcune domande serie sulle direzioni in cui stiamo andando. “Una macchina super-intelligente che controlla il mondo sembra fantascienza”, ha detto l’informatico Manuel Cebrian, del Max-Planck Institute for Human Development.“Ma ci sono già macchine che eseguono determinate attività importanti in modo indipendente senza che i programmatori capiscano appieno come l’hanno appreso”“Si pone quindi la domanda se questo potrebbe ad un certo punto diventare incontrollabile e pericoloso per l’umanità”.

- Prosegue dopo la pubblicità -

La ricerca è stata pubblicata sul Journal of Artificial Intelligence Research .

Se ti è piaciuto questo articolo e non vuoi perderti i nostri aggiornamenti pui seguirci anche su Telegram al seguente indirizzo >https://t.me/globochannel<. E' inoltre possibile seguirci su Facebook cliccando "MI PIACE" e poi "segui" su questa Pagina >www.facebook.com/GloboChanneldotcom<. GloboChannel.com è anche su twitter.com/globochannel1, su instagram.com/globo_channe_ita/ e su linkedin.com/company/globochannel.