Accademia Futuro Blog

Il Blog di Accademia Futuro

Google DeepMind: l'intelligenza artificiale aggressiva come un umano?

Google DeepMind: l'intelligenza artificiale aggressiva come un umano?

“Secondo i test effettuati l'intelligenza artificiale può diventare aggressiva, se sottoposta a stress, come accade agli esseri umani in condizioni analoghe.”

Google analizza DeepMind.

Questa frase sconcertante sull’intelligenza artificiale è il risultato dei test effettuati dagli esperti informatici di Google analizzando DeepMind. Questo è il nome dell’intelligenza artificiale figlia della startup acquisita da Google nel 2014, e basata sugli algoritmi di Ia di AlphaGo. In pratica i test avvalorano le tesi espresse anche da illustri scienziati quali, ad esempio, Stephen Hawking. Gli scienziati hanno il timore che un giorno la intelligenze artificiali possano divenire senzienti. Pericolose, in grado di arrivare a far del male agli esseri umani e, nel più classico degli scenari immaginati in diversi romanzi e pellicole di fantascienza, riuscire perfino a ribellarsi ai loro creatori umani.

Il test svolto nel dettaglio

Il test consisteva nel mettere di fronte due esemplari di intelligenza artificiale e valutarle in un gioco. Il gioco scelto era quello di raccogliere delle mele, dall’aspetto di pixel verdi, in un campo di gara. E' stata data alle due intelligenze artificiali la possibilità di combattere tra loro, se lo avessero ritenuto necessario, tramite un "laser" capace di accecare l'avversario a distanza per un breve periodo di tempo. Al termine di circa 40 milioni di simulazioni diverse, con cambio di terreni e di densità di cibo, gli esperti hanno notato che le due intelligenze artificiali convivevano in modo pacifico. Si, pacifico, ma solo quando c'era un alto numero di mele presenti nell'area di gioco, ma quando i frutti cominciavano a diminuire scattava in loro una forma di aggressività. Tale aggressività vedeva una intelligenza artificiale contro l’altra a utilizzare il laser per attaccare.

Aggressive e opportunistiche.

Il test ha avuto varie fasi e ha reso possibile lo studio approfondito delle intelligenze artificiali dimostrando che oltre all'aggressività manifestavano anche opportunismo. Esattamente come negli esseri umani. Sottoposte ad un nuovo gioco sono state programmate in forma di predatore per cacciare una preda virtuale. L'obiettivo era verificare se, in caso di successo, l’intelligenza artificiale prevedesse la divisione del bottino. Il risultato, tra il sorprendente e l'inquietante, è stato che dopo numerose simulazioni entrambe riuscivano a collaborare tra loro. Durante la caccia si muovevano in modo del tutto simile ai predatori reali quando si muovono in branco sincronizzati per le loro sortite in cerca di cibo. Ma il loro fine era più che altro opportunistico e legato al proprio benessere. 

L’utilità di questi test?

"Questi test e queste simulazioni ci sono molto utili", afferma Joel Z Leibo, un ricercatore del gruppo che si è occupato di verificare i risultati. "Nei modi e nelle reazioni delle intelligenze artificiali possiamo riscontrare comportamenti del tutto simili a quelli dell'uomo calati in situazioni assimilabili ad un contesto reale. Come per gli umani sembra che l’intelligenza artificiale venga influenzata dall'ambiente in cui agisce e che impari dal contesto in cui si muove comportandosi di conseguenza. È verosimile ritenere che queste intelligenze apprendono ed evolvono. Come per gli uomini emergono aspetti caratteriali, diciamo così, decisamente aggressivi nel momento in cui c'è la possibilità, o l'occasione, di prevalere sull'avversario con l'opportunità di superarlo tanto da ottenere una posizione privilegiata di primato e beneficiare della ricompensa ottenuta." 

"E' dimostrato che le Intelligenze artificiali risultano essere in competizione o collaborano tra loro in base alle regole imposte dal gioco. Se nel primo gioco sono premiati comportamenti aggressivi quando calano le mele nel campo di gara, le intelligenze artificiali mostrano a loro volta comportamenti aggressivi finendo per entrare in conflitto tra loro e duellando per prevalere l'una sull'altra. Se, invece, nel secondo gioco lo scopo finale prevede una sorta di collaborazione per raggiungere un fine comune, le intelligenze artificiali, mostrano intesa stipulando una sorta di alleanza. Il problema non si pone quando vengono impostate le regole in modo corretto, ma se le intelligenze artificiali evolvono finendo per raggiungere un livello di complessità non prevedibile, cosa potrebbe succedere? Ci troveremmo di fronte alla concreta possibilità di non riuscire a controllare queste intelligenze anche se realizzate a fin di bene." Gli esperti hanno tenuto a sottolineare che i test effettuati potrebbero avere un riscontro per cercare di comprendere sistemi complessi multi-agente quali, ad esempio, quelli relativi all'economia, al traffico o a tematiche ecologiche in modo da tentare di rendere la Terra un pianeta migliore. E per ottenere risultati apprezzabili è importante sapere che tutti questi sistemi necessitano di continua collaborazione e cooperazione. 

 

Vuoi lavorare anche tu nel mondo dell'intelligenza artificiale? Un Corso online di C++ è il modo migliore per iniziare a programmare la tua AI.

In palio 54.000 euro in formazione per le start up...
Difesa, Politica, Aziende: Italia vittima degli Ha...

Forse potrebbero interessarti anche questi articoli

 

Commenti

Nessun commento ancora fatto. Sii il primo a inserire un commento
Già registrato? Login qui
Ospite
Domenica, 21 Luglio 2019
  • Assocral
  • Contabildata
  • ExtraJob
  • NursingUp
  • Autodesk
  • Groupon
  • Iprogrammatori
    logo partner extrajob

    Cookie

    Il sito utilizza solo cookie tecnici ma consente l'installazione di cookie di profilazione di terze parti utilizzati per proporti messaggi pubblicitari in linea con le tue preferenze. Cliccando sul tasto "OK" accetti l’installazione di detti cookie. Per maggiori informazioni e disattivazione è possibile consultare l'informativa cookie completa