519 Shares 1098 views

Google testato DeepMind intelligenza artificiale in un "dilemma del prigioniero"

Sembra probabile che l'intelligenza artificiale (AI) è un precursore della prossima rivoluzione tecnologica. Se l'AI sarà sviluppato al punto in cui sarà in grado di imparare, pensare e anche "sentire", e tutto questo senza alcun intervento umano, tutto ciò che sappiamo circa il mondo è cambiato da un giorno all'altro. Viene l'era dell'intelligenza artificiale veramente intelligente.

DeepMind

Ecco perché è così interessante per tenere traccia delle pietre miliari nello sviluppo di ICS che si stanno verificando, compreso lo sviluppo di una rete neurale da Google DeepMind. Questa rete neurale è stata in grado di sconfiggere l'umano nel mondo di gioco, e un nuovo studio condotto da Google, mostra che i creatori non DeepMind ancora sicuro se l'AI preferisce un comportamento più aggressivo o cooperativa.

team di Google ha creato due relativamente semplice script che è possibile utilizzare per controllare se la rete neurale in grado di lavorare insieme, o sarà distruggersi a vicenda di fronte al problema della mancanza di risorse.

riscossione delle risorse

Nella prima situazione, chiamato Gathering ha coinvolto due versioni DeepMind – rosso e blu – operazione di pulizia verde "mele" all'interno dello spazio chiuso è stato messo. Ma i ricercatori sono stati interessati alla questione non è solo su chi arriverà primo al traguardo. Entrambe le versioni DeepMind armati di laser, che potevano usare in qualsiasi momento per sparare al nemico e disabilitarlo temporaneamente. Queste condizioni sono assunti due scenari principali: una versione DeepMind era quello di distruggere l'altro e raccogliere tutte le mele, o avrebbero lasciato l'altro ottenere circa la stessa quantità.

Simulazione percorso almeno un migliaio di volte, i ricercatori hanno scoperto che Google DeepMind era molto tranquillo e pronto a collaborare, quando in uno spazio limitato è stato un sacco di mele. Ma con risorse decrescenti, versione rossa o blu DeepMind ha iniziato ad attaccare e disattivare l'un l'altro. Questa situazione è in gran parte simile alla vita reale della maggior parte degli animali, compreso l'uomo.

Ciò che è ancora più importante, sempre meno "intelligenti" le reti neurali hanno preferito una più stretta cooperazione a tutti. Più complesse, reti di grandi dimensioni sono in genere preferito il tradimento e l'egoismo in tutta una serie di esperimenti.

Cerca "vittima"

Nel secondo scenario, chiamato il Wolfpack, versione rossa e blu ha chiesto di rintracciare la forma familiare di una "vittima". Potevano cercano di catturare lei sola, ma per loro sarebbe più redditizio per cercare di farlo insieme. Dopo tutto, molto più facile da guidare la vittima in un angolo, se si opera in tandem.

Anche se i risultati sono stati mescolati nel caso di piccole reti, le versioni più grandi rapidamente resi conto che la cooperazione piuttosto che la competizione in questa situazione sarà più favorevole.

"Dilemma del prigioniero"

Allora, cosa fare queste due semplice versione del "dilemma del prigioniero" mostrarci? DeepMind sa che il modo migliore per lavorare, se si desidera tenere traccia il bersaglio, ma quando le risorse sono limitate, funziona bene tradimento.

Probabilmente la cosa peggiore in questi risultati che la "istinto" di intelligenza artificiale è troppo simile a umano, e siamo ben consapevoli di ciò che a volte causano.