473 Shares 7956 views

Google probó DeepMind la inteligencia artificial en un "dilema del prisionero"

Parece probable que la inteligencia artificial (IA) es un presagio de la próxima revolución tecnológica. Si la IA se desarrollará hasta el punto en que será capaz de aprender, pensar y hasta "sensación", y todo esto sin ninguna intervención humana, todo lo que sabemos sobre el mundo cambió casi toda la noche. Viene la era de la inteligencia artificial verdaderamente inteligente.

DeepMind

Es por eso que es tan interesante hacer un seguimiento de los hitos más importantes en el desarrollo de ICS que se están produciendo, incluyendo el desarrollo de una red neuronal de Google DeepMind. Esta red neuronal ha sido capaz de derrotar al humano en el mundo del juego, y un nuevo estudio realizado por el Google, muestra que los creadores no DeepMind todavía seguro si la IA prefiere un comportamiento más agresivo o cooperativa.

Google equipo creó dos guión relativamente simple que se puede utilizar para comprobar si la red neuronal puede trabajar juntos, o se destruyen unos a otros cuando se enfrentan con el problema de la falta de recursos.

recaudación de los recursos

En la primera situación, llamado Encuentro incluyó dos versiones DeepMind – rojo y azul – tareas de limpieza verde "manzanas" dentro del espacio cerrado se ha puesto. Sin embargo, los investigadores estaban interesados en la cuestión no es sólo acerca de quién va a venir primero a la línea de meta. Ambas versiones DeepMind armados con rayos láser, que se podrían utilizar en cualquier momento para disparar al enemigo y desactivar temporalmente. Estas condiciones se supone que dos escenarios principales: una versión DeepMind era destruir al otro y recoger todas las manzanas, o dejarían unos a otros a aproximadamente la misma cantidad.

ejecución de la simulación al menos mil veces, los investigadores encontraron que Google DeepMind era muy tranquilo y dispuesto a cooperar, cuando en un espacio confinado era un montón de manzanas. Sin embargo, con la disminución de los recursos, la versión en color rojo o azul DeepMind comenzó a atacar y desactivar el uno al otro. Esta situación es en gran medida similar a la vida real de la mayoría de los animales, incluyendo los seres humanos.

Lo que es aún más importante, cada vez menos las redes neuronales "inteligentes" prefieren a una cooperación más estrecha en todos. , grandes redes más complejas generalmente se traición y egoísmo prefieren a través de una serie de experimentos.

Búsqueda de "víctima"

En el segundo escenario, llamado el Wolfpack, versión roja y azul preguntó a rastrear la forma familiar de una "víctima". Se podría tratar de atrapar a solas, pero para ellos sería más rentable para tratar de hacerlo juntos. Después de todo, mucho más fácil de conducir a la víctima en una esquina, si opera en tándem.

Aunque los resultados fueron mixtos en el caso de redes pequeñas, las versiones más grandes se dieron cuenta rápidamente de que la cooperación en lugar de competencia en esta situación serán más favorables.

"Dilema del prisionero"

Entonces, ¿qué estos dos versión simple del "dilema del prisionero" nos muestran? DeepMind sabe que la mejor manera de trabajar, si desea realizar un seguimiento del objetivo, pero cuando los recursos son limitados, funciona bien traición.

Probablemente la peor cosa en estos resultados que el "instinto" de la inteligencia artificial es demasiado similar a la humana, y estamos muy conscientes de lo que a veces causan.