RSS

Face à l’appât du gain, deux intelligences artificielles de Google se révèlent “très agressives”

12 Mar

Google Brain, le programme de recherche en intelligence artificielle du géant Google, vient de franchir un palier étonnant et quelque peu inquiétant. En effet, deux ordinateurs sont parvenus à communiquer entre eux dans une langue qu’ils avaient eux-mêmes créée, une langue indéchiffrable par l’homme.

Comme précisé ci dessous, concernant DeepMind de Google, le 27 janvier 2016, un programme informatique a battu un joueur professionnel de go. Au-delà de l’aspect ludique, on comprend qu’une nouvelle étape dans l’intelligence artificielle est franchie. D’ailleurs, s’agit-il encore vraiment de jeu ?

Un nouveau mouvement artistique obsède les internautes et donne naissance à des milliers d’œuvres à l’esthétique très proche d’un trip sous acides. Son nom: l’inceptionnisme. Son créateur: Google, ou plutôt les ingénieurs du géant du Web qui travaillent sur une intelligence artificielle de reconnaissance d’images.

Google lance « Perspective », un outil informatique basé sur l’intelligence artificielle qui aidera les médias à modérer automatiquement les commentaires en ligne en bloquant les messages haineux, a annoncé le groupe américain jeudi. 

Et dire que dans le même temps L’Intelligence Artificielle serait le sauveur du monde, selon le président de Google … Nous sommes mal barrés !

Le meilleur moyen de savoir si le développement des intelligences artificielles progresse est de les mettre en pratique. Pour cela, la filiale de Google Deepmind a récemment intégré des IA dans des jeux virtuels afin de savoir quel serait leur comportement face à une situation donnée. Entre collaboration et affrontement, cette étude passionnante nous montre de manière primitive que les intelligences artificielles ne reculent devant rien pour arriver à leurs fins.

Après avoir démontré leurs capacités en s’illustrant au jeu de Go, battant récemment les meilleurs joueurs du monde, les IA de Google se sont retrouvées entre elles dans des jeux vidéo, dans le cadre d’une étude baptisée « Multi-agent renforcement learning in séquentiel social dilemnas ». D’après les équipes de Deepmind, l’objectif de cette étude est de savoir si, face à l’appât du gain, les intelligences artificielles privilégieraient la collaboration ou l’affrontement. Si les jeux vidéo ressemblent à des versions grossières de Pacman, les résultats nous permettent de tirer quelques conclusions.

Dans le premier jeu baptisé « Gathering », les joueurs doivent récolter le plus de pommes possibles depuis un point central. Chaque joueur dispose d’un pistolet laser afin de pouvoir éliminer temporairement son adversaire le temps de pouvoir récupérer un maximum de pommes. Les IA Deepmind sont en rouge et bleu, les faisceaux laser en jaune et les pommes en vert. Au début de la partie, quand il y a suffisamment de pommes pour les deux joueurs, elles se livrent une bataille pacifique. Toutefois, les IA n’hésitent pas à se servir de leur pistolet laser pour neutraliser leur adversaire quand les pommes se font rares.

En utilisant des formes de Deepmind de plus en plus complexes, les chercheurs ont suggéré que plus l’agent est intelligent et plus, il est capable d’apprendre de son environnement, ce qui lui permet d’utiliser des tactiques très agressives pour prendre le dessus. « Ce modèle… montre que certains aspects du comportement humain semblent émerger comme un produit de l’environnement et de l’apprentissage. Des politiques moins agressives émergent de l’apprentissage dans des environnements relativement abondants, avec moins de possibilités d’actions coûteuses. La motivation de la cupidité reflète la tentation de surpasser un rival et de recueillir toutes les pommes soi-même », explique Joel Z Leibo, un membre de l’équipe de recherche.

Dans le deuxième jeu baptisé « Wolfpack », trois IA sont présentes : deux loups doivent chasser une proie et la capturer dans un environnement plein d’obstacles, à la manière d’une meute. Contrairement au jeu précédent, Wolfpack encourage la coopération. si les deux loups sont près de la proie lorsque celle-ci est capturée, alors les deux reçoivent une récompense, indépendamment de celui qui l’a capturée.

« L’idée est que la proie est dangereuse – un loup solitaire peut la surmonter, mais il risque de perdre la carcasse à cause des charognards. Cependant, lorsque les deux loups capturent la proie ensemble, ils peuvent mieux protéger la carcasse contre les charognards, et donc recevoir une récompense plus élevée », explique l’équipe dans leur rapport.

En fonction de leur environnement, les IA ont soit privilégié l’agressivité et l’égoïsme, soit la collaboration pour un plus grand succès personnel. Si Google n’a pas encore publié son étude, les premiers résultats révèlent qu’élaborer des intelligences artificielles ne signifie pas qu’elles estimeraient nos propres intérêts comme priorité absolue.

Le Pentagone aussi a mis l’intelligence artificielle au cœur de sa stratégie de défense à long terme. Les problèmes avec L’IA sont non seulement techniques mais éthiques.

L’intelligence artificielle doit être élaborée conformément aux exigences de l’éthique et des mesures de sécurité parce qu’il sera difficile d’arrêter les machines hors du contrôle humain, comme l’a prédit le célèbre astrophysicien Stephen Hawking, pour qui  L’intelligence artificielle incontrôlée est une menace pour l’humanité

Dans ce contexte je pense qu’il est bon de rappeler que le célébrissime écrivain de science-fiction Isaac Asimov avait déjà formulé les fameuses « lois de la robotique », un ensemble de règle destiné à protéger humains et robots (Robot, IA – tout est lié, lire entre autres Bill Gates veut taxer les robots) : 

  1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Publicités
 

Étiquettes : , , , , , ,

3 réponses à “Face à l’appât du gain, deux intelligences artificielles de Google se révèlent “très agressives”

  1. Paul

    12 mars 2017 at 4:48

    « Le neurone produit l’âme » LOL… on nage en pleine immanence franc mac

     
    • G

      12 mars 2017 at 10:02

      voici le digital évangéliste – bienvenue dans le néant

       
  2. G

    12 mars 2017 at 9:56

    combien d’années de psychiatrie a t’il fait pour avoir ce type d’intelligence ?

     

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

 
%d blogueurs aiment cette page :