RSS

Le Canada teste une intelligence artificielle pour … détecter les mensonges

02 Jan
Le robot Avatar s'appuie sur les expressions du visage, le regard et les modulations dans la voix pour détecter les mensonges.
Le robot Avatar s’appuie sur les expressions du visage, le regard et les modulations dans la voix pour détecter les mensonges. (Crédits : Aaron Elkins)
Un chercheur américain a mis au point une machine basée sur l’intelligence artificielle pour détecter les mensonges à partir des comportements physiologiques. Si la technologie est encore en phase de test dans les aéroports canadiens, elle pourrait s’étendre à d’autres domaines si cet essai s’avère concluant.

Les robots s’attaquent aux mensonges. L’agence des services frontaliers canadiens teste actuellement une machine d’intelligence artificielle nommée Avatar (pour Automated Virtual Agent for Truth Assessments in Real Time) pour aider les douaniers à contrôler les voyageurs en cas de doute sur leur motivation à venir sur le territoire.

« Avatar est un guichet, comme on en trouve dans les zones d’enregistrement dans un aéroport ou une caisse automatique dans un supermarché » précise le professeur de management des systèmes d’information à l’université de San Diego Aaron Elkins. « Cependant, ce guichet possède un écran facial qui pose des questions aux voyageurs et peut détecter des changements physiologiques ou comportementaux pendant l’interrogatoire. Le système peut détecter des changements dans les yeux, la voix, les gestes et la posture pour déterminer des risques potentiels. »

Des questions qui peuvent destabiliser

Le communiqué de l’université qui présente le projet précise que les passagers doivent progresser jusqu’au guichet où des questions telles que « Avez-vous des fruits et des légumes dans vos bagages » ou « Transportez-vous des armes avec vous ? » sont posées. Un logiciel de détection du regard et de mouvements doit contrôler les voyageurs dans leurs réponses et permet de détecter grâce à des capteurs des signes de gêne. Le guichet doit également poser des questions anodines pour savoir si les passagers ne sont pas juste stressés à l’idée de prendre l’avion. Une fois que le robot a détecté des signes, des agents des douanes peuvent procéder à des questions plus approfondies.

aaron

Le professeur Aaron Elkins à l’origine du projet Avatar. Crédits : Christian Hicks

De nombreuses applications concrètes

Elkins a commencé à travailler sur le projet Avatar lorsqu’il il effectuait sa thèse à l’université d’Arizona. Il a poursuivi ces travaux sur l’intelligence artificielle lorsqu’il est devenu professeur assistant à l’université de San Diego récemment. Entre les deux, cette technologie a déjà été testée par l’aéroport de Bucarest en 2014 et à la frontière entre le Mexique et les Etats-Unis. « Nous avons réalisé que cette technologie pouvait être utilisée pour la sécurité aux frontières mais aussi pour le maintien de l’ordre public, les entretiens d’embauche […] Nous continuons à faire des améliorations en analysant les données collectées par des techniques de big data qui pourrait faire d’Avatar un outil intéressant pour de nombreuses industries, » explique l’universitaire. « Le système est entièrement prêt pour aider à endiguer les flux de contrebande, poursuivre les criminels en fuite et détecter les potentiels terroristes. »

Une efficacité remise en cause

L’usage de cette technologie suscite des débats relatifs à son efficacité. Aux Etats-Unis, le polygraphe qui mesure la pression sanguine, le rythme cardiaque et respiratoire pendant que la personne doit répondre à des questions est remis en cause. Ces indicateurs devraient refléter « l’expression corporelle du mensonge » comme le souligne la spécialiste des neurosciences Elena Sender dans le magazine Sciences et Avenir. « Néanmoins le lien entre mensonge et émotions d’une part et entre émotions et variables physiologiques d’autre part n’est pas linéaire et de ce fait difficilement prédictible. Sa fiabilité est remise en question », indique Olivier Oullier, professeur de psychologie et neurosciences à l’université d’Aix-Marseille. Si l’intelligence artificielle est déjà utilisée dans les tribunaux américains pour rendre des verdicts, l’usage d’outil tel que Avatar n’est pas encore assez fiable pour être autorisé dans toutes étapes de la procédure judiciaire.

Source

Publicités
 
 

Étiquettes : , , , , ,

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

 
%d blogueurs aiment cette page :