الأحد، 5 يونيو 2016

"Person of Interest", le fantasme d’une intelligence artificielle autonome

"Person of Interest", le fantasme d’une intelligence artificielle autonome






Un logiciel capable d’identifier des personnes impliquées dans un crime à venir est au centre de cette série américaine. Si le monde sous surveillance qui y est décrit reflète notre réalité, la manière de présenter l’intelligence artificielle est plus ambiguë.


Le casting de "Person of Interest" en avril 2015 au Paley Center for Media à New York. SIPANY/SIPA
Le casting de "Person of Interest" en avril 2015 au Paley Center for Media à New York. SIPANY/SIPA


DEEP LEARNING. C’est par un accrochage en marge d’une conférence de l’AICSSE à Hong Kong, en 2014, que l’ingénieur en informatique Harold Finch rencontre le professeur Elizabeth Bridges, spécialiste de l’analyse prédictive. “J’allais vous révéler votre méprise sur l’apprentissage en profondeur [deep learning en VO, ndlr]”, attaque le premier. “Vous vous méfiez vraiment des réseaux neuronaux artificiels ?”rétorque plus tard la seconde. Une amorce de débat sans aucune portée puisque Finch Bridges et l'AICSSE n’existent que dans la série téléviséePerson of Interest de la chaîne CBS, diffusée en France par TF1. Il reste que le deep learning et les réseaux neuronaux artificiels sont de vrais domaines de recherche, très en vogue depuis quelques années grâce aux travaux de Yann LeCun, directeur de l’intelligence artificielle (IA) de Facebook.
L’argument de Person of Interest ? Une intelligence artificielle conçue par Harold Finch, la Machine, est capable d’analyser une quantité pantagruélique de données pour anticiper un crime (à l’origine, les autorités l’utilisaient uniquement pour lutter contre le terrorisme suite au 11 septembre 2001, ignorant les autres crimes). Plus exactement, lIA extrait un numéro de sécurité sociale sans dire si l’individu qui y est rattaché sera le criminel ou la victime, ni de quel méfait il s’agira.

La série "Person of Interest" est animée par cette idée d’une intelligence artificielle prenant son autonomie

SHOTSPOTTER. Pour éclaircir les choses et intervenir, un groupe d’enquêteurs clandestin accède aux flux de vidéosurveillance, aux détecteurs de coups de feu, aux échanges par Internet ou par téléphone et à toutes les bases de données imaginables (d’authentiques services sont cités : Domain Awareness, ShotSpotter). La série décrit ainsi un monde de surveillance généralisée dominé par la technologie (dans l’épisode 15, il est question d’un moteur de recherche hégémonique manipulant la publicité en ligne...), qui pourrait paraître délirant s’il n’y avait pas eu l’affaire Edward Snowden-NSA.
Chercheur en analyse de données à l’Inria, Florent Masseglia s’est intéressé à cette série sur le site de la revue Interstices. Il y liste les domaines de recherche mis en œuvre par la Machine : traitement d’image, reconnaissance faciale et vocale, traitement du langage naturel, sécurité informatique, gestion de réseau informatique, traitement de Big Data. Il commente pour Sciences et Avenir :
“Suivre une personne d’un point à un autre, s’infiltrer sur un téléphone mobile, collecter des données et métadonnées, tout cela existe. Après, relever un numéro de plaque d’immatriculation dans un parking souterrain sombre via une webcam et zoomer sur une mention «Made in China», jamais de la vie !”
Plus profondément, la série est animée par cette idée d’une intelligence artificielle prenant son autonomie. C’est notamment le cas d’un programme rival de la Machine, Samaritain, qui semble agir tout seul, recrutant des hackers, truquant des élections, éliminant des témoins, provoquant des krachs boursiers, piratant une pompe à insuline pour tuer un diabétique (piratage cela dit techniquement possible)...
EGO. Plusieurs flashbacks sur la conception de la Machine relèvent du même fantasme : le logiciel s’attache littéralement à Harold Finch au point de vouloir nuire à son deuxième administrateur ! Il pirate le wi-fi de ce dernier, rend ses codes d’accès invalides, ment, s’ajoute du code, et on apprend que de ses 43 versions, une seule n’a pas tenter de tuer Finch. On pense alors à ce qu’évoquait Yann LeCun lors de la Conférence international sur la machine learning de l’Inria en juillet 2015 à Lille : “On a du mal à imaginer une IA qui n’ait pas les défauts et les qualités d’un être humain ; or, il n’y a aucune raison de penser que les machines auront un instinct de survie ou un ego.”

“C’est le monde libre. Du moins, ça l’était”

A contrario, d’autres passages collent à plus de réalisme informatique. Ainsi, dans l’épisode 5 de la saison 4, qui vient de sortir en DVD, Harold Finch entraîne la Machine à faire des choix moraux en lui soumettant des dilemmes. Effectivement, une IA ne fonctionne qu’en fonction de critères définis au préalable et de situations auxquelles elle a déjà été confrontée. D’où, en matière de prédiction de crime, la difficulté d’anticiper des actes terroristes. “Il faudrait montrer à un algorithme dix, cent mille comportements terroristes pour qu’il puisse en reconnaître et encore, cela n’empêcherait pas les faux positifs”, explique Florent Masseglia.
RAPPEL. Dans l’épisode 4, la Machine repère une « activité de gang » après qu’une caméra a filmé deux 4x4 noirs s’arrêtant devant un entrepôt et trois Afro-Américains en sortir. “C’est la même chose : il faudrait entraîner l’algorithme à reconnaître unegang activity (par exemple deux 4x4, ou alors trois voitures haut de gamme qui se garent de manière synchronisée, etc.) et le réseau de neurones trouverait les critères permettant de distinguer ce type d'activités parmi d'autres. Mais seulement cette activité-là. On parle de «rappel» pour mesurer la capacité de l'algorithme à trouver les éléments que l’on cherche (si dans ses résultats, il n'oublie personne, il a une bonne mesure de «rappel»). Et on parle de «précision» pour mesurer sa capacité à ne pas donner de faux positifs. Sinon, c'est facile d'avoir un bon rappel : il suffit de déclencher une alarme tout le temps et on est certain de ne rien rater. »

On l’aura compris : la Machine comme Samaritain ont un taux de rappel optimal doublé d’une précision impeccable. Dans la vraie vie, on n’en est encore très loin. Mais cela n'empêche pas une remarque d’un des héros de garder une certaine pertinence : « C’est le monde libre. Du moins, ça l’était. »

ليست هناك تعليقات:

إرسال تعليق