Université de Franche-Comté

GRAND FORMAT
Intelligence artificielle et universelle

Imaginée par le cerveau humain, produite par les ordinateurs, l’intelligence artificielle connaît depuis quelques années une explosion liée à celle du big data,  et s’étend à une foule de domaines…

Une machine peut-elle penser ? Dès le début des années 1950, la question se pose à Alan Turing. Le père de l’informatique met même au point un test, qui portera son nom, pour évaluer la capacité d’une machine à imiter l’être humain dans une conversation. Un défi que jusqu’à présent la machine n’a pu remporter, mais qui pose les bases de la réflexion sur l’intelligence artificielle. En 1956, l’intelligence artificielle (IA) devient un domaine de recherche à part entière. Elle est aujourd’hui présente dans de nombreuses applications du quotidien, des assistants vocaux aux robots, du diagnostic médical au pilotage de véhicules autonomes. Constituée d’algorithmes, l’IA se nourrit d’une somme incroyable de données et par ricochet repose sur des calculs très gourmands en énergie. Si les machines sont aujourd’hui capables d’évoluer en fonction des nouvelles connaissances qu’elles ingurgitent, on ne saurait véritablement leur prêter de pensée. Les spécialistes s’accordent pour la plupart à parler d’intelligence « simulée » ou « reconstituée ». Sans perdre de vue qu’à terme, ils imaginent possible que l’intelligence artificielle puisse supplanter l’intelligence humaine

En informatique, robotique, linguistique…, les chercheurs et ingénieurs sont nombreux à se pencher sur le sujet aussi passionnant qu’inquiétant de l’IA. Si la suprématie des GAFAM du côté des entreprises, des États-Unis et de la Chine du côté des États, est indéniable, de nombreux travaux menés dans nos laboratoires sont à la pointe du domaine. Au DISC, le département informatique de l’Institut FEMTO-ST, les chercheurs ont mis au point une méthode de détection de messages cachés dans une image numérique. Basée sur l’IA, cette méthode était en 2017 réputée la plus efficace au monde. Si la stéganographie est l’art de dissimuler un message dans un document numérique, la stéganalyse s’emploie à le détecter, et c’est dans le domaine de l’image que s’exerce le talent des chercheurs du DISC. Leur méthode est une combinaison de l’approche mathématique classiquement utilisée et d’un algorithme de deep learning1 capable d’identifier des pixels qui n’entrent pas dans la composition de l’image et constituent le message crypté.

Une autre application du deep learning développée au DISC concerne la segmentation d’images. Dans le projet I-SITE ADVANCES conclu avec le CHU de Bourgogne, la visualisation de l’image d’un cœur après un infarctus, pixel par pixel, aide à en déterminer les zones noires, définitivement atteintes de nécrose. Le recours au deep learning est utile pour établir ou confirmer un diagnostic médical, tout en écartant les doutes parfois liés à certaines interprétations. « Démarré en septembre 2018 pour une durée de 3 ans, ce projet a pour l’instant permis de collecter 500 images servant de base à l’apprentissage profond, raconte Raphaël Couturier.

Question chiffres, le chercheur effectue un rappel illustrant les prouesses réalisées par l’intelligence artificielle. En 1997, le supercalculateur Deep Blue réussit à battre le champion Kasparov aux échecs, une victoire à la portée médiatique retentissante. En 2016, AlphaGo réitère l’exploit au jeu de go : il terrasse le champion du monde Lee Se-Dol grâce à un apprentissage par deep learning, alors que le nombre de parties possibles du jeu de go s’élève à… 2 x 10170 !

Le deep learning constitue la base de nombreux travaux en IA, comme la prédiction de séries temporelles. « Les séries temporelles interviennent dans de nombreuses applications dès lors que les données dépendent du temps », explique Raphaël Couturier. Avec les algorithmes de deep learning, il est possible de détecter des anomalies ou des fraudes, et de prédire la suite d’une série temporelle. L’équipe de Raphaël Couturier développe des algorithmes dans différents domaines, par exemple pour la prédiction du nombre d’interventions pour une entreprise qui doit dépanner des clients ou la détection de situations anormales dans un contexte d’application de transport.

L’IA pour adopter des comportements durables

Une application simple et pratique pour télécharger un billet de train peut inciter à laisser sa voiture au garage et à privilégier le rail à la route. Des capteurs pour détecter des objets restés sous tension électrique, ou pour localiser des personnes dans un appartement, peuvent aider à réduire sa consommation de chauffage. Ces technologies susceptibles de faire évoluer nos comportements vers des attitudes durables sont appelées Green Information Systems ou Green IS. Pour bien en cerner les enjeux et les impacts, il est important d’imaginer la durabilité que peut atteindre chacun de ces comportements potentiels, par axe de consommation : la mobilité, l’utilisation d’électricité, l’achat de vêtements… Le projet Green Predict a pour but de dégager des modèles prédictifs pour déterminer quelles variables influencent les comportements à long terme. Grâce à des outils de machine et de deep learning, des modèles seront élaborés à partir du million de données récoltées auprès de 5 000 personnes dans le cadre du projet SCCER-CREST, portant sur l’utilisation de l’énergie en Suisse. « Sur l’axe mobilité, plus particulièrement pour le transport domicile-travail, les analyses préliminaires mettent en avant différentes variables prédominantes : le lieu d’habitation et la distance à parcourir bien sûr, mais aussi l’attitude générale par rapport à l’économie d’énergie  ̶  est-ce qu’on a pour habitude de déconnecter ses appareils électriques, de prendre des vacances dans des pays lointains, d’économiser l’eau à la salle de bains ?  ̶ , également décisive pour la prédiction de la durabilité des comportements », expliquent Adrian Holzer, directeur de l’Institut du management de l’information à l’université de Neuchâtel, et Arielle Moro, post-doctorante en charge du projet. Soutenu par la Fondation Hasler, Green Predict a démarré en janvier 2019 pour un an.

Démêler le vrai du faux

La détection d’anomalies dans des séries temporelles s’applique notamment aux domaines où la sécurité est une priorité. C’est l’objectif du projet ANR GeLead, également mené au DISC par Raphaël Couturier, Fabrice Bouquet, Bruno Legeard et leur équipe. GeLead est en lien direct avec le projet I-SITE SARCoS : le premier vise l’entraînement d’un algorithme d’intelligence artificielle à reconnaître une anormalité, sur la base d’informations falsifiées générées et produites en grand nombre par les systèmes informatiques développés dans le second. Les recherches mêlant ces deux dimensions d’intelligence artificielle sont pionnières sur la scène internationale et impliquent toutes des partenaires industriels. La plus aboutie à ce jour concerne la sécurité du trafic aérien, dans une collaboration avec Thalès et la DGA. « Aujourd’hui la tendance est à remplacer les radars par les satellites pour le positionnement des avions et la détection d’un problème éventuel, explique Bruno Legeard. L’IA permet d’associer une fonction de contrôle à la localisation et à l’envoi d’informations par satellite ».

Aymeric Cretin et Antoine Chevrot sont en doctorat, Alexandre Vernotte en post-doctorat au sein de l’équipe. Tous trois s’ingénient à générer de fausses données, à inventer des situations de toute pièce et à tester des scénarios imaginaires pour trouver les moyens de détecter une véritable anomalie de trafic ou une fausse alerte. « Les données émises par un avion et récupérées par un satellite peuvent être modifiées en écrivant un message faux sur l’enregistrement initial et réel. En créant une altération sur une plage de temps donnée, on peut ainsi faire croire qu’un avion a des problèmes et qu’il a déclenché un signal de détresse. » Les jeunes chercheurs savent aussi créer de nombreux clones autour d’un avion sur un écran de contrôle, à tel point qu’il n’est plus possible de savoir où est l’original. Pour démêler le vrai du faux, les algorithmes ont besoin de données, de statistiques et de modèles prédictifs. La position de l’avion, son altitude ou encore sa vitesse sont autant de paramètres pour lesquels les chercheurs savent établir un modèle pour 800 avions simultanément. « Pour les améliorer encore et éviter les biais toujours possibles, nous devons alimenter les algorithmes de données de spectre plus large et de bonne qualité. »

La construction d’un modèle d’intelligence artificielle nécessite aussi de l’expertise, la conduite automatique de véhicules autonomes en est une autre illustration. Il s’agit ici de percevoir un environnement de manière suffisamment fine pour qu’un processus de prise de décision puisse s’enclencher de façon adaptée. L’IA se combine à la capture d’information multicapteur, avec des caméras par exemple, pour évaluer une situation avant que des systèmes informatiques prennent une décision de contrôle : s’arrêter en cas de danger, se déporter sur une autre voie, freiner pour éviter un obstacle.

« En complément de contributions importantes dans les domaines du génie logiciel liés aux systèmes multiagents, de la modélisation et la gestion des connaissances dans des systèmes d’IA distribuée, les membres du laboratoire Connaissance et intelligence artificielle distribuées (CIAD) travaillent sur les thématiques de modélisation et de simulation de systèmes cyberphysiques.

Simulation de détection de véhicules © CIAD

Dans ce cadre, la simulation représente une part importante de nos travaux, confient Stéphane Galland, directeur adjoint du CIAD, et Franck Gechter, responsable de la formation d’ingénieur sous statut étudiant en informatique à l’UTBM, où tous deux sont enseignants. Dans ses applications les plus récentes, la simulation combine le réel et le virtuel au sein d’un système cyberphysique ; c’est par exemple faire croire à une électronique embarquée qu’un véhicule se trouve dans un environnement alors que ce dernier est entièrement simulé. À l’UTBM, l’équipe a depuis plusieurs années mis au point, en collaboration avec Alstom, un simulateur non seulement pour entraîner les futurs conducteurs, mais aussi pour immerger les composants d’un train dans un univers simulé, afin de faciliter leur conception et leur validation. Un autre projet, mené avec le soutien de la Région Bourgogne – Franche-Comté, s’intéresse aux systèmes de livraison. Pour éviter le trafic des camions en centre-ville, les chercheurs travaillent à la conception d’un robot capable, sans attaches physiques, de se faire remorquer par un bus par exemple, en fonction d’un itinéraire donné et d’un point à atteindre.

Former les spécialistes de demain

En septembre 2019, 28 étudiants venus du monde entier rejoindront les bancs des sites de Belfort et Montbéliard de l’UTBM, pour intégrer le nouveau master Internet des objets. Pour répondre aux besoins de chaque étudiant et à la dimension internationale de la formation, les cours seront dorénavant dispensés en anglais. Ce parcours co-accrédité UFC-UTBM et géré par UBFC est complémentaire aux filières informatiques en place depuis plusieurs années. Dans le cadre de ce master inauguré à la rentrée 2018, les étudiants pourront explorer des thématiques contemporaines et porteuses d’enjeux réels pour l’avenir, telles que les villes intelligentes ou les objets connectés. L’objectif de l’UTBM et de l’UFC est ambitieux, mais cohérent vis-à-vis de la performance de l’établissement en termes d’innovation : pendant 4 semestres, les futurs diplômés pourront développer leurs connaissances en conception, développement et déploiement de nouvelles applications et « d’infrastructures mobiles et réparties », leur permettant ainsi de maîtriser des compétences axées sur l’intelligence artificielle dans un monde en perpétuelle évolution technologique. Ils pourront participer activement à la création des inventions de demain, et pour certains d’entre eux devenir chercheurs dans cette nouvelle discipline, s’ils choisissent de poursuivre leur cursus en doctorat.

Robot comtois remarqué à Tokyo

La robotique est justement un domaine d’application privilégié de l’intelligence artificielle.

Nathan Crombez, Zhi Yan, Yassine Ruichek et Eighty-eight à Tokyo.

Parmi les initiatives, celle de la préparation du robot Eighty-eight au World Robot Summit de Tokyo, fin 2018, a été couronnée de succès. Après sélection de son dossier, une équipe du CIAD s’est vue confier un robot par Toyota, entreprise instigatrice de la manifestation : les chercheurs ont implémenté la machine de modules d’IA développés spécialement pour la doter d’autonomie et des capacités requises par le cahier des charges. Le robot a ainsi pu démontrer l’étendue de ses talents dans le domaine de l’aide à domicile, la catégorie dans laquelle il concourait. Zhi Yan, Nathan Crombez et Yassine Ruichek, tous trois enseignants à l’UTBM et chercheurs au CIAD, ont fait la preuve de leur habileté et des compétences d’Eighty-eight, en se plaçant à la 5e place de ce concours international de haut niveau. La team comtoise était la seule équipe européenne encore en lice à la finale du concours, aux côtés d’équipes américaines, japonaises, coréennes et thaïlandaises. « De l’acquisition des données à la prise de décision, l’IA guide toutes les étapes de la progression du robot », explique Yassine Ruichek. Cartographie de l’environnement, dans lequel il sait se localiser en permanence, identification des obstacles placés sur son chemin, reconnaissance de la forme des objets qu’il doit transporter, calcul du mouvement que son bras doit effectuer pour les saisir… toutes les facultés du robot comprennent une part de deep learning et de pattern matching (modèles préappris). Depuis l’expérience japonaise, les chercheurs ont ajouté la reconnaissance faciale aux compétences d’Eighty-eight. Désormais, le robot sait identifier la personne à qui il doit s’adresser, lui dit bonjour et ne donne l’objet demandé qu’à elle. Affaire à suivre pour le prochain concours, à Nagoya en 2020.

Afin de prendre des décisions cohérentes, une intelligence artificielle a besoin de modéliser et de manipuler des connaissances ; la qualification de ces connaissances est une étape nécessaire pour leur mise en œuvre. Les membres du laboratoire CIAD utilisent différentes techniques pour les modéliser, notamment à base d’ontologies, qui sont les ensembles structurés des termes et des concepts donnant son sens à un champ d’informations. Le projet Explorys, collaboration entre le CIAD à Belfort et Alstom, est un exemple de la modélisation des connaissances pour des intelligences artificielles. Dans ce projet, le but était de modéliser l’ensemble des connaissances techniques liées à un train afin d’aider le personnel technique à visualiser ses différents composants, planifier des interventions de maintenance, et proposer les bases d’un outil de maintenance prédictive.

Le mystère de l’identité d’Elena Ferrante enfin levé ?

L’auteure à succès de la saga napolitaine L’Amie prodigieuse défraie la chronique depuis de nombreuses années : qui se cache derrière le nom d’Elena Ferrante ? S’il est admis qu’il s’agit là d’un pseudonyme protégeant la vie privée et la veine créatrice de l’auteure, la curiosité l’emporte parfois et donne lieu à des hypothèses plus ou moins farfelues. La quête de Jacques Savoy, spécialiste de linguistique computationnelle à l’université de Neuchâtel, est motivée par la mise à l’épreuve de méthodes issues du machine learning, chargées de la détection du style d’une œuvre littéraire. La recherche est menée conjointement avec des équipes aux États-Unis et ailleurs en Europe, notamment à l’université de Padoue. « Quelle que soit la méthode utilisée, la conclusion est partout la même : Elena Ferrante serait en réalité un homme !

Domenico Starnone, écrivain napolitain et époux de la traductrice Anita Raja, elle-même déjà pressentie pour le rôle, sur la base de spéculations d’ordre financier. Ici c’est le style et uniquement le style qui fait parler les logiciels de machine learning. Le corpus étudié représente 150 romans écrits par 40 auteurs, des hommes, des femmes, originaires ou non de Naples, où se situe l’histoire. « Tous sont bien écrits et suffisamment longs pour être pleinement exploitables par les logiciels », raconte Jacques Savoy. La présence et la fréquence de certains mots, la construction des phrases, les marqueurs de style sont autant de repères, souvent difficiles à saisir à la lecture, mais constituant des preuves irréfutables pour les chercheurs : ces livres, c’est Domenico Starnone qui les a écrits. Au nombre des outils, « la distance de Labbé » établit si des textes sont d’un même auteur dès lors que cette variable atteint un score inférieur à 0,2 : cette relation est mise en évidence pour les textes de Ferrante et de Starnone, et c’est le seul exemple dans tout le corpus étudié. Certains mots de vocabulaire sont plus fréquents chez ces deux auteurs, et d’autres, spécifiques au parler napolitain, ne sont utilisés presque exclusivement que par eux. Des analyses réalisées à partir de tous les mots du corpus, soit 20 000 mots différents, pour déterminer le genre des œuvres, montrent une distance révélatrice entre Ferrante et les femmes étudiées : celles-ci se placent toutes de manière proche sur une échelle stylistique, quand Ferrante est complètement à part. De même les œuvres de Ferrante et Starnone sont identifiées dans le même voisinage sur un mapping comparant les écrivains napolitains. Ce ne sont là que quelques exemples alimentant la théorie. Mais Domenico Starnone a démenti les allégations des scientifiques… les capacités du machine learning ne sauraient s’opposer à sa volonté.

Calculateur photonique pour le futur

On l’a vu, intelligence artificielle et big data vont de pair. C’est depuis la fin des années 1990 que les algorithmes, grâce à l’explosion des données disponibles, ont pu se développer. Mais le potentiel des réseaux de neurones souffre d’une limite directement liée aux technologies actuellement utilisées : les superordinateurs, outre un coût d’exploitation encore excessif, ont une capacité de traitement de l’information bien inférieure à celle du cerveau humain, notamment pour tout ce qui concerne l’apprentissage. C’est pour pallier ce problème, directement lié à la façon dont sont conçus nos ordinateurs, que les spécialistes en optique travaillent depuis plusieurs années à la génération d’un nouveau type d’ordinateurs, dans lesquels les électrons seraient remplacés par des photons, l’électronique passant le relais à l’optique. « Les ordinateurs sont conçus pour résoudre des problèmes logiques et exécuter des calculs arithmétiques, mais ils ne sont pas pensés pour faire interagir différents éléments de résolution et explorer des pistes créatives à la manière d’un cerveau humain », expliquent Maxime Jacquot et Daniel Brunner, qui tous deux dirigent ce projet de recherche à l’Institut FEMTO-ST.

Réseau de neurones photonique © Institut FEMTO-ST

L’idée est de construire un ordinateur dont l’architecture correspond à celle des réseaux de neurones, c’est-à-dire capable d’assurer un traitement de l’information en cascade. Les chercheurs travaillent à la mise au point de systèmes macro avant de passer à des systèmes miniaturisés, qu’il sera possible d’intégrer sur puce électronique. « La démarche est plus longue, mais elle est aussi plus viable. » Les chercheurs de FEMTO-ST sont ainsi les premiers au monde à avoir réussi à assembler un système optique global présentant l’architecture voulue. L’objectif à terme est d’atteindre 1 milliard de prédictions, contre 200 000 actuellement, avec une consommation d’énergie équivalente. De tels systèmes devraient permettre le développement de l’IA dans des dispositifs de haute technologie, par exemple pour la détection d’informations sans caméra ni capteur, ou la correction des dérives d’un microrobot.

Un démonstrateur physique de Reservoir Computing, qui est l’un des premiers essais de calculateur à réseaux de neurones optique, avait déjà été réalisé il y a 5 ans par les chercheurs de FEMTO-ST, en collaboration avec des équipes académiques d’Espagne, d’Allemagne, de Belgique, de France, dans le projet européen PHOCUS, piloté par l’université des îles Baléares. Le calculateur s’était alors montré capable d’identifier plus d’1 million de mots à la seconde : surpassant largement les capacités des ordinateurs traditionnels, ce Reservoir Computing photonique détient toujours le record du système physique à la capacité de calcul la plus puissante et la plus rapide au monde.

D’autres structures universitaires travaillent sur des projets d’ordinateurs optiques réalisés à partir de quelques dizaines de neurones artificiels, comme à Harvard, Princeton ou UCLA, mais les calculateurs photoniques, qui permettent de mettre en relation plusieurs centaines de milliers de neurones, restent un domaine exploratoire typiquement européen.

1 Le deep learning, ou apprentissage profond, réunit des méthodes d’apprentissage automatique fondées sur des réseaux de neurones artificiels. La structure de ces réseaux s’inspire directement de celle du cerveau humain ; elle est composée de multiples couches de neurones, chacune se chargeant d’identifier une information en particulier puis communiquant cette information à la couche suivante. Ainsi le système détecte la présence d’un animal sur une photo puis perçoit qu’il s’agit d’un chien, puis sa couleur etc., une succession de renseignements qui lui permet in fine d’identifier un caniche noir muni d’un collier. À partir des informations qu’il a enregistrées, le système devient même capable d’auto-apprentissage, de reconnaître par lui-même un objet qui ne figurait pas dans les données qui lui étaient fournies au départ.
Contact(s) :
Département DISC – Département d'informatique des systèmes complexes
Institut FEMTO-ST
UFC / ENSMM / UTBM / CNRS
Raphaël Couturier / Bruno Legeard
Tél. +33 (0)3 84 58 77 86 / 81 66 66 55

Département Optique
Institut FEMTO-ST
UFC / ENSMM / UTBM / CNRS
Maxime Jacquot / Daniel Brunner
Tél. +33 (0)3 63 08 24 16 / 81 66 64 88

Laboratoire CIAD
UTBM / UB
Yassine Ruichek / Stéphane Galland / Franck Gechter
Tél. +33 (0)3 84 58 34 41 / 84 58 34 18 / 84 58 38 17

Institut du management de l’information
Université de Neuchâtel
Adrian Holzer
Tél. +41 (0)32 718 13 32

Institut d’informatique
Université de Neuchâtel
Jacques Savoy
Tél. +41 (0)32 718 27 00
retour