Le Lien MULTIMÉDIA comprend:

  • 50 numéros du bulletin-HTML
  • Mot de passe pour www.lienmultimedia.com
  • Quotidien par courriel
  • 12 numéros du magazine CONVERGENCE
  • 1 Guide de l’industrie::NUMÉRIQUE
  • 1 Guide de l’industrie::WEB
  • 1 Guide de l’industrie::MOBILE
  • 1 Guide de l’industrie::JEUX VIDÉO
  • 1 Guide de survie::START-UP

CONNEXION

  • Abonnement
  • Publicité
  • Contact
  • Guide industrie
  • Vidéos
  • Palmarès
  • magazine CONVERGENCE
  • Boutique
  • Internet
  • Jeux Vidéo
  • Mobile
  • Animation
  • Informatique
  • Arts Médiatiques
  • E-Marketing
  • Ciné-Télé
  • Musique
  • Industrie
  • Réalité virtuelle
  • Intelligence artificielle
  • Entrepreneuriat / Startups
  • Artisans du numérique
  • RECEVEZ GRATUITEMENT
    LE BULLETIN QUOTIDIEN [voir un exemple]

    Éric Granger expose les méthodes d’apprentissage machine pour une meilleure adaptation à l’environnement

    3 janvier 2020, 07h00
         |      Article rédigé par Oriane Morriet.

    Occupant depuis 2004 un poste de professeur à l’ÉTS de Montréal, Éric Granger est également directeur du laboratoire LIVIA et du programme MScA. Son domaine de spécialisation ? L’apprentissage machine en termes d’adaptation à l’environnement. Le chercheur s’intéresse aussi à l’apprentissage profond, à l’apprentissage en ligne et à l’apprentissage par incrémentation. C’est cependant ce premier modèle d’intelligence artificielle qu’il a exposé lors de sa présentation intitulée « Reconnaissance vidéo à partir d’ensembles de données d’images de grande taille et faiblement annotées » à l’occasion de la Journée Techno au CRIM sur la Désinformation à l’ère de l’intelligence artificielle. Compte rendu de la présentation d’Éric Granger.

    Éric Granger expose les méthodes d’apprentissage machine pour une meilleure adaptation à l’environnement Éric Granger (ÉTS).Photo: Oriane Morriet

    Travaillant main dans la main depuis plusieurs années avec le secteur de la santé et de la sécurité pour développer des modèles d’apprentissage machine capables de détecter de façon fiable certaines informations, Éric Granger confie que le problème majeur de l’intelligence artificielle est la gestion d’un grand nombre de données, pas toujours fiables ni complètes. En parallèle, le chercheur travaille donc sur des systèmes permettant de développer la fiabilité des algorithmes en cas d’images de pauvre qualité. Ces systèmes sont particulièrement utiles lorsqu’ils sont appliqués dans le contexte de la vidéo de surveillance. « Notre but est d’améliorer l’analyse de l’information à travers un réseau de caméras de surveillance », explique-t-il.

    Éric Granger explique qu’il existe deux cas majeurs en matière de reconnaissance faciale dans les vidéos de surveillance : le still-to-video recognition et le video-to-video recognition. Dans le premier cas, il s’agit pour le système de reconnaître une personne dans une vidéo à partir d’une photo, tandis que dans le second cas, il s’agit pour le système de reconnaître une personne dans une vidéo à partir d’une autre vidéo de référence. « Dans les deux cas, l’identification est difficile, car nous ne contrôlons pas l’environnement : le flux de personnes, la luminosité, l’angle des visages, le mouvement des personnes, etc. », confie Éric Granger.

    Un des enjeux des programmes informatiques développés par Éric Granger est l’application de la reconnaissance faciale en temps réel. Les systèmes de surveillance comportent de plus en plus de caméras, donc de plus en plus d’images. Aussi, les environnements où sont installés ces systèmes de surveillance sont complexes car ils changent avec le temps. À l’imperfection des conditions d’enregistrement des images — variation des poses, les expressions, l’obtusion, l’échelle, le flou du mouvement — s’ajoutent celle de la résolution des vidéos, de l’interopérabilité des caméras et de la robustesse des modèles algorithmiques appliqués.

    Pour assurer des résultats de qualité, Éric Granger développe des modèles d’intelligence artificielle capables de s’adapter à la variation des environnements dans lesquels ils opèrent. « Nous nous concentrons sur le weakly supervised learning, en particulier le semi-supervised learning et le multiple instance learning », précise-t-il. En résumé, le weakly supervised learning désigne une situation où l’algorithme possède pour l’analyse une base limitée de données, des données incomplètes et peu détaillées ou encore des données erronées. « Il s’agit de cas de supervision incomplète, de supervision inexacte ou de supervision erronée », précise Éric Granger.

    Les méthodes utilisées pour remédier à ces problèmes sont plurielles. Tour à tour, Éric Granger passe en revue les différentes méthodes de Domain Adaptation : les méthodes de DA conventionnelles, les méthodes de DA profondes, les méthodes de Deep Adversarial DA, le suivi et la détection en temps-réel, l’identification répétée des personnes, la reconnaissance des expressions, le Deep Siameses CNNs, etc.

    Nous n’entrerons pas dans le détail de ces systèmes, mais nous évoquerons leurs bénéfices, notamment dans le domaine de la santé. En médecine, en effet, ces méthodes ont pour avantage d’aider à la prise de décision en termes de diagnostic. « Notre système de classification des images permet de reconnaître les zones de l’image intéressantes à analyser pour les médecins. Cela ne remplace pas les médecins en eux-mêmes, mais cela les aide à prendre des décisions », argumente Éric Granger. En travaillant avec des ensembles de données en grand nombre et peu annotées, le chercheur se rapproche donc de la réalité du terrain, ce qui rend ses modèles particulièrement adaptés à l’usage qui en est fait.

    Pour terminer sa communication, Éric Granger évoque les attaques auxquelles les systèmes d’analyse de données sont parfois soumis. Le chercheur détaille plusieurs types d’attaques : les attaques directes dites de présentation et les attaques indirectes dites adverses. Les attaques directes sont performées au niveau de l’information lorsqu’elle est enregistrée par le système. L’exemple le plus commun est le port d’un masque en présence d’une caméra de surveillance. Les attaques indirectes sont performées au niveau de l’information une fois qu’elle a été enregistrée par le système. Il s’agit d’une manipulation après coup de cette information pour conduire à sa classification erronée. « Il reste beaucoup à faire pour éviter ces attaques », conclut le chercheur.

    Cet article sera intégré au Guide de l’industrie :: INTELLIGENCE ARTIFICIELLE, un ouvrage de référence unique pour comprendre les rouages de l’industrie québécoise de l’intelligence artificielle : ses entreprises, ses personnalités, les grands centres de recherche, les processus, les marchés, les considérations économiques, éthiques, ses forces et les défis qui l’animent.

    Il est possible de commander, de contribuer ou de soutenir cette publication en > cliquant ici <.

    https://bit.ly/2OOhYbn - info lienmultimedia.com

    Intéressé.e à reproduire l'article, la photo ou la vidéo ?

    En bénéficiant de notre licence de reproduction, vous pourrez :

    • publier cet article dans vos sites Web, dans vos infolettres, dans vos réseaux sociaux, etc.
    • en modifier la longueur
    • recevoir les photos (et vidéos, si applicable) en haute résolution
    • publier les photos (et vidéos, si applicable) dans vos sites Web, dans vos infolettres, dans vos réseaux sociaux, etc.
    • le contenu devient public sur notre plateforme, ce qui vous octroîe encore plus de visibilité