Le Lien MULTIMÉDIA comprend:

  • 50 numéros du bulletin-HTML
  • Mot de passe pour www.lienmultimedia.com
  • Quotidien par courriel
  • 12 numéros du magazine CONVERGENCE
  • 1 Guide de l’industrie::NUMÉRIQUE
  • 1 Guide de l’industrie::WEB
  • 1 Guide de l’industrie::MOBILE
  • 1 Guide de l’industrie::JEUX VIDÉO
  • 1 Guide de survie::START-UP

CONNEXION

  • Abonnement
  • Publicité
  • Contact
  • Guide industrie
  • Vidéos
  • Palmarès
  • magazine CONVERGENCE
  • Boutique
  • Internet
  • Jeux Vidéo
  • Mobile
  • Animation
  • Informatique
  • Arts Médiatiques
  • E-Marketing
  • Ciné-Télé
  • Musique
  • Industrie
  • Réalité virtuelle
  • Intelligence artificielle
  • Entrepreneuriat / Startups
  • Artisans du numérique
  • RECEVEZ GRATUITEMENT
    LE BULLETIN QUOTIDIEN [voir un exemple]

    Nicolas Garneau décrit comment la génération automatique de texte peut conduire à la désinformation

    9 décembre 2019, 10h00
         |      Article rédigé par Oriane Morriet.

    Le phénomène de la désinformation ne se limiterait pas à la modification d’images ou deepfake, il concernerait également la génération automatique de texte. C’est du moins l’avis de Nicolas Garneau, étudiant au doctorat à l’Université Laval, dont l’intervention intitulée « Vers la génération de fausses nouvelles », qu’il a prononcée à l’occasion de la Journée Techno du CRIM sur la Désinformation à l’ère de l’intelligence artificielle, portait sur les dernières inventions en matière de contenus textuels générés grâce à l’intelligence artificielle. Retour sur la présentation de Nicolas Garneau pour tenter de comprendre comment la génération automatique de texte peut conduire à la désinformation.

    Nicolas Garneau décrit comment la génération automatique de texte peut conduire à la désinformation Nicolas Garneau (Université Laval).Photo: Oriane Morriet

    En 2017, Google enregistre un boom considérable de recherches autour des fausses nouvelles : c’est le début de l’ère des fake news. D’un côté, le président américain Donald Trump accuse constamment les médias de rapporter des fausses nouvelles, tandis que d’un autre côté, des sites se spécialisent dans la création de fausses nouvelles humoristiques. Nicolas Garneau cite Le Revoir, qui parodie le Devoir. « Les fake news ne datent cependant pas d’hier, mais jusqu’à présent il y avait toujours un humain derrière », prévient Nicolas Garneau. Le développement de l’intelligence artificielle change la donne : il est désormais possible de générer des fausses nouvelles par l’intermédiaire d’un programme informatique.

    Pour permettre de bien comprendre son propos, Nicolas Garneau revient sur la définition de l’apprentissage automatique. « Grâce à l’apprentissage automatique, il est possible de faire de la génération de texte. Cela prend des données et un algorithme d’apprentissage. Celui-ci va alors nous donner un modèle pour poser des actions », décrit l’étudiant au doctorat. En matière de génération textuelle, il faut un gros corpus de textes pour entraîner un algorithme. L’idée est de lui permettre de comprendre comment construire un groupe de mots, une phrase, un paragraphe, etc. « Les modèles de langue comprennent comment écrire du texte. Ensuite, on utilise le modèle pour générer de nouveaux contenus », résume Nicolas Garneau.

    À titre d’exemple de modèle de langue, Nicolas Garneau cite OpenAI, une organisation à but non-lucratif présidée par Elon Musk et Sam Altman. Spécialisée dans la recherche en intelligence artificielle de haut niveau, OpenAI possède une division spécifique pour le traitement de la langue naturelle. « Ils ont inventé un modèle de langue qu’ils ont finalement décidé de ne pas rendre public car ils le jugeaient trop dangereux », commente l’étudiant au doctorat. Le Generative Pre-Trained Model 2 (GPT) était en effet si performant qu’il bernait l’être humain en écrivant des textes particulièrement vraisemblables.

    « Ils ont entraîné leur modèle avec 8 millions de pages Web, avec des données relativement propres. Cela représentait 40GB de données textuelles. GPT est un réseau de neurones de deep learning avec 1,5 millier de paramètres. C’est un modèle hyper gros. Un seul entraînement de ce modèle coûte 43 millions $ US », détaille Nicolas Garneau. Grâce à ces caractéristiques, GPT est capable de prédire avec exactitude le prochain mot d’une phrase et d’évaluer avec précision la probabilité de cette phrase. « Dans les textes générés par GPT, il n’y a pas beaucoup d’erreurs sémantiques ni syntaxiques », poursuit-il.

    Afin de s’essayer lui-même à la génération automatique de texte, Nicolas Garneau a décidé d’entraîner un modèle de langue en se servant des articles écrits dans Le Journal de Montréal. « J’avais 250 000 phrases de 30 auteurs différents, avec 10 lignes de code », résume-t-il. Pour entraîner le modèle, l’étudiant au doctorat s’est servi d’Amazon Open Source, ce qui lui a coûté 1 dollar et 1 heure de temps. Reste à savoir si les phrases générées à l’aide de ces ressources sont convaincantes : « Les médias se voient comme les consommateurs d’esprit » ou encore « La loi est soumise à l’embauche du gouvernement précédent et blablabla ».

    Quand le modèle de langue est bien entraîné, Nicolas Garneau reconnaît qu’il est difficile de reconnaître le faux du vrai. « Il est même possible de conditionner un modèle de langue pour générer du contenu par rapport à un certain thème ou à un certain style », commente-t-il. C’est ainsi que l’intelligence artificielle peut générer de fausses nouvelles et conduire à la désinformation. En reproduisant le style d’une personne, l’algorithme peut se faire passer pour quelqu’un d’autre. De là à l’escroquerie ou à la manipulation, il n’y a qu’un pas.

    Pour se défendre contre ces fausses nouvelles automatiquement générées par l’intelligence artificielle, le remède est justement l’intelligence artificielle. Dans l’article scientifique « Defending Against Neural Fake News », certains chercheurs de l’Université Cornell ont ainsi analysé que le développement de programmes informatiques capables de détecter les fausses nouvelles générées automatiquement permettaient leur éradication à 92%. « C’est bien, mais il reste donc encore 8% de fake news sur le Web », relève Nicolas Garneau. Pour conclure sa présentation, l’étudiant au doctorat appelle donc à la prudence. « Il est important de vérifier nos sources », achève-t-il.

    Cet article sera intégré au Guide de l’industrie :: INTELLIGENCE ARTIFICIELLE, un ouvrage de référence unique pour comprendre les rouages de l’industrie québécoise de l’intelligence artificielle : ses entreprises, ses personnalités, les grands centres de recherche, les processus, les marchés, les considérations économiques, éthiques, ses forces et les défis qui l’animent.

    Il est possible de commander, de contribuer ou de soutenir cette publication en > cliquant ici <.

    https://bit.ly/2OOhYbn - info lienmultimedia.com

    Intéressé.e à reproduire l'article, la photo ou la vidéo ?

    En bénéficiant de notre licence de reproduction, vous pourrez :

    • publier cet article dans vos sites Web, dans vos infolettres, dans vos réseaux sociaux, etc.
    • en modifier la longueur
    • recevoir les photos (et vidéos, si applicable) en haute résolution
    • publier les photos (et vidéos, si applicable) dans vos sites Web, dans vos infolettres, dans vos réseaux sociaux, etc.
    • le contenu devient public sur notre plateforme, ce qui vous octroîe encore plus de visibilité