L'intelligence artificielle capable d'écrire de faux textes est considérée comme trop dangereuse

Faux profond pour les textes: la machine conçue pour l'ère post-vérité

Les trois dernières années sur Internet ont été dominées par la prise de conscience naissante du danger que représentent les fausses nouvelles et la persuasion des électeurs ou des consommateurs grâce à des algorithmes qui se nourrissent en temps réel de leurs informations pour manipuler leur comportement en ligne. Ce risque, que certains considèrent comme une atteinte à la démocratie et à l’autonomie, pourrait avoir un nouvel acteur avec le développement de programmes qui parviennent à écrire des articles qui peuvent facilement être écrits par des humains, à un point indiscernable ou presque indiscernable.

Il y a quelques semaines, la plate-forme OpenAI a fait part de son inquiétude face à l'utilisation potentiellement préjudiciable de son modèle GPT2, que l'on a qualifié de " fake profond pour les textes". La société, qui compte parmi ses investisseurs Elon Musk, a indiqué qu'elle ne rendrait pas publiques les informations de son enquête de crainte que cette technologie ait des ramifications négatives. Le modèle GPT2 est capable de générer un texte plausible une fois qu’il a été alimenté avec un texte, quelque chose comme une idée à développer qui se connecte à d’autres informations.

Le système diffère des autres programmes en ce qu'il maintient le même thème et la même syntaxe et crée des passages standard qui semblent être écrits par une personne. Cette plate-forme a été formée avec plus de 10 millions d'articles. D'une part, c'est très intéressant, car ce modèle peut effectuer des tâches telles que la traduction et la synthèse de textes. Mais, d’autre part, il a un potentiel qui, bien que nous puissions imaginer où il pourrait conduire, est quasiment illimité en ce qui concerne les possibilités d’utilisation qui peuvent être données pour tromper et manipuler. Par exemple, le système peut générer d'innombrables critiques positives ou négatives de produits. Il pourrait produire d'innombrables messages de spam et même étudier des bases de données pour générer des emails qui cherchent à arnaquer des personnes. Ou des théories du complot, ou des textes visant à provoquer certains groupes sociaux ou politiques. Il pourrait produire des sites entiers d' informations ou de fausses informations à des fins de propagande.

Bien que cette mise en garde soit la bienvenue, d’un autre côté, il est clair que certaines années, cette technologie sera développée par d’autres personnes et peut probablement être utilisée à des fins préjudiciables. Il est donc important de nous préparer et de nous éduquer. Ce qui semble indiscutable, c’est que nous arrivons à un point où la technologie que nous créons est capable d’exploiter rapidement certaines de nos vulnérabilités mentales et notre niveau moral et intellectuel en tant que civilisation n’est pas à la hauteur pour sauvegarder les utilisations de cette technologie. Ce qui est inquiétant. Il semble que nous vivions à l’époque imaginée par Philip K. Dick:

Les fausses réalités vont créer de faux humains. Ou alors, de faux êtres humains vont générer de fausses réalités et ensuite les vendre à d'autres êtres humains, les transformant finalement en des contrefaçons d'eux-mêmes. Nous nous retrouvons donc avec de faux humains inventant de fausses réalités puis les vendant à d’autres faux humains.