Désinformation ou mésinformation : quelles différences ?
La désinformation se distingue de la mésinformation par son caractère intentionnel. Alors que la mésinformation peut résulter d'une erreur ou d'une mauvaise compréhension du sujet, la désinformation vise délibérément à manipuler l'opinion publique en diffusant des informations fausses ou trompeuses. Historiquement, la désinformation a toujours existé, notamment dans les contextes politiques et électoraux. Elle a cependant pris une nouvelle dimension et une toute autre ampleur depuis l’avènement des réseaux sociaux et des nouvelles technologies de création de contenu. Les outils d’IA générative permettent aujourd’hui de créer des contenus erronés et/ou trompeurs de manière automatisée et à grande échelle. En parallèle, les plateformes digitales permettent une diffusion rapide et massive de contenus, rendant le contrôle de l’information plus complexe que jamais.
L'IA comme outil de désinformation
L'intelligence artificielle est souvent utilisée pour amplifier des techniques de désinformation déjà existantes plutôt que pour en inventer de nouvelles. Par exemple, les technologies d'IA générative peuvent être employées pour créer des vidéos ou des audios manipulés – mieux connus sous le nom de deepfake. Ces contenus peuvent, par exemple, manipuler l'opinion publique en simulant des déclarations ou des événements totalement fictifs. Les répercussions peuvent être désastreuses dans des contextes tels que les élections, les conflits géopolitiques ou la gestion de crise telle que le COVID-19 il y a peu. À titre d’exemple, une fausse vidéo de Joe Biden générée par l’IA circulait sur les réseaux sociaux au coeur des élections américaines. Avec les bons outils et mécanismes de communication, ce type de contenu peut rapidement devenir viral sur internet, et rien ne garantit que le public sera en capacité de faire la différence entre une vraie voix et une voix générée par l’IA. Ce type de manipulation n’a évidemment pas attendu l’IA pour voir le jour. Mais il est certain que l’IA a amplifié ce phénomène.
L’accessibilité accrue : un facteur clé
Plus les technologies sont faciles à prendre en main, plus elles sont potentiellement dangereuses. Aujourd’hui, il n'est plus nécessaire d'être un expert en intelligence artificielle pour créer des contenus trompeurs sophistiqués. Toute personne qui a accès à internet peut générer un deepfake en quelques clics. La désinformation devient alors à la portée de tous, et son contrôle se complexifie au rythme auquel l’accessibilité des outils s’améliore.
Heureusement, une meilleure accessibilité des technologies permet aussi de les utiliser à bon escient. Les mêmes outils qui permettent de créer des contenus trompeurs peuvent également être utilisés pour détecter et contrer ces pratiques. Les agences gouvernementales, par exemple, utilisent ces outils pour surveiller les campagnes de désinformation et y répondre rapidement.
Les mesures de sécurité mises en place par OpenAI
Face aux risques posés par la génération de fausses informations, OpenAI a mis en place des garde-fous rigoureux pour prévenir leur détournement à des fins malveillantes. Ces mesures se déclinent en quatre phases principales.
1. Pre-training
Avant que les modèles soient définitivement prêts, les données sont minutieusement contrôlées. C’est une manière de s’assurer que le modèle ne va pas s’entraîner sur des données illégales. Cette étape permet également d'empêcher l’outil d’accéder à des informations confidentielles ou personnelles. C’est une première phase de filtre indispensable.
2. Évaluation du risque avant le déploiement des modèles
Avant qu'un modèle ne soit déployé publiquement, il subit une évaluation rigoureuse pour identifier les risques potentiels liés à son utilisation. OpenAI définit un ensemble de principes comportementaux auxquels ses modèles doivent adhérer, comme par exemple :
- Donner des réponses objectives ;
- Adopter une neutralité politique ;
- Apporter des réponses qui aident…
Les équipes d’OpenAi vont ensuite faire un retour au modèle, en lui donnant des notes sur les réponses qu’il propose. C’est le reinforcement learning. Concrètement, des personnes vont évaluer la qualité des réponses sur des sujets très variés, et surtout analyser la sécurité des réponses pour savoir si elles respectent bien les principes comportementaux attendus.
3. Red teaming
La troisième phase est un processus appelé red teaming. Des experts internes et externes à OpenAi vont simuler des attaques malveillantes pour tester les vulnérabilités du modèle. Ils vont chercher à lui faire ressortir des réponses dangereuses qui échappent aux principes qu’il doit respecter. Cela permet d’identifier les failles du modèle, de corriger ses vulnérabilités, et de les tester à nouveau des milliers de fois.
À l’issue de ces évaluations, les équipes de sécurité priorisent les risques. Elles entraînent ensuite les modèles à contrer ces risques en refusant de répondre ou en apportant des réponses évasives qui ne répondent pas vraiment à la question. C’est la dernière phase de sécurité avant le déploiement du modèle.
4. Surveillance continue après déploiement
Une fois le modèle déployé, OpenAI continue de surveiller son utilisation afin de détecter toute exploitation abusive qui n'aurait pas été anticipée lors des phases précédentes. Cette surveillance permet d'apporter rapidement des corrections si nécessaire. La sécurité est donc un sujet central à toutes les étapes de développement du modèle.
Comment OpenAI collabore avec les gouvernements et les organisations internationales ?
OpenAI collabore activement avec divers gouvernements et organisations internationales pour renforcer la sécurité autour de ses modèles IA, notamment dans le cadre électoral. Par exemple, OpenAI a récemment lancé le Society Resilience Fund en partenariat avec Microsoft. Ce fonds vise à financer la formation des agences électorales dans plusieurs pays (Afrique, Amérique du Sud…) sur l'utilisation sécurisée de l'IA, afin notamment de contrer les risques liés à la manipulation électorale.
De plus, OpenAI soutient activement certaines initiatives législatives visant à réguler l'utilisation de l'IA dans le contexte politique. Aux États-Unis, OpenAI a pris position en faveur du Disceptive A.I Act, une loi visant à interdire la distribution d'images, d’audios ou de vidéos qui utilisent l’IA pour représenter des candidats.
OpenAI s’est aussi engagé sur les Munich Tech Accord en adhérent à un certain nombre des principes qui visent à défendre les élections, aux côtés de Meta et Google.
Les outils de lutte anti-deepfake
Les deepfakes représentent sans doute l'un des défis les plus complexes posés par l'intelligence artificielle dans le domaine de la désinformation. Ces vidéos ou audios falsifiés sont souvent difficiles à détecter car ils imitent parfaitement la voix ou l'apparence d'une personne réelle.
Pour lutter contre ce phénomène, OpenAI dote chaque donnée d’un passeport qui contient une série de métadonnées. Ce passeport suivra le contenu partout, de sa création jusqu’à sa diffusion. L’utilisateur final pourra alors consulter le passeport et savoir d’où vient le contenu qu’il observe. C’est le C2PA (Coalition for Content Provenance and Authenticity) standard.
Cette méthode est efficace pour certains aspects, mais peut facilement être détournée. OpenAI a donc développé une deuxième approche : les classifiers. Ils consistent à reconnaître les signes distinctifs d’un contenu, pour être capable de prédire à plus de 90% la provenance du contenu. Ces outils servent alors de fact-checkers qui améliorent la détection des deepfakes.
Vers une réglementation internationale ?
La réglementation internationale autour de l'intelligence artificielle reste encore fragmentée. Cependant, certaines organisations mondiales comme l'OCDE commencent à jouer un rôle clé dans l'harmonisation des règles autour de l'utilisation éthique et sécurisée de l'IA.
L'Union Européenne a également pris en main le sujet avec son AI Act, qui vise à encadrer juridiquement certains usages sensibles de l'intelligence artificielle. Ce n’est que le début d’un projet essentiel de régulation.
OpenAI soutient activement ces initiatives internationales car elles permettent non seulement d'uniformiser les régulations mais aussi de fixer un cadre et de faire tendre les acteurs du secteur vers plus de transparence et de responsabilité.
Sécuriser l’IA pour mieux l’exploiter
L'intelligence artificielle offre un potentiel immense mais présente également des risques considérables lorsqu'elle est utilisée à mauvais escient : la désinformation en est l’exemple. Les efforts continus déployés par OpenAI et d'autres acteurs technologiques visent à minimiser ces risques tout en maximisant les bénéfices apportés par ces outils. Il est certain que pour profiter du plein potentiel des outils d’IA, il faudra s’entendre sur des réglementations légales qui donnent un cadre à son utilisation et une limite à ses potentielles dérives.