Sécurité et lutte contre la désinformation au sein de ChatGPT

L'intelligence artificielle est aujourd'hui au cœur de nombreuses transformations technologiques, économiques et sociales. Si elle offre des opportunités considérables, elle soulève également des préoccupations majeures, notamment en matière de désinformation. Ce phénomène, qui consiste à diffuser intentionnellement des informations fausses ou trompeuses, a pris une ampleur nouvelle avec l'essor des technologies d'IA. Dans cet article, nous explorons les mécanismes de désinformation à l'ère de l'IA, les risques qu'elle présente, ainsi que les solutions mises en place au sein de ChatGPT pour y faire face. Cet article est basé sur l’échange de Paul Mochkovitch, co-fondateur et Tech Lead de Molia, avec Florent Joly, expert en intelligence artificielle et sécurité chez OpenAI.

Désinformation ou mésinformation : quelles différences ?

La désinformation se distingue de la mésinformation par son caractère intentionnel. Alors que la mésinformation peut résulter d'une erreur ou d'une mauvaise compréhension du sujet, la désinformation vise délibérément à manipuler l'opinion publique en diffusant des informations fausses ou trompeuses. Historiquement, la désinformation a toujours existé, notamment dans les contextes politiques et électoraux. Elle a cependant pris une nouvelle dimension et une toute autre ampleur depuis l’avènement des réseaux sociaux et des nouvelles technologies de création de contenu. Les outils d’IA générative permettent aujourd’hui de créer des contenus erronés et/ou trompeurs de manière automatisée et à grande échelle. En parallèle, les plateformes digitales permettent une diffusion rapide et massive de contenus, rendant le contrôle de l’information plus complexe que jamais.

L'IA comme outil de désinformation

L'intelligence artificielle est souvent utilisée pour amplifier des techniques de désinformation déjà existantes plutôt que pour en inventer de nouvelles. Par exemple, les technologies d'IA générative peuvent être employées pour créer des vidéos ou des audios manipulés – mieux connus sous le nom de deepfake. Ces contenus peuvent, par exemple, manipuler l'opinion publique en simulant des déclarations ou des événements totalement fictifs. Les répercussions peuvent être désastreuses dans des contextes tels que les élections, les conflits géopolitiques ou la gestion de crise telle que le COVID-19 il y a peu. À titre d’exemple, une fausse vidéo de Joe Biden générée par l’IA circulait sur les réseaux sociaux au coeur des élections américaines. Avec les bons outils et mécanismes de communication, ce type de contenu peut rapidement devenir viral sur internet, et rien ne garantit que le public sera en capacité de faire la différence entre une vraie voix et une voix générée par l’IA. Ce type de manipulation n’a évidemment pas attendu l’IA pour voir le jour. Mais il est certain que l’IA a amplifié ce phénomène.

L’accessibilité accrue : un facteur clé

Plus les technologies sont faciles à prendre en main, plus elles sont potentiellement dangereuses. Aujourd’hui, il n'est plus nécessaire d'être un expert en intelligence artificielle pour créer des contenus trompeurs sophistiqués. Toute personne qui a accès à internet peut générer un deepfake en quelques clics. La désinformation devient alors à la portée de tous, et son contrôle se complexifie au rythme auquel l’accessibilité des outils s’améliore.

Heureusement, une meilleure accessibilité des technologies permet aussi de les utiliser à bon escient. Les mêmes outils qui permettent de créer des contenus trompeurs peuvent également être utilisés pour détecter et contrer ces pratiques. Les agences gouvernementales, par exemple, utilisent ces outils pour surveiller les campagnes de désinformation et y répondre rapidement.

Les mesures de sécurité mises en place par OpenAI

Face aux risques posés par la génération de fausses informations, OpenAI a mis en place des garde-fous rigoureux pour prévenir leur détournement à des fins malveillantes. Ces mesures se déclinent en quatre phases principales.

1. Pre-training

Avant que les modèles soient définitivement prêts, les données sont minutieusement contrôlées. C’est une manière de s’assurer que le modèle ne va pas s’entraîner sur des données illégales. Cette étape permet également d'empêcher l’outil d’accéder à des informations confidentielles ou personnelles. C’est une première phase de filtre indispensable.

2. Évaluation du risque avant le déploiement des modèles

Avant qu'un modèle ne soit déployé publiquement, il subit une évaluation rigoureuse pour identifier les risques potentiels liés à son utilisation. OpenAI définit un ensemble de principes comportementaux auxquels ses modèles doivent adhérer, comme par exemple :

  • Donner des réponses objectives ;
  • Adopter une neutralité politique ;
  • Apporter des réponses qui aident…

Les équipes d’OpenAi vont ensuite faire un retour au modèle, en lui donnant des notes sur les réponses qu’il propose. C’est le reinforcement learning. Concrètement, des personnes vont évaluer la qualité des réponses sur des sujets très variés, et surtout analyser la sécurité des réponses pour savoir si elles respectent bien les principes comportementaux attendus.

3. Red teaming

La troisième phase est un processus appelé red teaming. Des experts internes et externes à OpenAi vont simuler des attaques malveillantes pour tester les vulnérabilités du modèle. Ils vont chercher à lui faire ressortir des réponses dangereuses qui échappent aux principes qu’il doit respecter. Cela permet d’identifier les failles du modèle, de corriger ses vulnérabilités, et de les tester à nouveau des milliers de fois.

À l’issue de ces évaluations, les équipes de sécurité priorisent les risques. Elles entraînent ensuite les modèles à contrer ces risques en refusant de répondre ou en apportant des réponses évasives qui ne répondent pas vraiment à la question. C’est la dernière phase de sécurité avant le déploiement du modèle.

4. Surveillance continue après déploiement

Une fois le modèle déployé, OpenAI continue de surveiller son utilisation afin de détecter toute exploitation abusive qui n'aurait pas été anticipée lors des phases précédentes. Cette surveillance permet d'apporter rapidement des corrections si nécessaire. La sécurité est donc un sujet central à toutes les étapes de développement du modèle.

Comment OpenAI collabore avec les gouvernements et les organisations internationales ?

OpenAI collabore activement avec divers gouvernements et organisations internationales pour renforcer la sécurité autour de ses modèles IA, notamment dans le cadre électoral. Par exemple, OpenAI a récemment lancé le Society Resilience Fund en partenariat avec Microsoft. Ce fonds vise à financer la formation des agences électorales dans plusieurs pays (Afrique, Amérique du Sud…) sur l'utilisation sécurisée de l'IA, afin notamment de contrer les risques liés à la manipulation électorale.

De plus, OpenAI soutient activement certaines initiatives législatives visant à réguler l'utilisation de l'IA dans le contexte politique. Aux États-Unis, OpenAI a pris position en faveur du Disceptive A.I Act, une loi visant à interdire la distribution d'images, d’audios ou de vidéos qui utilisent l’IA pour représenter des candidats.

OpenAI s’est aussi engagé sur les Munich Tech Accord en adhérent à un certain nombre des principes qui visent à défendre les élections, aux côtés de Meta et Google.

Les outils de lutte anti-deepfake

Les deepfakes représentent sans doute l'un des défis les plus complexes posés par l'intelligence artificielle dans le domaine de la désinformation. Ces vidéos ou audios falsifiés sont souvent difficiles à détecter car ils imitent parfaitement la voix ou l'apparence d'une personne réelle.

Pour lutter contre ce phénomène, OpenAI dote chaque donnée d’un passeport qui contient une série de métadonnées. Ce passeport suivra le contenu partout, de sa création jusqu’à sa diffusion. L’utilisateur final pourra alors consulter le passeport et savoir d’où vient le contenu qu’il observe. C’est le C2PA (Coalition for Content Provenance and Authenticity) standard.

Cette méthode est efficace pour certains aspects, mais peut facilement être détournée. OpenAI a donc développé une deuxième approche : les classifiers. Ils consistent à reconnaître les signes distinctifs d’un contenu, pour être capable de prédire à plus de 90% la provenance du contenu. Ces outils servent alors de fact-checkers qui améliorent la détection des deepfakes.

Vers une réglementation internationale ?

La réglementation internationale autour de l'intelligence artificielle reste encore fragmentée. Cependant, certaines organisations mondiales comme l'OCDE commencent à jouer un rôle clé dans l'harmonisation des règles autour de l'utilisation éthique et sécurisée de l'IA.

L'Union Européenne a également pris en main le sujet avec son AI Act, qui vise à encadrer juridiquement certains usages sensibles de l'intelligence artificielle. Ce n’est que le début d’un projet essentiel de régulation.

OpenAI soutient activement ces initiatives internationales car elles permettent non seulement d'uniformiser les régulations mais aussi de fixer un cadre et de faire tendre les acteurs du secteur vers plus de transparence et de responsabilité.

Sécuriser l’IA pour mieux l’exploiter

L'intelligence artificielle offre un potentiel immense mais présente également des risques considérables lorsqu'elle est utilisée à mauvais escient : la désinformation en est l’exemple. Les efforts continus déployés par OpenAI et d'autres acteurs technologiques visent à minimiser ces risques tout en maximisant les bénéfices apportés par ces outils. Il est certain que pour profiter du plein potentiel des outils d’IA, il faudra s’entendre sur des réglementations légales qui donnent un cadre à son utilisation et une limite à ses potentielles dérives.

Heading 1

Heading 2

Heading 3

Heading 4

Heading 5
Heading 6

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur.

Block quote

Ordered list

  1. Item 1
  2. Item 2
  3. Item 3

Unordered list

  • Item A
  • Item B
  • Item C

Text link

Bold text

Emphasis

Superscript

Subscript

Découvrir nos autres articles

Les dernières avancées du monde de la Data et de l'IA et leurs cas d'usage analysés par nos experts techniques et entreprises partenaires. Du contenu exclusif, à la pointe de votre industrie.

Sécurité et lutte contre la désinformation au sein de ChatGPT

L'intelligence artificielle est aujourd'hui au cœur de nombreuses transformations technologiques, économiques et sociales. Si elle offre des opportunités considérables, elle soulève également des préoccupations majeures, notamment en matière de désinformation. Ce phénomène, qui consiste à diffuser intentionnellement des informations fausses ou trompeuses, a pris une ampleur nouvelle avec l'essor des technologies d'IA. Dans cet article, nous explorons les mécanismes de désinformation à l'ère de l'IA, les risques qu'elle présente, ainsi que les solutions mises en place au sein de ChatGPT pour y faire face. Cet article est basé sur l’échange de Paul Mochkovitch, co-fondateur et Tech Lead de Molia, avec Florent Joly, expert en intelligence artificielle et sécurité chez OpenAI.

Découvrir l'article

GraphRAG : L'avenir de la recherche augmentée ?

Dans un monde où les données prolifèrent à une vitesse vertigineuse, la question de l'interaction avec ces informations, en particulier les données non structurées, devient cruciale. Qu'il s'agisse d'images, de vidéos, de textes ou d'enregistrements audio, ces données sans format prédéfini représentent un défi majeur pour l'analyse informatique. C'est ici que le GraphRAG entre en scène, combinant les forces de la génération augmentée par la recherche (Retrieval Augmented Generation, RAG) avec celles des graphes de connaissances. Mais concrètement, de quoi parle-t-on lorsqu’on mobilise ces concepts ?

Découvrir l'article

OCBC : Cas d’usage IA en milieu bancaire

Au cœur des mutations qui redéfinissent le secteur bancaire, l'intelligence artificielle générative (IA Gen) émerge comme un puissant catalyseur de transformation. Cependant, son adoption dans un environnement aussi réglementé que la banque pose des défis uniques. Sous la direction d'Adrien Chenailler, Head of Data Science, la banque a mis en place une structure solide pour identifier, sélectionner et déployer les projets IA ayant le plus de valeur ajoutée. Cet article explore les critères et la méthodologie utilisés par OCBC pour choisir les cas d’usage en IA, tout en s’attardant sur les résultats attendus et les enseignements tirés.

Découvrir l'article

Edouard D’Archimbaud, CTO Kili Technology - Fine-tuning et annotation : comment Kili améliore la qualité de vos jeux de données ?

La qualité des données est la pierre angulaire de l'entraînement des modèles de Machine Learning. Alors comment l'optimiser ? Dans ce troisième épisode de Paroles d'IA, Paul Mochkovitch reçoit Edouard D’Archimbaud, expert en IA et co-fondateur de Kili Technology.

Découvrir l'article

L'implémentation des modèles LLMs à grande échelle : opportunités, défis et retours d'expérience

L’implémentation des modèles de langage à grande échelle (LLMs) ouvre des perspectives inédites dans le domaine de l’IA générative. Toutefois, leur déploiement industriel présente des défis techniques et stratégiques considérables, exigeant une approche rigoureuse et réfléchie. Cet article explore les retours d’expérience d’experts, offrant des clés pour réussir la transition de ces technologies vers des usages concrets en entreprise.

Découvrir l'article