Stratégie OpenAI pour les élections mondiales de 2024

Le 15 janvier 2024, OpenAI a décidé d'élaborer de manière proactive sa stratégie pour garantir une utilisation responsable et éthique de ses technologies d'IA, telles que ChatGPT et DALL E. Cette stratégie se concentre sur plusieurs domaines clés :

  • Prévention des abus
  • Amélioration de la politique d'utilisation
  • Mécanisme de notification
  • Transparence dans le contenu généré par l'IA
  • Intégration des informations en temps réel

Un aspect clé de sa stratégie est la collaboration avec l'Association Association nationale des secrétaires d'État (NASS) pour diriger les utilisateurs vers des informations de vote fiables, par exemple en guidant les utilisateurs américains vers CanIVote.org pour les questions liées aux élections.

OpenAI met l'accent sur l'amélioration continue de ses politiques et de ses outils en fonction des commentaires des utilisateurs et de la collaboration d'experts, soulignant ainsi son engagement à soutenir le processus démocratique grâce à une utilisation responsable de l'IA.

L’objectif était exclusivement l’utilisation sûre et responsable des outils d’IA pendant les élections. Cela implique des efforts pour prévenir les abus tels que la création de deepfakes trompeurs, les opérations d’influence ou les chatbots usurpant l’identité des candidats. Ils emploient des équipes rouges, recueillent les commentaires des utilisateurs et des partenaires externes et mettent en œuvre des mesures d'atténuation de sécurité pour minimiser les dommages potentiels. OpenAI affine continuellement ses outils d'IA pour améliorer l'exactitude factuelle et réduire les biais.

L'organisation met périodiquement à jour ses politiques d'utilisation de ChatGPT et de ses API pour s'adapter à la manière dont les gens utilisent ou peuvent abuser de ces technologies. Cela inclut des restrictions sur l'utilisation de ses outils pour des campagnes politiques, du lobbying ou la création de chatbots qui se font passer pour de vraies personnes ou institutions. Ils interdisent également les applications qui découragent la participation démocratique, comme la fausse représentation des processus électoraux.

Les nouveaux modèles GPT intègrent une fonctionnalité qui permet aux utilisateurs de signaler des violations potentielles, améliorant ainsi la capacité de surveiller et de remédier aux abus.

De plus, ils développent un outil de classification de provenance pour détecter les images générées par DALL E, même avec des modifications courantes. ChatGPT s'intègre aux rapports d'actualité en temps réel pour fournir aux utilisateurs des informations précises et opportunes, y compris les attributions des sources. Cette initiative vise à aider les électeurs à mieux évaluer les informations et à prendre des décisions éclairées.

L’essentiel est qu’OpenAI améliore la transparence autour de l’origine des images générées par l’IA. Ils mettent en œuvre des informations d'identification numériques pour les images produites par DALL-E 3 afin de coder cryptographiquement la provenance du contenu.