Israël, la Russie, la Chine et l'Iran exploiteraient ChatGPT pour des campagnes de désinformation
- Julien Russo
- Il y a 6 mois
- 💬 Réagir
- 🔈 Écouter
Utiliser les prouesses de l'intelligence artificielle générative à des fins malhonnêtes pour créer des campagnes de désinformation massive sur internet ? Non, aucun pays n'oserait dépasser cette limite ! Et pourtant... Certains pays qui sont au cœur de l'actualité en ce moment ont osé, selon une récente révélation d'OpenAI. L'entreprise américaine a déclaré que son célèbre chatbot accessible sur internet et via une application iOS et Android a été utilisé par Israël, la Russie, la Chine et l'Iran pour réaliser des campagnes de désinformation sur les réseaux sociaux.
OpenAI révèle une information surprenante
Dans un récent rapport, OpenAI a révélé que ses outils d'intelligence artificielle ont été utilisés par des opérations en Israël, en Chine, en Iran et en Russie pour créer et propager de la désinformation sur les conflits en cours en Ukraine et à Gaza. Selon le créateur de ChatGPT, cinq opérations d'influence clandestines ont exploité les modèles d'IA de l'entreprise pour produire des textes et des images destinés à tromper l'opinion publique.
Ces campagnes ont ciblé des sujets sensibles, notamment l'invasion de l'Ukraine par la Russie, les bombardements meurtriers à Gaza, les élections en Inde, ainsi que la politique en Europe et aux États-Unis. De plus, des critiques du gouvernement chinois par des gouvernements étrangers ont également été au cœur de ces campagnes.
Quel intérêt de recourir à l'IA pour des campagnes de désinformation à grande échelle ?
Les réseaux de désinformation ont utilisé l'IA pour accroître considérablement leur productivité. En exploitant les modèles d'OpenAI, ces acteurs malveillants ont pu automatiser et optimiser plusieurs aspects de leurs campagnes. Par exemple, les capacités avancées de traitement du langage naturel de ChatGPT ont été utilisées pour générer rapidement et efficacement des textes convaincants, tels que des articles de propagande, des faux rapports de presse et des commentaires sur les réseaux sociaux, imitant souvent le ton et le style des sources légitimes pour semer la confusion.
L'IA a également été employée pour déboguer des codes, ce qui a permis aux gouvernements de peaufiner les logiciels malveillants et les scripts utilisés pour infiltrer et manipuler les plateformes de médias sociaux. Ces outils améliorés peuvent contourner les systèmes de sécurité et les algorithmes de détection des plateformes, ce qui rend immédiatement les campagnes de désinformation plus difficiles à repérer et à contrer.
De plus, les modèles d'OpenAI ont été utilisés pour effectuer des recherches approfondies sur l'activité publique des réseaux sociaux. On retrouve l'analyse des tendances, l'identification des sujets sensibles et la surveillance des réactions du public. Ces informations permettent aux spécialistes de la désinformation d'affiner leurs messages pour maximiser leur impact et d'ajuster rapidement leurs stratégies en fonction des évolutions en temps réel.
Les acteurs identifiés et leurs méthodes
Plusieurs acteurs de la désinformation, connus et liés à des États, ont été identifiés comme utilisant les outils d'OpenAI. Parmi eux :
- Doppelganger, une opération russe détectée en 2022, visant à diminuer le soutien à l'Ukraine.
- Spamouflage, un réseau chinois promouvant les intérêts de Pékin à l'international.
- Bad Grammar, une opération russe précédemment non signalée, utilisant des modèles pour déboguer des codes et créer des commentaires politiques.
- Une campagne pro-israélienne menée par l'entreprise STOIC, basée à Tel-Aviv, générant des articles et des commentaires sur X, Facebook et Instagram.
OpenAI a mis en place des systèmes de sécurité robustes pour rendre difficile l'utilisation de ses outils par les auteurs de désinformation. À voir si ce sera efficace sur le long terme...
Source
Suite à ce sujet sensible, nous avons volontairement désactivé les commentaires de cet article.
Télécharger l'app gratuite ChatGPT