Selon l'entreprise états-unienne OpenAI, des groupes russes et chinois utilisent l'IA pour des opérations d'influence

L'entreprise technologique états-unienne OpenAI, qui a mis au point le chatbot d'intelligence artificielle ChatGPT, affirme avoir identifié cinq groupes, basés dans différents pays, qui ont utilisé sa technologie pour tenter de manipuler l'opinion publique.

Jeudi, OpenAI a présenté les dernières tendances en matière d'opérations d'influence secrètes. Elle a déclaré que cinq groupes, basés en Russie, en Chine, en Iran et en Israël, utilisaient l'IA générative pour une série de tâches, telles que l'invention de noms et de biographies pour les comptes de réseaux sociaux, la création de commentaires et la traduction de textes.

Le contenu publié par ces groupes portait sur un large éventail de sujets, notamment l'invasion de l'Ukraine par la Russie, le conflit entre Israël et le groupe islamique Hamas dans la bande de Gaza, et la politique aux États-Unis.

Selon la firme, un groupe basé en Chine a généré des textes en anglais, en japonais et dans d'autres langues qui critiquaient le rejet dans l'océan par le Japon d'eau traitée et diluée provenant de la centrale nucléaire endommagée de Fukushima Dai-ichi. Ces textes ont été publiés sur des plateformes en ligne.

Le rapport souligne le risque d'opérations d'influence par l'IA générative à l'approche de l'élection présidentielle états-unienne et d'autres événements.