Les « deepfakes » générés par l’intelligence artificielle (IA) qui imitent les personnalités politiques et les superstars sont beaucoup plus répandus que les cyberattaques assistées par l’IA, selon une étude révolutionnaire de la division DeepMind de Google. Cette étude représente la première tentative de DeepMind de quantifier les utilisations malveillantes les plus courantes de la technologie de pointe de l’IA.
L’étude a révélé que la production d’images, de vidéos et de sons réalistes mais falsifiés de personnalités publiques est presque deux fois plus fréquente que l’utilisation abusive suivante de l’IA générative : la création de fausses informations à l’aide d’outils textuels tels que les chatbots pour diffuser des informations erronées sur l’internet. L’objectif principal de ceux qui utilisent abusivement les outils d’IA générative serait d’influencer l’opinion publique, une tendance qui représente 27 % des cas évalués. Cette localisation amplifie les questions relatives à l’impact que les « deepfakes » pourraient avoir sur les élections dans le monde entier.
Au cours des dernières semaines, des deepfakes du Premier ministre britannique Rishi Sunak et d’autres leaders mondiaux ont été diffusés sur des plateformes telles que TikTok, X (anciennement Twitter) et Instagram. Ces incidents ont suscité des inquiétudes quant à l’influence qu’ils pourraient avoir sur les électeurs, en particulier à l’approche des élections générales en Grande-Bretagne. Malgré les efforts déployés par les plateformes de médias sociaux pour donner une image de marque à ces contenus ou s’en débarrasser, on craint que le public ne reconnaisse pas ces « deepfakes » comme étant faux, ce qui pourrait influencer l’opinion des électeurs.
Ardi Janjeva, chercheur associé à l’Alan Turing Institute, a souligné l’importance des conclusions de l’étude selon lesquelles les contenus générés par l’IA qui contaminent les informations accessibles au public pourraient « fausser notre connaissance collective de la réalité sociopolitique ». M. Janjeva a fait remarquer que même si l’impact immédiat des « deepfakes » sur les votes n’est pas clair, SEO Agence les risques à long terme pour la démocratie sont considérables.
Cette recherche menée par DeepMind, sous la direction de Sir Demis Hassabis, s’inscrit dans le cadre d’un effort visant à évaluer les risques potentiels associés aux outils d’IA générative, qui ont été rapidement mis au point et diffusés par les grandes entreprises technologiques modernes à la recherche de gains. Alors que des ressources telles que ChatGPT d’OpenAI et Gemini de Google se répandent, les entreprises d’IA surveillent progressivement la diffusion de fausses informations ainsi que d’autres articles nuisibles ou contraires à l’éthique créés par leurs technologies.
En mai, OpenAI a publié une étude indiquant que des entités associées à la Russie, à l’Extrême-Orient, à l’Iran et à Israël ont utilisé ses outils pour créer et diffuser de la désinformation. Nahema Marchal, auteur direct de l’étude de DeepMind, a déclaré : « De nombreuses questions compréhensibles ont été soulevées au sujet de cyberattaques vraiment sophistiquées facilitées par ces outils. En revanche, ce que nous avons vu, ce sont des utilisations abusives assez courantes de la GenAI [comme les deepfakes] qui pourraient passer un peu plus inaperçues ».
Les chercheurs de Yahoo DeepMind et de Jigsaw ont examiné environ 200 incidents d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Ces situations provenaient des plateformes de marketing des médias sociaux By et Reddit, ainsi que de blogs en ligne et d’articles de presse. L’analyse a montré que la plupart des situations d’utilisation abusive impliquaient des outils facilement disponibles, nécessitant une expertise spécialisée minimale, permettant ainsi à un plus large éventail de mauvais acteurs célèbres d’exploiter l’IA générative.
Le deuxième motif le plus fréquent d’utilisation abusive de l’IA est le gain monétaire. Il s’agissait notamment de fournir des services pour produire des « deepfakes », de générer des représentations nues de personnes authentiques ou d’utiliser l’IA pour produire de grands volumes de contenu, y compris de faux articles de presse.
Les conclusions de l’enquête de DeepMind influenceront la manière dont l’entreprise améliore ses évaluations pour vérifier la sécurité de base des conceptions d’IA. On espère que cette recherche influencera également la manière dont les concurrents et les autres parties prenantes perçoivent et abordent les inconvénients liés à l’IA générative.
Alors que la technologie de l’IA continue d’évoluer, il est essentiel de connaître et d’atténuer ses utilisations malveillantes. L’étude de DeepMind éclaire le paysage actuel de l’utilisation abusive de l’IA, en soulignant la nécessité d’adopter des mesures solides pour protéger l’opinion publique et les opérations démocratiques contre les effets potentiellement considérables des deepfakes et de la désinformation générés par l’IA.