31 oct. 2024
Les élections américaines à l’ère de l’IA: à quoi s’attendre?
Intelligence artificielle
Ça y est, les premières élections américaines depuis l’avènement de l’intelligence artificielle générative approchent à grands pas. Cette technologie, capable de créer du contenu convaincant de façon autonome, soulève des préoccupations majeures quant à ses répercussions sur la démocratie. Qu’est-ce que ça change, demandez-vous? Les experts craignent depuis un certain temps que l’usage d’hypertrucages (deepfakes), alimente une vague de désinformation, sème le doute et influence le vote des électeurs américains.
Les électeurs à la portée de la mAIn
Comment l’IA générative influence-t-elle les élections aujourd’hui?
Si l’IA générative offre une tonne de nouvelles occasions pour atteindre les électeurs, par exemple des publicités ciblées qui rendent les campagnes plus efficaces, elle pose aussi de nouveaux défis en matière de désinformation.
Comme on s’y attendait, les hypertrucages créés par l’IA se multiplient alors que les républicains et les démocrates se livrent bataille.
Elon Musk a récemment fait l’objet de vives critiques pour avoir diffusé une fausse vidéo à ses 192 millions d’abonnés sur X concernant la campagne électorale de la démocrate Kamala Harris. Or, le PDG de Tesla, de X et de SpaceX est publiquement un fervent partisan de Donald Trump, son opposant. Vous pouvez probablement deviner ce qui en a résulté…
Dans cette vidéo, une technologie de clonage vocal fait dire à Kamala Harris des choses qu’elle n’a jamais prononcées, comme le fait que le président Joe Biden est sénile, qu’elle ne connait rien à la façon de diriger un pays et qu’elle n’est candidate que parce qu’elle est une femme issue de la diversité.
Si cette vidéo a suscité des inquiétudes quant à la capacité de l’IA à induire en erreur les électeurs à l’approche des élections, c’est qu’à aucun moment celle-ci n’indiquait qu’il s’agissait d’un canular. Un citoyen mal informé des petites guerres entre les partis politiques aurait très bien pu y croire et décider de ne pas voter pour cette candidate.
Donald Trump a aussi été l’objet d’hypertrucages qui ont été largement partagés en ligne. Des images ont montré l’ex-président en train de fuir la police ou d’être arrêté. Même si ces scènes n’ont jamais eu lieu, il est difficile pour un citoyen ordinaire de le savoir – nous nous fions tous les jours à des photos et des vidéos pour nous informer.
Des risques inquiétants
Quels sont les risques associés aux hypertrucages et à la désinformation?
Les experts préviennent que ces technologies pourraient être utilisées pour orienter les électeurs vers un candidat ou les en éloigner, voire pour les inciter à ne pas se rendre aux urnes. Imaginez une seconde comment de faux contenus pourraient attiser les tensions dans un environnement comme celui des États-Unis, ou les citoyens sont déjà très polarisés!
L’utilisation de l’IA dans les élections soulève des questions éthiques importantes. Est-il acceptable d’utiliser des hypertrucages pour influencer les électeurs? Est-ce que tromper le public et le manipuler de la sorte pourrait nuire à la démocratie, rien de moins?
Réglementation et futur
Comme nous l’avons vu dans l’article du mois passé, il n’existe pas de loi à proprement parler aux États-Unis pour encadrer de telles utilisations de l’IA. Des règlements sont toutefois en place sur les divers réseaux sociaux. Par exemple, certaines politiques exigent que les contenus générés par IA soient clairement identifiés comme tels pour éviter la confusion. Ils ne sont pas suffisants.
En raison de cette récente vague de désinformation et de l’approche de la journée de vote des prochaines élections américaines, les géants de la technologie comme Google, Meta et OpenAI ont de nouveau été invités à renforcer les règles de sécurité relatives à l’intelligence artificielle générative.
Dans le cadre des efforts visant à protéger l’intégrité des élections qui auront lieu cette année, c’est tout un groupe d’entreprises qui a signé le Tech Accord to Combat Deceptive Use of AI in 2024 Elections, visant à renforcer la prévention, la détection, la réaction et l’identification de la source du contenu électoral trompeur. Parmi ces compagnies signataires, en plus des géants mentionnés plus haut, on retrouve TikTok, Amazon, X, IBM, Anthropic et Microsoft. Cet accord comprend également des efforts visant à sensibiliser le public sur la manière de se protéger contre les hypertrucages.
Cette initiative apportera-t-elle des résultats concrets? Est-ce que l’IA générative sera utilisée pour propulser la démocratie en rejoignant les jeunes électeurs ainsi que les groupes marginalisés, ou servira-t-elle à titre d’arme de manipulation pour les campagnes électorales? Il faudra rester à l’affût jusqu’au 5 novembre prochain pour constater l’évolution de cette polémique.
En attendant, je vous conseille de vérifier à deux fois, voire trois, toute l’information importante que vous trouvez en ligne; les faux contenus nous submergent déjà!