Chargement...

Talk

Défiler

Article précédent: Vooban poursuit sa croissance grâce à l’acquisition de Stratéjia
Prochain article: Comment Vooban encourage ses équipes à bouger ?

26 mars 2024

Dans les coulisses du pouvoir de l’IA : comment ces algorithmes peuvent nous influencer à notre insu

par Hugues Foltz Vice-président exécutif

Intelligence artificielle

On parle souvent de ces fameux algorithmes qui régissent le contenu que nous rencontrons sur les réseaux sociaux. Il suffit de magasiner une paire de bottes une seule fois pour être bombardé de publicités de chaussures pendant quelques semaines.

Avez-vous déjà réfléchi au pouvoir qu’ils exercent sur nos vies? Avec l’explosion de la quantité de données, les applications repoussent constamment leurs limites pour trier, hiérarchiser, recommander et personnaliser l’information grâce à un ensemble de calculs. En d’autres termes, celui-ci contrôle ce que vous voyez sur Internet, l’angle sous lequel vous consommez les nouvelles, vous coupant de certaines informations qu’il juge inintéressantes pour vous et vous proposant du contenu adapté à vos intérêts. Ne percevez-vous pas un certain biais, ici? Comment pouvez-vous vous assurer d’effectuer des choix éclairés si un algorithme a déjà trié toute l’information pour vous? 

Apparemment, lorsque nous achetons sur Amazon, il s’avère qu’un tiers de notre décision est dûe aux algorithmes qui régissent ce site. De façon encore plus étonnante, quand nous choisissons quelque chose sur Netflix, il s’agit de plus de 80% de la décision qui ne nous revient pas.

Le philosophe Spinoza considérait le libre arbitre comme une illusion, puisque bien que nous soyons conscients de nos actions, nous ignorons les causes qui nous poussent à prendre certaines décisions plus que d’autres. En pensant à la façon dont les algorithmes peuvent nous influencer, je ne peux m’empêcher de me rallier à sa vision.

Il existe déjà plusieurs preuves du pouvoir considérable qu’ils peuvent entretenir sur nos vies. Par exemple, mentionnons cette nouvelle vague de faux influenceurs complètement créés par IA qui, une fois de plus, viennent soulever des inquiétudes concernant les standards inatteignables de beauté et de style de vie.

De façon plus inquiétante, certains modèles peuvent inculquer sournoisement des biais dans l’esprit humain. Par exemple, un logiciel de reconnaissance vocale entraîné sur un échantillon d’Américains pourrait ne pas reconnaître d’autres accents, participant ainsi activement aux préjudices subis par des groupes déjà marginalisés.

Peut-être avez-vous entendu parler de la comparaison entre l’offre de TikTok en Chine, comparée à celle aux États-Unis? Sinon, attachez bien vos tuques, car ce que je vais vous raconter vous fera friser le poil sur la tête. 

Bien que TikTok appartienne aux mêmes personnes dans les deux pays, la version proposée en Chine est adaptée pour les enfants, ne proposant que des vidéos éducatives et imposant une limite de 40 minutes par jour pour les moins de 14 ans. Vous n’avez jamais entendu parler de ces règlements? Normal, cette mouture n’est pas disponible ici.

En d’autres mots, le modèle chinois de ce réseau social est modifié selon quelques règles qui altèrent le résultat de façon démesurée. Effectivement, au Canada et aux États-Unis, l’algorithme de TikTok est reconnu pour cerner rapidement les intérêts de son utilisateur de façon à lui proposer le contenu le plus personnalisé possible. Peu importe la nature de ce contenu, l’âge de la personne qui consomme la vidéo ou le nombre de temps qu’elle peut passer chaque jour sur l’application.

Alors, quelle différence aura cette discrète manipulation d’algorithme dans la vie des enfants? Tenez-vous bien : une enquête a demandé à des préadolescents quel métier ils aimeraient exercer plus tard. Aux États-Unis, la réponse la plus populaire a été influenceur. En Chine, cependant, c’était astronaute.

Comment interpréter cette divergence frappante dans les conséquences de cette exposition à deux algorithmes inégaux? Comment réagir au fait qu’une légère dissonance dans le code d’une application en apparence inoffensive peut avoir un tel impact sur le futur d’une personne, mais aussi d’une nation? Avons-nous une responsabilité envers les modèles qui font partie intégrante de nos vies? Avons-nous un quelconque pouvoir?

La connaissance de ce genre de possibilités pourrait, à long terme, conduire à une domination complexe, discrète et sournoise des grandes entreprises du monde numérique. Effectivement, comme nous venons de le voir, les algorithmes possèdent le pouvoir de modifier les règles de l’économie, les choix politiques des électeurs et la vie quotidienne des individus. Sont-ils une menace pour le libre arbitre de chacun

L’intelligence artificielle, quant à elle, pousse les techniques algorithmiques encore plus loin puisqu’elle permet de construire des modèles à partir de données. Ceux-ci ne sont plus créés par les développeurs, mais par une machine à laquelle on a donné un but. Donc, qui peut réellement savoir de quoi est constitué cet ensemble d’algorithmes? De quels biais pourraient-ils être composés? Il n’est pas étonnant que l’intelligence artificielle suscite autant la controverse avec les nombreux enjeux éthiques et les risques sociaux évidents.

 

Il est donc crucial d’évaluer attentivement les effets des algorithmes créés par les sociétés sur ceux qui les utilisent. En fait, il faudrait concevoir un moyen d’informer les gens sur le fonctionnement de chaque modèle et les dangers qui pourraient y être associés. 

Il s’agit d’ailleurs d’une des premières lignes directrices pour s’assurer d’une utilisation sécuritaire et éthique de l’intelligence artificielle : la transparence. Les différentes applications et plateformes devraient toujours rendre compte de leur fonctionnement et de leurs calculs, en plus de pouvoir expliquer à leurs utilisateurs comment leurs algorithmes prennent leurs décisions.

En attendant que la recherche approfondisse l’intersectionnalité entre les algorithmes et les sciences humaines et sociales, et que les régulations émergent, la principale solution est de rester conscient et surtout, vigilant face au pouvoir des algorithmes sur nos vies.