Transparence algorithmique
Les algorithmes sont les gardiens de nos informations :
- La plupart des contenus regardés en ligne sont sélectionnés par un algorithme : les plateformes en ligne sont les passerelles vers la majorité d’Internet. Il y a tellement de contenu que la seule façon d’y accéder est qu’un algorithme le fasse apparaître pour nous. La curation des algorithmes peut prendre de nombreuses formes : une liste de résultats de recherche sur Google, une sélection de publications sur le fil d’actualité d’Instagram, un produit recommandé sur Amazon. Rien que sur YouTube, 70% des visionnages de vidéos sont recommandés par un algorithme.
- On sait peu de choses sur ces algorithmes : les algorithmes sélectionnent et classent le contenu en analysant d’énormes quantités de données. Les modèles qui en résultent impactent des milliards de vies, mais leurs mécanismes de décision restent opaques : les utilisateurs ne savent pas pour quoi ils optimisent, ni quel contenu est favorisé. De plus, ce que l’on pourrait savoir sur ces systèmes n’est pas divulgué par les plateformes. Les plateformes cachent l’objectif et la conception du modèle, ainsi que ses données d’entraînement ; et ne fournissent pas non plus d’API permettant aux chercheurs de surveiller le comportement des algorithmes.
- Ils ne sont pas neutres : il n’y a pas de meilleure réponse unique à la sélection d’une poignée de contenus parmi des milliards d’options. Pour ce faire, les algorithmes doivent faire des hypothèses sur le monde et optimiser pour une mesure particulière du succès – celle qui est définie par les plates-formes. Tout comme les éditeurs humains, les algorithmes ont toujours des biais, qu’ils soient explicites ou implicites.
Les algorithmes n’ont pas votre meilleur intérêt à l’esprit :
- Les algorithmes optimisent l’engagement par rapport aux intérêts des utilisateurs : les entreprises de médias sociaux sont légalement tenues de maximiser les profits des actionnaires. Ce bénéfice est souvent corrélé avec le nombre d’annonces diffusées aux utilisateurs. Par conséquent, la maximisation de l’engagement (clics, commentaires et temps de visionnage) est souvent prioritaire sur les intérêts de l’utilisateur.
- Les algorithmes peuvent exploiter les biais humains : selon Mark Zuckerberg, le contenu extrême et sensationnaliste génère plus d’engagement des utilisateurs. Les systèmes de recommandation ont appris à exploiter ces préjugés humains bien connus, en promouvant de manière disproportionnée des contenus de division ou de conspiration.
- Les algorithmes sont exploités par des adversaires égoïstes : les biais de l’algorithme peuvent être exploités pour manipuler sa grande influence. Il y a des experts dans ce jeu de propagande informatique, généralement ceux qui ont les motivations politiques ou financières les plus fortes. Le manque de transparence rend impossible la garantie de conditions de concurrence équitables, tant pour les utilisateurs que pour les créateurs de contenu.
La transparence est nécessaire pour rendre les algorithmes fiables :
- La transparence est un premier pas vers la responsabilisation des plateformes : beaucoup pensent que les plateformes devraient être responsables du contenu qu’elles promeuvent. Nous travaillons donc à assurer la transparence sur le comportement de leurs algorithmes, afin que les plateformes puissent être tenues responsables des décisions importantes qu’elles prennent en matière de conservation. Par exemple, parler publiquement de théories du complot nuisibles qui étaient promues par YouTube à des centaines de millions de personnes a conduit YouTube à prendre plus de 30 mesures pour réduire l’amplification du contenu préjudiciable.
- Vers l’autonomisation des utilisateurs : le travail des plateformes – modérer les forums publics et concevoir les algorithmes qui accèdent au contenu – n’est pas facile. Il n’y a pas de modération parfaite, ni d’algorithme parfait. Il y a des compromis. Nous croyons que les utilisateurs devraient avoir le contrôle de ce qu’ils veulent voir, au lieu d’être inconsciemment influencés par un système avec des incitations mal alignées. Grâce à la transparence et à la sensibilisation du public, nous visons à réduire l’asymétrie d’information entre les utilisateurs et les plateformes, une première étape nécessaire pour que les utilisateurs retrouvent le pouvoir et le contrôle sur les informations avec lesquelles ils interagissent.