Vers une #désalgorithmisation des #plateformes ?

Bulles de filtres, fake news, procrastination, contenus peu recommandables, atteintes à la « brand safety »… Les algorithmes des plateformes sociales ont mauvaise presse.

L’algorithmisation systématique à des fins de recommandation a fini par créer des boucles de prescription quasi incontrôlables car elles reposent sur des motifs (patterns) contextuels faussés aussi bien dans les contenus eux-mêmes que dans la logique de visionnage qui les accompagne. En voici une cruelle illustration « l’exemple d’une vidéo de dessin animé dans laquelle Donald Duck envoie ses neveux travailler à la mine et qui pourrait déboucher sur la recommandation d’une vidéo très violente sur les conditions de travail des enfants dans certains pays ».

En cause, le manque d’intelligence « humaine » des algorithmes qui est incapable de saisir finement le contexte multifactoriel de la consommation d’un contenu. Un manque d’intelligence qui pourrait donc tous nous rendre idiots…

La situation actuelle est dangereuse pour la démocratie, il est essentiel de trouver des alternatives.De nombreuses études ont montré que si vous êtes indécis, l’ordre dans lequel on vous montre une information et sa fréquence de répétition vont vous influencer. Ces algorithmes vont donc façonner votre opinion à partir de données biaisées.

Pourquoi ces données sont-elles biaisées ? Car le modèle des plateformes était jusqu’alors l’hyper croissance. Et ces algorithmes sont redoutables pour rendre des utilisateurs toujours plus accros au service. S’interroger sur le sens des choses et l’impact sociétal des algorithmes n’a jamais été une priorité pour le management de Facebook, comme le montrent les différentes enquêtes autour du réseau social dans l’élection de Trump.

Le public étant sensibilisé aux écueils des algorithmes, désormais, seule une personne sur trois considère les plateformes sociales comme des sources d’informations fiables.

Comment se sortir de ce bourbier algorithmique ? En faisant progresser la technologie, avec par exemple une intelligence artificielle plus évoluée. D’où les investissements colossaux des plateformes dans la recherche fondamentale en IA. Mais rien ne nous dit que ces progrès seront suffisants. Alors pourquoi ne pas plutôt prendre la tangente ?

Google a récemment annoncé des publicités sans personnalisation. Twitter permet depuis quelques semaines de désactiver l’algorithme mettant en avant les meilleurs contenus de sa timeline, correspondant au souhait des utilisateurs de pouvoir revenir à une expérience originelle de la plateforme. YouTube de son côté a su se rectifier en vol la potentielle catastrophe industrielle YouTube Kids. Cette app promettait un cadre de visionnage sûr et personnalisé pour les enfants. Mais son algorithme avait été déjoué pour afficher des contenus trompeurs (une souris ressemblant à Mickey se retrouvait au final torturée, entre autres) ou peu pédagogiques (unboxing de Kinder Surprise pendant des heures…). La plateforme est alors revenue à un contrôle éditorial.

 

(sources La Réclame / déc 2019 – Olivier Ertzscheid, maître de conférences en sciences de l’information et blogueur – Elisa Celis  et Nisheeth Vishn, École Polytechnique Fédérale de Lausanne)