Fake News

Fausses nouvelles: les algorithmes au banc des accusés

  • PubliĂ© le 14 juillet 2018 Ă  15:31
  • ActualisĂ© le 14 juillet 2018 Ă  15:32
Au c?ur de la diffusion des fausses nouvelles, les algorithmes utilisés par les sites web et les réseaux sociaux mettent trop souvent en avant des informations fausses ou manipulées, avec de lourdes conséquences

Au c?ur de la diffusion des fausses nouvelles, les algorithmes utilisés par les sites web et les réseaux sociaux mettent trop souvent en avant des informations fausses ou manipulées, avec de lourdes conséquences.


- Quel rĂŽle jouent les algorithmes?

Ces programmes informatiques, chargés de prendre des décisions tout seuls, occupent une place essentielle mais invisible. Ils cherchent des liens imperceptibles dans de gigantesques masses de données qui leur permettent de gérer des transactions financiÚres, de personnaliser le coût d'une assurance ou de réaliser des diagnostics médicaux.

Dans les médias et sur les réseaux sociaux, ils classent les résultats sur les moteurs de recherche, gÚrent le fil d'actualité de Facebook, censurent des contenus indésirables (racisme, pornographie, violence...), recommandent des vidéos ou des articles.
Des tùches complexes, parfois sensibles, sont ainsi déléguées à ces systÚmes de plus en plus autonomes, des "boßtes noires" qui développent leur intelligence artificielle grùce aux données.

- Une vision biaisée du monde?

"Les algorithmes peuvent nous guider Ă  travers la masse d'informations disponible sur internet", soulignait en juin Margrethe Vestager, la commissaire europĂ©enne Ă  la concurrence. Mais "le risque est qu'on voie uniquement ce que ces programmes - et les entreprises qui les utilisent - choisissent de nous montrer", remarque-t-elle.En rĂ©organisant les contenus en ligne, les algorithmes crĂ©ent ce qu'on appelle des "bulles de filtres" oĂč les opinions divergentes disparaissent.

Pendant les Ă©lections amĂ©ricaines de 2016, Facebook a Ă©tĂ© accusĂ© de favoriser la candidature de Donald Trump en laissant circuler de fausses informations militantes, souvent anti-Clinton, enfermant ses sympathisants dans un univers oĂč tout le monde pense comme eux.

Les algorithmes ont aussi tendance Ă  rendre les opinions extrĂȘmes "plus visibles que jamais", selon Lorena Jaume-Palasi, fondatrice de l'ONG Algorithm Watch. Cependant, leurs effets sur l'opinion des lecteurs sont difficiles Ă  mesurer, nuance-t-elle: on ne peut attribuer par exemple aux seuls algorithmes la montĂ©e des nationalismes en Europe.

- Propagation des fausses nouvelles?

Les algorithmes des réseaux sociaux ont pour mission principale de faire circuler les contenus les plus appréciés, sans juger de leur véracité. Ils peuvent donc amplifier largement la diffusion de fausses nouvelles.

Sur YouTube notamment, les milliers de vidéos défendant des thÚses complotistes sont beaucoup plus "recommandées" que les contenus vérifiés, selon Guillaume Chaslot, un ex-ingénieur de la plateforme. Ces contenus polémiques, avançant par exemple que l'exploration de la lune ou le réchauffement climatique sont des mensonges, font réagir les internautes et retiennent davantage leur attention. Ceux-ci passent alors plus de temps sur la plateforme et les médias traditionnels sont décrédibilisés, estime Guillaume Chaslot.

- Des algorithmes plus éthiques?

Pour plusieurs observateurs, les algorithmes peuvent ĂȘtre reprogrammĂ©s "au service de la libertĂ© humaine".Les ONG rĂ©clament avant tout plus de transparence. "Ces entreprises devraient pouvoir faire contrĂŽler leurs produits (leurs codes), sans forcĂ©ment rĂ©vĂ©ler leurs formules", comme on le fait pour Coca-Cola, souligne Lorena Jaume-Palasi.

La commission française chargée de la protection de la vie privée, la Cnil, a recommandé fin 2017 un contrÎle étatique des algorithmes mais aussi une vraie éducation de leurs utilisateurs qui devrait "permettre à chaque humain de comprendre les ressorts de la machine".

Le nouveau rÚglement européen sur la protection des données aborde également la question des algorithmes en général: on peut désormais contester la décision d'un algorithme et "obtenir une intervention humaine" en cas de conflit.

Les grandes plateformes du web ont commencé à prendre des mesures ces derniers mois: Facebook cherche à repérer et labelliser automatiquement les nouvelles douteuses, tandis que YouTube a renforcé le contrÎle humain des vidéos qu'il diffuse pour les enfants.
Des "repentis" de la Silicon Valley, réunis dans l'ONG Center for humane technology, affirment cependant que l'on ne peut pas attendre que le changement vienne d'entreprises qui reposent sur +l'économie de l'attention+ comme YouTube, Facebook, Snapchat, ou Twitter car "cela va à l'encontre de leur modÚle économique".

 AFP

guest
1 Commentaires
CHABAN
CHABAN
7 ans

Quels algorithmes m'attirent sur imaz ??? (^^ webmaster)