À la fin de l’hiver, le parquet de Paris a ouvert une enquête contre X pour des soupçons de manipulation de son algorithme, à des fins d’ingérence. La justice française a demandé à voir les algorithmes. Refus catégorique de X, qui accuse la France d’utiliser son enquête à des fins politiques. C’est une affaire complexe. […]
Quand youtube n’affiche pas une vidéo du’une chaine à ceux qui y sont abonnés c’est que ça commence à déconner entre les attendus des utilisateurs (spectateurs et producteurs) parce qu’une vidéo parle du 11 septembre ou alors quand tu as des femmes en 3d en bikini (cf jdg). Là on a bien une décision éditoriale : on ne parle pas du 11 septempbre, et on ne montre pas de femmes. Or, on ne demande pas à youtube de rendre de compte sur sa ligne éditoriale et ça leur permet d’êter en roue libre totale et d’abuser de leur position dominante.
La décision n’est pas tant idéologique, mais à des implications financières (les publicitaires)
Mais oui, de la transparence sur ce sujet serait la bienvenue car la porte est ouverte aux dérives, comme tu le mentionnes. Que ça soit claire : je suis favorable à une transparence sur les biais des algorithmes des plateformes et leur responsabilisation dans le cas de biais jugés dangereux sans intervention de leur part, mais défavorable à leur responsabilisation dans les contenus qui sont postés sur les plateformes. La nuance est compliquée à saisir, mais il ne faut pas traiter la plateforme comme si elle autorisait et poussait sciemment ce genre de contenu, mais plutôt condamner leur inaction prolongée sur une situation de risque manifeste.
Quand youtube n’affiche pas une vidéo du’une chaine à ceux qui y sont abonnés c’est que ça commence à déconner entre les attendus des utilisateurs (spectateurs et producteurs) parce qu’une vidéo parle du 11 septembre ou alors quand tu as des femmes en 3d en bikini (cf jdg). Là on a bien une décision éditoriale : on ne parle pas du 11 septempbre, et on ne montre pas de femmes. Or, on ne demande pas à youtube de rendre de compte sur sa ligne éditoriale et ça leur permet d’êter en roue libre totale et d’abuser de leur position dominante.
La décision n’est pas tant idéologique, mais à des implications financières (les publicitaires)
Mais oui, de la transparence sur ce sujet serait la bienvenue car la porte est ouverte aux dérives, comme tu le mentionnes. Que ça soit claire : je suis favorable à une transparence sur les biais des algorithmes des plateformes et leur responsabilisation dans le cas de biais jugés dangereux sans intervention de leur part, mais défavorable à leur responsabilisation dans les contenus qui sont postés sur les plateformes. La nuance est compliquée à saisir, mais il ne faut pas traiter la plateforme comme si elle autorisait et poussait sciemment ce genre de contenu, mais plutôt condamner leur inaction prolongée sur une situation de risque manifeste.