ACCès & régulation de l’inFormation

L’accès et la régulation de l’information en ligne sont un enjeu majeur qui s’inscrit pleinement dans la controverse autour du contrôle d’internet. Ce débat soulève des questions à la fois politiques, éthiques et liées à l’information. Particulièrement dans un contexte où la viralité des contenus sur les réseaux sociaux, la modération des plateformes et la manipulation de l’opinion publique par des acteurs malveillants, comme la propagande ou les fake news, sont de plus en plus problématiques. En effet, les outils numériques offrent un accès instantané à un flot d’informations, mais ce libre accès est aussi source de défis : des contenus erronés, voire dangereux, peuvent se diffuser à grande échelle.

Les enjeux sont multiples : protéger les citoyens tout en garantissant leur droit d’accéder à une information fiable. Il s’agit également de répondre à la question de la souveraineté numérique, c’est-à-dire de la capacité d’un pays à contrôler son espace numérique tout en préservant la liberté d’expression. La régulation des plateformes, leur responsabilité dans la gestion des contenus et la protection des utilisateurs, notamment des enfants, sont des priorités essentielles pour éviter les dérives telles que le cyberharcèlement, les arnaques en ligne ou la prolifération de contenus haineux.

Ce débat touche également aux droits fondamentaux des individus : garantir à chacun un accès libre à l’information, tout en protégeant sa vie privée et sa sécurité. Cette régulation doit permettre d’assurer la protection des utilisateurs contre des dérives comme les deepfakes, l’utilisation abusive de l’intelligence artificielle et d’autres formes de manipulation de l’opinion.

En somme, l’accès et la régulation de l’information en ligne ne sont pas seulement des questions techniques ou légales, mais bien des enjeux de société qui touchent à la fois la liberté, la sécurité et l’éthique de notre utilisation d’internet.

Quelques définitions

Information

Une information est un ensemble de données, de faits, d’événements ou de connaissances qui sont communiqués ou partagés afin de transmettre un sens ou un contenu à ceux qui les reçoivent.

Elle peut être sous forme de texte, d’image, de son, de vidéo, ou de tout autre moyen de communication.

donnée

D’après le Règlement Général sur la Protection des Données (RGPD), « toute information se rapportant à une personne physique identifiée ou identifiable ».

Elle peut être identifiée directement ou indirectement, grâce à un identifiant ou à un ou plusieurs éléments propres à son identité.

Par exemple : nom, photo, adresse, profil culturel ou social, données de localisation, données de santé, numéro de carte d’identité, identifiant en ligne.

La protection des données personnelles est un autre enjeu du contrôle d’internet.

Standardisation de l’information

La standardisation de l’information par le chiffrage consiste à convertir des données complexes en chiffres ou en statistiques, facilitant leur traitement, comparaison et compréhension. Ce processus uniformise les informations pour qu’elles puissent être analysées et partagées de manière homogène, notamment sur les réseaux sociaux et dans le journalisme de données.

Cette invention est apparue avec le web 2.0, qui devient une plateforme ou un intermédiaire pour faire circuler ces informations. Comme dans un port automatisé qui gère un seul type de conteneur, l’information est traitée de manière similaire en octets (0 ou 1), permettant de circuler sur des infrastructures communes. Cette standardisation simplifie les échanges, tout comme les biens physiques sont uniformisés pour automatiser les transactions.

Les défis liés à l’accès et à la régulation de l’information en ligne se déclinent à travers plusieurs problématiques spécifiques. D’un côté, il s’agit de lutter efficacement contre la désinformation et les fake news, qui se propagent rapidement sur les réseaux sociaux. D’un autre côté, la frontière entre communication institutionnelle et propagande politique est de plus en plus floue, soulevant des questions sur la manipulation de l’opinion publique. Enfin, la régulation de la censure et de la liberté d’expression sur les plateformes devient une problématique centrale pour assurer un équilibre entre protection et liberté.

lutter contre la désinformation et

les fake news

Lutter contre la désinformation et les fake news est devenu un enjeu crucial dans notre société numérique. Dans un monde où les opinions se forment en ligne, certains groupes ou individus sont prêts à tout pour faire passer une idée, quitte à utiliser des fake news pour y parvenir. Ces informations fausses, souvent diffusées de manière virale, ont des conséquences graves sur l’opinion publique et la démocratie. Il devient donc essentiel de mettre en place des mécanismes efficaces pour détecter, contrer et prévenir la propagation de ces contenus trompeurs.

C’est quoi une fake news ?

Une fake news est une information fabriquée délibérément pour tromper le public. Elle peut se présenter sous diverses formes, telles que des articles, des vidéos ou des images. Les images « fake » sont des photos ou vidéos modifiées, retouchées ou sorties de leur contexte pour induire en erreur. Mais les fake news ne se limitent pas à cela. Elles incluent aussi des informations fausses ou manipulées, comme des citations inventées, des données déformées, des rumeurs ou des vidéos truquées (deepfakes). Tous ces types de fake news sont utilisés pour manipuler l’opinion publique ou créer des divisions, en contournant souvent la vérification des faits grâce à leur apparence crédible. La difficulté réside dans le fait que le terme « fake news » s’applique aussi bien aux contenus créés par des individus que par des entités étatiques ou des médias traditionnels. Les réseaux sociaux ne sont donc pas les seuls responsables de la désinformation.

QUELLES SONT LES RAISONS DE DIFFUSER DES FAKE NEWS ?

Raisons

économiques

Les fake news sont parfois utilisées dans un but lucratif. Des stratégies comme l’astroturfing, où des groupes ou entreprises créent une fausse apparence de soutien populaire, permettent de manipuler l’opinion publique pour générer des clics et des profits. Par exemple, les « fermes à clics », qui emploient de faux comptes pour promouvoir des contenus biaisés, sont utilisées pour attirer l’attention et augmenter les revenus publicitaires.

Raisons

propagandistes

La manipulation de l’information à des fins politiques est une autre raison majeure. Des entreprises ou gouvernements peuvent utiliser des fake news pour cibler des groupes spécifiques, comme le montre l’exemple de Cambridge Analytica, qui a manipulé les préférences électorales en utilisant des données personnelles et des informations erronées. Cette manipulation vise à promouvoir une idéologie ou à influencer des élections, ce qui est une forme de contrôle de l’opinion publique.

Censure et
détournement de l’information

Dans certains cas, les fake news servent à censurer ou à détourner l’attention de certains faits. Les autorités ou des groupes de pouvoir peuvent utiliser de fausses informations pour faire taire des voix dissidentes, dissimuler des vérités dérangeantes ou justifier des actions immorales, contribuant ainsi à la diffusion de récits favorables à leurs intérêts.

Pourquoi réguler les fake news ?

La nécessité de réguler les fake news est de plus en plus évidente à mesure que l’accès à l’information se transforme. Autrefois, nous cherchions activement des informations via des moteurs de recherche en nous rendant directement sur des sites internet. Aujourd’hui, les réseaux sociaux, tels que Facebook, nous offrent une vision filtrée et triée des contenus, souvent orientée selon nos intérêts personnels. Cette situation crée des « bulles de filtre », où l’information est de moins en moins neutre et où nous sommes exposés à des contenus qui renforcent nos convictions plutôt qu’à une diversité d’opinions. Les algorithmes favorisent les contenus viraux, souvent sensationnalistes, au détriment de la véracité des informations, ce qui contribue à la propagation des fake news. De plus, l’intelligence artificielle permet de créer des fake news de plus en plus réalistes, comme des images ou vidéos manipulées (deepfakes), rendant la désinformation encore plus difficile à détecter. Ce phénomène soulève des questions fondamentales sur nos droits à un accès libre et sécurisé à l’information, tout en protégeant notre vie privée. La régulation est donc essentielle pour éviter les dérives et garantir la protection des utilisateurs face à ces manipulations de l’opinion.

Que dit la loi ?

La désinformation, bien qu’étant un phénomène problématique, n’est pas en soi illégale. L’Union européenne ne peut donc l’interdire, car cela remettrait en question la liberté d’expression qui est l’une de ses valeurs. Cependant, la limite entre une information erronée et une simple opinion peut être floue, rendant difficile la tâche de prouver qu’une information est véritablement fausse. Certaines exceptions existent, notamment dans les cas de diffamation ou d’outrage, qui relèvent du droit pénal des États membres.

L’Union européenne a mis en place plusieurs mesures pour limiter la propagation des fake news, notamment en régulant les grandes plateformes numériques. 

Le Code de bonnes pratiques contre la désinformation, lancé en 2018 et renforcé en 2022, constitue l’un des outils majeurs de cette stratégie. Bien que ce code ne soit pas contraignant, il engage ses signataires, comme Google ou TikTok, à prendre des mesures pour contrer les fausses informations. Les plateformes sont notamment tenues de veiller à ce que les producteurs de fake news ne tirent pas profit de la publicité et doivent fournir des informations détaillées sur leurs algorithmes à la Commission européenne.

Le Digital Services Act (DSA), entré en vigueur en août 2023, renforce cette régulation en obligeant les grandes plateformes à modérer activement les contenus, à lutter contre la désinformation, à dévoiler leurs systèmes de recommandation de contenu et à évaluer les risques associés à leurs services.

Concernant l’intelligence artificielle, l’AI Act vise à encadrer les systèmes d’IA à haut risque, incluant ceux susceptibles de générer des deepfake. Ce règlement impose aux créateurs de contenu utilisant des systèmes d’IA de signaler clairement lorsque des vidéos ou images ont été manipulées.

En somme, ces législations européennes cherchent à responsabiliser les plateformes numériques et à protéger les citoyens contre la désinformation, tout en respectant la liberté d’expression.

Pour lutter contre les fake news, plusieurs leviers d’action sont nécessaires : la mise en place de mécanismes de vérification des informations par des acteurs tiers fiables, la responsabilisation des plateformes en ligne dans la modération des contenus, et l’éducation numérique des citoyens pour développer leur esprit critique. Il est également essentiel de renforcer la transparence des algorithmes utilisés pour diffuser les informations, afin de limiter la propagation des contenus erronés. Enfin, une régulation stricte des contenus sur les réseaux sociaux pourrait limiter les dérives liées à la désinformation à grande échelle.

LE CAS FACEBOOK

Donald Trump, banni de Facebook

Le bannissement de Donald Trump de Facebook en janvier 2021 a été une réponse directe à la diffusion de propos anti-musulmans, d’incitation à la haine et de fake news, voire à la manipulation de l’opinion publique, notamment pendant sa campagne présidentielle. D’autres réseaux sociaux comme Twitter, Instagram, YouTube, Twitch et Snapchat ont aussi suspendu ses comptes, pour les mêmes raisons. Donald Trump a alimenté des rumeurs infondées et des théories complotistes, comme la prétendue fraude électorale, et a largement utilisé la plateforme pour diffuser ces messages. Un exemple marquant fut la publication d’une deepfake représentant Kamala Harris, la vice-présidente élue, en tenue communiste. Ces images manipulées étaient conçues pour nuire à son image et créer une fausse réalité. En plus de cela, Trump a partagé des contenus trompeurs sur Joe Biden, renforçant des fausses informations qui circulaient déjà sur la plateforme. Ces actions ont conduit Facebook à suspendre son compte, une décision également motivée par les événements du Capitole le 6 janvier 2021, où des partisans de Trump ont pris d’assaut le Congrès américain, soutenus par ses propos en ligne. Cependant, certains accusent les plateformes d’agir trop tard et remettent en question leur responsabilité face à la prolifération de fake news et de contenus haineux.

Nouvelles politiques de modération

Cependant, cette décision de Facebook a été suivie d’un retournement stratégique de Mark Zuckerberg, le patron de Meta (anciennement Facebook). Après avoir mis en place un partenariat avec l’International Fact-Checking Network pour contrer les fake news pendant la campagne présidentielle de 2016, Zuckerberg a progressivement supprimé les dispositifs de modération et de vérification des faits. Facebook a cessé de contrôler de manière rigoureuse la véracité des informations diffusées, permettant ainsi à des contenus viraux et potentiellement trompeurs de se propager largement. Cela a alimenté la désinformation, et l’algorithme de la plateforme favorisait les contenus les plus viraux plutôt que ceux qui étaient factuellement exacts. Zuckerberg a notamment été critiqué pour avoir pris cette direction afin de maximiser l’engagement sur la plateforme et, en fin de compte, soutenir Trump dans sa campagne électorale, ce qui a pu offrir des avantages économiques à Facebook grâce à la monétisation de ces contenus.

La situation s’est encore aggravée avec l’utilisation croissante de l’intelligence artificielle (IA) pour produire des contenus trompeurs, comme les deepfakes. L’exemple de la deepfake de Kamala Harris, où elle était faussement représentée en tenue communiste, montre la puissance de l’IA pour manipuler l’information et créer des images et vidéos extrêmement réalistes qui peuvent être difficiles à distinguer de la réalité. L’IA facilite non seulement la production rapide de ces contenus trompeurs, mais elle peut aussi renforcer leur crédibilité. Cela pose un réel défi pour les plateformes numériques qui, si elles ne mettent pas en place une modération efficace, risquent d’amplifier la propagation de la désinformation.

En conclusion, l’absence de modération efficace sur Facebook, la suppression du fact-checking et la priorité donnée à la viralité des contenus ont permis à des fake news, soutenues par des technologies telles que l’IA, de se propager à grande échelle. Cela a non seulement mis en danger la confiance du public dans les informations partagées sur la plateforme, mais a aussi alimenté une manipulation de l’opinion publique qui risque de continuer si des mesures rigoureuses ne sont pas mises en place.

LE CAS TIKTOK

Polémiques

TikTok, l’une des plateformes les plus populaires auprès des jeunes, est de plus en plus critiquée pour son rôle dans la propagation de désinformation et de contenus nuisibles. De nombreux pays ont interdit l’application en raison de risques d’espionnage liés à son propriétaire chinois, ByteDance, ainsi que pour ses impacts négatifs sur les jeunes utilisateurs, exposés à des contenus violents et dangereux. En 2024, la Commission européenne a ouvert une procédure contre TikTok, et la France a envisagé une commission d’enquête sur ses effets psychologiques sur les mineurs.

Un des principaux problèmes soulevés est l’impact de l’algorithme de TikTok, qui favorise la viralité des vidéos sans prendre en compte leur véracité. Contrairement à d’autres plateformes, TikTok promeut immédiatement un contenu à large échelle, ce qui amplifie la propagation des fake news. L’algorithme privilégie l’engagement, permettant ainsi aux informations erronées de se propager plus vite que celles vérifiées. Ce format court de vidéos (15-60 secondes) limite également le temps nécessaire à une réflexion critique, rendant la désinformation plus difficile à contrer.

De plus, TikTok renforce l’effet des « bulles de filtre », où les utilisateurs sont confinés dans des environnements d’information qui valident leurs croyances. Cette dynamique, couplée à un défilement continu de contenu, entraîne une consommation passive de l’information et empêche l’analyse approfondie. Les jeunes générations, en particulier, sont vulnérables à ce phénomène, ce qui soulève des inquiétudes concernant la manipulation de l’opinion publique et les risques pour la démocratie.

Que fait TikTok ?

TikTok met en place plusieurs mesures pour lutter contre la désinformation, accessibles dans le « Guide sur les dangers de la désinformation » (mis à jour le 7 janvier 2025).

Voici les points clés :

  1. Règles pour lutter contre la désinformation : TikTok interdit la désinformation sur des sujets sensibles comme la santé et les élections, supprimant ou restreignant l’accès à ces contenus.
  2. Recherche d’indices contextuels : TikTok recommande de vérifier la source d’un contenu, d’être attentif aux vérifications d’authenticité et d’identifier les contenus générés par l’IA.
  3. Utilisation de sources d’informations fiables : Des bannières informatives incitent les utilisateurs à vérifier les sources, en particulier sur des sujets sensibles.
  4. Détection de la désinformation en ligne : TikTok collabore avec des vérificateurs de faits pour signaler les informations non vérifiées et permet aux utilisateurs de suivre le statut de ces signalements.

la communication institutionnelle

vs la PROPAGANDE

La communication institutionnelle et la propagande politique sont toutes deux des formes de communication, mais elles ont des objectifs, des méthodes et des contextes différents. Voici les principales différences entre les deux :

Communication institutionnelle

Propagande politique

Définition

La communication institutionnelle désigne l’ensemble des actions de communication qu’une organisation (comme une entreprise, une administration, une association, etc.) met en place pour promouvoir son image, ses valeurs, ses actions et ses projets auprès de différents publics (internes ou externes).

Elle vise à établir une relation de confiance avec ces publics, en utilisant différents canaux de communication, tels que les médias, les réseaux sociaux, les événements, ou encore les rapports publics.

La censure politique désigne l’action de limiter ou d’interdire la diffusion de certains contenus, informations ou opinions qui sont jugés comme contraires aux intérêts, aux valeurs ou aux objectifs d’un pouvoir politique, d’un gouvernement ou d’une autorité.

Elle peut concerner des discours, des médias, des publications, ou même des artistes et des intellectuels, en vue de contrôler l’opinion publique, de supprimer des critiques à l’égard du pouvoir en place ou d’empêcher la diffusion d’idées considérées comme subversives ou perturbatrices. Cette censure peut se manifester par la suppression de publications, la restriction d’accès à certains contenus, la surveillance des communications ou encore la répression de certains mouvements ou groupes d’opposition.

Objectifs

Son objectif est de promouvoir l’image, les valeurs et les actions d’une organisation (comme une entreprise, une administration, une association, etc.). Elle cherche à établir une relation de confiance avec différents publics (internes ou externes) en véhiculant des informations objectives sur l’organisation, ses projets, ses résultats et ses engagements. Elle peut aussi viser à sensibiliser, informer ou éduquer le public, tout en maintenant une image positive et cohérente.

Son but est de manipuler l’opinion publique en faveur d’un parti, d’une idéologie ou d’un groupe politique. Elle cherche souvent à influencer les croyances, les attitudes et les comportements des citoyens en utilisant des messages qui peuvent être partiaux, exagérés ou manipulés. L’objectif est d’obtenir un soutien politique, souvent à travers des moyens émotionnels et unilatéraux.

méthode & ton

Elle repose généralement sur des messages structurés, factuels et adaptés à la diversité des publics. Elle privilégie la transparence, la clarté et la crédibilité pour construire une relation de confiance sur le long terme. Elle utilise divers moyens, tels que des rapports publics, des communiqués de presse, des sites internet, des événements, etc.

Elle utilise des techniques de persuasion plus intensives et émotionnelles, souvent en simplifiant ou déformant l’information. Elle peut recourir à des stéréotypes, des caricatures ou des slogans pour créer une réponse émotionnelle forte et mobiliser l’opinion publique. L’accent est mis sur des messages qui servent à renforcer une idéologie particulière, parfois au détriment de la vérité objective.

publics visés

Elle cherche à être transparente et équilibrée. Les messages visent à informer de manière impartiale, même si, comme toute communication, ils sont parfois orientés pour mettre en valeur certains aspects de l’institution. Cependant, la crédibilité reste un élément clé.

La transparence et l’objectivité sont souvent sacrifiées pour rendre la persuasion plus efficace. Les informations sont souvent sélectives et orientées pour manipuler l’opinion publique dans une direction particulière, quitte à omettre des faits ou à déformer la réalité.

contexte & éthique

Elle s’inscrit généralement dans un cadre éthique, avec l’intention d’informer, d’expliquer et de construire une image positive de l’institution. Bien qu’elle puisse avoir un impact sur l’image de l’institution, elle reste plus neutre et factuelle.

Elle se distingue par sa forte implication idéologique et, dans certains cas, peut flirter avec l’éthique en manipulant l’information pour influencer l’opinion publique de manière unilatérale. L’objectif est avant tout de servir des intérêts politiques.

Pour conclure, la communication institutionnelle vise à informer, sensibiliser et construire une relation de confiance avec des publics divers. En revanche, on parle de propagande politique lorsqu’on cherche à manipuler et influencer l’opinion publique pour soutenir une idéologie ou un parti, souvent en utilisant des techniques émotionnelles et des informations biaisées.

AFFAIRES MARQUANTES

LES POLITICIENS SUR TIKTOK

Plusieurs politiciens ont décidé de se lancer sur des plateformes populaires comme TikTok afin de toucher un public plus jeune, souvent difficile à atteindre par les canaux traditionnels.

Emmanuel Macron

Emmanuel Macron, président de la République française, a également été présent sur TikTok, notamment pour promouvoir des messages positifs sur des sujets comme la vaccination contre la COVID-19 et pour toucher une population jeune. Le compte a été utilisé pour partager des moments informels, des clips vidéo lors de ses visites officielles, ainsi que pour renforcer son image en tant que leader moderne et accessible.

Jean-Luc Mélenchon

Jean-Luc Mélenchon, leader de la France Insoumise, est l’un des premiers hommes politiques français à s’être intéressé à TikTok. Il a créé un compte sur cette plateforme pour atteindre une audience jeune, notamment lors des élections présidentielles de 2022. En publiant des vidéos parfois humoristiques ou engagées, il a cherché à diffuser ses messages politiques tout en utilisant les codes de TikTok (vidéos courtes, musiques populaires, tendances virales). Cela a fait partie de sa stratégie pour capter l’attention des jeunes électeurs.

Pourquoi sont-ils sur les réseaux sociaux ?

L’objectif principal de ces politiques est d’élargir leur audience et de se connecter directement avec un public plus jeune, souvent plus sceptique vis-à-vis des médias traditionnels. TikTok et Twitch permettent un type de communication plus directe et plus informelle, où les politiciens peuvent montrer un aspect plus humain et authentique de leur personnalité, ce qui contraste avec les discours formels habituels des hommes politiques. De plus, ces plateformes offrent une chance de s’engager avec des utilisateurs qui sont moins sensibles aux formats traditionnels comme les débats télévisés ou les publicités politiques classiques.

Cependant, cette évolution n’est pas sans risques : les politiciens doivent jongler entre des messages politiques sérieux et le ton décontracté qui est typique de ces plateformes. Cela peut parfois diluer la gravité des sujets abordés, ou être perçu comme une tentative de récupération politique.

Jean-Luc Mélenchon est également présent sur Twitch. En quoi cela pourrait-il poser un problème ?

En 2021, lors de la campagne présidentielle, il a organisé des streams (diffusions en direct) sur Twitch, où il discutait de ses idées, répondait aux questions des internautes et débattait de sujets politiques variés.

Sa présence sur cette plateforme de streaming, majoritairement fréquentée par des jeunes et des passionnés de jeux vidéo, marquait une volonté de se démarquer des méthodes traditionnelles de campagne. Mélenchon a utilisé cette plateforme pour montrer un côté plus décontracté et accessible de la politique, loin des discours classiques. En interagissant directement avec ses abonnés, il a cherché à créer une relation plus directe avec son public et à rendre la politique plus compréhensible et engageante pour ceux qui se sentent souvent éloignés des processus électoraux traditionnels.

Sur Twitch, un raid désigne une fonctionnalité qui permet à un streamer de rediriger son audience vers un autre streamer à la fin de sa propre diffusion en direct. L’objectif d’un raid est de partager son public avec un autre créateur de contenu, généralement pour l’aider à augmenter sa visibilité et à faire découvrir de nouveaux streamers à ses propres abonnés. Le raid devient problématique lorsqu’il provient d’un politique, car l’autre streamer peut être associé au politique et doit rendre des comptes à sa communauté. Cela porte atteinte au droit de vote et à la liberté d’opinion politique. En France, le vote est strictement personnel, libre et secret. Le droit de vote est un droit fondamental protégé par la Constitution de la Ve République du 4 octobre 1958 (article 3).

Instrumentalisation de l’influence des créateurs par le gouvernement

Certains critiques estiment que l’utilisation de créateurs de contenu comme McFly et Carlito représente une forme d’instrumentalisation de l’influence. Ces créateurs, très populaires sur des plateformes comme YouTube, ont un impact considérable sur leur public, notamment sur les jeunes générations. L’idée que le gouvernement puisse se servir de leurs millions d’abonnés pour transmettre un message institutionnel pourrait être perçue comme une stratégie manipulatrice, où les valeurs d’authenticité et de liberté associées aux créateurs de contenu sont mises au service d’une cause gouvernementale. Cela peut être perçu comme une tentative de « publicité déguisée » pour des causes politiques, ce qui soulève la question de l’indépendance et de l’authenticité du message.

Cette stratégie permet de toucher un public jeune souvent manipulable en utilisant les influenceurs. Ce contenu sponsorisé est une manipulation cachée qui s’appuie sur la confiance des abonnés envers leurs influenceurs et empêche le libre arbitre.

En quoi le temps de parole des politiques n’est plus respecté en ligne ?

Le respect du temps de parole des politiciens est souvent une règle essentielle dans les médias traditionnels (comme la télévision ou la radio), surtout lors des débats publics ou des campagnes électorales. Cela permet d’assurer une certaine égalité entre les différents candidats ou partis, en garantissant que chacun ait une chance équitable de s’exprimer. Cependant, lorsque les politiques s’expriment en ligne, cette règle de respect du temps de parole se trouve souvent ignorée ou moins contrôlée. Voici quelques raisons pour lesquelles cela se produit :

1. Liberté et absence de régulation stricte

Contrairement aux débats télévisés, où le temps est chronométré et partagé équitablement, les plateformes en ligne permettent une liberté totale de s’exprimer, parfois de manière excessive.

2. Formats plus flexibles

Sur des plateformes comme Twitter, YouTube, ou Facebook, les politiciens n’ont pas de limite de temps, ce qui les pousse parfois à multiplier les interventions longues ou à publier des vidéos non cadrées.

3. Contrôle direct sur la communication

En ligne, les politiciens ont un contrôle total sur leur message et la manière dont ils s’expriment. Sur les plateformes numériques, la règle est déterminée par le politicien lui-même ou son équipe de communication.

4. Débat de fond et messages fragmentés

Les plateformes en ligne sont souvent utilisées pour diffuser des messages fragmentés et immédiats, plutôt que pour organiser des débats structurés.

5. Effet de la « médiatisation personnelle »

Les politiques en ligne créent une forme de médiatisation personnelle, où leur présence numérique est construite autour de leur propre image et non d’un cadre institutionnel. Dans cet espace, l’interaction se fait en grande partie avec leurs partisans ou une audience engagée qui attend de voir davantage d’expressions de la part du politicien.

6. Le rôle des algorithmes

Les plateformes sociales sont souvent gouvernées par des algorithmes qui favorisent les contenus les plus populaires ou les plus engageants, indépendamment de leur durée.

7. Impossibilité de contrôle externe

Le contenu en ligne est souvent moins surveillé et peut être posté à tout moment. L’absence d’un cadre temporel clair rend difficile la régulation du temps de parole.

Le non-respect du temps de parole des politiciens en ligne découle principalement du manque de régulation stricte, de la liberté totale qu’offrent les plateformes numériques et de la capacité des politiques à contrôler leur propre message. Cette flexibilité permet à chacun d’exprimer ses idées sans les contraintes traditionnelles, mais elle complique aussi la gestion équitable du temps de parole et de la présence à l’antenne des candidats, peu importe leur popularité et leurs moyens, comme on pourrait l’attendre dans des débats ou des émissions régulées.

Dépriorisation des contenus politiques

Meta, la société mère de Facebook et Instagram, a récemment modifié sa politique de modération concernant les contenus politiques, marquant un changement significatif dans la manière dont ces plateformes gèrent les discours publics. En janvier 2025, Mark Zuckerberg a annoncé un assouplissement des règles de modération.

Meta a également cessé de promouvoir activement les contenus politiques en supprimant les recommandations de publications politiques provenant de comptes non abonnés. Ainsi, pour qu’un utilisateur voie du contenu politique, il doit suivre directement le compte qui le publie, limitant ainsi leur diffusion à un public plus restreint et moins propice à la viralité.

Les politiques de plusieurs réseaux sociaux souhaitent désormais limiter le contenu politique et préfèrent mettre en avant du contenu sur le quotidien, la famille ou le mariage (comme Facebook).

Réguler la censure et la liberté d’expression sur la plateforme

La liberté d’expression est un droit fondamental qui permet à chacun de s’exprimer librement, sans crainte de répression. Toutefois, cette liberté se heurte souvent à la question de la censure, qui peut être un outil légitime pour protéger la société, mais également un moyen de répression lorsqu’elle est mal utilisée. Connaître la limite entre censure et inaction est crucial, car un contrôle excessif peut mener à un monopole de l’information et à la tyrannie de ceux qui détiennent le pouvoir. D’un autre côté, l’absence de régulation peut laisser place à la propagande et à la diffusion de discours haineux ou dangereux. Les limites au contrôle d’internet sont une question complexe : jusqu’où peut-on réguler sans tomber dans des pratiques trop strictes qui menacent la liberté d’expression ? Ce débat soulève des enjeux éthiques et politiques essentiels pour préserver un équilibre juste et démocratique.

La liberté d’expression est un droit fondamental qui permet à chaque individu de communiquer ses idées, opinions et croyances librement et sans crainte de censure ou de répression, dans le respect des lois et des droits des autres. Ce droit inclut la possibilité de s’exprimer par la parole, l’écriture, les arts, les médias et, plus récemment, par les plateformes numériques. Cependant, bien que cette liberté soit essentielle à la démocratie, elle connaît des limites lorsque les propos portent atteinte à l’ordre public, à la sécurité, à la dignité humaine ou incitent à la violence et à la haine.

La liberté d’expression est un terme très controversé dans le monde actuel, notamment en raison de la réutilisation de ce droit pour banaliser des propos inappropriés, haineux et racistes. Alors qu’elle est censée permettre à chacun de s’exprimer librement, certains groupes, en particulier l’extrême droite, l’exploitent comme un argument pour diffuser de la haine et imposer des idées politiques dangereuses. Cette instrumentalisation de la liberté d’expression engendre un climat où les discours de division se propagent, parfois sous couvert de liberté. Parallèlement, l’expression « On peut plus rien dire !« , souvent utilisée par l’extrême droite qui regrette l’époque où les personnes ignorées, racisées ou discriminées n’avaient pas la liberté de parole. Ce phénomène reflète une frustration face à ce qui est perçu comme une forme de censure excessive, mais il soulève aussi la question de l’équilibre entre protéger la liberté d’expression et empêcher la propagation de discours nuisibles.

La censure est l’action de restreindre, d’interdire ou de contrôler l’accès à certaines informations, idées ou contenus dans le but de protéger des intérêts spécifiques, comme la sécurité publique, la moralité ou l’ordre social. Elle peut se manifester sous différentes formes et intervient souvent lorsqu’il est estimé qu’un contenu est dangereux, inapproprié ou nuisible pour certains individus ou groupes.

Les types de censure incluent :

– Censure numérique : comme interdire des applications ou des sites internet, ou restreindre l’accès à certaines plateformes en ligne.

– Censure médiatique : cela peut consister à mettre au silence des individus ou à interdire certains discours dans les médias.

– Censure sociale : invisibiliser des sujets, des événements ou des opinions, afin de contrôler ce qui est vu ou entendu par le public.

– Censure légale : comme la mise en place de restrictions d’âge sur des contenus pour surveiller ce que les jeunes regardent ou pour les protéger de certains sujets inappropriés (comme la violence ou le sexe).

    Toutefois, la censure peut aussi être perçue positivement lorsqu’elle est utilisée pour protéger des groupes vulnérables, en interdisant par exemple des propos offensants, discriminatoires ou violents. Elle peut également être utile pour éviter l’exposition à des sujets trop sensibles pour un jeune public, comme la guerre, qui pourrait perturber leur compréhension ou leur bien-être. Lorsqu’elle est mesurée et ciblée, la censure peut donc être un outil de protection et de régulation nécessaire pour maintenir un équilibre entre liberté d’expression et protection des individus.

    la réglementation

    Une liste des lois encadrant la liberté d’expression en ligne :

    1. Loi visant à renforcer la lutte contre la haine en ligne (France, 2021)

    Cette loi impose aux plateformes en ligne de supprimer rapidement (en 24 heures) les contenus haineux, discriminatoires ou incitant à la violence, sous peine de sanctions. Elle vise à lutter contre la propagation de discours haineux et à protéger les utilisateurs des risques liés aux discours extrémistes et violents.

    2. Loi visant à sécuriser et à réguler l’espace numérique (SREN, France, 2024)

    La loi SREN a pour objectif de renforcer la régulation des plateformes en ligne en matière de sécurité et de lutte contre les contenus illicites. Elle introduit de nouvelles mesures pour protéger les citoyens contre les contenus nuisibles et garantir une meilleure transparence des pratiques des plateformes numériques.

    3. Communications Decency Act (USA, 1996) – Section 230

    La Section 230 de cette loi américaine est un pilier législatif permettant aux plateformes en ligne de ne pas être tenues responsables des contenus générés par leurs utilisateurs. Elle offre une immunité aux fournisseurs de services internet en ce qui concerne les propos offensants ou illégaux postés par des utilisateurs, à condition qu’ils agissent de manière raisonnable pour retirer ces contenus lorsqu’ils sont signalés.

    4. Digital Services Act (DSA, Union Européenne, 2022)

    Le DSA vise à réguler les plateformes numériques de l’UE pour garantir un environnement en ligne plus sûr. Elle impose aux plateformes de modérer activement les contenus, de lutter contre les contenus illégaux (incitation à la haine, désinformation, produits dangereux) et d’assurer la transparence de leurs pratiques, notamment en ce qui concerne les algorithmes de recommandation et les publicités ciblées. Elle accorde une attention particulière à la protection des mineurs en ligne, en limitant la collecte et l’utilisation de leurs données personnelles.

    5. Digital Markets Act (DMA, Union Européenne, 2022)

    Bien que principalement axé sur la régulation des marchés numériques et la prévention des pratiques anticoncurrentielles, le DMA a un impact sur la liberté d’expression en ligne, car il force les grandes plateformes (comme Google, Facebook, Apple) à offrir un espace plus équitable et ouvert pour les créateurs de contenu et les utilisateurs, limitant ainsi les pratiques monopolistiques qui pourraient nuire à la diversité des opinions.

    6. Règlement Général sur la Protection des Données (RGPD, Union Européenne, 2018)

    Bien que principalement axé sur la protection des données personnelles, le RGPD a un impact significatif sur la liberté d’expression en ligne, car il impose aux plateformes de respecter la vie privée des utilisateurs. Il a également un impact indirect sur la liberté d’expression en garantissant que les données des utilisateurs sont protégées et que leur consentement est requis avant la collecte de ces données, y compris pour la modération du contenu.

    7. Loi Avia (France, 2020)

    Bien que partiellement censurée par le Conseil constitutionnel, la loi Avia avait pour objectif de renforcer la lutte contre la haine en ligne en obligeant les plateformes à supprimer rapidement les contenus haineux et discriminatoires. Elle imposait des sanctions en cas de non-respect des délais et des obligations de modération.

    Ces lois illustrent les efforts déployés pour réguler la liberté d’expression en ligne tout en garantissant la sécurité des utilisateurs, la protection des mineurs, et la lutte contre les discours haineux, la désinformation et les contenus illégaux.

    les procédures de TikTok contre la haine en ligne

    TikTok met en place des mesures strictes pour lutter contre les discours haineux sur sa plateforme, en identifiant et supprimant les contenus et comptes qui enfreignent ses règles communautaires. Le discours haineux est défini comme toute attaque, menace, déshumanisation ou dégradation envers un individu ou un groupe basé sur des caractéristiques personnelles immuables telles que la race, l’ethnie, la religion, l’orientation sexuelle, le sexe, l’identité de genre, la maladie ou le handicap.

    TikTok interdit les discours et idéologies haineux, qu’ils soient exprimés sous forme de texte, images, sons, dessins, mèmes, gestes ou symboles. L’entreprise utilise une combinaison de technologies de détection automatisée et de modérateurs humains pour surveiller et supprimer les contenus nuisibles. Les discours haineux peuvent se manifester à travers des attaques directes, telles que des insultes dégradantes, ou indirectes, comme des blagues stéréotypées ou des théories du complot.

    En cas de victime de discours haineux, TikTok encourage les utilisateurs à signaler les contenus concernés, garantissant l’anonymat des personnes signalant des incidents. La plateforme propose également des outils de sécurité permettant de contrôler qui peut interagir avec les utilisateurs et leur contenu. TikTok met ainsi l’accent sur la protection du bien-être des utilisateurs en luttant contre les comportements haineux et en fournissant des ressources de soutien.

    QU’EN EST-IL DE LA RÉACTION DES INTERNAUTES ?

    Après le rachat de Twitter par Elon Musk, rebaptisé X, la nouvelle politique de modération a suscité de vives réactions parmi les internautes. Plusieurs entreprises ont décidé de quitter la plateforme, notamment en raison de la gestion laxiste des fake news et de l’absence de sanction contre les discours haineux et les contenus toxiques. Selon une interview pour Ouest France, la modération insuffisante a conduit à une prolifération de discours haineux et de contenus nuisibles, rendant la plateforme difficile à supporter pour certains utilisateurs.

    Cette situation a entraîné une perte de crédibilité de X, qui est désormais perçu par certains comme un espace moins fiable pour les informations. En réponse à cela, un collectif a lancé un logiciel, Hello Quitte X, afin d’encourager les utilisateurs à quitter la plateforme et à migrer vers des réseaux sociaux jugés plus sains, loin de l’influence de contenus problématiques. Le climat sur X semble ainsi plus toxique, et cette nouvelle politique pourrait avoir des conséquences durables sur l’engagement des utilisateurs et la réputation de la plateforme.

    ASSOUPLISSEMENT DES RÈGLES DE MODÉRATION CHEZ META

    Meta, la société mère de Facebook et Instagram, a récemment modifié ses politiques concernant la mise en avant de contenus politiques sur ses plateformes. En janvier 2025, Mark Zuckerberg a annoncé un assouplissement des règles de modération, levant certaines restrictions sur des sujets sensibles tels que l’immigration, le genre ou la sexualité. Cette décision vise à favoriser la liberté d’expression, mais suscite des inquiétudes quant à une possible augmentation des discours haineux et des contenus nuisibles.

    Un des changements notables dans cette nouvelle politique est l’utilisation accrue de la technique du shadow banning (ou shadowban), qui consiste à limiter discrètement la visibilité des contenus sans en informer l’utilisateur. Au lieu de bannir un compte, Meta choisit de réduire la portée de ses publications, rendant ses messages moins visibles à la communauté sans les supprimer explicitement.

    Facebook utilise cette technique dans le cadre de sa modération pour limiter la visibilité de certains contenus qu’il juge nuisibles, violant ses règles communautaires ou susceptibles de propager de la désinformation, des discours haineux ou d’autres contenus problématiques. Cependant, ces décisions sont souvent prises par les algorithmes de la plateforme et pas toujours de manière transparente. De plus, cette méthode a été critiquée pour son manque de clarté, car les utilisateurs ne sont pas informés de la dépriorisation de leurs contenus, ce qui peut sembler injuste ou arbitraire.

    Ces modifications interviennent alors que Meta fait face à une pression accrue pour se conformer aux réglementations européennes, comme le Digital Services Act, qui impose des règles strictes en matière de modération des contenus en ligne. Cette évolution vise à trouver un équilibre délicat entre garantir la liberté d’expression et répondre aux exigences légales, tout en contrôlant la diffusion de discours potentiellement nuisibles.

    LE CAS TIKTOK

    L’interdiction de TikTok aux Etats-Unis

    En 2020, l’administration de Donald Trump a tenté d’interdire TikTok aux États-Unis, invoquant des préoccupations liées à la sécurité nationale. Les autorités américaines ont exprimé des inquiétudes selon lesquelles l’application, qui appartient à la société chinoise ByteDance, pourrait permettre au gouvernement chinois de récupérer des données personnelles des utilisateurs américains. La rumeur stipulait que ces données pouvaient être utilisées à des fins d’espionnage, bien que TikTok ait toujours nié toute intention malveillante et affirmé que ses serveurs étaient basés hors de Chine, notamment à Singapour. De plus, le patron de TikTok, Zhang Yiming, a refusé de céder la supervision de l’application aux autorités américaines, notamment à un conseil de surveillance américain, ce qui a alimenté les tensions. En réponse à cette menace d’interdiction, Donald Trump a tenté de forcer une vente de TikTok à une entreprise américaine, avant que la situation ne se calme après son départ de la Maison Blanche. Après la fin de son mandat, TikTok a retrouvé une certaine stabilité, mais la question de la sécurité des données reste au centre du débat. Paradoxalement, Trump s’est par la suite félicité d’avoir, à son époque, mis sous pression l’entreprise, estimant avoir protégé les intérêts américains.

    Le droit des états à interdire des applications, l’exemple de la Chine

    Il est légal pour un État de limiter l’accès à certaines applications, en particulier pour des raisons de sécurité nationale, de santé publique ou de protection de la démocratie. Un exemple notoire est celui de la Chine, qui bloque des applications et réseaux sociaux étrangers, comme WhatsApp, en raison de son contrôle strict sur l’information. Le gouvernement chinois a développé ses propres plateformes comme WeChat ou Weibo, qui sont fortement surveillées et censurées. Bien que cela permette à la Chine de maintenir un contrôle sur ses citoyens et d’éviter l’influence de l’étranger, cette situation a des conséquences néfastes pour les Chinois, qui sont coupés du monde extérieur, limitant leur capacité à échanger avec des personnes de l’étranger. À long terme, cette forme d’isolement numérique empêche une ouverture mondiale des idées et des cultures, renforce la propagande d’État et pourrait mener à des tensions géopolitiques. De la même manière, un pays peut décider de bloquer des applications comme TikTok si celles-ci sont jugées nuisibles à ses intérêts nationaux, à la sécurité publique ou à l’ordre social. Ces décisions, bien que légales dans certains contextes, soulèvent souvent des questions sur la liberté d’expression et les conséquences pour les droits individuels.

    Réactions suite aux restrictions de TikTok aux Etats-Unis

    Lorsque TikTok a été menacé d’interdiction aux États-Unis, certains utilisateurs ont exprimé leur mécontentement, soulignant l’impact potentiel de cette interdiction sur leur liberté d’expression et sur les opportunités professionnelles qu’ils avaient développées sur la plateforme. TikTok étant un outil majeur pour les créateurs de contenu, notamment les jeunes générations, nombreux ont été ceux qui ont défendu leur droit à utiliser l’application. Il semble que, malgré les débats sur la sécurité des données, la majorité des internautes ait plutôt cherché des moyens alternatifs de continuer à utiliser TikTok, notamment en passant par des VPN ou en attendant des résolutions judiciaires.

    Peut-on supprimer une application suite à des accusations ?

    En France, comme dans d’autres pays européens, des lois sont en place pour protéger les utilisateurs, notamment les mineurs, contre les contenus nuisibles. TikTok a été accusé à plusieurs reprises de mettre en avant des contenus potentiellement dangereux, y compris des vidéos incitant au suicide, à la dépression ou à des comportements autodestructeurs. Face à ces accusations, plusieurs mesures pourraient être prises. Par exemple, les autorités françaises pourraient décider d’imposer à TikTok un renforcement de ses politiques de modération, l’obligation de revoir son algorithme pour limiter la diffusion de tels contenus, ou de repousser l’âge minimum pour l’utilisation de l’application. Certaines voix militent même pour l’interdiction totale de TikTok, estimant que les risques pour la santé mentale des jeunes sont trop importants. Toutefois, la loi française impose que les plateformes prennent des mesures de prévention et de modération, mais elle ne permet pas une interdiction systématique, sauf en cas de violation grave des droits des utilisateurs. La question de la régulation des applications est donc un équilibre délicat entre la liberté d’expression et la protection de l’intérêt public, avec des débats sur le rôle des plateformes numériques dans la société.

    Depuis le rachat de Twitter par Elon Musk, plusieurs internautes et entreprises ont décidé de supprimer leurs comptes X, en raison de préoccupations concernant la gestion des contenus et de la modération. Nombreux sont ceux qui se sont tournés vers des alternatives comme BlueSky, Mastodon ou Threads, espérant trouver des plateformes plus éthiques et respectueuses de leurs valeurs. L’émergence de ces alternatives montre qu’il existe un levier pour tenter de remplacer un réseau social problématique. Cependant, malgré le bad buzz qui a entouré le changement de direction de X, la plateforme reste l’un des réseaux sociaux les plus utilisés au monde. Sa popularité et son ancrage dans le quotidien des internautes rendent difficile la tâche de convaincre massivement de quitter X pour des alternatives moins populaires. En fin de compte, bien que des applications comme X puissent être critiquées, il est compliqué de les faire disparaître complètement, tant leur influence et leur nombre d’utilisateurs sont puissants.