Live News

Plateformes de réseaux sociaux - De la signalisation à la suppression : le parcours d’un contenu «problématique»

Les autorités mauriciennes, via le Cyber Crime/CERT.mu, sont parvenues à faire fermer les comptes de « Missie Moustass » sur les réseaux sociaux Facebook et TikTok, arguant que ses révélations menaçaient la stabilité du pays durant cette période électorale. Quel est le procédé ? Éclairage avec Me Manindra Utchanah, fondateur du groupe LexTech.mu.

Publicité

Quelle est la politique des plateformes de réseaux comme Facebook, TikTok, YouTube ou Instagram, entre autres, face aux contenus générés par l’intelligence artificielle (IA) ?
Les plateformes comme Facebook, TikTok, YouTube et Instagram adoptent des politiques variées concernant les contenus générés par l’intelligence artificielle (IA). Par exemple, Meta a annoncé que tous les contenus générés par l’IA seront étiquetés pour garantir la transparence et éviter la désinformation. Ces politiques visent à équilibrer la liberté d’expression avec la nécessité de protéger les utilisateurs contre les contenus trompeurs.
 
Quels sont les critères que ces plateformes utilisent pour identifier les contenus manipulés ou créés par l’IA ?
Ces plateformes utilisent une combinaison de technologies avancées et de modération humaine. Les critères incluent la détection de manipulations visuelles ou auditives, l’analyse des métadonnées et la surveillance des comportements de publication inhabituels. Elles utilisent également des algorithmes d’apprentissage automatique pour identifier des modèles caractéristiques des contenus générés par l’IA.
 
Plus spécifiquement, comment ces plateformes déterminent-elles si un contenu audio ou vidéo a été créé/manipulé pour tromper les utilisateurs ?
Elles utilisent des outils de détection de deepfakes et d’autres technologies d’analyse multimédia. Ces outils examinent les incohérences dans le mouvement des lèvres, les ombres, les reflets et les anomalies acoustiques. De plus, elles peuvent comparer le contenu suspect à des sources fiables ou vérifier s’il a été signalé par des utilisateurs ou des organisations tierces.
 
Ces plateformes peuvent-elles les supprimer de leur propre chef, comme cela aurait été le cas, selon le Premier ministre et le commissaire de police, dans l’affaire « Missie Moustass » ?
Oui, les plateformes peuvent supprimer des contenus qui enfreignent leurs conditions d’utilisation et/ou les lois en vigueur. Si un contenu est signalé, elles peuvent agir rapidement pour le supprimer, surtout s’il présente un risque pour la sécurité ou la vie privée des individus.
 
Quelles sont les principales faiblesses ou limites actuelles des technologies utilisées pour détecter et supprimer les contenus manipulés ?
Les technologies actuelles présentent des limites, notamment en termes de faux positifs et faux négatifs. Les détecteurs d’IA peuvent parfois ne pas identifier correctement un contenu nuisible ou, à l’inverse, signaler à tort un contenu inoffensif comme problématique. De plus, la rapidité d’évolution des techniques de manipulation rend difficile leur détection.
 
Comment Meta, TikTok et d’autres plateformes gèrent-elles les problèmes d’atteinte à la vie privée, comme les enregistrements audio illégaux partagés sur leurs réseaux ?
Ces plateformes interdisent généralement le partage de contenus obtenus illégalement ou violant la vie privée. Lorsqu’un tel contenu est identifié, il est souvent supprimé rapidement. Elles peuvent également coopérer avec les autorités pour enquêter sur les violations.
 
Existe-t-il des collaborations formelles entre Meta, TikTok et autres plateformes, et des gouvernements pour surveiller et supprimer des contenus jugés sensibles ou nuisibles ?
Il existe effectivement des collaborations entre certaines plateformes et des gouvernements pour surveiller et supprimer des contenus jugés sensibles ou nuisibles. Ces collaborations sont souvent encadrées par les lois locales, qui définissent ce qui est considéré comme inacceptable.
 
Quel est le processus légal formel à suivre pour demander officiellement la suppression d’un contenu sur les réseaux ?
Pour demander officiellement la suppression d’un contenu sur les réseaux sociaux, il faut généralement suivre un processus formel, qui inclut l’envoi d’une demande écrite détaillant les raisons de cette demande. Les plateformes fournissent souvent des formulaires spécifiques à cet effet.
 
Combien de temps un tel processus peut-il prendre ?
La durée varie en fonction de la gravité du contenu et de la rapidité de la réponse de la plateforme. Les signalements internes peuvent être traités en quelques heures à quelques jours, tandis que les demandes légales formelles peuvent prendre plus de temps, en fonction des procédures juridiques impliquées.
 
Les gouvernements peuvent-ils demander directement à Meta, YouTube, ou TikTok, entre autres plateformes, de supprimer des contenus sans passer par un processus légal formel ? Si oui, dans quels cas de figure cela est-il possible ?
Oui, dans certains cas, les gouvernements peuvent demander directement à Meta, YouTube ou TikTok de supprimer des contenus sans passer par un processus légal formel. Cela est souvent justifié dans le cadre de préoccupations liées à la sécurité nationale ou à la protection des droits humains.
 
Existe-t-il un processus de vérification tiers ou indépendant pour évaluer les demandes de suppression de contenus soumises par des gouvernements, notamment pour éviter la suppression injustifiée de contenus légitimes ou critiques envers les gouvernements ou les institutions ?
Actuellement, il n’existe pas de processus systématique de vérification tiers pour évaluer les demandes de suppression soumises par les gouvernements. Cela soulève des préoccupations quant aux abus potentiels dans le cadre de ces demandes.

À Maurice, le ministère des TCI par exemple, ou l’ICTA ou toute autre unité, peut-il, de son propre chef, supprimer un contenu sur les réseaux sociaux, que ce soit un post sur Facebook ou TikTok ou une vidéo sur YouTube ?
Non, les autorités mauriciennes ne peuvent pas supprimer directement du contenu sur ces plateformes internationales. Elles doivent soumettre une demande officielle aux opérateurs des plateformes, qui évaluent ensuite la demande conformément à leurs politiques et aux lois applicables.

Avons-nous, au pays, les technologies nécessaires pour le faire ?
Maurice possède des capacités technologiques pour surveiller et signaler des contenus en ligne, mais la suppression directe sur les plateformes étrangères nécessite leur coopération. Le pays peut toutefois restreindre l’accès à certains sites ou contenus au niveau national, mais cela soulève des questions juridiques et éthiques.
 
Existe-t-il des différences dans les politiques de suppression de contenu entre différentes régions du monde, en fonction des lois locales ?
Oui, les politiques de suppression de contenu sont souvent adaptées pour se conformer aux lois locales. Ce qui est autorisé dans un pays peut être interdit dans un autre, et les plateformes ajustent leurs pratiques en conséquence pour respecter les réglementations locales.
 
Pensez-vous que la suppression proactive de contenus par les plateformes pourrait un jour constituer un abus de pouvoir, notamment si elle est influencée par des pressions politiques ?
Il existe un risque que la suppression proactive puisse conduire à des abus, surtout si elle est influencée par des intérêts politiques. C’est pourquoi la transparence, la responsabilité et l’existence de mécanismes de recours sont essentielles pour éviter la censure injustifiée et protéger la liberté d’expression.
 
Quelles innovations futures pourraient améliorer la capacité des plateformes à détecter et à gérer les contenus générés ou manipulés par l’IA sans sacrifier la liberté d’expression ?
Les avancées en IA pourraient permettre une détection plus précise des contenus manipulés, réduisant les faux positifs. Le développement de normes internationales pour l’identification des contenus générés par l’IA et l’engagement accru avec les utilisateurs pour signaler les abus pourraient également aider.

 

Notre service WhatsApp. Vous êtes témoins d`un événement d`actualité ou d`une scène insolite? Envoyez-nous vos photos ou vidéos sur le 5 259 82 00 !