15 novembre 2018
Cher Mark Zuckerberg,
Qu’est-ce qu’il y a de commun entre le Philadelphia Museum of Art, un député danois et un présentateur de nouvelles aux Philippines ? Ils ont tous été victime d’une mauvaise application des normes communautaires de Facebook. Mais contrairement à l’utilisateur moyen, la situation de ces individus et entités a attiré l’attention des médias, a pu atteindre le personnel de Facebook et, dans certains cas, a reçu des excuses et leurs publications ont été restaurées. Mais pour la plupart des utilisateurs, le contenu supprimé par Facebook est rarement restauré et certains utilisateurs peuvent être bannis de la plate-forme, même en cas d’erreur.
Lorsque Facebook est apparu pour la première fois sur nos écrans, les utilisateurs qui enfreignaient ses règles et dont le contenu avait été supprimé ou leur compte désactivé avaient reçu un message les informant que la décision était définitive et sans appel. Ce n’est qu’en 2011, après des années de plaidoyer de la part d’organisations de défense des droits de l’homme, que votre société a ajouté un mécanisme permettant de faire appel contre les désactivations de compte. Et c’est seulement en 2018 que Facebook a lancé un processus visant à remédier aux retraits illicites de certains types de contenu. Ces appels sont disponibles pour les publications supprimées pour nudité, activité sexuelle, discours de haine ou violence graphique.
C’est un développement positif, mais cela ne va pas assez loin.
Aujourd’hui, nous, les organisations de la société civile signataires, appelons Facebook à fournir à tous ses utilisateurs un mécanisme leur permettant de faire appel face à des restrictions de contenu et, dans tous les cas, de faire réexaminer la décision en appel par un modérateur humain.
La mission déclarée de Facebook est de donner aux gens le pouvoir de créer une communauté et de rapprocher le monde. Avec plus de deux milliards d’utilisateurs et une grande variété de fonctionnalités, Facebook est la première plate-forme de communication au monde. Nous savons que vous reconnaissez la responsabilité qui vous incombe de prévenir les abus et d’assurer la sécurité des utilisateurs. Comme vous le savez, les entreprises de médias sociaux, y compris Facebook, ont la responsabilité de respecter les droits de l’homme, et les organismes internationaux et régionaux de défense des droits de l’homme ont formulé un certain nombre de recommandations d’amélioration spécifiques, notamment en ce qui concerne le droit de recours.
Facebook reste loin derrière ses concurrents pour ce qui est de garantir aux utilisateurs une procédure régulière. Nous savons par des années de recherche et de documentation que les modérateurs humains, ainsi que les algorithmes d’apprentissage automatique, sont sujets aux erreurs, et que même des taux d’erreur faibles peuvent réduire au silence des millions de comptes lorsque ce taux est appliqué sur l’ensemble des utilisateurs de Facebook dans le monde. Cependant, les utilisateurs de Facebook ne peuvent faire appel des décisions relatives au contenu que dans un nombre limité de circonstances, et il est impossible pour les utilisateurs de savoir à quel point l’utilisation de contenus erronés est omniprésente sans une transparence accrue de la part de Facebook.
Nous reconnaissons que Facebook peut façonner ses normes communautaires en fonction de ses valeurs, mais il incombe néanmoins à la société de respecter au mieux l’expression de ses utilisateurs. De plus, des groupes de la société civile du monde entier ont critiqué la manière dont les normes communautaires de Facebook présentent un biais et sont appliquées de manière inégales dans différentes langues et contextes culturels. Offrir un mécanisme de recours, ainsi que plus de transparence, contribuera grandement à l’expression de l’utilisateur.
Plus tôt cette année, un groupe de défenseurs et d’universitaires ont présenté les Principes de Santa Clara sur la transparence et la reddition de comptes dans la modération du contenu, qui recommandent un ensemble de normes minimales en matière de transparence et pour des recours à des appels. Cet ensemble de recommandations est conforme aux travaux du Rapporteur Spécial des Nations Unies sur la promotion du droit à la liberté d’expression et d’opinion, David Kaye, qui a récemment appelé à un « cadre pour la modération du contenu en ligne généré par l’utilisateur qui place les droits humains au premier plan ». Il est également conforme aux Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies, qui énoncent les responsabilités des entreprises en matière de droits de l’homme.
Plus précisément, nous demandons à Facebook d’incorporer les principes de Santa Clara aux politiques et pratiques de modération du contenu et de fournir:
Notifications : Expliquez clairement aux utilisateurs pourquoi leur contenu a été restreint.
- Les notifications devraient dire quelle est la clause spécifique des normes communautaires que le contenu a enfreint.
- L’avis doit être suffisamment détaillé pour permettre à l’utilisateur d’identifier le contenu spécifique qui fait l’objet de restrictions et doit inclure des informations sur la façon dont le contenu a été détecté, évalué et supprimé.
- Les individus doivent avoir des informations claires sur la manière de faire appel de la décision.
Appels : Donnez aux utilisateurs la possibilité de faire appel des décisions de modération de contenu.
- Les mécanismes d’appel doivent être facilement accessibles et simples à utiliser.
- Les appels doivent être soumis à l’examen d’une personne ou d’un groupe de personnes qui n’a pas participé à la décision initiale.
- Les utilisateurs doivent avoir le droit de proposer de nouvelles preuves ou de nouveaux éléments à prendre en compte dans la révision.
- Les appels doivent aboutir à une détermination rapide et à une réponse à l’utilisateur.
- Toute exception au principe d’appel universel doit être clairement divulguée et compatible avec les principes internationaux des droits de l’homme.
- Facebook devrait collaborer avec d’autres parties prenantes pour développer de nouveaux mécanismes d’autorégulation indépendants pour les médias sociaux qui permettront une plus grande responsabilisation.
Données: Publier des rapports de transparence réguliers sur l’application des normes communautaires.
- Présentez des données complètes décrivant les catégories de contenu utilisateur restreintes (texte, photo ou vidéo ; violence, nudité, violations du droit d’auteur, etc.), ainsi que le nombre d’éléments de contenu restreints ou supprimés dans chaque catégorie.
- Incorporez des données sur le nombre d’actions de modération de contenu qui ont été initiées par un indicateur utilisateur, un programme d’indicateur de confiance ou par l’application proactive des normes communautaires (par exemple, à l’aide d’un algorithme d’apprentissage automatique).
- Inclure des données sur le nombre de décisions ayant fait l’objet d’un appel ou ayant été jugées par erreur.
- Inclure des données indiquant si l’entreprise effectue des audits proactifs de ses décisions de modération non invoquées, ainsi que les taux d’erreur détectés par l’entreprise.
Organisations signataires de la lettre ouverte :
- Article 19, Electronic Frontier Foundation, Centre pour la démocratie et la technologie et Classement des droits numériques
- 7amleh – Arab Center for Social Media Advancement
- Access Now
- ACLU Foundation of Northern California
- Adil Soz – International Foundation for Protection of Freedom of Speech
- Africa Freedom of Information Centre (AFIC)
- Albanian Media Institute
- American Civil Liberties Union
- Americans for Democracy & Human Rights in Bahrain (ADHRB)
- Arab Digital Expression Foundation
- Artículo 12
- Asociación Mundial de Radios Comunitarias América Latina y el Caribe (AMARC ALC)
- Association for Progressive Communications
- Brennan Center for Justice at NYU School of Law
- Bytes for All (B4A)
- CAIR San Francisco Bay Area
- CALAM
- Cartoonists Rights Network International (CRNI)
- Cedar Rapids, Iowa Collaborators
- Center for Independent Journalism – Romania
- Center for Media Studies & Peace Building (CEMESP)
- Child Rights International Network (CRIN)
- Committee to Protect Journalists (CPJ)
- Digital Rights Foundation
- EFF Austin
- El Instituto Panameño de Derecho y Nuevas Tecnologías (IPANDETEC)
- Electronic Frontier Finland
- Elektronisk Forpost Norge
- Foro de Periodismo Argentino
- Foundation for Press Freedom – FLIP
- Freedom Forum
- Fundación Acceso
- Fundación Ciudadano Inteligente
- Fundación Datos Protegidos
- Fundación Internet Bolivia.org
- Fundación Vía Libre
- Fundamedios – Andean Foundation for Media Observation and Study
- Garoa Hacker Club
- Global Voices Advocacy
- Gulf Center for Human Rights
- HERMES Center for Transparency and Digital Human Rights
- Hiperderecho
- Homo Digitalis
- Human Rights Watch
- Idec – Brazilian Institute of Consumer Defense
- Independent Journalism Center (IJC)
- Index on Censorship
- Initiative for Freedom of Expression – Turkey
- Instituto Nupef
- International Press Centre (IPC)
- Internet without borders
- Intervozes – Coletivo Brasil de Comunicação Social
- La Asociación para una Ciudadanía Participativa ACI Participa
- MARCH
- May First/People Link
- Media Institute of Southern Africa (MISA)
- Media Rights Agenda (MRA)
- Mediacentar Sarajevo
- New America’s Open Technology Institute
- NYC Privacy
- Open MIC (Open Media and Information Companies Initiative)
- OpenMedia
- Pacific Islands News Association (PINA)
- Panoptykon Foundation
- PEN America
- PEN Canada
- Peninsula Peace and Justice Center
- Portland TA3M
- Privacy Watch
- Prostasia Foundation
- Raging Grannies
- ReThink LinkNYC
- Rhode Island Rights
- SFLC.in
- SHARE Foundation
- SMEX
- South East Europe Media Organisation
- Southeast Asian Press Alliance (SEAPA)
- SumOfUs
- Syrian Archive
- Syrian Center for Media and Freedom of Expression (SCM)
- t4tech
- Techactivist.org
- The Association for Freedom of Thought and Expression
- Viet Tan
- Vigilance for Democracy and the Civic State
- Visualizing Impact
- Witness
- Xnet
Source : The Santa Clara Principles
No related posts.