Mis en place par les plateformes d’un avertissement présentant les risques encourus en cas de production de contenus haineux ou illicites ["être haineux, tue" ?] 1/16
-
-
Afficher cette discussion
-
La plateforme devra préciser les contenus visés par ces alertes (ça c'est bien, ça, ça ne l'est pas) 2/16
Afficher cette discussion -
Collaboration des réseaux sociaux avec les associations œuvrant dans l’éducation et l’information [comment ?] 3/16
Afficher cette discussion -
Explications des standards de modération par les plateformes (ça c'est bien, ça, ça ne l'est pas, bis) 4/16
Afficher cette discussion -
Rapprochement entre l’État, l’association et ces intermédiaires pour cibler les contenus les plus problématiques
5/16Afficher cette discussion -
Ces standards seront audités et revus chaque année par un régulateur, non désigné (coucou le CSA ! Allume ton DX2/66, on arrive) 6/16
Afficher cette discussion -
Ce régulateur supervisera les outils de signalement pour qu’ils soient plus facilement identifiables et mobilisables en quelques secondes par les utilisateurs.
point #GrosBoutonRouge 7/16Afficher cette discussion -
Suggérer aux plateformes d’investir dans l’intelligence artificielle afin de prévenir la publication de contenus haineux. En somme un filtrage préventif, prédictif. Genre l'
#art13 étendu à la haine en ligne. Promis ! ça va marcher ! 8/16Afficher cette discussion -
Mise en quarantaine des contenus considérés comme « illicites » (non LCEN) sans être « manifestement illicites » (LCEN). En somme, on abaisse le seuil de suppression dès qu'un contenu a une apparence un peu chelou. 9/16
Afficher cette discussion -
ouf ! les internautes dont les contenus ont été ainsi épinglés pourront faire "appel". "Bonjour Twitter, je suis celui qui a traité tel secrétaire d'état de
#TêtedEnclume, pardon, je voulais pas, j'ai été mauvais, stupide, haineux" 10/16Afficher cette discussion -
Obligation de retrait en quelques heures des « contenus à risque », qui pèsera avant tout sur les gros acteurs. Un régime à deux vitesses donc, les petits acteurs seront plus ou moins épargnés. Sous quel seuil ? Qu'est ce qu'un contenu à risque ? 11/16
Afficher cette discussion -
Obligation pour les plateformes de soutenir les victimes dans leurs démarches (plaintes, mise en relation avec des associations, mise en relation avec les services d’écoute)
#3615Help 12/16Afficher cette discussion -
Délai impératif imposé aux intermédiaires pour révéler aux autorités l’adresse IP et les autres données de connexion des internautes. Twitter pourra-t-il dire "niet !" si l'IP vise un contenu simplement "à risque" ? 13/16
Afficher cette discussion -
Dans le cadre d'une coopération avec les autorités, obligation pour les grosses plateformes d’identifier les auteurs récurrents des « contenus haineux ou dangereux ». Coucou
#ligueduLOL mais pas que. 14/16Afficher cette discussion -
Nouvelles procédures calibrées pour lutter contre les sites miroirs. Le site Démocratie Participative, qui a démultiplié les contournements après son blocage judiciaire, est cité en exemple. 15/16
Afficher cette discussion -
Une dernière, révélée sur
@franceinter par@mounir : "Démocratie en ligne ? Zéro anonymat ! Il faut que les gens parlent en tant que citoyens, disent qui ils sont" 16/16 Merci pour l'attention. Bonne journée sur les Autoroutes Français de l'Information.pic.twitter.com/t1y69wkviJAfficher cette discussion -
Jamais. Jamais je n'avais entendu un membre du gouvernement français évoquer très sérieusement la piste de la "Détection automatique des contenus suspects".pic.twitter.com/I3aOcBDJfT
Afficher cette discussion
Fin de la conversation
Nouvelle conversation -
Le chargement semble prendre du temps.
Twitter est peut-être en surcapacité ou rencontre momentanément un incident. Réessayez ou rendez-vous sur la page Twitter Status pour plus d'informations.