https://bodybydarwin.com
Slider Image

Facebook recrute 3000 nouveaux moniteurs de contenu pour un travail que l'IA ne peut pas faire

2021

Hier, Mark Zuckerberg a annoncé que Facebook embauchait 3 000 personnes pour travailler au sein de son équipe des opérations communautaires, qui passe en revue les images, les vidéos et les publications que les utilisateurs rapportent. Ces nouveaux employés rejoindront les 4 500 employés existants dans le but de minimiser la portée d'événements futurs tels que le tournage de Robert Goodwin. C'est un investissement considérable mais essentiel pour Facebook, mais il nous amène à une question fondamentale: ce travail ne peut-il pas être automatisé?

L'ampleur de cette main-d'œuvre est vaste: Facebook embauche plus de personnes que ne travaillent dans les salles de rédaction combinées du New York Times, du Wall Street Journal et du Washington Post. Facebook ne dit pas pour l'instant si les emplois seront des employés ou des sous-traitants, et s'ils seront basés aux États-Unis ou à l'étranger. (Curieux de savoir à quoi ressemble ce travail? Lisez le plongeon d'Adrien Chen dans la modération du contenu à partir de 2014 ou regardez cette vidéo sur le processus de modération)

"Ces critiques nous aideront également à éliminer plus efficacement les choses que nous ne permettons pas sur Facebook, comme le discours de haine et l'exploitation des enfants, a écrit le PDG de Facebook, Zuckerberg." Et nous continuerons à travailler avec les groupes communautaires locaux et les forces de l'ordre, qui sont dans la meilleure position. aider quelqu'un s'ils en ont besoin, soit parce qu'ils sont sur le point de se faire du mal, soit parce qu'ils sont en danger de la part de quelqu'un d'autre. "(italiques ajoutés)

Le sous-texte est le meurtre de Robert Goodwin le 16 avril à Cleveland. Selon une chronologie publiée par Facebook, à 16h09 heure de l'Est le 16 avril, un homme a mis en ligne une vidéo indiquant son intention de commettre un meurtre. Deux minutes plus tard, l'homme a mis en ligne la vidéo du tournage de Goodwin. Peu de temps après, le suspect du meurtre a posté en direct sur Facebook pendant cinq minutes. La vidéo de la fusillade a été rapportée à 16 heures et à 16 h 22, Facebook a suspendu le compte du tireur et retiré ses vidéos de la vue du public. Cela fait un peu plus de deux heures entre la publication initiale et la suspension du compte, mais l'omniprésence de Facebook et la nature horrible du meurtre en ont fait l'actualité nationale.

Il y a du contenu que Facebook censure de manière préventive lors de son téléchargement. La société utilise des systèmes automatisés pour rechercher les photos nues et pornographiques précédemment supprimées lors de leur deuxième téléchargement. Le réseau social utilise également PhotoDNA, un outil qui référence des images dans une base de données de marqueurs connus de photos d’exploitation d’enfants, afin que les photos puissent être bloquées et signalées aux autorités judiciaires appropriées. Dans ces deux cas, l’automatisation vérifie les quantités précédemment connues.

La majeure partie de l'automatisation du processus facilite l'application manuelle par les réviseurs de contenu humain. Si un élément de contenu est signalé 1 000 fois, les outils reconnaissent les rapports en double. Il ne doit donc être examiné qu'une seule fois manuellement. D'autres outils dirigent des images, des publications ou des vidéos vers des relecteurs ayant une expertise spécifique. Par exemple, une personne parlant arabe pourrait examiner le contenu signalé par un groupe extrémiste syrien susceptible d'enfreindre les conditions d'utilisation de Facebook.

Pourtant, c’est la capacité de jugement humain à comprendre le contexte qui gouverne la journée. Pour déterminer si un commentaire est haineux ou intimidant, Facebook s'appuie sur de vraies personnes. Et dans le cas spécifique de Facebook Live, il existe une équipe dédiée à la surveillance des rapports sur la vidéo en direct; le groupe surveille automatiquement toute vidéo en direct atteignant un certain seuil de popularité non déclaré.

Il y a un domaine où Facebook donne à l'IA un rôle plus actif. En mars, le réseau a lancé un outil d'IA pour la prévention du suicide, qui identifie les publications qui semblent indiquer des pensées suicidaires. BuzzFeed signale que l'IA peut analyser les publications et les commentaires à la recherche de similitudes avec les publications précédentes nécessitant une action. Dans de rares cas, il avertira directement les modérateurs, mais le plus souvent, il montrera aux utilisateurs des outils de prévention du suicide, tels que le numéro d’une ligne d’assistance téléphonique. En outre, l'intelligence artificielle crée un bouton pour signaler les actes d'automutilation plus fréquents aux amis de la personne, ce qui augmente les chances qu'ils signalent la vidéo aux modérateurs humains de Facebook. (La société a refusé de commenter l'enregistrement de cette histoire.)

L'alternative immédiate à la modération humaine est probablement la censure préventive.

«Voulons-nous un Facebook plus censuré?», A déclaré Kate Klonick, une résidente du Information Society Project à Yale. «Lorsque vous mettez en place un système trop robuste, vous risquez que les personnes ne soient pas correctement formées, il y aura beaucoup plus de faux positifs et beaucoup plus de censure.»

Les travaux de Klonick se concentrent sur Facebook et d'autres plates-formes en tant que systèmes gouvernant la parole en ligne. Klonick soutient que Facebook doit faire des choix actifs dans la manière dont il réglemente ce qui est posté et reste posté. Il n'y a pas de solution miracle algorithmique qui puisse changer le problème de la parole en un simple défi technique.

«Nous sommes dans des années à pouvoir avoir une IA capable de résoudre ces problèmes complexes de prise de décision», a déclaré Klonick. «Il ne s’agit pas seulement d’une reconnaissance photo, c’est une reconnaissance photo qui vient s’ajouter à la prise de décision et à la catégorisation - qui constituent tous un problème de cognition difficile, que nous sommes loin de résoudre de manière fiable.»

Le défi de la reconnaissance des photos est tellement emblématique dans la programmation informatique que c'est devenu en quelque sorte une parabole. En 1966, Seymour Papert du MIT a proposé ce qu’il pensait être un simple projet estival: former un ordinateur à la reconnaissance des objets. Plutôt que de finir en été, le domaine de la formation des ordinateurs à la reconnaissance des objets est une tâche monumentale, qui se poursuit de nos jours, avec des entreprises comme Google et Facebook qui consacrent de l’argent et des heures à la recherche d’une solution.

"Dans un avenir proche", déclare Klonick, "ce n'est pas un problème d'IA ni une solution d'IA."

Le manteau neigeux de la Californie est une bonne nouvelle pour l'état assoiffé - pour l'instant

Le manteau neigeux de la Californie est une bonne nouvelle pour l'état assoiffé - pour l'instant

Le prix des panneaux solaires vient d'augmenter - voici ce que cela signifie pour vous

Le prix des panneaux solaires vient d'augmenter - voici ce que cela signifie pour vous

Bonne nouvelle: ces exoplanètes ont probablement de l'eau.  Mauvaise nouvelle: AHHH SO BEACH BEAU EAU.

Bonne nouvelle: ces exoplanètes ont probablement de l'eau. Mauvaise nouvelle: AHHH SO BEACH BEAU EAU.