État de veille

Synopsis

Devant son écran, elle absorbe les images insoutenables, les cris, supplications, injures émises par un monde délirant. Ceci, afin que d’autres puissent naviguer à l’abri des pires atrocités dont l’humanité est capable. Et subrepticement, ce cauchemar envahit son intimité physique, son espace mental.

Fiche tecnhique

avec TU TRAM PHAM  réalisation DIANE POITRAS  direction de la photographie BENJAMIN GAGNÉ  montage ANNE GABRIELLE LEBRUN HARPIN  assistante à la réalisation, directrice de production et de postproduction JUSTINE DORVAL assistante caméra KARELLE GOGUEN-BANCELLE  projections et colorisation BENJAMIN GAGNÉ  conception sonore SIMON GERVAIS, BANDE À PART AUDIO et POSTPRODUCTION COOP  mixage OLIVIER GERMAIN  titres et générique RUI SILVEIRA

Références

Voir dans références.

Projections publiques

Programme spécial GIV PRÉSENTE : « Intimités à l’épreuve du numérique » (2023)
Elles Tournent – Festival International de Films de Femmes de Bruxelles (2023) 
Cinema on the Bayou Film Festival (2022)

L'auteur sur son film

« Il était aussi possible de suggérer le caractère invasif de ces scènes en faisant apparaitre leur reflet sur le visage de la modératrice. Comme la matérialisation d’une obsession en train de se former dans son esprit. Puis, avec l’intensité croissante de la violence des scènes qui défilent devant elle, j’ai voulu donner l’impression que les images sortent de l’écran et viennent envahir tout l’espace physique, s’imprimant sur les murs et sur les objets du quotidien ».

Diane Poitras
Lire le récit de pratique

État de veille

Les grandes entreprises de l’industrie numérique nous annoncent un futur reposant sur « l’intelligence artificielle ». Pourtant, elles dépendent de dizaines de millions de travailleur.se.s, pour la fabrication, le fonctionnement et la capitalisation des outils qu’elles développent. Parmi les tâches nécessitant un travail humain considérable se trouve celle de modération des contenus partagés par le biais des médias socionumériques. Quand un contenu explicite se fait « signaler » par un.e usager.ère d’une plateforme comme Facebook,  il n’est pas simplement retiré. Pour éviter les reproches de censure, ces entreprises engagent des gens chargés de faire respecter les règles de la plateforme, c’est-à-dire qu’ils et elles doivent visionner les vidéos pour ensuite confirmer ou infirmer la teneur offensante du contenu. En 2018, on estimait à 16 000 le nombre d’employé.e.s contractuel.le.s affairé.e.s à cette tâche à travers le monde, seulement pour Facebook. Environ 5 000 images violentes, pornographiques ou autres sont visionnées par jour, ce qui signifie qu’ils et elles ont en moyenne 3 à 4 secondes pour prendre une décision quant à leur retrait.

Comme ce travail n’exige pas la présence physique des employé.e.s dans un lieu spécifique, la plupart des contrats de même que la description des tâches passent par l’ordinateur, les interfaces et les documents des entreprises, sans rencontre préalable. Même les échanges courriels sont choses rares, autant avec les employeur.e.s qu’avec les autres employé.e.s. Ainsi, le travail implique d’être confronté seul.e, souvent depuis la maison, à l’intimité violente des vidéos produites quotidiennement par les usager.ère.s de Facebook. Les conséquences sur la santé physique et mentale de ces personnes sont énormes (dépression, insomnie, anxiété, etc.), mais elles demeurent peu documentées puisque les contractant.e.s signent une clause de non-divulgation lors de leur embauche. Au dire des anciens employés qui ont osé témoigner au sujet de leur expérience, peu de ressources de soutien sont offertes par les entreprises. Pour minimiser les coûts, elles recrutent majoritairement là où les salaires sont bas et le droit du travail minimal, voire absent.

Ces personnes assument une grande responsabilité. Au bout du processus d’étiquetage des contenus et des règles établies par Facebook, ce sont elles qui doivent tracer la ligne entre offense et liberté d’expression. Plusieurs États, incluant le Canada, tentent actuellement de développer des projets de lois pour encadrer la modération des contenus sur les plateformes numériques. Ils tentent ainsi de se réapproprier le pouvoir de définir les règles de la censure. Cela dit, les failles du système de mise en application du cadre réglementaire, notamment les conditions du travail humain requis, demeurent en marge de ces discussions.