Moderatorzy Facebooka nabawiają się PTSD przeglądając posty użytkowników

Moderatorzy Facebooka oceniający posty publikowane przez użytkowników przypłacają swoją pracę zdrowiem psychicznym. Serwis wypłaci 52 mln dolarów odszkodowania osobom, które nabawiły się zespołu stresu pourazowego.

Moderatorzy Facebooka nie mają łatwej pracy. Do ich zadań należy oglądanie treści, które algorytmy – lub użytkownicy – uznają za niezgodne z regulaminem oraz dobrymi obyczajami.

Przeglądając posty można najwyraźniej stracić nie tylko wiarę w ludzkość, lecz także część poczytalności. Szkodliwych treści nie brakuje, a oglądanie ich w dużej ilości każdego dnia zostawia na psychice swoje piętno.

Okazuje się bowiem, że na Facebooka trafiają nawet zapisy samobójstw oraz gwałtów. Moderator musi obejrzeć taki materiał i zdecydować, czy nadaje się on do pokazania światu, czy też powinien pozostać ukryty, a o jego obecności powiadomić odpowiednie służby.

Dla wielu moderatorów konieczność zmagania się z takimi materiałami każdego dnia okazuje się zbyt trudna, przez co nabawiają się zespołu stresu pourazowego. PTSD (Posttraumatic Stress Disorder) kojarzone jest przede wszystkim z żołnierzami, którzy podczas działań wojennych doświadczyli traumatycznych przeżyć.

Moderatorzy Facebooka postanowili pozwać swojego (czasem już byłego) pracodawcę o odszkodowanie w związku z uszczerbkami na zdrowiu, jakiego doznali podczas przeglądania postów. Gigant zdecydował się pójść na ugodę i wypłaci rekompensaty na łączną kwotę 52 mln dolarów.

facebook ptsd 02

Moderatorzy Facebooka cierpią na PTSD. Jak żołnierze po wojnie

Do otrzymania zadośćuczynienia za ciężkie warunki pracy uprawnionych będzie 11.250 osób. Każda z nich otrzyma przynajmniej 1000 dolarów; pracownicy ze zdiagnozowanym zespołem stresu pourazowego mogą liczyć na wsparcie w wysokości 50.000 dolarów.

Ugoda obejmuje tylko moderatorów pracujących w USA, pracownicy na innych kontynentach będą musieli walczyć o swoje prawa na własną rękę.

Facebook zapowiedział, że zapewni moderatorom większą ochronę przed szkodliwym wpływem treści, które oceniają. Materiały mają mieć domyślnie wyłączony dźwięk, a wideo prezentowane w trybie czarno-białym.

Serwis społecznościowy zapowiedział ponadto zapewnienie pomocy ze strony psychologa oraz regularne prowadzenie sesji terapeutycznych.

Moderatorzy Facebooka mają być ponadto odciążeni przez zwiększenie roli sztucznej inteligencji, która ma samodzielnie decydować o szkodliwości analizowanej treści, o opinię człowieka pytając tylko w niejasnych dla siebie przypadkach.

Ta będzie cały czas ważna, gdyż Facebook otwarcie przyznaje, że algorytmy nie są w stanie wyłapać wszystkich niuansów znaczeniowych zdań czy dokładnie określić, co dzieje się na filmie.

0 0 votes
Article Rating
Powiadomienia
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x