RAPORT

Koronawirus: mapy, statystyki, porady

Facebook zapłaci moderatorom treści miliony dolarów odszkodowania

Sprawa zaczęła się od przypadku rozpatrywanego we wrześniu 2018 roku przez sąd w Kalifornii (fot. Shutterstock/Rawpixel.com)

Facebook wypłaci 52 mln dolarów w ramach odszkodowania dla moderatorów zdjęć i nagrań publikowanych na portalu. Każdy z nich ma otrzymać po tysiąc dolarów. Ze względu na przeglądanie materiałów naruszających regulamin platformy narażeni są oni na problemy psychiczne. Jeśli pracownik udokumentuje wystąpienie u niego zespołu stresu pourazowego, będzie mógł otrzymać dodatkowe pieniądze, aby pokryć koszty leczenia.

Twitter i Facebook odmówiły przeniesienia do Rosji serwerów z danymi użytkowników

Sąd Tagansky w Moskwie nałożył w czwartek grzywny na portale społecznościowe – Twitter i Facebook w wysokości po 4 mln rubli (ok. 58 tys. euro) za...

zobacz więcej

Według umowy podpisanej przez amerykańską firmę, ponad 11 tys. moderatorów Facebooka – zarówno byłych, jak i aktualnych – pracujących w Stanach Zjednoczonych otrzyma przynajmniej tysiąc dolarów – każdy. W celu otrzymania kolejnej rekompensaty za szkody poniesione podczas pracy, muszą oni złożyć zaświadczenie o stwierdzeniu zespołu stresu pourazowego bądź podobnych schorzeń. Dodatkowe pieniądze miałyby pokryć koszty leczenia.

Jak zapewnia firma, w celu zagwarantowania pracownikom bezpieczeństwa – w trakcie wykonywania moderacji – dźwięk materiałów ma być wyciszony, a obraz czarno-biały.

Sprawa zaczęła się od przypadku rozpatrywanego we wrześniu 2018 roku przez sąd w Kalifornii. Rozprawa dotyczyła Seleny Scola, byłej moderatorki, która twierdziła, że po 9 miesiącach oglądania brutalnych scen stwierdzono u niej zespół stresu pourazowego. Oskarżyła wówczas firmę o niezapewnienie ochrony pracownikom, zajmującym się ocenianiem publikowanych treści. Jak wyjaśniała, w ramach swoich obowiązków musiała oglądać materiały przedstawiające zabójstwa, gwałty oraz innego rodzaju przemoc.

Jak podaje Facebook, sztuczna inteligencja co raz sprawniej podejmuje się moderacji treści publikowanych na tej platformie. Dzięki tej metodzie w I kwartale bieżącego roku zrealizowano działania względem 9,6 mln materiałów. Oznacza to wzrost o blisko połowę w porównaniu do ostatniego kwartału 2019 roku, kiedy to moderowano 5,7 mln treści.

Według danych firmy, algorytmy mogą nawet szybciej wykrywać niektóre naruszenia standardów portalu niż człowiek. 2 lata temu wykrywały one 96 proc. materiałów zawierające nagość zanim dotarł do nich pracownik. Algorytmy były też sw stanie wyśledzić 86 proc. zdjęć ukazujących przemoc.

źródło:
Zobacz więcej