Meta, właściciel Facebooka i Instagrama, publicznie przyznaje, że popełnia zbyt wiele błędów w moderacji treści. Nick Clegg, prezes ds. globalnych w firmie, podkreślił podczas poniedziałkowej konferencji prasowej, że „wskaźniki błędów są wciąż zbyt wysokie” i zapowiedział poprawę precyzji w egzekwowaniu zasad platformy.

„Wiemy, że podczas egzekwowania naszych polityk wskaźniki błędów pozostają za wysokie, co utrudnia swobodę wypowiedzi, którą chcemy wspierać” – powiedział Clegg. „Zbyt często nieszkodliwe treści są usuwane lub ograniczane, a użytkownicy są niesprawiedliwie karani”.

Clegg odniósł się także do decyzji firmy o agresywnym usuwaniu treści związanych z pandemią COVID-19. Wyraził ubolewanie, że takie działania były zbyt rygorystyczne. „Podczas pandemii mieliśmy bardzo surowe zasady, które skutkowały masowym usuwaniem treści” – zauważył. „Dziś, patrząc z perspektywy czasu, wiemy, że przesadziliśmy. Użytkownicy mieli rację, skarżąc się na nadmierne restrykcje i błędne usuwanie niewinnych materiałów”.

Zautomatyzowane systemy moderacji, w które Meta zainwestowała miliardy dolarów, okazują się być zbyt radykalne w działaniu. Przykłady ich „błędów moderacyjnych” wielokrotnie trafiały na platformę Threads, która w ostatnich miesiącach była krytykowana za nieuzasadnione usuwanie treści. W jednym z głośnych przypadków systemy Meta niesłusznie ograniczyły dostęp do zdjęcia Prezydenta-elekta Donalda Trumpa po próbie zamachu na jego życie.

Meta zapowiedziała, że polityki moderacji będą traktowane jako „żywy dokument”, co oznacza możliwość ich modyfikacji w odpowiedzi na zmieniające się potrzeby i opinie użytkowników. Na razie jednak… nie ogłoszono żadnych większych zmian w zasadach moderacji treści.

Arkadiusz Ogończyk

Arkadiusz Ogończyk

Redaktor prowadzący

Baner zgody na pliki cookie od Real Cookie Banner