Meta, właściciel Facebooka i Instagrama, publicznie przyznaje, że popełnia zbyt wiele błędów w moderacji treści. Nick Clegg, prezes ds. globalnych w firmie, podkreślił podczas poniedziałkowej konferencji prasowej, że „wskaźniki błędów są wciąż zbyt wysokie” i zapowiedział poprawę precyzji w egzekwowaniu zasad platformy.
„Wiemy, że podczas egzekwowania naszych polityk wskaźniki błędów pozostają za wysokie, co utrudnia swobodę wypowiedzi, którą chcemy wspierać” – powiedział Clegg. „Zbyt często nieszkodliwe treści są usuwane lub ograniczane, a użytkownicy są niesprawiedliwie karani”.
Clegg odniósł się także do decyzji firmy o agresywnym usuwaniu treści związanych z pandemią COVID-19. Wyraził ubolewanie, że takie działania były zbyt rygorystyczne. „Podczas pandemii mieliśmy bardzo surowe zasady, które skutkowały masowym usuwaniem treści” – zauważył. „Dziś, patrząc z perspektywy czasu, wiemy, że przesadziliśmy. Użytkownicy mieli rację, skarżąc się na nadmierne restrykcje i błędne usuwanie niewinnych materiałów”.
Zautomatyzowane systemy moderacji, w które Meta zainwestowała miliardy dolarów, okazują się być zbyt radykalne w działaniu. Przykłady ich „błędów moderacyjnych” wielokrotnie trafiały na platformę Threads, która w ostatnich miesiącach była krytykowana za nieuzasadnione usuwanie treści. W jednym z głośnych przypadków systemy Meta niesłusznie ograniczyły dostęp do zdjęcia Prezydenta-elekta Donalda Trumpa po próbie zamachu na jego życie.
Meta zapowiedziała, że polityki moderacji będą traktowane jako „żywy dokument”, co oznacza możliwość ich modyfikacji w odpowiedzi na zmieniające się potrzeby i opinie użytkowników. Na razie jednak… nie ogłoszono żadnych większych zmian w zasadach moderacji treści.