Jak Reddit zmienił miliony użytkowników w armię moderacji treści

Jak Reddit zmienił miliony użytkowników w armię moderacji treści Jednym z najpoważniejszych problemów Reddita, samozwańczej pierwszej strony Internetu, jest ustalenie, co powinno, a czego nie powinno pojawiać się w jego kanałach. Jeśli chodzi o moderację treści, która w ostatnich latach stała się coraz bardziej nagłośnionym tematem, Reddit przyjmuje inne podejście niż inne główne platformy społecznościowe. W przeciwieństwie na przykład do Facebooka, który zleca większość pracy farmom moderacyjnym, Reddit w dużej mierze polega na swoich społecznościach (lub subredditach), aby samodzielnie kontrolować swoje działania. W wysiłkach moderatorów-wolontariuszy kierują się zasadami ustalonymi przez każdy subreddit, ale także zbiorem wartości stworzonych i egzekwowanych przez Reddita. Firma była jednak krytykowana za ten model, który niektórzy zinterpretowali jako leseferyzm i brak odpowiedzialności. Jednak Chris Slowe, dyrektor ds. technicznych Reddita, twierdzi, że jest to całkowite wprowadzenie w błąd. „Dziś mówienie tego w Internecie może wydawać się szalone, ale przeciętni ludzie są całkiem dobrzy. Jeśli spojrzysz na Reddita w szerszej skali, zobaczysz, że ludzie są kreatywni, zabawni, współpracują i dają radość, a to wszystko sprawia, że ​​cywilizacja działa” – powiedział LaComparacion Pro. „Naszym podstawowym podejściem jest to, że chcemy, aby społeczności ustanawiały własne kultury, filozofie polityki i systemy. Aby ten model zadziałał, musimy zapewnić narzędzia i możliwości, aby zająć się mniejszościami”.

Inna bestia

Slowe był pierwszym pracownikiem Reddita, zatrudnionym w 2005 roku jako inżynier po wynajęciu dwóch wolnych pokoi od współzałożycieli Steve'a Huffmana i Alexisa Ohaniana. Spotkali się podczas pierwszej edycji cieszącego się obecnie złą sławą programu akceleracyjnego Y Combinator, co pozostawiło Slowe’owi wspaniałe wspomnienia, ale także zepsuty start i czas do wypełnienia. Chociaż w latach 2010–2015 miał przerwę od Reddita, doświadczenie Slowe'a daje mu wyjątkową perspektywę na rozwój firmy i zmiany stojących przed nią wyzwań na przestrzeni czasu. Mówi, że na początku chodziło o rozwój infrastruktury, aby sprostać rosnącemu ruchowi. Jednak w drugiej kadencji, trwającej od 2016 r. do chwili obecnej, punkt ciężkości przesunął się na zaufanie i bezpieczeństwo użytkowników. „Udostępniamy użytkownikom narzędzia do zgłaszania treści naruszających zasady witryny lub zasady ustalone przez moderatorów, ale nie wszystko jest oznaczane. A w niektórych przypadkach w raporcie wskazano, że jest już za późno” – wyjaśnił. „Kiedy wróciłem w 2016 roku, jednym z moich głównych zadań było dokładne ustalenie, jak działają społeczności Reddit i zdefiniowanie, co sprawia, że ​​witryna jest zdrowa. Kiedy już zidentyfikujemy niezdrowe objawy, zaczniemy działać.

Reddit

(Źródło zdjęcia: Reddit)

Automatyczna kontrola

W przeciwieństwie do innych platform społecznościowych, Reddit ma warstwowe podejście do moderowania treści, które ma na celu jak najściślejsze przestrzeganie etosu firmy „najpierw społeczność”. Najbardziej prymitywną formą weryfikacji treści dokonują sami użytkownicy, którzy mogą głosować na to, co im się podoba, a co nie. Jednakże, chociaż proces ten zachęca do popularnych postów i niszczy niepopularne posty, popularność nie zawsze jest sygnałem własności. Mody społecznościowe stanowią drugą linię obrony i dysponują możliwością usuwania postów oraz blokowania użytkowników, którzy naruszają wytyczne lub politykę treści. Według Slowe’a najczęstszą zasadą subreddita jest zasadniczo „nie bądź idiotą”. Coroczny raport firmy dotyczący przejrzystości, który wyszczególnia całą zawartość usuwaną każdego roku z Reddita, sugeruje, że mody są odpowiedzialne za około dwie trzecie wszystkich usuniętych postów. Aby wykryć wszelkie szkodliwe treści utracone przez mody, administratorzy Reddita są bezpośrednio zatrudnieni przez firmę. Pracownicy ci przeprowadzają ręczne kontrole wyrywkowe, ale są także uzbrojeni w narzędzia technologiczne pomagające identyfikować problematycznych użytkowników i monitorować indywidualne interakcje odbywające się w samotności. „Wykorzystujemy szereg sygnałów, aby ujawnić problemy i ustalić, czy indywidualni użytkownicy są godni zaufania i działali w dobrej wierze” – powiedział Slowe. „Problem polega na tym, że nigdy nie zrozumiesz wszystkiego. A to częściowo dlatego, że zawsze będzie trochę szare i będzie zależeć od kontekstu. „Zapytany, jak można poprawić tę sytuację, Slowe wyjaśnił, że znalazł się w trudnej sytuacji; rozdarty między chęcią egzekwowania polityki firmy skierowanej na społeczność a świadomością, że na rynku istnieją przyszłe technologie, które mogą pomóc w wykryciu wyższego procent nadużyć. Na przykład Reddit już zaczyna wykorzystywać zaawansowane techniki przetwarzania języka naturalnego (NLP), aby dokładniej mierzyć nastroje w interakcjach między użytkownikami. Slowe wskazał także na możliwość wykorzystania sztucznej inteligencji do analizy zdjęć zamieszczanych na platformie i przyznał, że z czasem większa liczba działań moderacyjnych nastąpi bez interwencji człowieka. Przestrzegł jednak również przed zawodnością nowszych systemów, które są podatne na stronniczość i z pewnością podatne na błędy, oraz przed wyzwaniami, jakie mogą stanowić dla modelu Reddita. „Właściwie to trochę przerażające. „Jeśli mówimy o tym jako o modelu egzekwowania prawa, jest to równoznaczne z umieszczaniem kamer dosłownie wszędzie i poleganiem na inteligentnych maszynach, które informują nas o popełnieniu przestępstwa” – stwierdził.

Reddit

(Źródło zdjęcia: Reddit)

Kiedy sprawy stają się trudne

Moderacja treści to problem, którego żaden z gigantów mediów społecznościowych nie może pochwalić się rozwiązaniem, czego dowodem jest debata wokół kont Donalda Trumpa i zakazu sklepu z aplikacjami Talk. Reddit również brał udział w tych rozmowach, ostatecznie podejmując decyzję o zablokowaniu subreddita r/DonaldTrump. Choć model zorientowany na społeczność jest potężny, w sercu podejścia Reddita kryje się znaczący konflikt. Firma pragnie zapewnić swoim społecznościom niemal całkowitą autonomię, ale ostatecznie jest zmuszona podjąć decyzje redakcyjne dotyczące tego, gdzie wytyczyć granicę. „Nie chcę być arbitralnym, skrupulatnym arbitrem rozstrzygającym, co jest dobre, a co złe” – powiedział nam Slowe. „Ale jednocześnie musimy mieć możliwość zastosowania zestawu . To bardzo dobra trasa na spacer. Reddit stara się zachować jak najbardziej zwięzłą politykę dotyczącą treści, aby wyeliminować luki i ułatwić jej egzekwowanie, ale poprawki są częste. Na przykład porno zemsty zostało zakazane na platformie w 2015 roku za rządów byłej dyrektor generalnej Ellen Pao. W zeszłym roku firma dodała klauzulę zabraniającą gloryfikacji przemocy. „Pozostanie wiernym naszym wartościom oznacza także ich powtarzanie i ponowną ocenę w miarę odkrywania nowych sposobów grania w systemie i przesuwania granic” – wyjaśnił Slowe. „Kiedy wprowadzamy zmianę, która wiąże się z przeniesieniem społeczności na drugą stronę, oznacza to koniec długiego procesu znajdowania luk w naszej polityce dotyczącej treści i powrotu do niej”. Chociaż jednak większość zgodzi się, że brak porno zemsty jest absolutnie pozytywny i że na r/The_Donald miało miejsce podżeganie do przemocy, oba przykłady pokazują, że Reddit musi zachować powściągliwość w ramach tego samego planu, co Facebook., Twitter czy jakikolwiek inny. inna platforma. Innymi słowy, gdy trzeba zadać trudne pytania, Reddit nie ufa już swoim społecznościom, jeśli chodzi o udzielenie pozytywnej odpowiedzi.