Twitter testuje narzędzie, które miałoby ostrzegać użytkowników, gdy zawrą we wpisie wulgarne sformułowania. Rozwiązanie ma ograniczyć liczbę obraźliwych odpowiedzi i zachęcić użytkowników do zastanowienia się, czy warto opublikować tweet z kontrowersyjną treścią.
Sprawdź też: Twitter testuje rozwiązanie, które ma walczyć z fake newsami w serwisie
Twitter chce ograniczyć hejt?
Nowe narzędzie służy do moderacji treści. Ma wysyłać internautom powiadomienie, kiedy ich odpowiedzi na zamieszczony wcześniej wpis będą zawierać obraźliwe sformułowania. Użytkownikom wyświetli się komunikat o tym, aby przemyśleli, czy chcą opublikować swoją odpowiedzieć. Twitter chce w ten sposób zachęcić internautów do zastanowienia się nad modyfikacją wpisu. W szerszej perspektywie ma to ograniczyć zjawisko hejtu na platformie.
Testy już trwają
Serwis testuje już nowe narzędzie. Póki co udostępniono je użytkownikom korzystającym z urządzeń iOS, ale w późniejszym czasie pojawi się na pewno na innych systemach. Firma nie dzieli się informacją, w jaki sposób obraźliwe treści są rozpoznawane.
Jednocześnie serwis wspomniał w opublikowanym oświadczeniu, że zdaje sobie sprawę z funkcjonalności narzędzia. W rzeczywistości każdy użytkownik może powiadomienie po prostu zignorować, ale Twitter ma nadzieję, że użytkownicy przemyślą publikację.
Informacją o testowaniu nowej funkcji Twitter podzielił się oczywiście na Twitterze. Na chęć ograniczenia wpisów z wulgarnymi sformułowaniami internauci zareagowali różnie. Od dodawania zdjęcia klauna, po GIF-y z dzieckiem krzyczącym “nie jesteś moim tatą”.
When things get heated, you may say things you don't mean. To let you rethink a reply, we’re running a limited experiment on iOS with a prompt that gives you the option to revise your reply before it’s published if it uses language that could be harmful.
— Twitter Support (@TwitterSupport) May 5, 2020