To Twitter λανσάρει μια λειτουργία για την οποία ελπίζει πως θα το βοηθήσει να ελέγξει τα φαινόμενα της παρενόχλησης (abuse) και του «τρολαρίσματος» τα οποία έχουν εξελιχθεί σε πολύ μεγάλα προβλήματα για τη δημοφιλή πλατφόρμα κοινωνικής δικτύωσης.
Όπως γράφει το BBC, το Safety mode θα υποδεικνύει/ μαρκάρει λογαριασμούς που προβαίνουν σε μισαλλόδοξα/ προσβλητικά σχόλια, ή αυτά που «βομβαρδίζουν» με ανεπιθύμητα σχόλια, και θα τους μπλοκάρει για επτά ημέρες. Μόλις ενεργοποιηθεί, η λειτουργία αυτή θα λειτουργεί αυτόματα, απαλλάσσοντας τους χρήστες από το βάρος της διαχείρισης ανεπιθύμητων σχολίων.
Μεταξύ των σκοπών του Safety mode, σύμφωνα με το Twitter, είναι η «βελτίωση της υγείας του δημοσίου διαλόγου».
Όπως και άλλες πλατφόρμες κοινωνικής δικτύωσης, το Twitter βασίζεται σε έναν συνδυασμό moderation από αυτοματοποιημένα συστήματα και ανθρώπους. Αν και δεν έχει ανακοινωθεί ποτέ επίσημα πόσοι είναι οι άνθρωποι moderators, αναφορά του NYU Stern το 2020 έκανε λόγο για περίπου 1.500 άτομα, που πρέπει να διαχειρίζονται τα 199 εκατομμύρια χρήστες της πλατφόρμας σε καθημερινή βάση.
Πρόσφατη μελέτη πάνω στη ρητορική μίσους από το Facts Against Hate για λογαριασμό της φινλανδικής κυβέρνησης έδειξε ότι το Twitter ήταν ο «χειρότερος από τους τεχνολογικούς κολοσσούς» όσον αφορά σε θέματα ρητορικής μίσους.