Discordの新しいコンテンツモデレーションツールは、単語やフレーズを自動的にブロックします

独自のモデレーターを支援するために、Discordは新しい自動コンテンツモデレーションツールを開発しました。

コンテンツのモデレーションは、燃え尽き症候群を誘発するタスクであり、コミュニティのモデレーターが動揺するコンテンツを表示し、そのようなコンテンツとそれを投稿したユーザーを処理する最善の方法を決定する必要があります。 AutoModと呼ばれるDiscordの新しいツールは、そのタスクを支援することを目的としています。

AutoModはブログ投稿で発表され、「投稿される前に、有害な単語やフレーズを含むメッセージのモデレーターを自動的に検出、ブロック、警告する」ことが期待されています。

コミュニティモデレーターは、AutoModを使用して、キーワードフィルター(モデレーターは最大3つのカスタムキーワードフィルターを設定し、「一般的にフラグが立てられた単語」フィルターを使用できます)を設定して、コミュニティ内の不正なコンテンツを管理し、不正な単語を含むコンテンツを自動的にフィルターで除外してフラグを立てることができます。 AutoModに関する別のブログ投稿によると、モデレーターは次のルールを作成できます。AutoModが投稿をスキャンするための単語のリスト、それらの単語の1つが検出されたときに展開される指定された自動応答アクション、および特定の人を免除する機能そのルールから。

不要な単語のルールを作成する方法を示すDiscordAutoMod製品のスクリーンショット。スクリーンショットはラベンダーの背景にあります。
不和

上記のようなAutoModルールにより、モデレーターは、単語リストにリストされている単語の1つを含むものとしてフラグが立てられた投稿への自動応答を選択できます。応答には、メッセージの投稿をブロックする、問題のあるユーザーをタイムアウトにする(音声チャネルへの参加やメッセージの送信を防ぐ)、またはAutoModがモデレーターに攻撃メッセージに関するアラートを指定されたチャネルに送信することが含まれます。

Discordは、ゲーマー向けのチャットおよび音声アプリとしての当初からかなり成長しました。そして、その成長は、他のソーシャルメディアプラットフォームのコミュニティに匹敵する、広大で賑やかなオンラインコミュニティを生み出しました。しかし、ソーシャルメディアの競合他社と同様に、Discordも不正なコンテンツと戦わなければならず、Discordコミュニティでこれらの問題を管理するためにコンテンツモデレーターに依存しています。 Discordも私たちが推奨するTwitterの代替手段の1つであり、コンテンツのモデレーションと安全性を強化するように見えるこの新機能は、Discordがそのリストに含まれるもう1つの理由のように思えます。

新しいAutoMod機能は、サーバー設定内のDiscordのコミュニティサーバーにあり、現在MacOS、Windows、Linux、Android、iOS、およびDiscordWebアプリで利用できます。