Discord は、自社のモデレーターを支援するために、新しい自動コンテンツ モデレーション ツールを開発しました。
コンテンツのモデレーションは、コミュニティのモデレーターが不快なコンテンツを閲覧し、そのようなコンテンツとそれを投稿したユーザーをどのように扱うのが最適かを決定する必要がある、疲れ果てて燃え尽き症候群を引き起こすタスクになる可能性があります。 AutoMod と呼ばれる Discord の新しいツールは、そのタスクを支援することを目的としています。
AutoMod は ブログ投稿を通じて 発表され、「有害な単語やフレーズを含むメッセージを投稿前に自動的に検出、ブロックし、モデレータに警告する」ことが期待されています。
コミュニティのモデレーターは AutoMod を使用して、キーワード フィルターを設定することでコミュニティ内の虐待的なコンテンツの管理を支援できます (モデレーターは最大 3 つのカスタム キーワード フィルターを設定し、「一般的にフラグが付けられた単語」フィルターを使用できます)。虐待的な言葉を含むコンテンツを自動的に除外し、フラグを立てます。 AutoMod に関する別のブログ投稿によると 、モデレーターは次のようなルールを作成できます: AutoMod が投稿をスキャンする単語のリスト、それらの単語の 1 つが検出されたときに展開される指定された自動応答アクション、および特定のユーザーを免除する機能そのルールから。
上に示したような AutoMod ルールを使用すると、ワードリストにリストされている単語の 1 つが含まれているとフラグが付けられた投稿に対する自動応答をモデレーターが選択できます。対応には、メッセージの投稿をブロックしたり、問題のあるユーザーをタイムアウト状態にしたり (音声チャネルへの参加やメッセージの送信ができなくなります)、あるいは AutoMod が指定されたチャネルに攻撃的なメッセージに関するアラートをモデレータに送信したりすることが含まれます。
Discord は、
ゲーマー向けのチャットおよび音声アプリとしてスタートして以来、かなり成長してきました。そしてその成長により、他のソーシャル メディア プラットフォームに匹敵する、広大で活気のあるオンライン コミュニティが生まれました。しかし、ソーシャルメディアの競合他社と同様に、Discord も虐待的なコンテンツと戦う必要があり、コンテンツ モデレーターにそれらの問題の管理を支援してもらっています。
新しい AutoMod 機能は、サーバー設定内の Discord のコミュニティサーバーにあり、現在 MacOS、Windows、Linux、
、iOS、および

