米Twitterは5月5日(現地時間)、ユーザーが相手を傷つける可能性のある言葉を含む返信を投稿しようとすると、再考するよう促すプロンプトを表示する機能を、まずは英語設定のモバイルアプリで正式機能にすると発表した。 同社はこの機能を昨年5月5日からテストしてきた。初期のテストではアルゴリズムが不快な言葉と友好的な冗談の区別ができなかったが、過去1年で多数のフィードバックを集めて対処した結果、アルゴリズムが改善されたので正式リリースを決定したとしている。 Twitterによると、プロンプトが表示されると、34%の人が返信を修正するか、返信するのをやめたという。1度プロンプトを表示された人は、攻撃的な返信の作成が平均で11%減った。 アルゴリズムの改善では、ツイートした人とそのツイートに返信する人の関係性を考慮するようにした。例えば、2つのアカウントが頻繁にやり取りしている場合は、一般的に不快