Twitterは、人種や性別の偏見のためにAIトリミングを捨てたことを明らかにしました

Twitterの画像トリミングアルゴリズムにバイアスがあるかもしれないという考えを初めて聞いたのは2020年9月でした。暗号エンジニアのトニーアルシエリは、上院多数党首のミッチマコーネルと元大統領バラクオバマをフィーチャーした2つの画像をアップロードし、AIは両方の時間でマコーネルの顔にトリミングされました。

論争が最終的にツイッターで人々に届いたとき、会社はそのモデルを分析することを約束しました。最後に、これらの調査結果を読み通します。

Twitterがアルゴリズム分析の結果を共有

5月初旬、 Twitterはついにモバイルタイムラインでフルサイズの画像プレビューを公開しました。 Twitterブログへの投稿によると、分析の結果、人種や性別に基づく偏見があったため、アプリは画像トリミングアルゴリズムを採用していました。

プラットフォームは、画像をトリミングするために2018年に顕著性アルゴリズムの使用を開始しました。 Twitterによると、顕著性モデルは人間の視線追跡データでトレーニングされ、アルゴリズムによって使用されて、画像内のどの被写体/要素がほとんどの人にとって最も重要であると思われるかを推定します。

次に、アルゴリズムは、画像のすべての部分の顕著性スコアを算出してから、スコアが最も高いポイントを切り抜きの中心として選択します。

潜在的なバイアスをチェックするために定量的テストを実行した後、チームは、顕著性アルゴリズムが男性よりも女性、そして黒人よりも白人を好むように見えることを発見しました。

Twitterも「男性の視線」のアルゴリズムをテストしましたが、客体化バイアスの証拠は見つかりませんでした。

人種や性別のサブグループ間で完全な平等を反映するように顕著性アルゴリズムが調整されたとしても、プラットフォーム上で人々が自分自身を表現することを許可されていない場合、自動化されたアルゴリズムの表現上の害を懸念しています。顕著性はまた、文化的ニュアンスへの鈍感さを含む、この分析の範囲を超えた他の潜在的な害を保持します。

自動トリミングの速度と一貫性とそのリスクの間のトレードオフを検討する際に、Twitterは、画像をトリミングする方法はアルゴリズムではなく、人が行う最善の決定であることにチームが気付いたと述べています。

関連:すでに未来を変えている技術動向

Twitterが自動画像トリミングを排除

Twitterは顕著性アルゴリズムを使用しなくなり、iOSとAndroidの両方で標準のアスペクト比の写真を完全に表示するようになりました。ツイートを作成すると、新しいアップデートにはアップロードされた画像の実際のプレビューも含まれているため、公開されるとすべてがどのように表示されるかがわかります。

研究の学術論文を読むことに興味がある場合は、 arXiv.orgで見つけることができます。分析用のTwitterのコードはGitHubにもあります