AI画像ジェネレーターは、性別と人種の固定観念を広めているようです

専門家は、 Stable Diffusionなどの一般的な AI 画像ジェネレーターは、機械学習アルゴリズムを使用してアートを作成する際に、性別や文化の偏見を理解するのが得意ではないと主張しています。

多くのテキストからアートへのジェネレーターを使用すると、フレーズを入力して、反対側で独自の画像を作成できます.しかし、これらのジェネレーターは多くの場合、ステレオタイプのバイアスに基づいている可能性があり、機械学習モデルが画像を作成する方法に影響を与える可能性があります。

この 2 つのグループの人々の違いは何ですか?さて、Stable Diffusion によると、最初のグループは「野心的な CEO」を表しています。 2 人目は「協力的な CEO」です。
このモデルに根付いバイアスを調査するための簡単なツールを作成しました。

—サーシャ・ルッチョーニ博士 ✨ (@SashaMTL) 2022年10月31日

Hugging Face の人工知能研究者である Sasha Luccioni は、テキストからアートへのジェネレーターにおける AI バイアスが実際にどのように機能するかを示すツールを作成しました。 Stable Diffusion Explorer を例にとると、「野心的な CEO」という語句を入力すると、さまざまなタイプの男性の結果が得られましたが、「支持的な CEO」という語句を入力すると、男性と女性の両方を示す結果が得られました。

同様に、ブランド OpenAI によって作成されたDALL-E 2 ジェネレーターは、女性のビルダーと女性がいるにもかかわらず、画像の結果で「ビルダー」という用語に対して男性中心のバイアスを示し、「客室乗務員」という用語に対して女性中心のバイアスを示しました。男性客室乗務員。

多くの AI 画像ジェネレーターは、いくつかの単語と機械学習から画像を生成するように見えますが、バックグラウンドではさらに多くのことが行われています。たとえば、Stable Diffusion は、「画像ホスティング サイトやアート サイトを含む、インターネットからスクレイピングされた何十億もの写真、写真などをホストする」LAION 画像セットを使用します。

オンライン画像検索における人種的および文化的偏見は、AI 画像ジェネレーターの人気が高まるずっと前から、すでに進行中のトピックでした。 Luccioni 氏は、LAION データセットなどのシステムは、プロンプトに関連する画像の 90% に到達し、それを画像ジェネレーターに使用する可能性が高いと同誌に語っています。