GoogleはまだGeminiの偏った画像生成器を修正していません

2月に、GoogleはAIを活用したチャットボットGeminiが歴史的な不正確さを訴えるユーザーのために人々の画像を生成する能力を一時停止しました。例えば、「ローマの軍団」を描写するように指示されたとき、Geminiは時代錯誤な多様な人種の兵士のグループを表示し、「ズールー族の戦士」をステレオタイプ的な黒人として描写しました。

GoogleのCEOサンダー・ピチャイは謝罪し、GoogleのAI研究部門DeepMindの共同創設者であるデミス・ハサビスは、「非常に短期間内」として次の数週間以内に修正が到着するはずだと述べました。しかし、現在5月に入っても、約束された修正はまだ実現していません。

Googleは今週の年次開発者会議I/Oで、カスタムチャットボット、バケーションの旅程プランナー、Googleカレンダー、Keep、YouTube Musicとの統合など、多くのGeminiの機能を紹介しました。しかし、人々の画像生成機能は引き続きGeminiアプリのWebおよびモバイルでオフになっていると、Googleの広報担当者が確認しました。

では、何が停滞の原因なのでしょうか?おそらく、問題はハサビスがほのめかしたよりも複雑なものです。

Geminiのような画像生成器を訓練するために使用されるデータセットには、通常、他の人種や民族よりも白人の画像が多く含まれており、それらのデータセット内の非白人の画像はネガティブなステレオタイプを補強しています。Googleは、これらのバイアスを補正しようとして、ハードコーディングを実装しましたが、現在は歴史を繰り返さない合理的な中間道を見出すのに苦労しています。

Googleはそこに到達するのでしょうか?おそらく。おそらくそうではないかもしれません。いずれにせよ、長引く問題は、問題行動の根源がバイアスである場合には修正が容易でないことを思い出させてくれます。

私たちはAIニュースレターを立ち上げます!6月5日に受信を開始するために、ここでサインアップしてください。