ソーシャルネットワークと人間の相互関係を、ジェンダーバイアスから調べる(2月14日 Nature オンライン掲載論文)

2024.03.03

マルチモーダル AI により、テキストからイメージが作れるようになってすぐ、例えば医者とインプットすると男性の医師が描かれ、看護師とインプットすると女性で描かれるというジェンダーバイアスが問題になった。

 

しかし、AI は主にパブリックなデータベースから画像を拾っているので、この結果は我々が利用しているパブリックデータベースやソーシャルネットにジェンダーバイアスが存在していることを意味している。

 

本日紹介する論文

今日紹介するカリフォルニア大学バークレイ校からの論文は、Google のようなパブリックデータベースに蓄積されたジェンダーバイアスを調べ、またそのバイアスが我々にどう影響するのかを、画像とテキストに分けて調べたユニークな研究で、2月14日 Nature にオンライン掲載された。

 

タイトルは「Online images amplify gender bias(オンラインのイメージがジェンダーバイアスを増幅させる)」だ。

 

解説と考察

この研究ではまず、3500近い社会的カテゴリーについて100枚のイメージを Googleサーチで集め、それぞれのイメージの性別を6500人近くの人間に手分けして判断させている。この結果、9割は性別を決めることが出来ている。一方、language model のエンベッディングを利用して、テキストに表現されるジェンダーバイアスについても同時に調べている。

 

それぞれのジェンダーバイアスを比べると、画像でのバイアスが極めて高い。例えば水道工事となると画像ではほとんど男性になるが、テキストではその半分程度のバイアスしかない。逆も同じで栄養士の画像はほとんど女性だが、テキストではバイアスは半分以下になる。

 

さらに、職業を問わずイメージ全体で見るとネット上の女性イメージがそもそも少ない。さらに、人口統計で見られる実際のジェンダーバイアスと比べても、画像に蓄積されたバイアスは高い。一方、テキストでは人口統計のバイアスも是正されている。

 

次に、このバイアスが我々の判断にどう影響するか、先入観が少ない科学や芸術と言った特殊な職業について、Google で調べた後、その職業について心理的なジェンダーバイアスが生まれたかどうかを、自己申告や、心理テストで調べている。

 

結果は、webから拾ってきたデータ自身のジェンダーバイアスは、データが画像の場合より増幅されて我々のイメージとして定着することが明らかになった。一方、テキストの心理的効果はランダムだ。

 

まとめと感想

結果は以上で、我々が毎日作り出しているイメージが SNS上で社会化され、それが今度は我々の判断に影響するというサイクルが発生し始めていることを意味する。

 

ルソーの一般意志を Google のような新しいテクノロジーで拾い上げることが可能になったことを東浩紀さんが「一般意志2」で書いたのは10年以上前で、優れた先見性を持った著作だったが、これを越えてテクノロジーが進んでいることを感じる。

著者紹介:西川 伸一

京都大学名誉教授。医学博士であり、熊本大学教授、京都大学教授、理化学研究所発生・再生科学総合研究センター副センター長などを歴任した生命科学分野の第一人者である。現在はNPO法人オール・アバウト・サイエンス・ジャパン (AASJ) 代表理事を務めながら、1日1報、最新の専門論文を紹介する「論文ウォッチ」を連載している。

【主な活動場所】 AASJ(オールアバウトサイエンスジャパン)
オールアバウトサイエンスジャパンは医学・医療を中心に科学を考えるNPO法人です。医師であり再生科学総合研究センター副センター長などを歴任された幹細胞や再生医療に関する教育研究の第一人者である西川伸一先生が代表理事を務められております。日々最新の論文を独自の視点でレビュー、発信されておりますのでご興味のある方はぜひお問い合わせください。

このライターの記事一覧