デザイン会社 btrax > Freshtrax > AIにおけるジェンダー・バイア...
AIにおけるジェンダー・バイアス問題とは
日常生活だけではなく、さまざまな産業においてもジェンダー・バイアスが存在している。
例えば、多くの自動車のエアバッグやシートベルトといった安全装置はクラッシュテストから得られるデータを元にデザインされているが、そこで利用されるダミー人形の多くが男性の体型を元にしており、女性の体格や妊娠している方は想定されていない事が多い。
その結果、女性は同じような事故に遭った男性に比べて、なんと重傷を負う可能性が47%、死亡する可能性が17%高いとも言われている。
AIにおいてもジェンダー・バイアスの懸念が
データにおけるジェンダーギャップは必ずしも生命を脅かすものではない。
しかし、さまざまな業界での人工知能モデルの設計や使用は、女性の生活に大きな不利益をもたらす可能性がある。
ガートナーの調査によると、2022年までに、AIプロジェクトの85%が、データ、アルゴリズム、またはそれらを管理するチームの偏りが原因で、誤った結果をもたらすことになると発表されている。
音声アシスタントのほとんどが女性
ちなみに、よく考えてみるとAlexaやSiriなどの音声アシスタントのその多くが女性である。
まあ、女性というか名前が女性的だったり、声のトーンが女性っぽかったり、返答内容が女性を前提としている。
よく考えると、Google Mapの音声ナビも女性の声だ。
細かい話になるが、これももしかしたら「アシスタント=女性」というバイアスからきてるのかもしれない。
女性であることが多い音声アシスタント: Siri, Alexa, Google Assistant, Cortana
参考: AI音声アシスタントってなんで女性なの?【クラーク志織のハロー!フェミニズム】
データが偏ると、結果にバイアスが掛かる
バイアスを生み出す最初の原因がデータの偏りだろう。
人工知能に不可欠なデータ収集プロセスにおいて「正しい」質問がされていない場合、ビジネスや経済にも悪影響を及ぼしてしまう。
例えば、何十年も前から循環器疾患は男性の病気と考えられていた。
それにより、主に男性から収集したデータを元にしたオンラインアプリが、女性ユーザーに「左腕や腰が痛い」という症状を「うつ病のせいかもしれない」と提案することがあるという。
この場合、同じアプリを利用したとしても、男性ユーザーには、心臓発作の可能性があるという診断に基づいて、すぐに医師に連絡するようにアドバイスするのに対し、女性には数日後に医師の診察を受けるように表示するかもしれない。
これは元となるデータの性別に偏りがあることが原因になるが、女性も心臓発作の被害に遭う可能性があることは明らかである。
AIによる顔認証の元データにも偏りがある
このような問題は性別だけにとどまらない。人種的なデータの偏りも見られる。
例えば、さまざな顔認識アルゴリズムの入力画像データのうち、白人の画像が80%、男性の顔が75%の割合を占めている。
その結果、男性の顔認識精度は99%と高精度であるのに対し、黒人女性を認識する能力は65%にとどまっており、その精度に差が出ている。
言語データに潜む潜在的なジェンダー・バイアス
ここで、AIが利用する”言語”に関してのジェンダー・バイアスを見てみよう。
近年の自然言語処理(NLP)の進歩により、機械はますます高度な単語表現を生成できるようになった。
最近発表されたGPT-3、M2M 100、MT-5のように、複雑な論文を書いたり、テキストを複数の言語に翻訳したりすることができ、以前の反復よりも優れた精度を持つ強力な言語モデルが毎年、研究グループから発表されている。
しかし、機械学習アルゴリズムは摂取した訓練データに基づいて機能するため、どうしても必然的に、言語データ自体に存在する人間のバイアスを拾ってしまう。
明らかになったGPT-3におけるバイアス
去年の夏、GPT-3の研究者は、性別、人種、宗教に関連したモデルの結果の中に、固有のバイアスを発見した。
その中でも、ジェンダー・バイアスに関連して、性別と職業の関係や、ジェンダー化された記述語が含まれていた。
例えば、アルゴリズムは388の職業のうち83%が男性の仕事である可能性が高いと予測した。
また、「美しい」や「ゴージャス」などの外見に関連する記述語は、女性に関連する可能性が高くなっている。
AIが学んだ人間界の職業に対するジェンダー・バイアス
王様や女王様のような、一部の表現や用語が本質的にジェンダー化されている一方で、多くの職業に関連する用語は、本質的にジェンダー化されるべきではない。
しかし、上に引用したGPT-3の研究例では、機械は、銀行員や名誉教授などのより高いレベルの教育を示す職業は男性に傾いており、助産師、看護師、受付嬢、家政婦などの職業は女性に傾いていると推測している。
このような結果は、GPT-3だけではなく、異なる機械学習モデルやアルゴリズムの中で何度も起こっていることがわかった。
AIが男性寄りと認識した職業
- 銀行員
- 名誉教授
- 医者
- パイロット
AIが女性寄りと認識した職業
- 助産師
- 看護師
- 受付嬢
- 家政婦
AIがジェンダー・バイアスを持つ危険性
では、AIにおけるジェンダー・バイアスは、実際にどのような弊害を生み出すのであろうか?
おそらくそれは、AIを活用するシステムやアプリが、知らず知らずのうちにユーザーに対して不公平な判断をすることだろう。
例えば、今後AIによって、多くのサービスの自動化が進むことで、雇用慣行からローン申請、刑事司法制度に至るまで、AIを活用したあらゆるサービスが偏ったアルゴリズムの影響を受ける可能性がある。
そして、その結果がユーザーの性別によって大きく変わると予想される。それも、目に見えにくい場所で。
人間からAIに引き継がれる言語バイアス
上記のように、ジェンダーをはじめとする多くのバイアスが我々の使う言語に横行し、そして長い年月をかけて蓄積されている。
では、どのようにすればそれを自然言語処理を利用する機械や人工知能に永続させないようにできるのだろうか?
それが今大きな課題となってきている。
AIにおける公平性はデータそのものの公平性に左右される
AIが人間からジェンダー・バイアスを引き継ぐのは、明らかに理想的な結果ではない。
しかし、機械学習システムは、処理するデータよりも優れたものになることは難しい。
私たちの社会に予め存在するバイアスは、私たちの話し方や書き方に無意識のうちに影響を与えている。
その影響下で書かれた文章や、話されている言葉は最終的に機械学習システムを訓練するために使用される。
そのため、そのバイアスのかかったデータを使ってモデルを訓練すると、それがモデルに組み込まれ、既存のバイアスが保存されてしまう結果となる。
Web上のデータ自体がバイアスだらけ?
一般的には、機械が人間の言葉を学習する際には、データが多ければ多いほど性能の良いモデルが得られるとされる。
そして多くの場合、より多くのデータを取得するための最善の方法は、大規模なウェブクロールを通じて膨大なデータを獲得することである。
もちろん、インターネットやその他のコンテンツは、実際の人間の言語で構成されているため、データは当然人間と同じバイアスを持つことになる。
残念ながら、これらのウェブクロールされたデータセットの中のコンテンツには十分な注意が払われていない。
機械学習におけるジェンダー・バイアスを減らす方法は?
自然言語処理を活用した機械学習システムにおけるジェンダー・バイアスを減らし、より正確で公正ものにするための第一歩は、そのプロセスにおいて人間が積極的に関わっていくことだろう。
AIがデータからバイアスを学習することがわかっているのであれば、データのバイアスを取り除くことが最善のアプローチになる。
そのような手法の一つが「ジェンダー・スワッピング」である。
ここでは、学習データを拡張して、ジェンダーのある文ごとに代名詞やジェンダーのある単語を反対のジェンダーのものに置き換え、名前を実体のプレースホルダで置き換えることで、追加の文が作成される。
例えば、”花子は彼女の弟の太郎をハグした “には、”NAME-1は彼の妹のNAME-2をハグした “も生成する。
この方法では、学習データはジェンダーバランスのとれたものになる。
また、名前に関連付けられたジェンダー特性を学習しない。
例えば、このアプローチは、男性と女性のコンテクストを同じ回数見たことになるので、”ハグする”という行動に対してのジェンダー・バイアスが生まれなくなる。
言語によって難易度が格段に異なってくる
上記のアプローチは英語や日本語では簡単だが、他の言語でははるかに困難であることに注意する必要がある。
例えば、フランス語、ポルトガル語、スペイン語などのロマンス諸語では、文法的に中立的な性別は存在しない。
これらの言語では、形容詞や他の修飾語も同様に性別を表現する。その結果、異なるアプローチが必要になってくる。
具体的には、主語の性別を格納するメタデータを文に追加する方法。例えば、”You are very nice “という文は英語では性別が曖昧だが、並行するポルトガル語の文が “Tu és muito simpática “であれば、英語の文の最初にタグを追加して、モデルが正しい翻訳を学習できるようにする。
ジェンダー・バイアスを取り除くには手間と時間がかかる
これらの方法は自然言語処理モデルのジェンダー・バイアスを減らすことができるかもしれないが、実装には時間がかかることが容易に想像できる。
また、それぞれの国の言語によって特性が変化し、マイナー言語も含めるとかなりのケースに対応しなければならなくなるため、かなりの手間になる。
世界各地で進む自然言語処理におけるジェンダーニュートラルの動き
例えば、2018年にGoogleは、Google翻訳が4つの言語の単一単語の翻訳を女性形と男性形の両方で英語に返すことを発表した。
また、ブルームバーグの研究者たちは最近、言語ベースのモデルを人間が補足記入するための最善の方法について共同研究を行っている。
ブルッキングス研究所のような多くの研究機関は、偏ったアルゴリズムに起因する消費者被害を軽減する方法に注目しており、最近では音声やチャットボットを活用している。
テクノロジー業界のジェンダーギャップも重要なファクター
女性の技術者を増やしたり、テクノロジー企業における助成率を高め、思想の多様性を高めることとで、AIにおけるジェンダー・バイアスの増幅をおさえる方法の一つになりえる。
世界経済フォーラムによると、世界のAI専門家のうち女性はわずか22%であるのに対し、男性は78%である。
また、ブルームバーグによると、大手テクノロジー企業8社では、技術職のうち女性が占める割合は20%にとどまっているという。
技術系企業は、男性よりも女性の採用数が少ないだけでなく、女性の離職率も早い。
ボストン・コンサルティング・グループによると、世界的に見て、科学、技術、工学、数学(STEM)分野で働く人のうち女性は25%にすぎないが、これらの分野のリーダーのうち、女性は9%だそうだ。
このように、テクノロジー領域でのジェンダーギャップはかなり激しい。
現在見られる、この偏りは今後のAIにおけるジェンダー・バイアスを生み出す一つの要因になるかもしれない。
AIにおけるジェンダー・バイアスを減らす5つのステップ
Step 1: AIの開発に関わる女性を増やす
上記の通り、テクノロジー関連、特にAIの領域における女性の割合がかなり低い。
ジェンダー・バイアスを減らすための第一歩としては、女性と女性の経験をAIと自動化システムの設計、開発、応用に関連するすべての段階で適切に統合されることが挙げられる。
テクノロジー企業におけるあらゆるの役職でより多くの女性を積極的に雇用することに加えて、AIを開発と活用する企業は、初期の時点からジェンダーの専門家からのアドバイスと、女性の意見やデータを積極的に活用するのも良いと考えられる。
Step 2: データの男女バランスを整える
次に、アルゴリズム、AI、自動化に情報を提供するデータは男女別に集計する。
そうしなければ、女性が経験はこれらの技術ツールに情報を提供することができず、女性に対する既存のジェンダー・バイアスを内在化し続ける可能性がある。
その際には、女性に関するデータであっても、内在するジェンダー・バイアスには気をつける必要はあるだろう。
Step 3: AIを利用した仕組みを多様な人々によって検証する
言語処理の項目でも紹介した通り、ジェンダーニュートラルな仕組みを作るのにはどうしても手間が掛かる。
AIと同義語のように利用されている「自動化」というフレーズから、全て機械が自動的に処理してくれるように感じるが、バイアスを取り除くには、複数の異なるバックグラウンドを持った人々による検証と、微調整が必要になってくる。
Step 4: AIを活用してジェンダー問題に取り組む
そして、AIのジェンダー・バイアスを取り除く最も有効な方法の一つは、実際にそのシステムを活用して、社会的な問題に取り組むことだ。
特に性差別が原因となるような問題の解決のために利用してみる。
例えば、男女の賃金格差、仕事内容の違い、評価の違い、ネット上のいじめ、セクハラ、リーダー職における過小評価など、女性が実際に直面している課題に対処するために活用する。
AIと自動化の力を活用して性別における格差をどれだけ埋める事が可能かにチャレンジしてみるプロジェクトを進めることで、そのプロセスを通じてAIが潜在的なジェンダー課題を学ぶことにもつながるだろう。
Step 5: よりダイバーシティーに対応した仕組みを作る
最後のステップとして、意外と盲点になりがちなエリアにも挑戦してみる。
そう、性別は男性と女性だけではない。LGBTに代表される、ノンバイナリーな多様な価値観やライフスタイルへの理解も重要だ。
これは、生身の人間だけではなく、AIを利用したシステムも今後学んでいく必要が出てくるだろう。
男女が平等になった瞬間から、次はより多様な理解をテクノロジーにし始めてもらう必要が出てくるだろう。
まとめ:テクノロジーにおいても多様性を
このような進歩にもかかわらず、AIやテクノロジー全体の多様性の欠如からくる、より体系的な問題がある。
まだまだエンジニアの大部分が男性だし、女性の経営者も少ない。
データも偏りがちだし、何より作り出されたシステムがジェンダー問題解決の利用にはたどり着いていない。
テクノロジーにおける男女の格差が少なくなれば、バイアス問題に対する意識も高まるだろう。
そうすれば、AIを取り巻く仕組みを包括的に受け入れることができるようになるはず。
そして、テクノロジーは社会的課題の解決に利用されるべきことを考えれば、AIによって多様性が達成できる世の中の実現が我々技術者たちのゴールになるだろう。
筆者: Brandon K. Hill / CEO, btrax, Inc.
CES 2025の革新を振り返りませんか?
1月11日(土)、btrax SFオフィスで「CES 2025 報告会: After CES Party」を開催します!当日は、CEOのBrandonとゲストスピーカーが CES 2025 で見つけた注目トピックスや最新トレンドを共有します。ネットワーキングや意見交換の場としても最適です!