AIに潜む「性別・人種差別」の偏見 問題解決に何年もかかる理由 (1/3ページ)

1月に英ロンドンで開催されたAIに関する学術大会で披露されたAI人体模型のホログラム(ブルームバーグ)
1月に英ロンドンで開催されたAIに関する学術大会で披露されたAI人体模型のホログラム(ブルームバーグ)【拡大】

 ティムニット・ゲブル氏は、米スタンフォード大学の有名な人工知能(AI)研究所の学生だった時代、米グーグルの街頭画像提供サービス「ストリートビュー」から集めた自動車の画像を基に、米国全土の人口統計を分析する研究を主導した。

 AIによるこのアルゴリズム(問題を解決するための手順)は特定の地域の所得レベルや支持政党をある程度の精度で予測できたものの、人種や性別、社会経済的な偏見に影響を受けやすいものだったと、ゲブル氏は振り返る。また、犯罪者の再犯率を予測するコンピューターシステムが有色人種を差別していたとする、非営利報道機関「米プロパブリカ」の告発にも恐怖を覚えたという。

 結果ゆがめる

 「偏見という問題を考え始める必要があると気付いた」と語るゲブル氏は昨年初め、米マイクロソフトのプロジェクト「FATE」に加わった。3年前に設立された同プロジェクトは、AIシステムの開発に使用されるデータに潜む偏見と、それがいかにAIの出力結果をゆがめ得るかを明らかにすることを目指している。

 企業や政府機関、病院は機械学習や画像認識などのAIツールへの依存を高めている。ローン査定から適切ながん治療法の決定に至るあらゆる場面で活用されているAIだが、特に女性やマイノリティーに影響を及ぼすという重大な弱点がある。「心配なのはAIが間違った判断を下した場合、誰かの人生や健康、経済的安定を左右しかねないということ」と、米コロンビア大学データ科学研究所のジャネット・ウィン所長は語る。

 マイクロソフトや米IBM、カナダのトロント大学の研究者らは2011年から、公平なAIシステムの必要性を認識していた。AIによる美人コンテストが白人をひいきした事例などが物議を醸す中、今や業界の良識派はこの偏見問題に真剣に取り組んでいる。昨年12月に開催された機械学習分野の国際会議NIPSにおいても主要な議題となった。

AIは与えられたデータ以上に賢くはなれない