AIがあなたを差別するかもしれません

AIがあなたを差別するかもしれません
就職情報サイト「リクナビ」の運営会社が、学生の内定辞退率を企業に販売していた問題では、利用者のプライバシーの問題に関心が集まりました。

しかし、各企業が学生のデータをもとにAI=人工知能で採用の可否を決めるようになったら、何が起きるのでしょうか。あらゆる分野でAI=人工知能の活用が進むなか、アメリカでは“AIのバイアス”の議論が始まっています。そこから見えてきたのは、AIが社会の差別を再生産するかもしれないという危機感です。
(国際部記者 曽我太一)

“AIのバイアス”とはなにか

「AIはすべての人に対して公平でなければならない」
(マイクロソフト社幹部)
数々のテクノロジーを生み出してきたアメリカ・シリコンバレーで、ことし9月、AIについてのシンポジウムが開かれました。
登壇した著名企業の幹部が次々と訴えていたのが、“AIによるバイアス”の問題でした。“AIによるバイアス”とは、どういうことなのか。AIでは、私たちがこれまでに持っている大量のデータを機械学習することで見つけた特定の法則性やパターンをもとに、コンピューターが自動的に分析を行います。

しかし、データに偏りがあると、AIの「アルゴリズム」(AIがデータを処理するためのコンピュータープログラム)が下す判断にも、偏見やバイアスが入ってしまう可能性があります。

つまり、AIが学習するデータの「公平性」が問われているのです。

企業の慣例がデータに反映された結果…

例えば、こんな事例があります。ネット通販大手の「アマゾン・ドットコム」は去年、AIを使った人事採用システムが「女性に差別的だった」として運用を停止しました。
アマゾンは、人事が誰を面接すべきか判断するため、過去10年分の履歴書や採用の可否などのデータをAIに学習させていました。しかし、過去に採用したスタッフの割合が圧倒的に男性が多かったため、AIが、IT系の職種には“女性は不向き”と判断していたとみられています。

このケースの場合、何が誤っていたのでしょうか。

AIのプログラムそのものは学習したデータをもとに必要な結果を出していました。また、データそのものが間違っていたということでもありません。しかしこのデータには、男性を多く採用してきたこれまでの“人事文化”が色濃く反映されていたため、公平性を欠く結果がはじき出されてしまったのです。

データにも“多様性”を

AIの活用が進むなか、いま、AIのアルゴリズムを設計できる人材の需要は急激に増えています。

その一方で、この業界は特に男性や白人の割合が多いのが現状です。そのバランスを是正しようという動きもでています。
ことし9月、南部ルイジアナ州のニューオーリンズでは、IT業界の人種のバランスを考えるパネルディスカッションが開かれました。ニューオーリンズは黒人が人口の6割を占め、AIなどテクノロジーに関連する産業が急速に成長している町です。

パネリストとして参加したサブリナ・ショートさんは、ニューオーリンズを拠点にして、黒人のIT技術者がスキルを上げるためのセミナーを開いたり、求人情報を提供したりして、テクノロジー産業における人種バランスの問題を訴える活動をしています。現状がどうなっているのか。ショートさんに聞くと、1つの例を挙げました。
ショートさん
「“あなたが年を取ったらどうなるか”を予測する顔認証技術を使ったゲームがあったんです。私が試してみたら、結果は『金髪で白人の女性』になってしまったんです。これは、十分な顔のデータを学習していなかったということなんです」
つまり、このゲームに使われているAIは、白人の高齢者の顔のデータは学習していましたが、黒人の高齢者の顔のデータを十分に学習していなかった。つまり、もともとのデータに偏りがあったのではないかというのです。
ショートさん
「AIなどのテクノロジーはいま、さまざまな肌の色や声、人種などのことをあまり考慮に入れずに作られているんです。もっと幅広いデータや、事例、人種などを考慮に入れることが必要です。シリコンバレーは今になってこうした問題に直面し、解決に取り組んでいますが、私たちはそうなる前にあらゆる人たちのことを考慮した、公平な環境を作りたいんです」

AIによって差別が再生産される

データが私たちの社会から抽出された物である以上、データは社会の「バイアス」から逃れられないというジレンマ。

この問題に私たちはどう向き合えば良いのか、スタンフォード大学でこの問題について研究するアンジェル・クリスティン助教を訪ねました。クリスティン助教は、偏ったデータに基づいてAIを設計することの危険性について、次のように指摘しました。
クリスティン助教
「例えば、犯罪の問題では、警察官は黒人や低所得者に対して偏見をもっています。そして、こうしたデータをもとにAIを設計すると、AIは黒人や低所得者の住む地域にもっと警察官を配備したほうがよいと判断する。そして、警察官を配備することになり、さらに逮捕件数が増えれば、AIはこのデータをさらに学習することになるんです。このようにして、データが偏っていると、いまある差別的な状況がAIによって再生産されることになるんです」
AIが差別を再生産するーー。その事態はどうしたら回避できるのでしょうか。
クリスティン助教
「AIが生み出すかもしれない“予期せぬ結果”について真剣に考えなければいけないと思います。現場でAIのシステムを活用する人が設計段階から携わっていれば、あまりにも何が起きているかわからないというようなシステムを作ることは避けられると思います」

データのバイアスは社会のバイアス

リクナビの問題では、学生が内定を辞退する確率が5段階で予測され、企業に販売されていました。リクナビ側は、こうしたデータは学生の合否判定には使われていないとしています。
しかし、こうしたデータが企業の採用活動で活用されるようになっても不思議ではありません。そのとき、もしAIが「A大学の学生は内定辞退の確率が高いから、A大学の学生に内定を出す数は減らしたほうが良い」とAIが判断していたらーーー。

人手不足が深刻化する中、業務の効率化や生産性向上は喫緊の課題です。AIの活用は待ったなしで進められています。しかし、今回の取材を通じて、AIがもたらすかもしれない「予期せぬ結果」については十分に注意を払わなければならないということを肌身に感じました。

データが社会を映し出す鏡だとすると、今の私たちの社会は、性的マイノリティの人たちや障害者、外国人などにとって公平な社会だと言えるでしょうか。そうした社会の在り方がAIによって再生産されないためにも、まず私たちが社会の“バイアス”を正確に捉えることが、AIの活用を一層進めていくために不可欠なのではないかと感じました。
国際部記者
曽我太一
平成24年入局 旭川局などを経て国際部
スタンフォード大学で客員研究員としてメディアの未来について学んだ。