AIが人を差別する?
AI倫理の課題、そしてAIに善悪の判断はできるのか
 

AI(人工知能)の開発は急加速し、それに伴い導入も着実に増加しています。人間に代わり多くの作業や業務を行うAIはもはや社会にとって不可欠な存在です。しかし、AIが普及するにつれて、解決すべき倫理的な問題に目を背けることができない状態となりました。AIはプログラムされたデータに基づいて処理・学習しますが、それによって差別や倫理的な問題が発生する場合があります。また、AIによる自動運転の実用化が進む中で、AIが「善悪」の判断を迫られる状況も現れつつあります。今回は、AIが引き起こす差別やトロッコ問題、AIで抽出した個人情報の取り扱いなど、AIの道徳的課題や人間を傷つけないAIの必要性について詳しくみていきましょう。 

AIが実際に引き起こした差別とは

AIは過去に学習したデータを基に、予めプログラムされた方法で情報を処理します。しかし過去のデータに偏見や社会的バイアスが含まれている場合は、AIもそれに追従して差別的な判断を下してしまう場合があります。差別や偏見を自ら回避できないAIが引き起こす差別問題について、いくつか事例を見ていきましょう。 

「ゴリラ」とタグ付けされた黒人

2015年アメリカで起こった事例です。AIの画像分析技術を用いた「Googleフォト」に、写真上の被写体を飛行機や建物などにカテゴリー分けする機能があります。その中で黒人が写っている写真に「ゴリラ」とタグ付けされた事例がありました。発覚後、Googleは謝罪し、「ゴリラ」というカテゴリーを削除しました。 

刑務を左右する分析で人種差別

アメリカのウィスコンシン州では、「COMPAS」と呼ばれるAI技術を搭載した「再犯予測プログラム」システムが利用されていますが、これが有色人種に不利な判定をしているのではないかと問題になりました。「COMPAS」は被告への質疑応答と過去の犯罪データーを照合して再犯の可能性を評価するもので、裁判の参考資料として用いられるため大変重要です。しかし、再犯危険度が高いと判断されても、罪を犯さなかった黒人は44.9%で白人は23.5%と約2倍の違いがありました。

一方、開発側は人種によって不公平な判定はしていないと主張しました。黒人のほうが逮捕時の年齢が若く、年齢が若ければ一般に再犯率が高いため、黒人の再犯率が高く評価されてしまうのです。この事例では、公平なアルゴリズムによって人種間で公平な判定を下すことの難しさが示唆されました。

人材採用でAIが女性除外

2018年にAmazonはAIによる人材採用の自動化を試みました。応募者の履歴書から設定されたキーワードを検索し上位の人材を採用する、というシステムでしたが、AIは「女性」というキーワードがある人を候補者から除外していました。過去の技術者がほとんど男性だったため、男性を採用するほうが好ましいとAIが判断したことが原因です。その後、このような偏りを無くすためアルゴリズムの改良を行いましたが、完全に修正することは不可能だと判断し、このプログラムは打ち切られました。 

AIはどう判断?自動運転と「トロッコ問題」

自動運転の普及にAIは欠かせません。人的ミスが原因で起こる交通事故を未然に防ぐため、多くの自動車ですでに導入されています。人命にかかわる責務を担うAIのミッションは重大です。しかしそれに伴って、AIが倫理的な判断を迫られる場合もあります。

自動運転に不可欠なAI

現在の日本ではレベル3の自動運転が解禁されています。これは高速道路など限定的な場所での自動運転が許可される段階です。今後、一般の歩行者等が存在する公道の走行も可能となる見込みですが、そのためにはより高度な判断が行える自動運転AIが必要となります。

自動運転で直面する「トロッコ問題」とは

自動運転が本格化するうえで課題となるのが「トロッコ問題」です。トロッコ問題とは、複数ある選択肢のどれを選んでも犠牲者が出る場合、どのような判断をするのかという倫理的思考を問うものです。 例えば、走行する車の前方に歩行者がいて、ハンドルを切れば歩行者は助かるがドライバーが犠牲になる、という状況が想定されます。この場合、ハンドルを切るか切らないかはドライバーの倫理観に委ねられますが、自動運転の場合に判断するのはAIです。こうした状況でどのような判断をAIに行わせるべきなのか、様々な観点から議論が行われています。

プライバシーが脅かされる?個人情報取り扱いの課題

現在、個人の行動履歴をAIによるデータ分析に活用するため、利用者の同意の元で個人情報の収集を行っているサービスが多数存在します。しかし、こうして収集された個人情報が、利用者の望まない形で利用されるケースが発生しています。ここでは個人情報を収集する上での課題について見ていきましょう。

売られた内定辞退率

2018年に大手就活サイトが内定辞退率データを28社に販売したことが判明し、ネット上で議論が紛糾しました。AIが前年度の内定を辞退した学生の閲覧パターンを分析し、今年内定した学生の辞退率を5段階で分析・数値化し、高額で販売していたのです。採用の合否には影響させず、採用した学生を逃さないようにするという目的で売買したとされていますが、批判を受けた結果としてサービスが廃止されることになりました。ここでは就活生にとって不利になる可能性がある情報を、就活生からの十分な同意なしに収集したことが問題となりました。

データの「偏り」が生む新たな差別

AIの発達が新たな差別を生む可能性もあります。アメリカでは、経済状況が似通っている場合でも、白人に比べて有色人種の住宅ローン申請が否認されやすいことが明らかになりました。これまでの持家率の差や総資産の違いから、有色人種への融資リスクが過大に評価されていると考えられています。

またクレジットカードの審査においても女性の信用スコアが低く算定され、限度額が引き下げられるといった問題が発生しています。

これらの事例はAIが学習した過去のデータに「偏り」が存在することを示唆しています。その結果、現時点の経済状況が同じであっても、ある集団は優遇され、ある集団は家を買えなくなるといった差別が発生してしまうのです。

【参考】AIによる住宅ローン審査で、マイノリティの申請者に差別も

世界中で重要視!AI倫理に対する対策

22カ国1,200人の経営層を対象に行った 日本IBMの調査によると、回答者の約75%がAIの倫理問題を重要視していると判明しました。AIの実用化が加速する中、差別的要因によって傷つく人が増えないよう、ガイドラインの必要性が高まっており、各国でAI倫理問題を解決するための対策を講じています。 

【参考】 世界の経営層、7割が「AI倫理を重視」 IBM調査

日本国内の状況と対策

社会がAIを受け入れ適正に利用するために「人間中心のAI 社会原則」の考えを基とした、セキュリティーやリテラシー、プライバシーなど、政府と企業が留意すべき7つの基本原則が発表されました。しかし、政府のガバナンスガイドラインと企業が対応できるガイドラインにギャップがあり困難が生じているのが現状です。 

諸外国の対策

EUでは「信頼できるAIのための倫理ガイドライン」を作成し、人間の関与と監視、技術的な堅牢性と安全性、プライバシーとデータのガバナンス、透明性、多様性・非差別・公平性、環境及び社会的幸福、アカウンタビリティからなる 7 つの要件を含んだ質問表を企業用に作成し、そのガイドラインに従ったAI導入を促しています。ドイツは5段階にリスク分けし独自の段階に合わせた対策を行い、オーストラリアでも「豪州のAI倫理フレームワーク」を公表し意見を募集するなど、各国でAI倫理における対策を強化し始めています。 

【出典】国内外の議論及び国際的な議論の動向 

【出典】我が国の AI ガバナンスの在り方 ver. 1.0

「人間中心」のAIの在り方

AIの急発展や導入増加に伴い、AIの倫理的な課題を解決する重要性が高まっています。善悪の線引きや数値では判断しきれない情報をAIが担う場合、社会全体で良し悪しについて合意し、十分に審議されたルールに沿った改良が必要です。AIの調整だけでなく、人間もモラルある正しい方法でAIを使用し、個人情報や権利を脅かさないよう取扱いに慎重になることも忘れてはいけません。現状、人間でも判断が分かれるような状況にAIが遭遇した場合の対応方法や責任の所在など、まだまだ課題は山積みです。しかし、人間にとって便利な社会にするためのAIが人を傷つけることは決してあってはなりません。人種や性別、貧富の差別を減らし、正しく便利な社会に向けてAIの在り方を考えていきましょう。 

この記事を書いた人

ビジネス・テクノロジスト 貝田龍太