AI活用で私たちのプライバシーが脅かされる?
AIによる個人情報の漏洩リスクと問われる企業倫理

AI技術の進歩が加速する中で、法律などの社会基盤の整備が追い付いていない現状が、いま問題視されています。そのひとつとして取り上げられているのが、「プライバシーの侵害リスク」です。この記事では、具体的にどのようなプライバシーの侵害リスクがあり、それに対してどのような対策が行われているのかについて解説します。

AIによる個人データ収集の仕組み

幅広い情報を短時間に高い精度で導き出せる

AIによる個人データ収集の仕組みは、基本的にこれまでやってきたデータ分析の方法と、大きな違いはありません。顧客データなどを収集・分析する方法も、従来のやり方の延長線上にあります。
ただし、これまでと違う点は、人間ではなくAIが分析を行うことによって、多種多様の大量なデータを複合的に収集・分析できる点にあります。これによって、今までよりも幅広い情報を、短時間に高い精度で導き出すことができます。

個人データを活用する「GAFA」の事例

たとえば巨大IT企業「GAFA」を例に挙げてみましょう。「GAFA」は、ネット上のサービスを利用した際に収集される購買履歴や検索履歴といった個人データを収集し、自社のさまざまなサービスに利用して大きな利益を獲得しています。
たとえば、ユーザーが欲しい商品を探すためにGoogle検索し、Amazonで買い物をし、Facebookに画像と文章をアップしたとしましょう。こうした行為のすべては、個人データとしてGAFAのサービスに利用されています。

【参考】AIによるデータ分析とは?事例やメリットも含めて分かりやすく解説

データの活用に後れを取ってきた日本

日本は今まで、個人情報の保護という観点もあり、個人データの活用については遅れを取っていました。しかし、AIの進歩が加速したことによって、今後はそのような状況も変わってくるでしょう。
総務省の2023年版情報通信白書によると、個人データを事業に活用している日本企業は52.8%と、米国企業の81.9%に比べて29.1ポイント低いという結果が出ました。ただし、日本企業は2019年の調査で25.2%だったので、それに比べて2倍以上に増えており、今後も増加することは十分に考えられます。

【参考】日本経済新聞「日本企業の個人データ活用52.8% 情報通信白書

プライバシーの侵害リスクと懸念

The young hacker in cybersecurty concept

AIの普及によってデータの利活用が盛んになると、生活が便利になる反面、さまざまな不安や懸念も出てきます。AIが個人情報や企業情報のデータを学習することで、「プライバシーの侵害」に関わるリスクがあるためです。たとえば、次のようなリスクや懸念が考えられます。

情報漏洩

プライバシーの侵害リスクの中でも、情報漏洩の問題はかなり深刻です。たとえばChatGPTなどの生成AIサービスに、ユーザーが間違って社内の機密情報を入力してしまった場合、その内容がサービスに取り込まれてしまうこともあるのです。また、AIサービス側の管理に不備があれば、そこから情報が漏れてしまう可能性もあります。

個人情報の悪用と差別

AIが収集した個人情報が、悪用されることを懸念している人は、少なくありません。たとえば、自分の声や顔が、ディープフェイクを使った詐欺に狙われる危険性もあります。他国がAIを情報戦に用いる可能性も、あり得るでしょう。
また、住宅の入居審査などにAIのアルゴリズムが使われることで、人種や障害・信仰といった個人情報が不当な差別につながることもあります。

【参考】AIが人を差別する?AI倫理の課題、そしてAIに善悪の判断はできるのか

無許可のデータ共有と第三者への販売

AIが取り込んだデータが著作権者に無許可で共有され、第三者に販売されてしまうというリスクもあります。AIはインターネット上に無数にあるイラストや写真などのデータを取り込んで機械学習し、Script(スクリプト)と呼ばれる指示文に沿って新たなイラストや画像を生成します。
しかし、AIが取り込んだイラストや写真がクリエイターの著作物である場合、著作権侵害にあたるのではないかということが、いま議論になっています。2023年4月には、イラストレーターや漫画家などの団体が、「画像生成AIの不適切な使用でクリエイターの創作活動や権利が脅かされた」として、適切な使用と法整備を求める提案を出しました。それが波紋を呼び、AIの機械学習における今後の課題となっています。

AIに関する法規制

こうしたAIを取り巻く諸問題に対して、世界的には法律ではどのような規制がなされているのでしょうか?AIに関する法規制の事例をご紹介します。

EU域内の個人データ保護などに関する法令「GDPR」

GDPR(General Data Protection Regulation)とは「EU一般データ保護規則」のことで、EU域内の各国に適用される個人データの保護と取り扱いに関する法令として、2018年5月に施行されました。GDPRでは、個人データの処理に関する原則を定め、自分自身の個人データに関して有する権利や、個人データの管理者・処理者が負う義務などについても定めています。

法律制定が待ち望まれる、EUの「AI法案」

AIを包括的に規制する世界初の法律として制定が待ち望まれているのが、欧州連合(EU)が成立を目指している「AI法案」です。これは人工知能(AI)を使ったシステムやサービスを規制するための法律案で、まさにAIのために制定される法律といえます。

2021年4月に欧州委員会が提案し、早ければ2023年内の合意を目指していますが、実際に施行されるのは2026年頃と見込まれています。AIをリスクに応じて4等分し、規制を課するなど、人の安全や人権に影響を与えるAIをさまざまな観点から取り仕切ります。

AI規制に乗り遅れた日本

それに対して日本は、日米欧中の4カ国の中で最も規制が緩く、AI規制に乗り遅れているのが現状です。既存の法令やガイドラインを活用して、緩やかな規制を行っていますが、内閣府は生成AIに関するリスクや懸念に適切に対処するためのガードレールの設置が必要として、協議を行っています。ただし、規制を強めることによって日本企業が海外展開をしづらくなったり、罰則の対象になったりといった可能性も危惧されています。

【参考】GDPR(EU一般データ保護規則)とは?日本企業が対応すべきポイントを考える

【参考】AIを包括的に規制する世界初の法律制定となるか、EUの「AI法案」とは

企業倫理と社会的責任

AI倫理への関心が高まる一方で、実践している企業が少ない現実

次世代のテクノロジーとして脚光を浴びるAIですが、ビジネスに導入するにあたって企業の社会的責任は大きく、さまざまな問題に対処して正しく使われなければなりません。そのために、企業はまずAIの倫理問題に留意する必要があります。
IBM Institute for Business Value(IBV)とオックスフォード・エコノミクス社が22カ国の経営層に行った調査によると、AI倫理を重要視している経営層は2018年に半数未満でしたが、2021年には75%まで増加しています。しかし、AI倫理への関心が高まっている一方で、自社のAI倫理の原則や価値観を実践できている企業は、20%にも満たない状況でした。

企業プライバシーに配慮したAIモデルの設計を

日本の状況も同様で、AI倫理の原則やガイダンスの策定、AI倫理委員会の設置などに着手した企業はあるものの、それを実際の開発プロセスで実践できている企業はまだ少ないのが現状です。
この問題を現時点でクリアするためには、人間がAIに頼り切ることなく、AIが行う作業の流れをしっかりとチェックする必要があります。AIが学習するデータの内容や、活用範囲、判断基準、最終的な決定などを人間の目で確認し、適宜アップデートしていくことが大切です。

そうして常に改善を加えていき、AIと人間が力を合わせてより良いシステムにアップデートしていくことが、プライバシーに配慮したAIモデルを設計することにつながるでしょう。

【参考】AI倫理の実践

この記事を書いた人

ビジネス・テクノロジスト 貝田龍太