2021.8.5

FEATURE

信頼できるAI利用を促進 〜世界に先駆けて提案されたEUの規制枠組み〜

信頼できるAI利用を促進 〜世界に先駆けて提案されたEUの規制枠組み〜

人工知能(AI)技術は、声で家電などを操作できる音声認識アシストやお掃除ロボット、自動補正するカメラなど、人々の生活を便利にする上で欠かせないものになりつつある一方で、その利用の仕方によっては、人権侵害や安心で安全な生活を脅かすなどのリスクをはらんでいる。2021年4月、EUは世界で初めて、AI利用に関する規制枠組みを提案した。人類が今後、AIによるイノベーションを持続的に享受するために必要とされる法的枠組み。その法案の詳細を紹介する。

大きな可能性とリスクを併せ持つAI

人工知能(AI)は、社会に多くの恩恵をもたらす可能性を秘めている。環境汚染の削減、交通事故死の減少、医療の向上、障がい者や高齢者の社会参画の機会の拡大、オンライン・オフラインでのテロ行為や犯罪へのより有効な対策、サイバーセキュリティ強化など、ごく一部の例を挙げるだけでもAIシステムの用途は広範囲に及ぶ。

一方で、一部のAIシステムには、安全性や基本的人権に関して望ましくない結果を招くリスクがあり、それを回避するために何らかの対応が必要となる。例えば、AIシステムが達した結論がどのような判断や予測に基づくのかを明確にできないことが多いため、就職の採用決定や公的給付の申請などにおいて、誰かが不当に不利な扱いを受けていないかどうかを見極めることは難しい。

また、AIシステムを利用する場合、AIによる誤判断の対象となった人がその間違いを正すことができない状況が起こり得る。カメラに写った顔情報をデータベースと照合して識別する顔認証システムにAIが活用されているが、そのシステムが公共の場で利用される場合、取得した顔データが適切に管理・規制されていないと、プライバシーの著しい侵害となる可能性がある。さらに、AIシステムにどう学習させるのか、AIシステムをどう設計するのか、などが十分に考察されなければ、プライバシーの侵害だけではなく差別につながる重大なエラーが起こることもありうる。AIを搭載したロボットやシステムは、従来の技術と同様に、安全性や基本的権利の保護に関する高い基準を満たすように設計される必要がある。

私たちが普段相手を判別する手段を、AIを利用して再現した顔認識システム。グローバルに需要が高まる一方で、プライバシーの侵害が懸念されている

AI技術への需要が世界的に高まる中、欧州委員会は、2021年4月、AIに関する規制枠組みとなる規則案「Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts(人工知能に関する統一の取れたルールを定めかつ特定の法律を改正するための規則案)」(※1)を発表した。規則案では、AIの開発者と利用者に対してAIの個々の利用に関する明確な要件を定め、安全性と基本的権利を確保している。これは、AIの開発や導入に対する信頼を醸成する上で重要な転機となるものだ。AIシステム利活用による予見されるリスクに基づいて策定されたこの法案は、人々の信頼を得ることで、欧州全域でのAIシステム導入を促進し、欧州の競争力を高めることが期待されている。

AI規制の枠組みを発表する欧州委員会のヴェスタエアー執行副委員長(「デジタル時代にふさわしい欧州」担当)(2021年4月21日、ブリュッセル) Ⓒ European Union, 2021 / Source: EC – Audiovisual Service / Photographer: Aurore Martignoni

つまり、法案は2つの目的を追求している。1つはAIを特定の用途で使用する際に生じるリスクについて、そのリスクの程度に応じた適切な対応ができるようにすることであり、もう1つは、AIの導入促進を通じてEUの競争力を強化することだ。将来的にも有効で、かつイノベーションが起こりやすいように提案されている法的枠組みは、簡素なガバナンス体制の下、厳密に必要な場合にのみ、事業者の負担を最小限にする形で介入するように設計されている。

4段階に分類されるAIシステムのリスク

容認できないリスク
(Unacceptable risk)
基本的権利を侵害するようなAIシステムの利用は禁止。政府による個人の社会的信用の格付けや警察が生体認証技術を用いてリアルタイムで市民を監視することなどを含む
高リスク
(High risk)
市民の生活や健康を脅かす恐れがある、また安全性に問題が懸念されるなどの場合のAI利用。また、不可欠な公共・民間サービスや法執行・司法手続きに関するものなど。利用には厳格な要件が課される。
限定的リスク
(Limited risk)
深刻な危険はないが、利用には、透明性に関する特定の要件を満たす必要がある。
最小のリスク
(Minimal risk)
リスクがごくわずかか、リスクを伴わない利用。現在、EU内のAIシステムの大半がここに分類される

EUの規則案では、いわゆる「高リスク」のAIの利用事例――AIシステムから生じるリスクが特に高い場合――に重点が置かれている。AIシステムが高リスクに分類されるかどうかは、システムが導入される目的や起こりうる弊害の重大度と発生確率によって決まる。高リスクのAIシステムには、人材の採用や信用評価、司法判断に利用されるケースなどが含まれる。規則案は、規制が将来的に時代遅れとならないよう、新たに出現する用途やアプリケーションに対応して調整できる内容になっている。

EUの規則案は、高リスクに分類されたAIシステムに対して特定の要件を満たすことを求めている。具体的には、高品質のデータセットを使用すること、追跡可能性を高める適切な情報管理を確立すること、利用者へ充分な情報を共有すること、人間による適切な監視措置を導入すること、堅牢性・安全性・サイバーセキュリティ・正確性に関して最も高い水準を確保することなどが挙げられている。また、高リスクのAIシステムは、市場で販売される前にこうした要件に対する適合性評価を受ける義務がある。

AIを活用した手術ロボットなど、すでに第三者による適合性審査の通過が必要とされている医療機器は高リスクに該当。安全性をどう担保するかが課題になっている

また規則案では、サブリミナル技術を用いることや、特定の弱みにつけ込むことで人の行動を歪めて身体的・心理的な影響を与える可能性のあるAIシステムなどを、基本的な権利を侵害する容認できないリスクと定義し、その使用を禁止している。政府当局がAIシステムを利用し、個人の信用力を格付けするソーシャルスコアリングを行うことも禁止している。

通行者を確認するための顔認証ツールをはじめとする遠隔生体認証システムはすべて高リスクと見なされ、厳しい要件が適用される。また、法執行を目的に公共の場でリアルタイムに遠隔生体認証システムを使用することは容認できないリスクとして原則禁止されている。その例外的使用が認められる場合の条件も厳密に定義されている(迷子の捜索、特定の差し迫ったテロ脅威の防止、重大犯罪の容疑者の検出など)。厳しい条件を満たした場合でも、使用する際には司法機関もしくは他の独立機関の承認を得ることを求められ、使用の期間・地理的領域・検索対象のデータベースについても、適切な範囲に限定される。

規則案では、チャットボット(AIを活用した自動会話プログラム)、感情認識システム(表情や声、文章などから人間の感情をAIで読み取るシステム)、ディープフェイク(ディープラーニング技術を利用して合成したフェイク画像や動画)など、限定的リスクを伴うAIシステムついては、最小限の透明性に関する要件だけを課している。要件を満たせば、人々が情報に基づいて選択し、特定の状況を回避することができる。

また規則案は、AIを活用したビデオゲームやスパムフィルターなど最小のリスクに分類された用途については、自由に利用することを認めている。現在EUで利用されているAIシステムの大半は、ここに分類される。

このように、AI規則案は、イノベーションを支えつつ、安全性の向上と基本的権利の保護を両立させるものであり、イノベーションを妨げることなく信頼を確保することを可能にしている。

AIに関する日・EU間協力と今後の予定

EUは、並行して、 第三国、特に日本など同じ考えを共有するパートナー国との連携を深めたいと考えている。そのため、日本とEUは、「人工知能に関する合同委員会(AI合同委員会)」を設立。AI技術に対して日・EUでどのような規制を行っているのか、信頼できるAIシステムの確立に向けてどのようなベストプラクティスがあるのか、といった情報を密に交換し、日本とEUそれぞれ特有の使用事例に基づく分析や知見を共有することで、AIに関する国際的な議論の場での日・EUの協力を補完する役割を果たしている。

規制規則の今後についてだが、提案はEUの2つの立法機関であるEU理事会と欧州議会で審議され、場合によっては2022年の後半にも発効し、移行期間が始まる可能性がある。移行期間中にEUでは、AIの利用に関するさまざまな基準が策定され、ガバナンス体制が構築運用されるようになる。早ければ2024年後半に、基準の整備と最初の適合性評価の実施に伴い、事業者への規則の適用が始まる見通しだ。

欧州委員会は、今回提案した規制規則によりイノベーションが促進され、AIに対する信頼が生まれることを期待している。そして、そのような状況下でEUがAIのリスク対応に関して世界で主導的な役割を担うことを目指している。

※1 規則案はこちら(英語)

人気記事ランキング

POPULAR TAGS