2024.12.16

Q & A

EUのAI法について教えてください

EUのAI法について教えてください

欧州連合(EU)理事会は2024年5月、世界初となる人工知能(AI)の開発や運用を包括的に規制する「AI法(Artificial Intelligence Act)」を承認、同法は8月に発効した。2025年2月からは「容認できないリスク」を伴うAIの使用や提供などが禁止され、2027年8月から全面的適用が始まる。世界的に注目されるこの法律が生まれた背景や、その特徴について一橋大学の生貝直人教授に解説してもらった。

Q1. EUのAI法の具体的な内容を教えてください。

AI法は、EU基本権憲章に基づき、人間の自由や平等といった基本的人権を担保し、実現することがEUの役割であるという考えに基づいて、包括的かつ精緻にAIを規制する欧州らしい法律です。

第1の特徴として、リスクベースのアプローチが挙げられます。AIシステムは次の4段階に分類され、それぞれに規制の強度が設定されます。

  • 容認できないリスク(Unacceptable risk)
  • 高リスク(High risk)
  • 限定的リスク(Limited risk)
  • 最小のリスク(Minimal risk)

人々の安全、生活、権利に対する明白な脅威となるAIシステムは、EUが大切にする基本的人権を侵害する可能性があります。そうしたリスクをAI法では「容認できないリスク」として禁止しています。具体的な禁止行為として、「判断能力を著しく損なうサブリミナル技法や操作的・欺瞞的技法」「年齢、障害、特定の社会的・経済的状況に起因する脆弱性の悪⽤」「本⼈や集団に不利な影響を与える社会的スコアリング(例外有)」「個⼈の性格特性や特徴のプロファイリングのみに基づく犯罪予測」などが定められました。

また、「高リスク」には、「市民の生命や健康を危険にさらす可能性のある重要なインフラ」や、「教育や職業訓練においてその後の教育や専門コースへの進路を左右する可能性のあるもの」、「製品の安全部品」などが指定されており、4つの中では最も幅広いリスクになると想定されています。高リスクに認定された製品やサ―ビスは市場に投入される前に第三者による適合性評価を受ける必要があるなど、厳しい手続きが義務付けられています。特に人々の生活に多大な影響を及ぼす公共サービスや、法執行・司法手続きについては、厳格な要件があります。

限定的リスク」は、AIの利用における透明性の欠如に関するリスクで、人々が必要とする情報を確実に得られるように、透明性に関する要件を満たすことが求められます。最近ではAIにより生成された画像などがよく見かけられますが、生成AIによるコンテンツであることを明示しなければなりません。

最小のリスク」の分野ではAIを自由に利用できます。現在EU域内で使用されているAIシステムの大部分がこのカテゴリーに該当します。

こうしたリスクベースの枠組みは世界でもあまり前例がありませんが、AIシステムの規制には非常に適していると思います。

Self-driving autonomous cars move along a suburban traffic intersection in the evening. Neon HUD elements visualize the interaction of driverless cars connected to a common network

第2の特徴として、最近急速に普及した生成AIへのリスクも取り上げられました。2021年にこの法案が提案された当時、生成AIはあまり一般的なものではなく、社会的影響力もほとんどありませんでしたが、その後わずか3年で状況は大きく変化しました。生成AIによる情報が引き起こすリスクは、フェイクニュースから、大量破壊兵器の製造を容易にするといった危機まで多岐にわたります。EUのAI法は、世界に先駆けてこうした汎用目的AIから生じるリスクに対応する枠組みを設けています。このほか、AIのさらなる技術進化に対応する内容も盛り込まれているのもこの法律の特徴と言えるでしょう。

Q2. EUが世界に先駆けてAI法を作った背景、同法の意義や世界に与える影響は?

AIのリスクに対する世界的な関心が高まったのは、2022年末に生成AI「ChatGPT」がリリースされて以降です。それまでは、AIが組み込まれた家電や自動車によって引き起こされた事故など、いわゆる製品安全面のリスクが中心であり、AIが処理したデータについても、そのデータを使用する人間の判断ミスなどに関心が寄せられていました。しかし、生成AIの登場により、情報の信頼性が大きな論点となり、その影響はメディアやクリエイターの権利にも及んでいます。いま、まさにAI法の必要性が世界で認識され始めています。

私は情報に関する規制を専門としていますが、EUが2018年5月から適用している一般データ保護規則(GDPR:General Data Protection Regulation)は、世界の個人情報保護法制のモデルとなっています。EUのデジタルサービス法(DSA:Data Services Act)やデジタル市場法(DMA:Digital Markets Act)も同様の位置づけで、まさに「ブリュッセル効果(EUによる規則や規範がEUの枠組みを超え、国際経済・社会・事業活動に影響を与える現象)」と言えるでしょう。AI法も同様に世界標準になっていくと考えます。こうした流れは、EUが基本的人権の保護や人間の尊厳を重視し、その価値を世界に波及させてきた結果でしょう。

デジタル分野では、サービスが国境を越えて流通するのが前提です。法整備は一国の中では比較的機能しやすいですが、国境を越えると難しくなります。国内で優れた安全基準があっても、グローバルで共有できなければ意味がありません。EUが「ブリュッセル効果」を引き起こせるのも、加盟27カ国という大きな経済ブロック内で共通の法整備を進めてきた経験があるからだと思います。

Q3. 欧州評議会は2024年5月、AIに関する初の国際条約を採択し、EUも9月に署名しました。同条約とEUのAI法の関係について教えてください。

欧州評議会(Council of Europe)(本部:フランス・ストラスブール)は、人権、民主主義、法の支配の分野で国際社会を主導することを目的に1949年に創設された国際機関です。EUの全加盟国を含む46カ国がメンバーであり、日本や米国もオブザーバーとして参加しています。これまでに、サイバーセキュリティやデータ保護に関する枠組みを築き、今回世界で初めてのAIに関する国際条約として「AI並びに人権、民主主義及び法の支配に関する欧州評議会枠組み条約(Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law)」を採択しました。2024年9月時点でEUのほか、米国、英国などが署名しています。

この国際条約は、EUのAI法と同様に、AIの信頼性を高めて活用を促進するための枠組みの一つとして位置付けられ、AIが人権や民主主義、法の支配といった基本的価値を損なわないよう適切な措置を求める内容となっています。AI法と比べて抽象度の高い内容になっていますが、今後、世界各国でAI法を共有する場合には、この条約がベースとなります。今後、AIの進化に対応するためにEUがAI法を改定することがあっても、欧州評議会のこの国際条約は変わることなく、重要な役割を果たしていくでしょう。

Q4.AIをめぐるEUと日本の協力はどのように進んでいますか?

EUと日本は「デジタルパートナーシップ」を立ち上げ、デジタル分野での協力を深めています。やはりこの分野においても、民主主義、基本的人権、自由・平等といった価値をグローバルに担保していく上で、EUと日本のパートナシップが果たす役割は大きいと考えています。また、AIも含めたデジタル技術に関して、国際的に相互運用性のあるルールの策定に日本も貢献しています。

欧州の生成AIの特徴の一つは言語的多様性です。「欧州言語データスペース」を作成し、英語だけでなく他の言語モデルも整備していますが、これも欧州の伝統的な価値によるものです。日本でも日本語データセットを整備し、世界に共有することが重要な課題になると考えます。米国では英語優先の少数の先端企業が主導しがちですが、さまざまなレベルでのEUと日本の協力によって、AIにおける多様性を担保することが重要です。

生貝 直人(いけがい・なおと)

一橋大学大学院法学研究科ビジネスロー専攻教授。2005年、慶應義塾大学総合政策学部卒業、2007年、東京大学大学院学際情報学府博士課程修了、社会情報学博士。東京大学附属図書館新図書館計画推進室・大学院情報学環特任講師、株式会社情報通信総合研究所研究員、東洋大学経済学部総合政策学科准教授等を経て、2022年9月より現職。研究分野は情報法・政策。

EUのAI事務局

欧州委員会は2024年1月、EU域内での革新的なAIエコシステム構築に向け、AI開発においてEU加盟各国のスタートアップや中小企業を支援するための「AI イノベーションパッケージ(AI Innovation Package)」を発表した。「AIファクトリー」(AI専用のスーパーコンピューターへのアクセスを提供)、「GenAI4EUイニシアチブ」(新興企業や中小企業が、EUの価値観やルールに準拠した信頼できるAIを開発できるよう支援)、「AI事務局」の設置などを提示。そのうち、2024年初頭に欧州委員会内に設置されたEUのAI事務局は、AIの専門知識の中心であり、欧州における単一AIガバナンス・システムの基盤を形成し、信頼できるAIの開発・利用の促進や国際協力において重要な役割を果たすことが期待されている。

AI事務局は、「AIとロボティクスの卓越性」、 「規制とコンプライアンス」、 「AIの安全性」、「AIイノベーションと政策調整」および「社会的利益のためのAI」の5つの部署と、科学顧問と国際担当顧問という2人の顧問で構成されている。AI技術専門家、弁護士、政策専門家、エコノミストなど約140人のスタッフを置いている。

EUのAI開発の「ワンストップショップ」として、AI事務局は以下のことを行う。

– 技術革新、信頼できるAIの革新的エコシステム、規制のサンドボックス(革新的技術・サービスを事業化する目的で、地域や期間を限定して既存の規制を一時的に停止する制度)、実環境試験を支援することにより、信頼できるAIの開発と利用を強化する。

– 専門家やステークホルダーと協力し、欧州アルゴリズム透明性センター(European Centre for Algorithmic Transparency:ECAT)欧州AIアライアンスを含むコミュニティからの科学的助言に基づいた活動を行う。

– AI法の首尾一貫した適用を支援し、ツール、方法論、ベンチマークを含む汎用AI規則を、最先端の実践規範やガイドラインとともに施行する。

– 信頼できるAIに対するEUの取り組みを国際レベルで推進し、AIに対するグローバルなアプローチに貢献する。

人気記事ランキング

POPULAR TAGS