|EN

EU AI法が企業にとって意味するもの

Filed under:

2023年12月9日、36時間に及ぶ長期交渉の末、欧州のみならず海外の国際機関にとってのゲームチェンジャーにもなるEUのAI法が、欧州議会と欧州理事会、欧州委員会の三者協議において政治的な暫定合意に達しました。AI法の導入は、産業界や政策立案者の間で大きな注目を集めており、合意から2日後、弊社も登壇したフランクフルトのAIクオリティ・サミットにおいても、その話題で持ち切りでした。

さらに2024年2月2日、EU AI法の最終文案が、常任代表委員会(COREPER)で正式に承認されました。今年4月には欧州議会で最終投票が行われる予定です。その後EU官報に掲載の上公布され、法律の施行に向け正式に動き出すことになります。AI開発者がEUに拠点を置いているか否かにかかわらず、EU域内で使用されるすべてのAIシステムに影響を及ぼすことになります。

今回は、このEU AI法について、知っておくべき重要なポイントを解説すると共に、それが皆さまのビジネスにどのような影響を及ぼすのかを記載します。

EUのAI法とは何か?

EUのAI法は、AIの利用に関わる、世界初の強制力を伴う大規模な規則(Regulation)です。非EU地域にも影響力を及ぼす、国際基盤を生み出す可能性を秘めています。丁度GDPRが、欧州外の企業にとっても、データプライバシーの基軸の象徴と見なされ、カリフォルニアのCCPAのような規制が派生的に作られて行ったように、同様の動きが世界的に広がっていくかも知れません。

EU AI法は「リスク・ベース」のアプローチを採用しており、AIシステムに内在するリスクの大きさに比例する形で、規制要件の厳しさを定めています。このアプローチが、これまでの既存のガイドラインや標準のアプローチとどのように異なるかについては、AI規制の現状に関する弊社の別のブログ記事をご覧ください。

以下に説明するように、ハイリスクに分類されるAIシステムは、この法律の施行によって最も大きな影響を受けることになります。EU域内でこのようなハイリスクAIシステムを開発する事業者は、第三者適合性評価を受け、CEマークを取得した上でEU市場に参入することが義務付けられることになります。

AIシステムの開発者と利用者によって、どのような適合要件の違いが生じるのか?

2024年2月2日に常任代表委員会(COREPER)で承認されたEU AI法の最新版では、AIのバリューチェーンに応じた、以下6つの役割責任を新たに定義しています。

  1. プロバイダー(Provider):AIシステムを開発し、有償・無償を問わず、自社名や商標のもとに、それを市場に投入したり、サービスとして提供する事業体(企業などのEntity)。
  2. デプロイヤー(Deployer):自らの権限の下でAIシステムを使用する、個人的な非営利活動の場合を除く事業体。AIの影響を受けるエンドユーザーを指すものではないことに注意。
  3. 輸入事業者(Importer):EU域外のAIシステムを、EU市場に投入するEUの事業体。
  4. 販売事業者(Distributor):プロバイダーあるいは輸入事業者以外のサプライチェーンにおいて、AIシステムをEU市場で入手できるようにする事業体。
  5. 認定代理人(Authorized Representative):プロバイダーに代わって製品安全性の遵守に関する任務を委任されたEUの事業体。
  6. オペレータ(Operator):上記を全て総称した事業体。

事業体は同時に複数の役割を果たす可能性があり、その場合、それらの役割に関連するすべての義務を同時に満たすべきである。例えば、あるオペレータが販売事業者や輸入事業者を兼ねることもある。

AI法の序文56a

プロバイダーは、AI法に基づく責任の主要部分を担うことになります。ハイリスクAIシステムのプロバイダーは、AI法第16条を遵守する必要があり、その他以下の条文の規制も受けることになります。

  • 第9条 リスクマネジメントシステムの構築・文書化に関わる義務
  • 第10条 開発時の学習、検証、テストに関わる高品質なデータとデータガバナンスに関わる義務
  • 第11条 附属書IVに定められている技術文書の作成義務
  • 第12条 AIシステムのログの自動記録に関わる義務
  • 第13条 デプロイヤーに対する適切な透明性確保義務
  • 第14条 人間による監視手段確立に関わる義務
  • 第15条 ハイリスクAIシステムの精度、堅牢性、サイバーセキュリティに関わる技術要件
  • 第17条 品質マネジメントシステム(ISO42001等)の構築・文書化に関わる義務
  • 第18条 国家規制当局が自由に利用できるよう関連文書の10年間保管義務
  • 第20条 自動記録されたログの最小限6ヶ月間保管義務
  • 第21条 不適合時の是正措置とバリューチェーン関係者への通知義務
  • 第23条 規制当局への情報提供協力義務
  • 第51条 EUデータベースへのハイリスクモデルの登録義務

デプロイヤーがハイリスクAIシステムを導入する場合は、プロバイダーよりは軽い義務になりますが、AI法第29条を遵守する必要があります。これには、システムの使用に関わるデューディリジェンスの実施、使用中のシステムの監視と記録、特定の条件下での基本的権利に対する影響評価の実施などが含まれます。

ただし以下のケースでは、デプロイヤーあるいは輸入事業者、販売事業者が、ハイリスクAIシステムの新たなプロバイダーと見なされるので注意が必要です。

  • AIシステムの名称または商標を変更した場合
  • AIシステムに重大な変更を加えた場合
  • 市販されているハイリスクではないAIシステムを、ハイリスクな用途で利用すべく変更した場合

これらの場合、これらのシステムに関わる義務は、元々のプロバイダーが負う必要はなくなる一方、新たなプロバイダーに対する「合理的に期待される技術的アクセス」を提供する義務が課されます。

輸入事業者および販売事業者は、それぞれ第26条あるいは第27条の義務を負います。これらの義務の中には、プロバイダーがその義務を遵守していることや、システムが関連する適合性評価を経てCEマークを表示していることを、確認する義務が含まれます。

認定代理人は第25条の義務の対象となり、関連当局との協力や関連書類の提出義務を負います。

あなたの事業体(オペレータ)が、EU AI法が定めるAIシステムのバリューチェーンの中で、どの位置づけになるのかを理解する上で、以下のフローチャートがお役に立てれば幸いです。なお、この図は簡易版であり、AIシステムの出力先がEU域内であるか、その利用がEU域内であるといった、いくつかの前提を置いて作成していますのでご注意ください。Future of Life Instituteが作成したインタラクティブなAI Act Compliance Checkerもおすすめです。

AIシステムのカテゴリーによって、どのような適合要件の違いが生じるのか?

EU AI法では、要請される義務のレベルが異なる、複数のAIシステムのカテゴリーを定義しています。あるAIシステムが、こうしたカテゴリーの一つに必ずしも限定されるとは限らず、複数のカテゴリーの義務を負う可能性もあります。例えば、医療機器で利用される基盤モデルが、エンドユーザと直接やりとりをする場合、ハイリスクAIと汎用AIと、透明性に関わる義務を同時に負う可能性があります。

禁止されているAI

第5条に規定されるユースケースでは、法執行活動のための一部例外を除き、利用が禁止されます。

例:リアルタイム生体認証、ソーシャルスコアリング、人の意識を意図的に操る技術

ハイリスクAI

これらのユースケースは、悪用された場合、非常に有害な可能性があると考えられ、市場に投入される前に、第三者による適合性評価が求められます。第6条によれば、以下のケースがハイリスクであると規定されています。

  1. 附属書IIに記載されている既存のEU整合法令で既に規制されている製品のセーフティーコンポーネント、あるいはその製品そのものとして使用されるものであり、それらの附属書II記載のEU整合法令に基づく第三者適合性評価を受ける必要があると規定されているもの。
  1. 附属書IIIに該当するもの、但し健康、安全、または自然人の基本的権利に重大な危害を及ぼす危険性がないことが証明される場合を除く。

ここからは、上記2点について詳しく説明します。


AI法策定時の主要な審議事項の一つは、複数の製品を既に規制している既存のEU整合法令(Union harmonisation legislation)と、新たなEU AI法を、どのような形で調和させるかということにありました。この課題に対する解が、AI法の附属書IIになります。

附属書ⅡセクションA:新たな法的枠組み(NLF)に基づくEU整合法令リスト

附属書ⅡのEU整合法令リストには、以下のカテゴリーに該当するAIシステム、またはAIシステムがセーフティーコンポーネントである製品が対象に含まれます。第28条2(a)に従い、そのような製品の製造者は、その製造者の名称または商標の下で市販されている場合、ハイリスクAIシステムのプロバイダーとみなされます。

  • 機械類
  • 玩具
  • レクリエーショナルクラフトおよびパーソナルウォータークラフト
  • 昇降機
  • 爆発性のある環境の中で潜在的に利用される可能性のある機器および保護システム
  • 無線機器
  • 圧力装置
  • ワイヤーロープ設置に関わる設備
  • 個人用保護装置
  • ガス燃料を燃焼する機器
  • 医療機器
  • 体外診断用医療機器

第6条1項によれば、AIシステムが上記のカテゴリーに含まれ、すでに関連法規に基づく第三者評価を受ける必要がある場合、そのAIシステムはハイリスクとみなされ、関連するすべての義務がプロバイダーに適用されます。

但し、AI法と既存の法規、例えば医療機器規制(MDR)との正確な相互関係はまだ確定しておらず、依然議論の渦中にあります。附属書ⅡのAIシステムに対する義務は、他のハイリスクシステムよりも1年遅れて適用されるため、要件を整合させるだけの十分な時間があると考えられます。

付属書 II、セクション B:その他のEU整合法令に該当するその他の機器

以下のカテゴリーに該当するAIシステム、またはAIシステムがセーフティーコンポーネントである製品が対象に含まれます。

  • 民間航空安全分野
  • 二輪車、三輪車、四輪のクワドラサイクル
  • 農業・林業用車両
  • 船舶用機器
  • 鉄道システムの相互運用性
  • 自動車とトレーラー
  • 民間航空

第2条(2)によれば、ハイリスクのAIシステムが上記のカテゴリーに含まれ、すでに関連法規に基づく第三者評価を受ける必要がある場合は、ハイリスクに分類されます。ただし、上記附属書ⅡセクションAのユースケースとは異なり、第84条のみが適用されます。プロバイダーは、通常のハイリスクAIシステム規則ではなく、既存の整合化されたEU整合法令に従う義務があるだけです。


附属書Ⅲ、他の既存のEU整合法令ではカバーされていない、その他のハイリスクのユースケース

  • 生体認証(例:人間の感情を読み取るシステム) 
  • 重要インフラ(例:電気・ガス・水道等におけるセーフティーコンポーネント)
  • 教育および職業訓練(例:訓練機関への入学判定)
  • 雇用、労働者管理、自営業へのアクセス(例:人事管理評価、的を絞った求人広告)
  • 公共および民間の社会基盤に関わるサービスへのアクセスおよび利用(例:受給資格の評価、信用度の評価、健康保険の価格設定など)
  • 法執行(例:過去の犯罪行動を利用した個人の評価)
  • 移民、亡命、国境管理(例:ビザ申請審査)
  • 司法および民主的プロセスの管理(例:司法当局による法律の調査および解釈の支援)

第84条では、「欧州委員会は、附属書III(ハイリスク用途)および第5条(禁止用途)のリストを改正する必要性を年1回評価し、その結果を欧州議会および欧州理事会に報告する」としています。”

ただし、第6条2aは、附属書IIIに基づくAIシステムが「自然人の健康、安全又は基本的権利に危害を及ぼす重大なリスクをもたらさない」場合には、ハイリスクとはみなされないという免除を規定しています。このような場合、プロバイダーは各国の監督当局に対して、AIシステムの使用が以下のいずれかの業務に限定されることを証明する自己評価を含む届出書を提出しなければなりません。

  • 限定的な手続き業務の遂行に関わるAIシステム
  • 人間が行ったそれまでの作業結果の改善に関わるAIシステム
  • 意思決定のパターンや、過去の意思決定パターンからの逸脱を検出したりするAIシステム。但し適切な人間によるレビュー無しに人間が行ったそれまで評価に取って代わったり、影響を与えたりするものを除く。
  • 附属書Ⅲの目的に合致するか否かの評価準備作業を行うことを目的としたAIシステム。
  • 本項第1号にかかわらず,AIシステムが自然人のプロファイリングを行う場合,AIシステムは常にハイリスクとみなされるものとする。附属書IIIに記載されたユースケースの目的に関連する、評価の準備作業の実行。

但し自然人のプロファイリングを行った場合は、上記に関わらず、すべてハイリスクAIと見なされます。

 欧州委員会は、欧州AI委員会に諮問した後、AI法の発行後18ヶ月以内に、第82条aに定める条件に従い、ハイリスクAIおよび非ハイリスクのユースケースの包括的な実例リストとともに、第6条を実際に実施するためのガイドラインを提供するものとする。

第6条2c

もしあなたがハイリスクAIシステムのプロバイダーであるならば、上記で説明した義務が適用され、システムを市場に出す前に第43条に基づく適合性評価を実施する必要があります。

透明性義務を伴うAI

これらのユースケースは、人を誤らせやすい可能性があると考えられる一方で、ハイリスクAIのレベルではないものが該当します。自然人と直接対話するシステム、合成画像、音声、映像を生成するシステム(汎用AIモデルGPAを含む)等が一例です。AI法第52条によると、このカテゴリーに分類されるAIシステムのプロバイダーとデプロイヤーは、ユーザーに対して、AI(チャットボット)やAIが生成したコンテンツ(「ディープフェイク」)とやりとりしていることを通知したり、行動規範を提示するなどの透明性要件を満たす必要があります。

汎用AIモデル(GPAI)

EU AI法のⅧa編は、「著しい汎用性を示し、幅広いタスクを適切に実行できる」汎用AI(GPAI)モデルの義務を規定するもので、「大規模な 自己教師あり学習を使用して大量のデータで訓練された場合を含む」と定義されている。

第52条cによれば、GPAIモデルのプロバイダーは、以下を行わなければならない:

  • 学習とテストのプロセスおよび評価結果を含む技術文書を作成すること。
  • GPAIモデルを自らのAIシステムに統合しようとする他のプロバイダーに対して、十分な文書と情報を提供できるようにすること。
  • EU の著作権法を尊重するポリシーを導入すること。
  • EUのAIオフィスが提供するテンプレートに基づき、学習に使用されるコンテンツについて十分に詳細な概要を公表すること。
  • 本52条cに基づく実施規範(Code of Practice)を策定し遵守すること。

AI法の策定に時間を要し、上記の政治的合意交渉が遅れていた理由のひとつは、汎用AI(GPAI)モデルの2階層分類に関する議論に時間がかかっていたことによるものです。現状、10^25FLOPs以上の計算能力を用いて学習された汎用AIモデルは、システミック・リスクを有すると定義されています。このため、GPT-4と潜在的なGemini Ultraを除く、市場に出回っているほとんどのモデルは、それほど非システミック・リスクのサブカテゴリーに分類されます。しかし、この閾値は、技術の進歩に伴い、欧州委員会とAIオフィスが見直される可能性があります。

システミック・リスクを有するGPAIモデルのプロバイダーは、以下の追加義務を負うことになります。

  • 敵対的テストを含むモデル評価の実施
  • 想定されるシステミック・リスクの評価と軽減
  • 問題を文書化し、AI事務局および関連当局に報告すること

ただし、研究・学術用途のAIシステムのプロバイダーや、フリーでオープンソースのAIモデル(GPAIを含む)については、大幅な適用除外があります。これらのモデルは、AI法に基づく義務を負うAIシステムの一部としてプロバイダーによって市場に投入されるまでは、いかなる義務も課されません。軍事用途や法執行用途は義務の大部分を免除されますが、ここでは取り上げない特別な考慮事項があります。

これらのEU AI法とそのカテゴリーに関わるQ&Aが欧州委員会の公式ページで公開されていますので、そちらも併せてご覧ください。

EU AI法に適合できない場合、どうなるのか?

第71条にあるように、違反した場合の典型例としては、行政当局が制裁金を課すことになります。実際の制裁金額は、各EU加盟国が策定する規制に基づき、違反の重大性に応じてケースバイケースで決定されることになりますが、AI法では、違反種別に応じた最高額を提示しています。

  • 許容できないユースケースまたはデータに関する要件に関連する違反:最高3,500万ユーロまたは当該組織の全世界年間総売上高の7%
  • その他の要求事項への不遵守:最高1,500万ユーロまたは全世界年間総売上高の3%
  • ノーティファイド・ボディおよび各国所轄官庁への不正確、不完全または誤解を招く情報提供:最高750万ユーロまたは全世界年間総売上高の1.5%

制裁金の金額の閾値について、中小企業(新興企業を含む)の場合は金額のうち低い方を、その他の企業の場合は高い方が課されることになります。

現在の立法に向けた状況と今後のスケジュール

EUのAI法はまだ正式な法律として成立していませんが、2024年初頭から半ばを目処にEU官報掲載の上公布され、その後24ヶ月かけて段階的に施行される予定です。

第85条によれば、公布後の施行要件の展開スケジュールは以下の通りです:

  1. 6ヶ月後  :許容できないリスクのAIアプリケーションの禁止が適用
  2. 9ヶ月後  : 汎用AI(GPAI)における実施規範(Code of Practice)の作成
  3. 12ヵ月後(2025年第2四半期頃):汎用AI(GPAI)に関する規定の適用等
  4. 24ヵ月後(2026年第2四半期頃):附属書Ⅲに基づくハイリスクAIシステムに対する義務が適用。各EU加盟国は、少なくとも1つの規制サンドボックスを設置もしくは参加が求められる。
  5. 36ヵ月後 :附属書IIに基づくハイリスクAIシステムに対する義務が適用

今後2年間については、政府機関でも民間企業でも、AI監査に関わる慌しい動きが起こることが予想されます。加盟国は、関連するオフィスやシステムを設置する必要があり、規格策定や認証機関は、明確な認証のフレームワークを構築し法の施行に向けたギャップを早急に解消する必要に迫られるでしょう。AIを組み込んだ医療機器のような特定の産業については、規格の実際の展開とその適用は、2026年という公称期限よりも長くかかる可能性もあります。

また、第83条2項により、AI法が適用される日以前にすでに市場に投入され、または使用されていたハイリスクAIシステムのオペレータには、それ以降に設計に大幅な変更を加えない限り、AI法は適用除外となります。言い換えれば、既存のハイリスクAIシステムに大幅な修正が加えられない場合は、AI法が遡及適用されることはありません。

各組織は、自主的なボランタリー適合テストを早急に進めるよう、立法当局から奨励されています。

Citadel AIのツールがEU AI法の準備に向けてどのように役立つか?

EU 法は、2021 年 4 月以降いくつもの草案の修正を経て出来上がったものであり、その適用範囲は、組織内でのAI利用に関わるプロセスガバナンスから技術検証に至る迄、さまざまなレベルに及んでいます。

Citadel AIは、AIの標準に関わるエコシステムに初期段階から加わり、お客様のAIのテストプロセスやガバナンスプロセスの合理化を支援し、AIに対する標準や規制への適合テストの自動化を推進しています。当社のツール、Citadel Lens(シタデルレンズ)とCitadel Radar(シタデルレーダー)では、以下のことが可能です:

  1. EU AI法の中で大変厳しい技術要件が求められている箇所を、自動検証します 。
  2. AI法の技術要件の骨格を成すことになる国際標準に照らして、AIのモデルやデータを手軽に評価できるよう、エンジニアリングチームを支援します。
  3. 分かりやすいレポートとガイダンスを通じて、早期の認証取得につなげます。

Citadel AIのツールは、グローバルな規格開発と業務改善を推進するBSI(英国規格協会)において採用されています。AIに対する法整備が進む重要な局面において、お客様がコンプライアンス体制を整え、AIの信頼性を向上し、この進化の激しい時代を乗り切っていく上で、必ずやお役に立てると信じています。

ご興味のある方は是非お問い合わせください

ご質問・ご要望はこちらまで

デモのご要望やご質問は、こちらまでお寄せ下さい。

Related Articles