|EN

AI の標準化や法規制に関する動向:2023 年版

Filed under:

AIの規制についての議論が次第に活発になりつつあります。このトピックに関する活動はグローバルに行われていますが、主に EU で活発に行われており、AIに関する標準やガイドライン、法整備はすでに進められてきています。

AI の規制に対して日本がとっている「ソフトロー」的なアプローチと並行し、特に 欧州ではEU の AI Act が近々成立・公布される見込みであり、日本の企業も AI Act が提唱する AI の標準について注視し、今後の対応を検討することが必要です。

この記事では AI の規制について今後注意を払うべき点や、注意すべき理由について要点を述べます。今後ヨーロッパ市場への進出を検討している、または規制が実務にもたらすインパクトに興味があるのでしたら、きっとお役に立てることと思います。

General Timeline of Standards Development

AI 品質マネジメントシンポジウムでの大岩先生のセッションにあるように、AI の標準はいくつかの段階を経て検討が進んできています。この記事ではAIの標準に関する取り組みを4段階にまとめました。それぞれを見ていきましょう。

1. 社会的なルールや原則のレベル (2018〜)

これは最初のフェーズで、AI が普及するに従って徐々に築かれてきたものです。ここでは 公平性や安全性、透明性といった、AI システムが満たすべきさまざまな原則の定義に主眼が置かれています。

これらは AI の開発者に何かを強いるものではありませんが、実践的なドキュメントの基礎となりました。ドキュメントの例を次に挙げます。

2. 国が定めるフレームワークや社会的なガイドラインのレベル (2020〜)

この段階では公的な機関によるフレームワークの初期バージョンが見られます。

ドキュメントの内容はまだ固まっていない可能性がありますが、データ収集から管理までを含めたAI 開発のパイプラインについて、ハイレベルな概要の一般論を述べています。次がそのようなドキュメントの一例です。

3. 技術的なガイドラインと標準化のレベル (2021〜)

ご認識のように、ここ数年の間、具体的かつ実践的な標準が多くの注目を集めました。業界に基づくガイドラインがいくつか発表されたのに加え、国際的な団体が実世界への適用例に基づいて推奨事項や要求事項をまとめ、公表しています。

4.標準と 法制度との協調と発展のレベル

ここまでのフェーズは次々に入れ替わっていきましたが、次のフェーズはこれから長く続くものとなると予想されます。

これまでに開発された知識の構築を通じて、政府と産業界は共通言語を獲得し、実用的で普遍的なルールを明文化し続けていくでしょう。

  • NIST AI リスクマネジメントフレームワーク: v1.0 の公表
  • EU AI Act: 最終版の公表と施行
  • ISO, IEEE, etc: 十分な議論を経た上での規格のリリースと CEN (European Committee for Standardisation) や CENELEC (European Committee for Electrotechnical Standardisation) との協調

概して、グローバルなトレンドは、AIシステムが外部からのユーザーの期待に対してどうあるべきか (公平であるか、理解可能であるか、制御可能であるか) から、それらを実現するためにどのようにして内部のプロセスを構築するかに移ってきています。

これらのトレンドについての議論に参加し、ロバスト性を持ったシステムを開発して実証してみせることは、それぞれの企業にとって非常に重要な機会となるでしょう。またこれらを通じて、企業は開発プロセスの合理化を進めることができるのみならず、ユーザーや顧客、投資家からの信頼を得ることにも繋がるでしょう。

このような議論の文脈を理解するためには、欧州において AI システムがどのように変化していくか、もう少し述べる必要があります。この変化の中から、次の数年におけるグローバルな流れを生み出す重要なアイデアが出てきます。

EU AI Act

EU はリスクベースのアプローチを取っています。これはいわゆる AI Act と呼ばれているものに基づいており、潜在的な危険性を評価し、危険性の高い AI をまず規制の対象にしています。

AI Act は政府と産業界の協調、規制下に置かれたサンドボックス、法的拘束力のある適合フレームワークを策定する国際標準といったものを拠り所としています。

この新しい法制度により強く影響を受ける分野のひとつとして、「ハイリスク」な医療技術分野が挙げられます。この分野では承認を得るために厳格な適合要件を満たすことが現時点でも求められており、AI に焦点を当てた新たなプロセスに対処するだけの体制がもっとも整っていると考えられるためです。

最新の状況について興味があるのでしたら Artificial Intelligence Act ニュースレーターを購読することをおすすめします。

重要な点として、AI Act によるハイレベルな法律では、技術的なガイドラインは提供されません。このため、ISO のような団体による規格が、 AI Act の定める一般的な要求事項とのギャップを埋め、それらにAI Act に従う責任を果たすための重要な役割を担います。

これらの規格では AI システムが満たすべきテストや計測項目について明確なベンチマークを提供し、同時に AI システムを適切に構築するためのツールやプロセスの概要も提供します。各企業はこれらの規格に従う場合、AI Act の定める法律に準拠しているとみなされるでしょう。

このような技術的な規格に対して不安がないわけではありません。AI の発展の速さに十分追いつけるような速度で、適切で明確な規格を作成できるという暗黙的な仮定に、合理性があるとはいい難いと主張する人も居ます。このブログ記事では ISO のドキュメント (すでに公開されて実装のために利用可能なもの) についても触れますが、まずは日本の AI の規制に関する状況について述べます。

AI Regulation in Japan

これまでは EU の動向について述べてきましたが、日本に目を移しましょう。

EU 同様に日本にも AI について述べた法制度や公的な文章が存在しますが、その内容は EU と比較して慎重なものといえます。これらの文章は、個々の産業分野における特定の用途について規定しており、これまで見てきた AI 全般を規制するアプローチとは対照的です。

たとえば、改正された道路交通法と道路運送車両法では「レベル4」の自動運転という特定用途の AI についてのみ述べています。他にも「 プラント保安分野AI信頼性評価ガイドライン」では、AI の望ましい品質評価方法について、プラントという特定分野に限って述べています。

日本のこのようなアプローチの背後にある考え方を、METI (経済産業省) の「AI原則の実践の在り方に関する検討会 報告書 」では次のように述べています。

また、AI を用いた特定の技術自体を義務的規制の対象とすべきではない。義務的な規制が必要な場合でも、意図しない領域にまで規制が及ばないように、AIの応用分野や用途について慎重に範囲を定めるべきである。なぜなら、技術の具体的な使われ方等(利用分野、利用目的、利用規模、利用場面、影響を及ぼす対象が不特定か否か、事前周知が可能か否か、オプトアウト可能か否か等)によって、社会に与える利益や損害の可能性は異なるからである。

一方で、内閣府によれば、日本の AI 戦略は国際的な研究や、訓練、ソーシャル・ネットワークに関するリーダとなることを目標としています。

実際にそうしたことを目指した動きも出ており、いくつかの注目すべき標準規格は、ローカルのアカデミアや産業界のスペシャリストによって作成されています。たとえば ISO/IEC TR 24030 (AI Use cases), ISO/IEC DIS 5338 (AI system life cycle), ISO/IEC 5259–2 (Data quality measures), IEEE P7001 (Transparency of Autonomous Systems)はそのような規格の一部です。

これらを踏まえると、日本が ISO JTC1/SC42 の分科会のための国際機関を持っていることも驚くに値しないでしょう。この分科会は AI に関連する規格について取り組み、経済産業省のもと AIST (産総研) や JSA (日本規格協会) が主催する内部のプロジェクトや研究を行うための共通基盤を作成しています。東京では前述の SC42 の会議や、最近では国際的な GPAI 2022 カンファレンス など、いくつかの重要な会議も開催されました。

日本の産業界は、今のところ外部からの強制的な規制圧力は受けない状況に置かれています。その一方で、日本の AI の産業界では、同様の話題について議論するためのコミュニティが自然発生的に形成されはじめています。たとえば、JDLA (Japan Deep Learning Association) や JSAI (Japan Society for AI) はそのようなコミュニティの一例で、JSAI はさまざまなイベントを開催するだけでなく、有用なリソースも提供しています。

さらに、日本で作成されたドキュメントの中には、データ収集からリスクマネジメントまでを含む、AIパイプライン全体について包括的に述べたドキュメントである機械学習品質マネジメントガイドラインが存在します。これは AIST (産総研) によって作成されたもので、実験的な評価支援ツールである Qunomon も存在します。また、実際の事例に基づくドキュメントとして日本初のAIプロダクト品質保証ガイドラインが作成されています。これは QA4AI に所属する産業界の専門家が作成したものです。

Survey of Japanese Companies

しかし、これらのソリューションが AI 業界においてどれほど浸透しているのかは明らかではありませんでした。そこで私たちは、添付のようなAIの標準・ガイドラインに関わる調査を大手企業の方々を対象に実施しました。

AIの標準への対応について貴社の状況を共有いただけるようでしたら、こちらのアンケートにご回答いただければ幸いです

その中で、特にISO/IECやIEEEの海外の標準化動向については、知らなかったという方が6割近くを占めていました。また、日本の「機械学習品質マネジメントガイドライン」や「AIプロダクト品質保証ガイドライン」についても、「こうしたガイドラインに準拠する形で、社内のAI開発を取り進めている」との回答を頂いたのは、全体の1/3以下に留まりました。

一方で、「来年度(2023年度)中に、社内のAI開発にこのガイドラインを取り入れるべく検討中である」という回答を加えると、全体の40%に達し、徐々にAIの品質や信頼性に対する意識が高まって来ていることを示す結果となりました。

今回の私たちの調査からは、AI の標準や規格に関連したドキュメントを参照して、具体的な行動をとっている企業はまだ限られていると言えます。また、現状では複数の方向性を検討している段階にある企業が一般的なようです。

ISO Standards

しかしながら、AI の標準化に関するグローバルなトレンドの中では、ISO/IEC 42001 (Artificial Intelligence — Management system) の周辺に、複数のドキュメントから成るエコシステムが現実に形成されつつあります。

ISO/IEC 42001 は SC/42 ワークグループの中心的な規格で、多くの企業が準拠しているISO/IEC 27001 (ISMS) というセキュリティの規格を発想の原点として作成されています。

日本としても、産業界の提案やガイドラインを、正式な国際規格の一部として受け入れられるよう取り組みを進めています。たとえば、前述の「機械学習品質マネジメントガイドライン」はもともとは IEC 61508 を元にして考案されたものですが、著者らはそれを国際標準に焼き戻し、とくに ISO CD TR 5469 “Functional safety and AI systems” の一部として組み入れるべく尽力しています。

独立した技術的な ISO の規格は、企業がエンジニアリングリソースを投下する先としてもっとも安全確実なもののひとつだといえるでしょう。なぜなら、それらの規格は将来にわたって、適切かつ優れた価値があることが保証されているためです。準拠すべき規格としては次のものが挙げられます。

1. ISO/IEC TR 24027 (Bias in AI systems)

AI標準の分野では既によく知られている文書の1つです。AI による意思決定に存在するバイアスの概要や、モデルをテストするための数式を用いた具体的な公平性の評価指標の一覧などが記載されています。

2. ISO/IEC TR 4213 (Assessment of machine learning classification performance)

バイナリ分類、マルチクラス分類、マルチラベル分類について、多くの場合単純な精度を見るだけでは誤る可能性があるため、それを凌ぐさまざまな推奨メトリクスを提示し、、性能レポートに含めるべきであると紹介しています。

3. ISO/IEC TR 24029–1 (Assessment of the robustness of neural networks)

特にニューラルネットワークの性能を評価するための統計的、形式的、経験的手法の概要を解説しているドキュメントです。

AI の企画に関する最新の情報に追随するためには、AI Standards Hub のニュースレターを購読することをおすすめします。

ISO の規定の中では、上記であげたものは古典的な意味で「規格」と呼べるものではなく、規格を遵守するために参照する「技術レポート」や「技術仕様」と呼ばれるものです。但し、これらにはいくつかの重要な利点があります。

  • これらの規定は国際的な機関の専門家によって承認され、国際的に有意な重要性が認められています。これらの技術仕様への準拠を宣言することは、AI モデルの状態をチーム内 (非技術者へのレポーティングを含む) やチーム外 (マーケティング目的を含む) に明確に伝えるのに役立ちます。
  • これらの規定は AI の実装に関する技術的な側面に着目しています (実際、測定すべきメトリクスについて言及しています)。エンジニアにとって実装方法が明確にされていることは大きなメリットです。
  • これらには注意すべきポイントを記述されているため、今までに注意していなかったポイントを見つけられる可能性があります。もし見つけることができれば、モデルを改善する良い機会となるでしょう。

別の著名な規格の発行者である IEEE が、少なくとも EU においては、他の公式なリファレンスに統合されていないということは述べておかねばならないでしょう。

しかし、彼らの独自の方法には価値があります。たとえば、AI Watch は P7003 や P7001 のような規格について「AI のバイアス、人による監視、記録管理、リスク管理に関する運用要件に関する貴重なコンテンツ」であると評し、他のドキュメントの残したギャップを明確に埋めていると評価しています。

これらについての詳細は続く記事で触れていくことにしたいと思います。

読者の中には、AI のテストベッドを開発したり、弊社のCitadel Lens のようなサードパーティーの分析用ソフトウェアを適用して、社内で合意された指標やKPIと照らし合わせながら、モデルの健全性を組織的に評価されようとしている企業の方も多いでしょう。

確かに、一人のデータサイエンティストが、モデルを Jupyter Notebook で開発しテストするような時代は終わりつつあります。しかし一方で、大規模なエンジニアリングリソースを投入し、技術的ならびに法的なコンプライアンスの両面から、標準化後の世界にスムーズに移行して「“AI Trust” 認可済み」という適合ラベルを得られるのは、現実的には少数の大企業に限られるでしょう。

中規模、あるいは小規模なチームでは、このような検証にかかわる追加要件の対応に忙殺され、肝心のアプリケーション開発や品質改善の速度が低下してしまうことになりかねません。そうならないためにも、早い段階からAIの品質検証やリスク管理の仕組みを検討の上、AIシステムの検証プロセスを効率的に実現する「自動テストツール」の導入を進めることが重要です。

弊社のプロダクトCitadel Lensは、技術に裏打ちされた、法制度や標準に対する検証レポートを自動的に生成します。技術者の方はもちろん、コンプライアンスを担当されている方々にとっても、これらの標準や規制への適合を手軽かつ確実に検証頂くことができる、非常に便利で画期的なツールです。ビジネスや法制度面でのリスクをミニマイズすることが可能です。

画像や表形式データを扱った機械学習モデルを開発・運用中で、弊社のプロダクトにご興味を持っていただけるようでしたら、是非こちらからご連絡下さい。お問合せを心からお待ちしております。

ご質問・ご要望はこちらまで

デモのご要望やご質問は、こちらまでお寄せ下さい。

Related Articles