IRCA-マネジメントシステム審査員/監査員の国際登録機関 > 情報メディア > ソートリーダーシップ > AIを巡る国際的な動向とクオリティ4.0、そして持続可能性

AIを巡る国際的な動向とクオリティ4.0、そして持続可能性

  • LINEで送る
  • このエントリーをはてなブックマークに追加
AIを巡る国際的な動向とクオリティ4.0、そして持続可能性

2021年11月25日、ユネスコからAI (人工知能) の国際的な倫理規範が発表され、国際規格としてはISO/IEC 42001 Information Technology — Artificial intelligence — Management system の他、コアとなる規格を中心に開発が着々と進んでいます。一方、欧州ではAI賠償責任ルールを含む規制の方向性の強い法案が議論されています。AIを巡り、世界ではどのような議論が行われているのか、クオリティプロフェッショナルにどのような影響を及ぼす可能性があるのか、またCQIの提唱するクオリティ4.0 はAIの活用を含むデジタルトランスフォーメーションの中で、どのような役割を果たすと考えられるか、IRCAジャパンのメンバーズサポーターであり、AIに関する国内外の議論に積極的に参加されている北村弘さんにお話を伺いました。

AIの議論と最新動向

AIをめぐっては、日本国内はもちろん、国際的な機関や会議体でもさまざまな議論が行われています。それぞれの機関や会議体は、地域や国、文化など、背負う背景に由来する違いがあり、そのアプローチの方法はさまざまです。

以下は、AIをめぐって、活発に議論が交わされている課題です。

Trustworthiness/trustworthy

これは直訳すると「信頼に足る」ということですが、AIの議論の中での定義はまだ必ずしも統一されていません。これについては、後ほど説明します。

バイアス

バイアスには、データのバイアスもあれば、AIのモデルのバイアスもあり、利活用者のバイアスもあります。データは客観的なものと思われているかもしれませんが、例えば収集したデータの母集団に偏りがあるなど、収集の仕方によっては意図しないバイアス、偏りが生じます。したがって、共通のコンセンサスが必要となってきます。特に長年蓄積されてきた過去のデータは、必ずしもAIでの利活用を前提として取っているわけではないので、どういう属性のデータでどういうデータ構成をしているかという従属背景をしっかり確認する必要があります。

サイバーフィジカルセキュリティ

IoTやEコマースなど、現実世界 (フィジカル) とコンピュータ/ネットワーク上の世界 (サイバー) が交差、融合するサイバーフィジカルの世界においてはどのようなセキュリティ対策が必要なのかが検討されています。仮想空間であるクラウドもクラウドだけで存在しているわけではないので、実体のセキュリティをどのように確保するのかということがあります。AI機能をもつ高度化したイメージセンサーも実用化されていますが、AIセキュリティとしてはセンシングからクラウドのセキュリティまでを一体として考えていかなければなりません。

Trustworthinessとは?

Trustworthiness/trustworthy の定義はまだ必ずしも統一されていないと話しましたが、主な定義として欧州委員会による定義とISO/IEC の唱える定義を見てみましょう。(出典: http://www.qa4ai.jp/Conf2021/20210618.SC42.pdf )

 欧州委員会による trustworthy の定義
human agency and oversight (人間の関与)
technical robustness and safety (技術のロバスト性、安全性)
privacy and data governance (プライバシーとデータガバナンス)
Transparency (透明性)
diversity, non-discrimination and fairness (多様性、差別のないこと、公正)
environmental and societal well-being and (環境と社会のwell-being(福祉))
Accountability (アカウンタビリティ/説明責任)
 ISO/IECによるtrustworthiness の定義
ability to meet stakeholders’ expectations in a verifiable way (ステークホルダーの期待に検証可能な形で応える能力)
Note 1 to entry: Depending on the context or sector, and also on the specific product or service, data, and technology used, different characteristics apply and need verification to ensure stakeholders expectations are met. (分野ごとに顧客の期待は異なる)
Note 2 to entry: Characteristics of trustworthiness include, for instance, reliability, availability, resilience, security, privacy, safety, accountability, transparency, integrity, authenticity, quality, usability. (特性はさまざま)
Note 3 to entry: Trustworthiness is an attribute that can be applied to services, products, technology, data and information as well as, in the context of governance, to organizations. (対象もさまざま)

比べて見ると、特に欧州委員会の定義は人間の関与、透明性、福祉など、非常に広く捉えています。倫理的な側面を重視するという特徴は欧州の一貫した姿勢とも言えます。対して、ISO/IECの定義は、ステークホルダーの期待があり、その中に倫理も含めた特性が注として含まれるという形になっています。AIを使った価値創出に対して、信用、信頼をどう図っていくのかという本質的なところが議論になっていると思います。

なぜ、前述のtrustworthyの定義が使われるようになったかという背景には、欧州では根幹の考えとしてAIを脅威と捉えていことがあるのではないかと感じています。これは文化的なコンテキストにも由来すると考えています。このように、さまざまな定義があり、欧州では今はこういう考え方です。国際的な議論の前提としてISO/IECによる国際的な定義は定められていますが、これからの議論で、何を大切にしていくのかというところが進化していくと思います。

Human oversight とは?

辞書に掲載されているoversight の同義語は supervision、監視/監督ですが、human oversightという文脈におけるoversightは単なる監視/監督ではなく、より幅広い概念と捉えられ最適な日本語訳は見当たりません。

遮るものが多い公園の入口では視野が遮られていますが、歩みを進めると公園の広さ、奥行きに驚くことがあります。初めて見えるものがあります。なんだこれは?という未知の発見もあります。Human oversightの議論とは、単にいま捉えて見えているものだけではなく、「人間として」、どういうところを見ていくのかという議論です。これはひとつのプロジェクト、ひとつの組織について言っているわけではなく、社会システムとしての話です。

AIの処理が、倫理面の判断も含めて、如何に高度化したとしても、最後に判断するのは人間であるべきと考えます。AIは、人間社会をサポートする存在であるとしたら、たとえ判断を間違うリスクがあるとしても人間が判断する余地は確保しなければなりません。これまでAIでは代替できないと考えられながら、今後AIに置き換えられていくであろう、いわゆる非定型的な「人間系」の業務も含め、フロントラインに近い部分だけでなく、一段高いシステムでの検証/立証 (アテステーション attestation) が大切になると考えています。特にマルチエージェント化AIでは、このアテステーションが非常に重要になってくるでしょう。

欧州委員会が進める「AI法案」とISO/IECによる標準化

2021年11月25日にユネスコが発表したAIの倫理に関する国際的な規範は拘束力のあるものではありませんが、加盟国は法制化など「内容を履行する責任がある」とし、各国の取り組みをチェックし、評価する仕組みも盛り込まれているようです。

> Recommendation on the ethics of artificial intelligence

このような国際的な動きの中、欧州委員会はいわゆる「AI法案」の準備を進めています。欧州委員会の議論では、パッケージとしてのAI法規制案が出てきており、「AI賠償責任ルール」も盛り込まれ、現在、パブリックコメントが行われています。万が一、無体物にも厳格責任のルールが拡大され、AI関連の損害について契約による責任制限を行うことが禁止されると、その影響は計り知れません。現時点で日本では、製造物責任法上の「製造物」は動産を指し、無体物は該当しないとしていますが、AIを使った結果のアウトカムに対して責任を負うとなると、AIの利用促進に影響が出かねません。

欧州委員会のAI賠償責任ルールが厳格に施行された場合、だれの責任かというChain of Trustでの責任分岐点の線引きが困難となり、影響の範囲を予見することが非常に難しくなります。また、さまざまなコト/モノがつながるネットワーク化した世界では、これまでは局所的に収めることができた不具合の影響が局所に留まらず、瞬間的かつ連鎖的に影響の範囲が拡大してしまいます。紙一重でかわした肝を冷やすヒヤリハットへの遭遇の増大が想定され、水面下の品質問題やヒヤリハットの予兆を検知することにも目を向けることがより重要になってくるのです。

欧州でも、官民によるAIに対する投資の拡大やAIがもたらす社会経済的変化への準備などへの提案のアプローチがなされており、倫理的、法的枠組みの強化の話ばかりではありません。しかし、AI法案やAI賠償責任ルールに例示されるように総じてAIは怖い、規制を強化すべしという動きはあります。これに対して、日米を含むその他の国々では、リスクはしっかりコントロールしながら、AIの使用を拡大していこうという観点からの取り組みが行われていると捉えています。そのひとつが、日本も議論の中心になって進めている国際規格の策定があります。現在、開発が進んでいるAI関連のコアとなる規格には以下のものがあります。

  • ISO/IEC DIS 38507— Governance implications of the use of artificial intelligence by organizations
  • ISO/IEC CD 42001— Artificial intelligence — Management system
  • ISO/IEC AWI 5338— Artificial intelligence — AI system life cycle processes


このうちISO/IEC 42001は要求事項規格であり、認証の対象となり得るものです。AIの組織のマネジメントシステムや社会システム実装時の影響について、間接的な影響をどこまで考えるかについてかなりの議論があります。

クオリティ4.0 とAI及びデジタルトランスフォーメーション

ここまでで欧州と、ISO/IECを含むその他の国々の取り組みを見てきましたが、大きく捉えると欧州は①「法制化」を推進し、ISO/IECや日米などは②「ガイダンス、標準化」を推進しようとしていると言えるのではと考えています。

そして、ここにもうひとつの取り組み方があります。それは③「原則化」です。

法制化やガイダンス/標準化で問題となってくるのが技術の進歩、新技術導入/実装のスピードです。現在、すでに先進技術の進歩を法令が後追いしているといった面もあります。また、ガイダンスや標準化も然りです。そこで重要になってくるのが「原則」です。アジャイルな動きの中で、法令やガイダンス/標準化で諮れない状況が出てきたとしても、原則にはいつでも立ち返ることができます。悩んだときには上位概念に戻るということです。私はCQIの唱えるクオリティ4.0はデジタルトランスフォーメーションの進んだ世界において、この原則の役割を果たすことができるのではないかと考えています。

AI-Q4-2.jpg

また、次々に生まれる先進技術やビジネスモデルに対しても従来型の品質手法の規程やチェックリストの重要性は変わらないものの限界を感じています。整備が追いつきません。ですから、ここでも立ち返ることができる原則が必要となります。

これからの品質保証は成果物を保証するのではなく、価値を保証する。そして、品質マネジメントは、価値保全の品質マネジメント、つまり従来の守りのガバナンスではなく、価値創出の品質マネジメント、攻めのガバナンスを目指す必要があります。先ほど述べたように、データ駆動の、すべてが「つながる」社会、今までつながりがなかったドメイン、直接的のみならず間接的なお客様とのつながりが複雑化する社会では、影響の範囲が非常に広くなります。そうすると、リスクの中でも絶対起こしてはいけないこと、これをインパクトと呼びますが、このインパクトリスクアセスメントが必要となってきます。すべてのリスクをつぶすことは難しいので、絶対に起きてはいけないことを防ぎながら、自分たちが見ているところだけでなく、連携しているところも交えて、一緒に進む解、共進解を求めなければなりません。

このような世界では、正しい解はなく、すべてを探索的に進めていくことになります。アジャイル思考というのは何でもかんでもスピード重視ではありません。盲目的に進むのではなく、仮説を立てていき、仮説が正しいか、正しくないかを見直すために振り返る必要があります。しかし、正しい解がないところで、プロセスやチェックリストによる閾値を決めることはできません。そのとき、いろいろなドメインの共通言語となるCQIが提唱するクオリティ4.0が立ち返るポイント、仮説検証の価値基準となり得るでしょう。

したがって、クオリティ4.0のメカニズム、例えばAIで言えばAI原則だけでなく、どう実装していくのかというAIウォッチ調査のような、原則の実装のガバナンスを具現化していくことが重要となってきます。これは組織がカスタマイズし自律的に整備が求められる基準やHow-to、ケーススタディをつくるということではなく、クオリティ4.0はどのように組織のガバナンスにつながっていくかのメカニズムを具現化していくということです。

> クオリティ4.0について

> 役員室の懸念をクオリティプロフェッショナルの戦略的な目標へと転換する

> CQI レポート The Future of Work 未来の働き方 (日本語版)

> 完全なデジタルトランスフォーメーションに必要なのは従業員の積極的関与

クオリティプロフェッショナルが果たすべき最大のミッション

また、AIを社会システムとして見たとき、エンドユースの品質デューディリジェンスを考える必要が出てきます。AIを社会システムに実装したときに、本当に自分たちが意図した使われ方をするのかということです。例えば、社会基盤のIoTシステム (例えば、金融機関の通帳) をペーパーレス化、電子化すれば、何百億円というコストが削減できますというとき、それではパソコンを持たない高齢者はどうしたらよいのですかということになります。そう考えると、これは社会弱者 (デジタル難民やデジタル弱者) を生み出すことになりかねません。本来目指した姿を実現するためには、適切なセーフティネットが必要となるでしょう。社会を安心安全、公平に変革していこうとするとき、本当に自分たちが期待通りのことをしているのか、自分たちの一次顧客のことだけでなく、末端に位置する人たちのことまで考えられているのかという網羅的な視点から考える必要があります。また、次々と新たに生まれる先進技術をめぐっては法規制も後追いになりがちですから、そういう中でどうコンプライアンスを先取りし確保していくのかという問題もあります。これらはクオリティプロフェッショナルに求められる最大の重要なミッションだと考えます。

AIの品質保証を考えるとき、ハードウェアにも関係するし、ソフトウェアにも関係するし、サービスにも関係するし、倫理、法規制にも関係してきます。しかし、今日、機能の高度化に伴い、機能分担は細分化しており、全体を総合的に見ている部署はなかなかないと思っています。今、当てはまるとするとTQM、Total Quality Management です。社会システムでポッカリ抜けているところがないかを顧客視点で見て、隙間を埋めていくのはクオリティプロフェッショナルにしかできないと思います。これは組織の既存の機能部門の役割では網羅しきれていません。クオリティプロフェッショナルの重要なミッションには、ここの部分、このインターフェースのSOWを今後変えてみるべきとか、組織の中にそれを見る部門が今はないから、新しく新組織をつくるべきとか、そういうところを提言していくことも含まれるでしょう。

クオリティプロフェッショナルは組織マネジメントのプロフェッショナルです。例えば、欧州のAI責任賠償ルールについて、「あっ、それは法規制だから私は関係ありません。法務部の担当です」というわけにはいきません。これからのクオリティプロフェッショナルには、高度なビジネス法務スキルも求められます。個別の専門領域はありますが、全体を見ている視点が必要です。これはクオリティプロフェッショナルの新たな付加価値だと思います。

審査においても今までのような規程やチェックリストなどで証跡を確認するというのは、AIで置き換えられるようになるでしょうし、デジタルトランスフォーメーション時代の品質保証の基軸の考え方や開発手法の一つとなるアジャイルやDevOpsも進化が進めば、既存の品証機能は、SEや開発部門に自然に取り込まれていくと考えています。ゆえにこれまでのような個別の機能部門として存在する形での品質保証部門はいずれ日本も含め、世の中でなくなっていくと思います。ですから、組織内外のさまざまな構成要素の組み合わせが変わり続ける中で、顧客視点、あるいはエンドユーザー視点で安全・安心・公平・効率という社会価値を創造し、 誰もが人間性を十分に発揮できる持続可能な社会システムをつくっていくバリューチェーンのプログラムマネジメントがクオリティプロフェッショナルの付加価値として新たな仕事になると考えています。

AIセキュリティを確保するためには、AIセキュリティの知識もいれば、機械学習やディープラーニングの知識もいれば、データサイエンスの知識もいれば、暗号化技術の知識もいれば、品質マネジメントの知識もいれば……。そんな人はなかなか世の中にいません。しかし、全部についての専門家ではなくとも、認知限界を超える努力を続け、学びの幅を広げ、機能部門や社会システムの境界の狭間に落ち込まないように幅広い視点で見ようとしているのはやはりクオリティプロフェッショナルであり、これからの核となる人材だと思っています。

クオリティ4.0、クオリティプロフェッショナルと持続可能性

新しい技術の導入にあたっては、社会が成熟していないのに導入しても、社会の仕組みが壊れるだけですから、常に社会成熟を意識しながら、新しいサービスやモデルを導入していかなければなりません。今は先行技術、先進技術の実装が急激に進みつつありますから、特に持続可能性を十分意識して進める必要性があります。持続可能性というのは、スタンドアロンで存在するのではなく、相互に依存しており、組み合わせもどんどん変わっっていきますから、持続可能なシステムにするためにはそのアーキテクチャ、全体像をどんどん組み直していかなければなりません。つまり、常にここを直したら、ここに影響がある、どう相互間でつなぎ直すかという再同期化をしていくことになります。そこで、CQIの提唱するクオリティ4.0は品質視点からこれからの世界をつなげる共通言語になっていくことができます。悩んだときのグローバル共通言語がクオリティ4.0ですから、非常に重要です。

また、単純に仕組みをつくればよいということではなく、持続可能性には hubが必要です。人と人とのつながりは自然に出来るものではありません。設計開発と同じようにコミュニケーションをデザインし維持メンテナンスすることが大切です。またクオリティ4.0のアウトカムを創出する感性を作っていくのは人です。そのためにはコミュニケーションの軸が必要で、コミュニケーションの中にいるからこそ気が付いたり閃いたりすることができます。そのhubとして、重要だと考えるのがquality connect です。今、CQIとIRCAでは、先進的な取り組みとしてQuality Connect というプラットフォームを提供していますが、そのことだけではありません。新しいものがどんどん出てくるので、学び続ける必要があり、つながっていかなければならないということです。世界のクオリティをつくっていくのは人間です。AI を社会システムに安全安心に実装していくのは、最後は人間ですから、quality connect が重要になります。しかし、世界中を見渡しても、CQI|IRCAのQuality Connect のようなワールドワイドでセクターを超えた仕組みは自身が知る限り他に見当たりませんから、私は、デジタルトランスフォーメーション時代の品質保証を推進するエンジンになると思っています。

今は持続可能性というと、どちらかというと環境にばかり目が向きがちですが、持続可能性はクオリティの視点から常にメンテナンスをしていかなければなりません。単にデジタルになったからといって、全部をデジタルで吸い上げることはできません。人間系のquality connect がますます重要になっていきます。

これまでクオリティの人間は、なかなか倫理にまで踏み込んできませんでした。それはどちらかというと人事や総務の領分とされてきました。しかし、AIなどの新しいシステムが想定不足で人権侵害や人権侵害の可能性を起こした例が国内外で少なからずあります。ビジネスと人権ということも、しっかりとクオリティプロフェッショナルの領域だと私は思います。逆にクオリティプロフェッショナルだからこそ対応できると思います。もちろんクオリティプロフェッショナルが全部やるわけではありませんが、組織として、しっかりと顧客視点で見ていくというところです。 

今までのように決まったルール通りに判定することを主たる役割とするのではなく、顧客も含め、全体を見ていくという役目にいちばん近いのがクオリティプロフェッショナルだというように、私たちの役割を転換していく必要があります。クオリティプロフェッショナルのコアコンピテンスとしては、まず品質管理、統計的手法スキルをイメージされる方も多いと思いますが、これらを超えたコンピテンスにまで広げていく必要があると思います。そして、ひとりひとりでは限界がありますから、そこで必要となってくるのがquality connect です。

今、AIなどは最適モデルを競い合い、そのことだけで評価されがちですが、QMS をわかった上でのデータサイエンティストでなければなりません。また、セキュリティについても同様です。例えばAIセキュリティでは、すでに研究レベルでは銀行の本人確認の認証が破られる恐れがあるというところまで来ています。しかし、それは単に技術的にAIのセキュリティの仕組みを強化しただけではなくなりません。QMS 視点、TQM視点で総合的にアプローチをしていかなければ対処できません。

伝えたいこと

因果アプローチと因縁アプローチという概念があります。デジタルトランスフォーメーションの社会は原因があって結果があるという単純な因果関係ではなく、因縁関係で成立していると考えます。原因があって、「縁があって」、結果がある。縁には人と人との縁、組織と組織の縁などさまざまあり、縁に変更があれば、同じ縁は帰ってきません。

今までは、科学的根拠に依拠した因果関係でやってきました。しかし、デジタルトランスフォーメーションにより、世界はもっと複雑化し、例えば、IoT環境といった物理的な側面だけでなくメンタル面でもテレワークに順応する人、さまざまな要因でそうでない人という分類がされてきています。このような分断を解決していくことも、デジタルトランスフォーメーション時代の持続可能性における品質保証の一部と捉えることもできます。

デジタル化された社会においても、客観的なデジタルデータ、関係性の強さによるロジックアプローチだけでなく、定性的なもので人は動きます。ゲームはリセットできますが、人生がリセットできないようにデジタル化でリセットできないものもあります、健康のように、失われたら二度と元にはもどらないものもあるという意識を常に忘れないことが大切です。あくまでも主役は人、最後の判断をするのは人だということを忘れてはいけないということです。

デジタルトランスフォーメーション後の時代も「成果を出して成長」が本来の姿だと思っています。多様化した時代に新しいモノやコトを生み出すためには、それぞれの組織や人にいろんな色に染められる発展する土俵、白い大きなキャンバスが必要です。多様性とは単にいろんな価値を認めるだけではできません。例えば衣食住などが安定したうえでの多様性です。言い換えれば持続可能性が存続するためには多様性が必要であり、また多様性は成熟度の問題です。成熟度のないところに多様性はないとも言えるのではないでしょうか。

Industry 4.0下における品質を表すキーワードであるクオリティ4.0は、直接的には社会への表には出ないかもしれませんが、まさにそれぞれの組織や人にいろんな色に染められる発展する土俵、白い大きなキャンバスであり、持続可能性のための継続したコミュニティ開発の「ドキドキ」、「ウキウキ」、「ワクワク」の器ではないでしょうか。これまで、品質は苦しいもの、出来て当たり前で減点主義、ポジティブな評価がされにくいと思われてきたかもしれませんが、コミュニティのパスとしてCQIが提唱し創出を導くクオリティ4.0の持つエネルギーを身体知として体感いただき、クオリティ4.0は楽しいと思ってもらえるようなものにできるよう、IRCAジャパンのメンバーズサポーターとしてIRCAジャパン クオリティ4.0フォーカスグループの活動を支援し、CQIとクオリティ4.0の共創活動を引続き行ってまいります。

北村 弘 (きたむら ひろむ) さんについて
AI専門資格をお持ちの北村さんは、日本を代表するICTソリューション企業のひとつである日本電気株式会社でコーポレイト品推として全社のDX品質保証やAI品質保証を推進するお立場にあり、ISO/IEC JTC1/SC42国内専門委員会 (人工知能) /JWG1小委員会 (AIガバナンス) エキスパートも務められています。

CQI レポート The Future of Work 未来の働き方
IRCAテクニカルレポート:ISO22000:2018