AI時代の監査

人口知能の事業運営への組み込みが不可避になりつつあります。Henzof Nigeriaの代表取締役兼CEOであるチカオディリ・ジュリエット・ヘメソン氏 (Chikaodili Juliet Hemeson) が、そのような状況において、明確かつ定義された枠組みがないまま監査を行うことのリスクを考察します。
※この記事はCQIのクオリティ専門誌 Quality World 2025年冬号に掲載されています。
デジタル化から人工知能 (AI) に至る急速なテクノロジーの進歩を受け、多くの組織が継続的改善とビジネスの成長に向けたアプローチを再検討しています。
進歩を遂げたテクノロジーが、組織構造、業務プロセス、製品やサービスの提供といった事業運営のあらゆる領域に導入されるのは時間の問題です。とりわけ、AIは「新たな驚異」と言われています。
国際標準化機構 (ISO) などの国際機関は、これらの台頭するテクノロジーを監視し、自らのガイドラインを適用させることに積極的な姿勢を示しています。
一方で、政府を含む一部の組織は、AIの発展を妨げないよう配慮し、AIを評価、監視するための法制度や規制の枠組みの整備や実行にかなり消極的です。そして、このような状況は次第に擁護できなくなりつつあります。
組織のそうした意図がいかに高潔であったとしても、AIに伴うリスクを無視することはできません。たとえ、AIはほぼすべての業界の組織に無限とも言えるチャンスをもたらすという理由があってもです。
かつては、組織は主に労働力、つまり人を基準として監査資源を決定していました。しかし現在では、AIが人に取って代わり、機械がプロセスを担うようになったことで、AI活用が進む分野で監査手順をどのように適用すべきかに関する新たな合意が不可欠となっています。この合意は、既存の規格や業界で求められる固有の規格に対する、反復的で単調な監査や過少な、または過剰な監査を防止したり、減らしたりするために必須です。
企業の業務プロセスにAIを導入すれば、当然、事業上のリスクと機会が新たに生まれます。そうしたリスク及び機会は、労働安全衛生、品質マネジメント、環境マネジメントといった他のシステムとも統合して管理する必要があります。しかし、知的財産、データ保護、プライバシーとサイバーセキュリティ、デジタル空間における権利と安全などは、他の関連分野で補完するだけでは変化の速い業界では上手く対応できません。
信頼性が高く、実効性があり、継続的に改善される監査を実施するためには、監査員もまた、新たなテクノロジーの世界に適応する必要があります。特に、監査プログラムのマネジメントにおけるAIの活用方法や扱い方に適応する必要があります。例えば、現場を訪れて面談を行おうとしても、作業者はロボットや機械だけで、人間は監督役を兼ねる技術専門家しかいない。あるいは、確認すべき文書がすべてデジタル化されている状況で文書レビューを行う。このような場合、提示された情報をサンプリングして監査する方法は、監査の目的を達成する上で本当に実務的で効果的なのでしょうか?そして、信頼を担保できるだけのよい結果を導けるのでしょうか?
複合的なアプローチ、判断に基づくサンプリング手法、あるいは適切な規定が定められていない分野で個人の考え方や職務上の原則を使用すれば、監査が上手く機能しないかもしれません。そうした事態を防ぐため、AI活用の分野に関係するマネジメントシステムや方針の一部として、ガイドラインを整備する必要が出てくるでしょう。これは今後避けて通れないことかもしれません。
企業が自社の変化するニーズや最新の業界の動向に対応していく上では、監査及び規制を取り巻く環境も見直す必要があります。最新の知識を押さえることはもちろん、重要な追加情報や必要な最新情報を入手し、参照できる体制を考えておく必要があります。
規制や法令の枠組みは、適切に整備して運用すれば、成長やイノベーションを妨げたり制限したりするものにはなりません。これはデジタル化やコンピューティングの分野ですでに実証されています。AIも同じように扱われるべきでしょう。
AIに関する法律や規制は、監査員や被監査者を含むすべての関係者に対し、この複雑で絶えず変化する分野のリスクと機会に関する指針を提供するものとなるべきでしょう。











