IRCA-マネジメントシステム審査員/監査員の国際登録機関 > 情報メディア > 技術|規格 > 品質工学のための生成AI活用術

品質工学のための生成AI活用術

  • LINEで送る
  • このエントリーをはてなブックマークに追加
品質工学のための生成AI活用術

quality.org の英文記事

Tricentis社の人工知能及び機械学習担当のバイスプレジデントであるデイブ・コルウェル (Dave Colwell) 氏が、ソフトウェア開発の品質をサポートするために生成AI をどのように活用できるかを探ります。

収益向上にはデジタル力が不可欠

デジタル体験に対する顧客の期待が絶え間なく高まる激しい競争市場において、デジタル力は今やビジネスに不可欠なものとなっています。iOSとAndroidのプラットフォームだけで400万を超えるアプリが利用可能であり、ブランドが差別化を図り、市場シェアを獲得し、収益を上げるためには、高品質なデジタル製品とサービスをタイムリーに提供しなければなりません。

完璧なデジタル体験を迅速かつ大規模に提供するために、ソフトウェアチームを強化することは戦略上不可欠です。実世界の環境でアプリケーションの機能を保証するためのテストは、その目的達成のために重要です。

品質工学(quality engineering = QE)は、ソフトウェア開発ライフサイクルのすべての工程に品質が組み込まれ、顧客のユーザビリティと機能の要求を満たすアプリケーションを作成することを保証します。しかし、開発チームとテストチームは、時間、アクセシビリティ、生産性の問題に直面しており、アプリケーションの品質達成に掛かる時間が、重荷となっています。生成型人工知能 (GenAI 生成AI) は、非常に複雑なソフトウェア開発とテストの課題を簡素化し、自動化するのに役立ちます。

実際、International Data Corporationは、企業が生成AIと自動化を利用することで、2026年までに1兆米ドル (約 145兆円) の生産性向上を実現し、ソフトウェア開発において高品質のアプリケーションを迅速に提供することで大きなメリットが期待されると予測しています。

また、大規模言語モデル (LLM) で生成AIを使用する際のコンプライアンス、データ使用、知的財産 (IP) 保護に関する懸念が高まっています。そのような中、QEリーダーたちには、責任ある使用、安全性、アクセシビリティを損なうことなく、これらの利益を確保するための新しいツールが必要です。

企業にとっての生成AIのメリット

世界中の企業において、モバイルアプリの品質が低いだけで、最大249万米ドル (約3億6000万円) の収益損失が発生すると推定されており、高品質のアプリケーションを迅速に開発し、継続的にメンテナンスすることが極めて重要になっています。

問題は、現代の企業のシステムは、統合システム、カスタムソフトウェア、サードパーティ製アプリの複雑な迷路であり、欠陥が見過ごされる可能性があることです。アプリケーションの品質を向上させるためにソフトウェアの欠陥を発見し、修正するために追跡する必要のある情報の量は、開発チームの人間に対して圧倒的に膨大です。

ソフトウェアのバグは一般的にすぐに顕在化しないため、このプロセスはより困難なものとなります。それどころか、データ同士が相互作用する交差点や論理ゲートの中に隠れたままとなり、シームレスなデジタル体験を提供する上で常に脅威となっています。一方、ナレッジ共有のために、これらのバグを修正するために必要な作業を適切に報告することにより、開発者の作業負荷が管理不能になる可能性があります。

QEチームに生成AIツールを提供すれば、彼らに第二の手が与えられます。生成AI ツールは、大規模なデータセットを分析してパターンを学習し、実行時にデータを処理して個別の答えを出し、異なる概念間のつながりを描くことができるからです。

AIは、ソフトウェアのドキュメントやリソース、その他大量のテキストをスキャンして情報を探し、コマンドで要求して提供することができるため、面倒な手作業のかなりの部分を削減することができます。生成AIは自然言語処理でコードを書くのにも役立ち、ユーザーが簡単なテキスト記述を入力することで、必要なコードを生成して説明したり、潜在的な問題を特定して修正を推奨したりすることができます。

手動プロセスを自動化することで、開発者はイノベーションに時間を割くことができ、開発と納品サイクルの将来性を高めることができます。

また、AIを活用することで、重要なアプリケーションの失敗、コンプライアンス要件の未達成、バグだらけのアプリケーションによる顧客の損失など、物事を誤ることによって大惨事になりかねないリスクを軽減し、企業の評判を守ることもできます。効果的かつ責任を持ってマネジメントされれば、AIは顧客と利害関係者の価値を最大化する鍵を握っていると言えます。

生成AIの利点と欠点のバランスを取る

LLMモデルが進化するにつれて、信頼できるAIを確保することが、その利点を活用する上で最も重要になるでしょう。AIツールは完璧ではありませんし、ミスを免れるものでもありません。ハルシネーション1を起こしたり、偏見や差別、無関心などを示したりします。

したがって、データの所有権から、偏った結果やセキュリティの脅威に至るまで、組織の評判、顧客の信頼、収益性に悪影響を及ぼす問題を回避するためには、強固なガバナンスと明確なポリシーが不可欠です。EUのAI法の条項で強調されているように、人間による監視、データのプライバシー、セキュリティ、透明性の確保が、AI導入において重要な基礎となります。

AIのトレーニングに使われるデータの出所を理解することは、実用的で安全なアプリケーションのための重要な第一歩です。例えば、パブリックLLMは、ユーザープロンプトのデータをトレーニングに組み込む可能性があり、機密情報が漏洩する危険性があります。顧客ごとにAIモデルを使い分けるなど、データハイジーン2慣行を徹底することで、このリスクを排除することができます。

1 ハルシネーション (hallucination): 人工知能 (AI) が学習したデータとは異なる、もっともらしい誤情報を生成する現象のこと。英語のhallucination とは幻覚のこと。
データハイジーン: データの安全性管理

生成AIをテストする

生成AIシステムの信頼性、正確性、パフォーマンスを評価し、ハルシネーションやバイアスから保護するために、生成AIシステムを厳密に検証しテストすることも極めて重要です。AIを活用したソリューションは、反復的なタスクを自動化し、コード生成を強化する可能性を秘めていますが、慎重にマネジメントしなければ、複雑さや技術的負債をもたらす可能性もあります。

生成AIの限界を認識し、アウトプットの堅牢な妥当性確認手順を開発し、包括的なテストフレームワークを確立すること、これらはすべて、潜在的な問題を発見するのに役立ちます。AIを自動的に信用しない堅牢なテスト方法こそが『ゴールドスタンダード』でなければなりません。生成AIの優れた点は、その答えをそのまま受け取る前に、利害関係者が意見を述べることができることです。このような相互作用により、時間の経過とともにAIモデルは向上し、その回答の質も向上します。

生成AIツールを統合することで、QEチームはプロセスを合理化し、テスト作成を自動化し、コードを最適化することが可能になり、より迅速でコスト効率の高いアプリケーション開発が可能になります。ただし、生成AIをうまく活用するには、これらの利点と、堅牢なテストフレームワークと人間の監視によってその限界をマネジメントするための責任ある使い方とのバランスが必要です。

データハイジーン、厳格なテスト、ガバナンスを維持してはじめて、企業は生成AIの力を活用してイノベーションを推進し、顧客の信頼を維持し、デジタルアプリケーションの品質と、市場での確固たる地位を確保することができるのです。

CQI レポート The Future of Work 未来の働き方
IRCAテクニカルレポート:ISO22000:2018