Explainable AI(説明可能なAI)とInterpretable AI(解釈可能なAI)の理解

Understanding Explainable AI and Interpretable AI

最近の機械学習(ML)の技術革新の結果、MLモデルは人間の労働を不要にするために、さまざまな分野で使用されています。これらの分野は、著者や詩人が執筆スタイルを洗練させるのを手助けするだけでなく、タンパク質構造の予測などのように複雑なものもあります。さらに、MLモデルが医療診断、クレジットカード詐欺検出などの重要な産業で人気を集めるにつれて、エラーに対する許容範囲は非常に低くなります。そのため、人間がこれらのアルゴリズムをより深く理解する必要があります。なぜなら、学術界がより堅牢なモデルを設計し、バイアスやその他の懸念事項に関する現行モデルの欠陥を修復するためには、MLモデルが予測を行う方法のより大きな知識を得ることが重要です。

ここで、解釈可能な(IAI)および説明可能な(XAI)人工知能技術が重要になり、その違いを理解する必要性がより明確になります。これらの2つの違いは、学者にさえ常に明確ではなく、解釈性と説明性という用語は、MLアプローチを指す際に時々同義的に使用されます。MLフィールドでの人気が高まるにつれて、IAIとXAIモデルの区別をすることは重要です。これにより、組織が使用ケースに最適な戦略を選択するための支援が可能になります。

要するに、解釈可能なAIモデルは、モデルの要約とパラメータを見るだけで人間が簡単に理解できるものです。つまり、IAIモデルは独自の説明を提供します。一方、説明可能なAIモデルは、人間が追加の方法なしでは理解することができない非常に複雑な深層学習モデルです。これが、説明可能なAIモデルがなぜ特定の決定が下されたかを明確に示すことができるが、その決定に至るまでの手順はわからない理由です。この記事の残りでは、解釈性と説明性の概念についてより詳しく説明し、例を使って理解します。

1. 解釈可能な機械学習

私たちは、何かの意味を理解することが可能であれば、それは解釈可能であると主張します。つまり、その原因と結果を明確に特定することができます。例えば、誰かが夕食後にチョコレートをたくさん食べると、いつも眠れなくなります。このような状況は解釈することができます。MLの領域では、モデルのパラメータに基づいて人々が自分自身で理解できる場合、モデルは解釈可能と言われます。解釈可能なAIモデルでは、人間はモデルが特定の解を導き出す方法を簡単に理解することができますが、その結果に至るための基準が合理的であるかどうかはわかりません。意思決定木や線形回帰は、解釈可能なモデルの例です。以下の例を使って解釈性をより良く説明しましょう。

貸付申請の承認を決定するために訓練された決定木モデルを使用する銀行を考えてみましょう。申請者の年齢、月収、未払いの他のローンなどが決定に考慮されます。特定の決定がなされた理由を理解するために、木のノードを簡単にたどることができ、決定基準に基づいて最終結果がどうなったかを理解することができます。例えば、決定基準が、学生ではない人の月収が$3000未満の場合、ローン申請は承認されないと指定することができます。しかし、これらのモデルを使用して決定基準を選択する背後の理論は理解できません。例えば、このシナリオでは、非学生の申請者に対して$3000以上の最低収入要件が適用される理由は、モデルが説明できません。

モデルが予測を生成する方法を理解するためには、重み、特徴などを含むさまざまな要素を解釈することが必要です。ただし、これはモデルがかなりシンプルな場合にのみ可能です。線形回帰モデルや決定木は、パラメータの数が少ないです。モデルが複雑になるにつれて、この方法では理解することができなくなります。

2. 説明可能な機械学習

説明可能なAIモデルは、内部の仕組みが人間にとって理解することができないほど複雑なものです。モデルの特徴を入力とし、最終的に生成される予測を出力とするブラックボックスモデルも、MLアルゴリズムの別名です。人間は、これらの「ブラックボックス」システムを理解するために追加の手法が必要です。そのようなモデルの例としては、多数の決定木からなるランダムフォレスト分類器があります。このモデルでは、最終予測を決定する際に各ツリーの予測が考慮されます。LogoNetなどのニューラルネットワークベースのモデルを考慮すると、この複雑さはさらに増します。このようなモデルの複雑さが増すにつれて、モデルの重みを見るだけではモデルを理解することは不可能です。

先述のように、人間は洗練されたアルゴリズムがどのように予測を生成するかを理解するために追加の手法が必要です。研究者は、入力データとモデルが生成する予測との間の関連性を見つけるためにさまざまな手法を利用しており、これによってMLモデルの振る舞いを理解するのに役立ちます。このようなモデルに依存しない手法(モデルの種類に依存しない手法)には、部分依存プロット、SHapley加法的説明(SHAP)依存プロット、代替モデルなどが含まれます。さらに、異なる特徴の重要性を強調するいくつかのアプローチも採用されています。これらの戦略は、各属性がターゲット変数を予測するためにどのように利用されるかを評価します。スコアが高いほど、その特徴はモデルにとってより重要であり、予測に大きな影響を与えます。

しかし、まだ残る疑問は、なぜMLモデルの解釈性と説明可能性を区別する必要があるのかということです。上記の議論から明らかなように、いくつかのモデルは他のモデルよりも解釈しやすいです。単純に言えば、あるモデルが他のモデルよりも予測の仕組みが人間に理解しやすい場合、そのモデルはより解釈しやすいと言えます。また、一般的には、ニューラルネットワークを含むより複雑なモデルは、より解釈しやすいですが、精度が低くなる傾向があります。したがって、高い解釈性は通常、低い精度の代償となります。例えば、画像認識にロジスティック回帰を使用すると、劣った結果になります。一方、モデルの説明可能性は、高いパフォーマンスを達成したいがモデルの振る舞いを理解する必要がある場合により重要な役割を果たします。

したがって、企業は新しいMLプロジェクトを開始する前に、解釈性が必要かどうかを考慮する必要があります。データセットが大きく、データが画像やテキストの形式である場合、ニューラルネットワークは高いパフォーマンスで顧客の目標を達成することができます。このような場合、パフォーマンスを最大化するために複雑な手法が必要な場合、データサイエンティストは解釈性よりもモデルの説明可能性に重点を置きます。このため、モデルの説明可能性と解釈性の違いを理解し、どちらを優先するかを知ることが重要です。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「Nvidiaが革命的なAIチップを発表し、生成型AIアプリケーションを急速に強化する」

技術が常に限界を押し上げる時代において、Nvidiaは再びその名を刻みました。同社はGH200 Grace Hopper Superchipを発売しま...

機械学習

In Japanese キャプチャを超えて:近代的なボット対策におけるAIの進展の探求

この記事は、従来のCAPTCHAから最先端の身元確認へと進化していくデジタル防御戦略の実践を表しています

機械学習

このAIニュースレターは、あなたが必要とするすべてです#61

「最近の数ヶ月間、私たちは大規模な言語モデル(LLM)の進歩と新しい技術の徐々の導入を続けてきましたが、まだGPT-4を直接...

データサイエンス

グラフ、分析、そして生成AI グラフニュースレターの年

グラフ、分析、および生成AIグラフとAIが結びつくさまざまな方法と、業界と研究のニュースについての説明

データサイエンス

システムデザインシリーズ:ゼロから高性能データストリーミングシステムを構築するための究極のガイド!

「データストリーミング」は非常に複雑な印象を受けますし、「データストリーミングパイプライン」なんてなおさらです専門用...

機械学習

最速の道 AIを使用して手術室でがん細胞を分析するヘルスケアスタートアップ

医療機器会社のInvenio Imagingは、手術室で組織生検を評価することができる技術を開発しており、サンプル採取後すぐに、病理...