気候科学とダウンスケーリングにおける XAI の例
気候科学研究における深層学習アルゴリズムの継続的な成功にもかかわらず、これらのアルゴリズムによって学習された決定と関係は、そのブラックボックスの性質により不明瞭なままであることがよくあります。 XAI は、気候科学における ML アルゴリズムの透明性を高めるための強力なツールとして登場し、異常気象の側面への適用に成功しています。 経験的ダウンスケーリングにおける XAI の最近の応用は、ダウンスケールされた気温と降水量を予測する際に、最も関連性のある大規模な特徴 (粗い解像度) を特定する際の有効性を実証しました。いくつかの論文では、大気河川やサイクロンなどの複雑な気象現象をダウンスケーリング場合に、極端な降水現象の予測に影響を与える空間的位置を理解するために、勾配ベースの XAI 技術を使用しました。 ある研究事例では、XAI を使用して潜在的なバイアスを特定し、ML 気候ダウンスケーリング アルゴリズム内の偽の関係または非物理的な関係を検出しました。
コメント:上述されているように、アルゴリズムのブラックボックス性により結果を全て完璧に説明できる訳ではありません。しかし、アルゴリズムの判断の根拠を解釈し、説明できるようにする必要があります。たとえ結果の精度が極めて高い場合でもそれだけでは十分でなく、その背後にある根拠を理解する必要があります。機械学習の説明可能性とは、アルゴリズム(出力がどのように計算されたのか)を理解することであり、説明可能性が高いほど内部構造を理解し、十分な情報に基づいて適切なモデル選択が可能になります。解釈可能性は、アルゴリズムの内部構造だけでなく、なぜその出力が得られたか、理由を理解することを意味します。おそらく、全てを理解することは不可能でしょう。しかし、重みパラメータや特徴量から部分的に出力結果を解釈することは可能と思われます。解釈可能性が高くなれば、問題が起こった時の原因究明やモデルの改善がより簡単になるでしょう。もう一つの概念として理解可能性があり、誰がどのような説明を求めているのかに基づいて判断されます。データサイエンティストには理解できても、それ以外の人には全く理解できない場合があります。全ての人がアルゴリズムの詳細を理解する必要はなく、どのように利用できるか必要な機能を理解し価値を正しく判断することが重要になります(例えば、自動車を利用して目的地に行くのに、自動車の部品一つ一つの機能を知る必要はなく、実績があり信頼できる製品であることや操作方法などの最小限必要なことを十分に理解できれば良い)。何がどの程度必要かはユーザーの目的により異なるため、それぞれのニーズに合わせてユーザーの納得のいく説明できるかがキーポイントなります。