自分自身を説明するAIが必要な理由

  • 企業は、AIがどのように結果を得るかを説明するAIをますます使用しています。
  • LinkedInは最近、キャンセルのリスクがあるクライアントを予測し、どのようにして結論に到達したかを説明するAIを使用した後、サブスクリプション収益を増やしました。
  •  連邦取引委員会は、説明できないAIを調査できると述べています。
光回路とコンピュータチップで作られた人の顔がオーバーレイされたデータセンター。

茅野雄一郎/ゲッティイメージズ

ソフトウェアの最もホットな新しいトレンドの1つは、その結果をどのように達成するかを説明する人工知能(AI)である可能性があります。

ソフトウェア会社がAIをより理解しやすくしようとしているため、説明可能なAIは成果を上げています。 LinkedIn 最近増加しました AIを使用した後のサブスクリプション収益は、キャンセルのリスクがあるクライアントを予測し、どのようにして結論に到達したかを説明しました。

「説明可能なAIとは、出力を信頼し、マシンがどのようにしてそこに到達したかを理解できることです。」 トラビスニクソンSynerAIのCEOであり、マイクロソフトの金融サービスのチーフデータサイエンスである、は、電子メールのインタビューでLifewireに語った。

"'どのように?' これは、多くのAIシステムに提起される問題であり、特に、理想的ではない決定が下されたり、出力が生成されたりする場合に発生します」とニクソン氏は付け加えました。 「さまざまな人種を不当に扱うことから、ハゲの頭をサッカーと間違えることまで、AIシステムがなぜその結果を生み出すのかを知る必要があります。 「どのように」を理解すると、企業や個人は「次は何を?」と答えるようになります。」

AIを知る

AIは正確であることが証明されており、さまざまな種類の予測を行います。 しかし、AIは、どのようにして結論に至ったのかを説明できることがよくあります。

そして規制当局はAIの説明可能性の問題に注目しています。 連邦取引委員会は次のように述べています 説明できないAIを調査することができます. EUは 人工知能法の成立を考える、これには、ユーザーがAI予測を解釈できるという要件が含まれます。

Linkedinは、説明可能なAIが利益の増加に役立つと考えている企業の1つです。 以前は、LinkedInの営業担当者は知識に依存し、オフラインデータを選別して特定するために膨大な時間を費やしていました。 どのアカウントがビジネスを継続する可能性が高く、次の契約でどの製品に関心があるか リニューアル。 この問題を解決するために、LinkedInはCrystalCandleと呼ばれるプログラムを開始しました。このプログラムは、傾向を見つけて営業担当者を支援します。

別の例では、ニクソンは、会社の営業部隊の割り当て設定モデルの作成中に、彼の 会社は説明可能なAIを組み込んで、新規販売の成功を示す特徴を特定することができました。 雇用。

「この成果により、この会社の経営陣は、大きな問題が発生する前に、どの営業担当者が「ファストトラック」に参加し、どの営業担当者がコーチングを必要としているかを認識することができました」と彼は付け加えました。

説明可能なAIの多くの用途

ニクソン氏によると、説明可能なAIは現在、ほとんどのデータサイエンティストの腸のチェックとして使用されています。 研究者は、簡単な方法でモデルを実行し、完全に故障していないことを確認してから、モデルを出荷します。

「これは、多くのデータサイエンス組織がKPIとして「タイムオーバーバリュー」を中心にシステムを最適化し、プロセスが急いでモデルが不完全になったためです」とニクソン氏は付け加えました。

「無責任なモデルからの反撃がAI業界を深刻な形で後退させる可能性があるのではないかと心配しています。」

多くの場合、AIが説明できない結果に人々は納得していません。 ラジブプタCogitoのチーフエンジニアリングオフィサーは、彼の会社が顧客を調査し、その半分近くが 消費者(43%)は、企業が テクノロジー。

そして、説明可能なAIから助けを得ているのは、財務データだけではありません。 新しいアプローチの恩恵を受けている領域の1つは画像データであり、画像データのどの部分を簡単に示すことができます。 アルゴリズムが不可欠であると考える画像と、その情報が 検出、 サマンサ・クラインバーグスティーブンス工科大学の准教授であり、説明可能なAIの専門家である、は、Lifewireに電子メールで語った。

「EKGまたは継続的な血糖値モニターデータでそれを行うことは非常に困難です」とKleinbergは付け加えました。

ニクソンは、説明可能なAIが将来すべてのAIシステムの基礎になると予測しました。 そして、説明可能なAIがなければ、結果は悲惨なものになる可能性があると彼は述べた。

「この分野で、説明可能なAIを今後数年で当然のことと見なすのに十分な進歩を遂げ、振り返ることを願っています。 当時、今日は、誰もが理解できないモデルを展開するのに夢中になっていることに驚いた」と語った。 追加した。 「このように未来に出会わなければ、無責任なモデルからの反撃がAI業界を深刻な形に戻す可能性があるのではないかと心配しています。」