• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

“説明可能なAI”の教科書、日本語訳を公開 「AIに何ができ、何ができないか」理解の手引きに

328
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

注目のコメント

  • WithMetis 代表取締役 理学博士(物理学)

    非常に重要な分野ですね。Webサイトの裏側でAIが使われる場合(ショッピングサイトのリコメンデーションなどを想定してください)には、その状況に合わせた選択基準でモデルを選び、それを実装すればよいだけなので、説明が無くてもことは足ります。しかし、AIがらみのDX案件を想定すれば、システムに生身の人が担う部分が多くあります。AIは予測を提示するだけで、説明がなされない場合、人が思うように動いてくれないということは、大いにあり得ます。AIが何を基準として判断しているかが容易に理解できるようになることは、大変重要だと思います。
    ざっと、本の中身をみましたが、1. 説明可能性の分類、2. 線形モデルのような単純なモデルから徐々に複雑なモデルにすることにより解釈性を得る方法(これは、ノイズが多い状況やデータが少ない場合、大まか傾向が重要な場合などに有効でしょう)3. モデルに依存しない方法(これは、集団学習(簡単な学習器の組み合わせで高い予測率を得る方法、データ学習コンペのkaggleなどで良く用いられる)などの解釈性を得るのに有効でしょう。)4. ニューラルネットに対する説明可能な方法(ディープラーニングは、そもそもモデルが複雑で解釈はそのままでは容易ではないですが、学習結果から、どこを基準に判断しているかの可視化などから解釈性得る方法)などが紹介されています。


  • KabuK Style Inc. Founder & CEO

    「コンピュータは通常、判断の説明をしない。それが機械学習を採用する障壁になっている」
    これだけで、きちんとした内容だとわかります。

    今や、機械学習はライブラリが充実し過ぎて、データさえあれば数行のコードで結果を返せるレベルになってますが、与えるデータの性質も、そのライブラリの中身も正確に理解してないと結果の解釈を間違え、意思決定も間違います。

    そして、それを基本的な数学の知見さえもないほとんどの経営者に理解させることを書籍ひとつでどれだけ表現しているのか。ぜひ読んでみたいと思います。


  • NewsPicks Fellow

    ホットな分野ですね。さっそく社内の有志で読書会が始動しておりました。そしてユーザベースの佐久間Co-CEOも参加するかもとのこと。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

新しい記事ページ
を表示しています

ご意見・ご要望はこちらまで

マイニュースに代わり
フォローを今後利用しますか