生成AI、教育に生かすには 答えの「適当さ」見抜く力を
コメント
選択しているユーザー
(生成系AI:GPTの)「適当さ」を見抜き、だまされないこと。それを、私たちに必要な、良い意味での「適切さ」に変換する能力を身につけること】
これ普段から当たり前では?
相手の話や情報が【等しく確かだ!】と、判断してる人は少ないでしょう。
GPTに代表される生成系AIの回答を【適当】としてますが、プロンプトの与え方で【適格】な回答を出します。
LLM(大規模言語モデル)の仕組みは詳しくは分かりませんが、膨大な言葉の確率的繋がりを、既存の文書から蓄積し、その繋がりをパラメータでモデル化したもの、と認識しています。
つまり、相手の話やたくさんの書籍を読み、溜まった情報を、最も多く語られ見かけた文脈から選んで話している博学の人に近い、ということ。
よって、LLMが、得ている過去情報が正しく、論理・文脈が確かなら、【適当ではなく適格】な大量情報を持っている。
自身の欲しい情報のために、LLMに、条件・前提・回答書式の指定をして、指示したら、実に良い働きをします。
注目のコメント
最近感じていることを、言語してくれる記事。
ChatGPTを機械だと捉えると、今までできなかった人間のようなコミュニケーションが出来る。
一方で、ChatGPTを人間だと捉えると
・めちゃくちゃ博学に見える
・おまけに受け答えが丁寧
・だけど、自分が知っている領域だと、その印象とは裏腹に適当なのだけど、自信満々
人間一人の知見を凌駕する情報の拡張は、文字、印刷、ネット、それぞれで起こってきた。それでも人間は変化しながら適応しているし、その情報の拡張を使って進化してきた。
『確かにこれらは革命的な技術だが、少し落ち着いて向きあった方がよいと思う。人がAIに取って代わられるとか、全面禁止せよとか、そういう拒絶的な反応は見当外れだ。』
『現在のAIとは、つまるところ一定の評価基準にもとづく統計的な計算である。だから日常会話のような、目的もルールも曖昧で判定基準がよくわからない行為をそれらしくこなすのは、もっとも苦手な作業のひとつだった。しかしChatGPTは、このハードルを突破したかに見える。』
『つまるところChatGPTは、ネット上の膨大な情報を収集して私たちの質問に「適当に」回答する記号操作にたけた装置だ。「適当に」というのは、要求に合っているという良い意味と、その場を取り繕ってそれらしく見せるという悪い意味の両方である。』
下記でコメントした「圧倒的な詐欺師のAI化」と重なる部分がある。確率論として次にくるものの精度が高く、そして人間が読みやすい文章を作るという部分での強化学習の組み合わせで、「求めているもの」を出せるサービスとして爆発的な進化を遂げた。
相手が欲しい形で「求めているもの」を提供するのは、詐欺の王道。
詐欺が発生するのは、信じられるから。信じられるために、相手が求めるもの、共感であったり先行的なメリットを提供する。
機械なのに、自我を持ったように人間が信じるレベルになっているというのは、一種の詐欺だと思っている。
そして、機械だから、詐欺的なのか否かなども考えずに、それを提供している。
【週末教養】AIが「意識」を持った話
https://newspicks.com/news/8257930
「ウソをウソと感じさせない能力」こそがLLMの危険性
https://newspicks.com/news/8445134多くの人が生成AIを擬人化することに正直驚きと共に戸惑っています。
私にはChatGPTに意識も人格も感じられません。
以前のチャットボットと何が異なるのでしょう。いい加減なのに絶妙な丁寧さがそう感じさせるのでしょうか?
十分な知識とどんな時でもスムーズな受け答え。量が質を変えるのは、ITの歴史で何度か目の当たりにしました。
なぜChatGPTに中の人を見てしまうのか?今後のAIのあり方を考える上で避けては通れない疑問です。この革命的な技術を使いこなすために私たちに必要なのは何か。その「適当さ」を見抜き、だまされないこと。そしてそれを、私たちに必要な、良い意味での「適切さ」に変換する能力を身につけることだ。つまり、さまざまな情報の中から自分たちにとって有用で意義のあるものを、事実と証拠にもとづいて合理的な判断基準で選抜できる力を身につけることである。
→まあ、使いようと言うことですね。「すごい、すごい」と浮かれて鵜呑みにするな。常に個人としての自分の判断をせよ、という話。それは確かにそうですね。