• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

「チャットGPTが書いたレポートと学生のレポート」見分けがつくのか大学で実験“意外な結果” チャットGPTが不正確な回答をする理由とは

96
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • 第2期 NewsPicks Student Picker/東北大学工学部 建築社会環境工学科 建築

    ChatGPTが書いた文章はどれか、という問題で、10人のゼミ生の中で、正解者はたった1人だったとのこと。

    記事中の教授の見解だと、ChatGPT のつくる文章には同じような表現が出てくる、出典元や客観的な数字など、「根拠」の記載が少ない、「考え」の部分が書けない。


  • badge
    京都大学大学院地球環境学舎 第4期Student Picker

    まず1つめ。同じような表現が出てくる。
    2つめは、出典元や客観的な数字など、「根拠」の記載が少ない。
    3つめ。「考え」の部分が書けない。
    なるほど、勉強になります。
    個人的には、3の「考え」だけでなく、人間が書くことバイアスや感情が入るのではないかなと思います。

    ちなみに僕もchatGPTに文を添削してもらうことがありますが、
    気持ちのこもった表現、つまり人間らしい響きがある表現を入れたり、自分らしい表現に修正することがよくあります。


  • 東京大学大学院GSFS メディカル情報生命専攻

    「個人的には〇〇だと思う、なぜなら××という経験の時に△△だと思ったからだ」的な個人の経験に基づく考えはGPTには書けないのでしょうね。
    レポートとなるとMECEに…とか調べられるだけ調べなきゃ…とか思いがちですが、学生が思考するかしないかはGPTの出現とは関係ないように思えてきました。むしろ調べる手間が省けて妥当性の検証に少し時間を要するような形になるのでしょうか。
    そうなるとレポートとして問うべきは「いっぱい調べられますか?」ではなくあくまで「これだけの情報がある中であなたはどう考えますか?」であるべきなのかと思いました。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか