GPTなどの大規模言語モデルは脳科学・記号論・言語学の観点で驚くほど良くできている
先端テックとプロダクト戦略の交差点
163Picks
コメント
注目のコメント
GPTなどの大規模言語モデルは言葉をベクトルに変換して処理することで高い能力を獲得していますが、その仕組みが脳科学・記号論・言語学の観点でビックリするくらい良くできていることに気づき、Topicsにしました。
ジェフ・ホーキンスの『脳は世界をどう見ているのか』で提唱されている脳の仕組みの新説、東浩紀氏と石田英敬氏による『新・記号論 - 脳とメディアが出会うとき』で紹介されているマーク・チャンギージーの「形態要素分析をすると人はみな同じ文字を書いており、かつ自然界の構成要素と同じ頻度分布になる」という驚愕の研究結果、日本で話題の今井むつみ氏と秋田喜美氏による『言語の本質』で提唱される人間の言語の獲得過程などが、驚くほどきれいに大規模言語モデルの働きと相似系を成しています。
直近のみなさんの仕事には一切役に立ちませんが、知的好奇心をだいぶくすぐる内容になっていると思うので、ぜひ仕事の合間などにご笑覧ください。言語学の分析ではないと思います。
また、以下については、定説ではありませんし、根拠に欠けるものです。子供の言語獲得の話ではないでしょうか。オノマトペは身体に近く、調音法も両唇系ですので発音が楽です。
>まず我々の祖先はオノマトペ(ニコニコやギクッといった言葉)を使用するようになり、それらが文法化され、体系化されて、現在の記号の体系としての言語にしていった。