ジェネレーティブAIの基礎を築いた論文「Attention Is All You Need」著者たちの今——期待される〝OpenAIマフィア〟の出現
コメント
注目のコメント
「Transformer(トランスフォーマー)」というモデルは、ChatGPTなどの言語系生成AIはもちろん、画像系生成AIでも用いられていて、まさに生成AIの基礎を築いた技術だと言えます。
Transformerとセットで語られるのが、その中に組み込まれた「Muiti-head Attention(マルチ・ヘッド・アテンション)」という機構です。専門的な説明は別に譲るとして、かなり飛躍しつつ簡略的に言えば、それまでのAIモデルでは入力された文章を一つ一つ順々に処理していたことに対して、「マルチ」の名の通り、文章の複数の箇所に注目しながら並列的に処理することで、高速・高精度な解析処理を実現したのがTransformerでした。
言葉にしてしまうと簡単ですが、この研究成果によって加速度的に自然言語AIの分野が発展し、その恩恵は計り知れないものがあります。そして、マフィアの如く大革命・大波乱を起こしたその開発者たちのほとんどが、その研究成果を武器に起業を果たしているとのこと。
ちなみに、AI界隈(だけ?)では優れた研究成果を収めた権威的な研究者たちを「マフィア」や「ゴッドファーザー」などと枕詞を付けて呼ぶことをよく見聞きします。日本人的には「ドン」「ボス」みたいなイメージだと思いますが、なぜ“そっち系”で表すのか理由はよくわかりません。。。ユニコーン企業であるGenerativeAIのGithubとも言えるHugging faceでも、Transformerを駆使したソースコードは人気です。TransformerをベースにしたLang Chainという文脈理解に使える手法も実用的で便利です。
Transformerマフィアしかり、OpenAIマフィアもすでに大躍進してますよね。彼らだけで1000億以上調達しておりますし、AIによる監視体制やカーボンニュートラルのスタートアップなど新しい分野での挑戦もあります。
優秀な人が集まっていいものを作るコミュニティは、まだまだシリコンバレーが抜きん出てますね