生成AIに“視覚”与える学習ライブラリ、自動運転EVベンチャー公開 最大700億パラメータの学習済みモデルも
コメント
注目のコメント
大規模言語モデル(LLM) の登場により、視覚言語モデル(VLM: Visual Language Model)も進化してます。
自動運転におけるセンシング技術として、レーダーに加えて視覚情報も加わると強い。自動運転というミッションを実現するために、視覚言語モデルという副産物が生まれれば、他の産業への影響も大きそうです。TuringはAWSのLLM開発支援プログラムにも採択されていたので、これからよりLLMの開発が加速しそうです。
プレスリリース:https://prtimes.jp/main/html/rd/p/000000034.000098132.html
AWSのLLM開発支援、採択企業が明らかに サイバーエージェント、マネフォ、PFN、rinna、リコーなど
https://newspicks.com/news/8864139当然の流れが来ました。
文字や絵だけではなく、視覚&聴覚のモデル化・・・感覚のモデルをそれぞれ身につけることでより人の代わりに対応ができる存在となります。
また、複合的なAIがつながることで複数の条件をもとにしたAIの判断も可能になるでしょう。
専門に特化したモデルなども合わせることで職人や専門家などの領域にも入り込んでくるのではないでしょうか。