• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

アップルが開発した「GPT-4を凌ぐ」AIとは…「ReALM」はコンテキストを理解する

168
Picks
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • badge
    東京大学経済学部教授 東京大学マーケットデザインセンター(UTMD)所長

    信者やってて良かった笑


注目のコメント

  • badge
    三菱総合研究所 執行役員兼研究理事 生成AIラボセンター長

    スクリーンに特化した言語画像モデルという発想が素晴らしい。確かにSiriには不可欠ですね。しかも特化した分、軽量かつ高精度なモデルでしょう。

    指示代名詞は言語モデルの苦手の一つです。特に画像内オブジェクトの指示は難しいですし、さらに画像内の文脈はあまり見た記憶がありませんでした。

    これは便利な予感がします。


  • badge
    Google Bard 会話デザイナー

    Apple Vision Proには「アイトラッキング」、人の瞳孔の動きを検知して、視線を追跡する技術が搭載されています。今まで自然言語プログラムに送るプロンプトの主語・述語・目的語などをはっきりさせないとアウトプットの精度があまり高くなかったのに対して、ユーザーの視線などを考慮してコンテキストを踏まえたアウトプットを実現すると、アウトプットが格段にレベルアップするでしょう。


  • 某上場企業 内部統制部門 部長

    >「Reference Resolution As Language Modeling(言語モデルとしてのリファレンス解決)」の略である「ReALM」システムは、曖昧な画面上の画像コンテンツ、会話上のコンテキストを理解し、AIとのより自然な対話を可能にするものだ。



    社内でのメールでも、資料や画像を添付して、その内容に即してメール文面を書きますからね。
    それをAIも理解可能になるというのは凄いこと。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか