Googleが、人工知能(AI)を絶えずアップグレードしていくという動きの一環として、「Gemini」にいくつかの変更を加えた。具体的には、一部の有料機能を全ユーザーに無料で開放するほか、Geminiがユーザーの周囲にあるものを見られるようになる。
Geminiのメモリー(記憶)機能を全ユーザーに開放
まず、ユーザーの好み、関心、仕事などを記憶できる機能が、すべてのユーザーに提供される。この機能は2024年11月に「Gemini Advanced」ユーザーだけが利用できる機能としてリリースされたものだ(ちなみに、「ChatGPT」ではかなり前から提供されている)。
ユーザーは情報を保存することで、自分の生活にまつわる情報(自分の名前、家族の名前、ChatGPTを使用して進めているプロジェクトなど)をGeminiに詳しく伝えられるようになる。そのため、情報を毎回入力する必要がなくなり、以前より関連性の高い回答が得られる。
Googleは、この機能を使って保存する情報として、次のような例を示している。
- 簡単な言葉を使い、専門用語は避けてください
- ベジタリアンなので、肉を使ったレシピは提案しないでください
- 回答を提示したら、スペイン語の翻訳も添えてください
- 旅行の計画を立てる際は、1日あたりの費用を含めてください
- 私は「JavaScript」のコードしか書けません
- 短くて簡潔な回答を希望します
ユーザーは、保存したい情報を1つずつ手作業で追加する必要がある。そのためには、設定メニューに移動して、「Saved info」(保存した情報)を選択すればいい。この機能はまずデスクトップ版で導入されるようだが、デスクトップ版とモバイルアプリの両方で提供される見込みだ。
「Gemini Live」に「目」を持たせる
さらに、Googleはバルセロナで開催中の「Mobile World Congress 2025」で現地時間3月3日、Gemini Liveに「見る」機能が加わることを明らかにした。これは、スマートフォンの画面に表示した画像やライブ映像に映っているものをGeminiが理解できる機能で、3月中に順次導入される予定だが、今のところ有料のGemini Advancedユーザーのみが対象だ。
この機能が使えるようになると、Geminiアプリに「Share screen with Live」(画面をリアルタイムで共有)ボタンが表示され、タップすると、画面を共有するかカメラで映像を映し出すかを選択できる。ユーザーはGeminiに対し、自分の周囲にあるものを撮影しながら質問したり、スマートフォンの画面に表示した内容について質問したりすることが可能だ。

提供:Google/ZDNET
この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。