Googleは6月19日に「Google for Japan 2024」を開催し、日本市場向けの最新の取り組みや技術を紹介しました。
このイベントでは、生成AIを中心とした新たな検索機能「AI Overviews」や、天候予測サービス「Google ナウキャスト」などが発表されました。
また、AI技術を活用したGoogle検索の今後の展開についても詳しく説明されました。
AI Overviewsの概要と特徴
「AI Overviews」は、生成AIを活用して検索結果を自動でまとめる新機能です。
検索キーワードに対してWebの検索結果をもとに、独自の要約を生成し、ユーザーに提示します。
この機能により、ユーザーはウェブサイトを訪問せずとも、検索結果ページ上で情報の概要を迅速に把握できるようになります。
このサービスは、2023年5月末に米国で導入され、年内には日本でも開始される予定です。
AI Overviewsは、検索結果をもとに情報を要約するため、ゼロから回答を生成する際に生じやすい「AIによるハルシネーション(幻覚)」を抑え、精度の高い要約を提供します。
しかし、米国での導入初期には、誤った情報が表示されるケースも報告されており、精度向上が今後の課題とされています。
Googleのシニア・ヴァイス・プレジデントであるプラバッカー・ラガバン氏は、この新機能について「2024年内に10億人に届ける計画であり、日本もその中に含まれています」と述べ、日本市場での展開に対する意欲を示しました。
彼によると、AI Overviewsの利用者からは高い満足度が報告されており、ユーザーが多様な情報を得られる新たな検索体験として推進されています。
AI技術「Gemini」とその応用
さらに、ラガバン氏は、AIサービス「Gemini」についても言及しました。
Geminiは、約20億のGoogleサービスで利用可能であり、日本においても「Gemini Advanced」や「Gemini Pro 1.5」が高く評価されています。
特に、150万人以上の開発者がGemini APIを活用していることから、「Gemini時代(Gemini Era)」が到来しているとされています。
「Project Astra」とは?
イベントでは、「Project Astra(アストラ)」も紹介されました。
これは、カメラが「ユニバーサルAIエージェント」として機能する新技術で、日本語環境でのデモも行われました。
カメラを通じて映るものを認識し、ユーザーとやり取りするこのサービスは、例えば、Googleの東京オフィスでカメラをかざして「ここはどこ?」と尋ねると「ここはGoogleのオフィスです」と回答し、その理由を尋ねると「Androidの像が見えたからです」と説明します。
また、カメラに映ったものを記憶する機能もあり、特定のオブジェクトが隠された場合、その変化を即座に認識して指摘することができます。
このように、カメラ、音声、テキストをシームレスに統合する技術が特徴です。
日本市場向けの新サービス
その他にも、日本独自の新サービスとして、ハッシュタグ検索機能や、Google 検索における降雨予測機能「Google ナウキャスト」が紹介されました。
これらの新機能は、日本のユーザーと協力して開発され、より地域に密着したサービス提供を目指しています。
Googleは、これらの新技術とサービスを通じて、AIを活用した新しい検索体験を日本のユーザーに提供し、検索エコシステムの強化を図っています。
今後も、日本市場に特化した取り組みを続け、ユーザーの期待に応えていく方針です。
参考・画像引用
https://www.icrossing.com/en-gb/insights/ai-overviews-rollout-google-search-what-it-means-for-brands
NNU - ネオネットワーク連合をもっと見る
購読すると最新の投稿がメールで送信されます。