カーナビはもうオワコン? 「Google様」に聞けばオールOK時代? 生成AI×Google Mapがもたらす「移動革命」とその未来とは

キーワード :
, ,
AIスマホの進化が加速し、GoogleのGeminiがカーナビ業界に革新をもたらす。従来のカーナビを凌ぐ性能を誇り、AIが運転中の情報提供を劇的に変化させる可能性が高まっている。2025年にはカーナビの再発明が進む予感だ。

スマホが生む直感ナビ体験

Geminiでは画像と文章を複合的に認識し、答えを出してくれる(画像:Google)
Geminiでは画像と文章を複合的に認識し、答えを出してくれる(画像:Google)

 画像は、Googleが開発したAIプラットフォーム「Gemini」による実際のパフォーマンスである。

 ある陶芸家が花瓶の素焼きを終えた。その後、釉薬(ゆうやく。うわぐすり)を選んで本焼きに進む段階で、どの釉薬を使うべきか悩んでいた。陶芸家はスマホで花瓶と釉薬のサンプルを動画で撮影。その撮影中、

「こういう雰囲気を出したい。どの釉薬がいいか」

と音声で質問した。Geminiは、動画に映るビジュアル情報と音声の内容を統合的に解析。陶芸家が目指す雰囲気に最適な釉薬を提案した。これはマルチモーダルAIの典型的な活用例である。

 この技術をドライブシーンに応用してみた。

曖昧表現に強くなる生成AI

文章では「ここ」としか書いていないにもかかわらず、画像の場所を特定する(画像:Google)
文章では「ここ」としか書いていないにもかかわらず、画像の場所を特定する(画像:Google)

 筆者(澤田真一、ライター)が2024年、中部横断自動車道沿いにある山梨県南部町の「道の駅なんぶ」で撮影した写真がある。これをiPhoneにインストールしたGeminiアプリにアップロード。さらに「ここへ行きたいからナビお願い」と文字入力した。

 写真内には「道の駅なんぶ」という文字は一切ない。「ここ」という指示語のみである。それでもAIは画像とテキスト情報を総合的に判断し、写っている建物が道の駅なんぶであると特定。現在地である静岡県静岡市からのルートをGoogle Map上に提示した。

・画像
・テキスト
・音声

といった異なる形式の情報を統合的に処理する。この高度な認識力こそがAIのマルチモーダル化である。従来のAIでは「これ」や「あれ」といった曖昧な表現には対応できず、明確な固有名詞が必要だった。だが、今やAIは文脈を読み取り、意味を理解し、正解にたどり着ける段階まで進化している。

 進化の速度は、もはや恐るべきレベルに達している。

全てのコメントを見る