カーナビはもうオワコン? 「Google様」に聞けばオールOK時代? 生成AI×Google Mapがもたらす「移動革命」とその未来とは
AIスマホの進化が加速し、GoogleのGeminiがカーナビ業界に革新をもたらす。従来のカーナビを凌ぐ性能を誇り、AIが運転中の情報提供を劇的に変化させる可能性が高まっている。2025年にはカーナビの再発明が進む予感だ。
スマホが生む直感ナビ体験

画像は、Googleが開発したAIプラットフォーム「Gemini」による実際のパフォーマンスである。
ある陶芸家が花瓶の素焼きを終えた。その後、釉薬(ゆうやく。うわぐすり)を選んで本焼きに進む段階で、どの釉薬を使うべきか悩んでいた。陶芸家はスマホで花瓶と釉薬のサンプルを動画で撮影。その撮影中、
「こういう雰囲気を出したい。どの釉薬がいいか」
と音声で質問した。Geminiは、動画に映るビジュアル情報と音声の内容を統合的に解析。陶芸家が目指す雰囲気に最適な釉薬を提案した。これはマルチモーダルAIの典型的な活用例である。
この技術をドライブシーンに応用してみた。
曖昧表現に強くなる生成AI

筆者(澤田真一、ライター)が2024年、中部横断自動車道沿いにある山梨県南部町の「道の駅なんぶ」で撮影した写真がある。これをiPhoneにインストールしたGeminiアプリにアップロード。さらに「ここへ行きたいからナビお願い」と文字入力した。
写真内には「道の駅なんぶ」という文字は一切ない。「ここ」という指示語のみである。それでもAIは画像とテキスト情報を総合的に判断し、写っている建物が道の駅なんぶであると特定。現在地である静岡県静岡市からのルートをGoogle Map上に提示した。
・画像
・テキスト
・音声
といった異なる形式の情報を統合的に処理する。この高度な認識力こそがAIのマルチモーダル化である。従来のAIでは「これ」や「あれ」といった曖昧な表現には対応できず、明確な固有名詞が必要だった。だが、今やAIは文脈を読み取り、意味を理解し、正解にたどり着ける段階まで進化している。
進化の速度は、もはや恐るべきレベルに達している。