記事の内容を音声で聞きたい方はこちら↓
Appleはついに、自前主義のプライドよりもユーザー体験の質を優先する決断を下した。iPhoneユーザーが長年待ち望んでいた「まともに会話できるSiri」が、GoogleのGeminiを搭載してiOS 26.4でやってくる。
これは単なる噂レベルの話ではない。Apple自身が、次世代Siriの基盤としてGoogleの技術を採用したことを公に認めたからだ。
正直なところ、この変化は遅きに失した感すらある。私自身、仕事柄PixelとiPhoneの二刀流を続けているが、ここ数年のAIアシスタントの性能差は絶望的だった。Pixel 6 ProでGeminiを使い始めてからというもの、iPhone 15 Pro MaxのSiriに話しかけるのが苦痛で仕方がない。
Geminiは文脈を理解し、複雑な問いにも的確な答えを返してくる。一方のSiriは、ChatGPTとの連携でお茶を濁してはいたものの、結局はウェブ検索の結果を投げてくるだけか、トンチンカンな回答で終わることが多かった。Pixel上でのGeminiはアラーム設定からテキスト送信まで、ハードウェアの制御まで深く入り込んでいる。Appleが目指すべきはまさにこのレベルの統合だ。
Appleのティム・クックCEOは、第1四半期決算説明会というこれ以上ない公式な場で、Geminiを選んだ理由を「Apple Foundation Models(AFM)にとって最も優れた基盤だから」と明言した。
この言葉には重みがある。自社開発のAI技術に固執して製品の競争力を落とすより、競合であるGoogleと手を組んででも、最高の結果を出すという実利を取った形だ。
誤解してはいけないのは、これがAppleによるAI開発の敗北宣言ではないという点だ。クック氏は、独自のAI技術開発は継続しており、Geminiとの提携とは「別物」であると強調している。
「私たちは、人々が愛するより多くのものにインテリジェンスをもたらし、それをパーソナルかつプライベートな方法でオペレーティングシステム全体に統合しています。そうすることで大きな価値が生まれ、私たちの製品やサービス全体に幅広い機会が開かれると考えています。そして、Googleとのコラボレーションにも非常に満足しています。」 -ティム・クック、Apple CEO
Siriがユーザーのメールや通話履歴、写真を解析して「母の乗るバスはいつ着く?」「ランチの予約は何時?」といったパーソナルな質問に答える機能は、Appleのプライバシー保護技術とGoogleの言語モデルがハイブリッドに連携して実現される。
Google側にとっても、この動きは大きな転換点だ。3月には従来の「Googleアシスタント」を廃止し、Geminiへ完全移行すると噂されている。そのタイミングで、世界中のiPhoneという巨大なプラットフォームに自社のAIが載るメリットは計り知れない。
iOS 26.4のベータ版は2月中にも開発者向けに公開される見込みだ。春の正式リリースを待たずとも、数週間以内には「生まれ変わったSiri」の実力を試せるようになる。
AppleがGoogleの手を借りてまで実現しようとしているのは、単なる検索エンジンの置き換えではない。OSそのものをAIで再定義する試みだ。iPhoneが再び「最もスマートなスマートフォン」の座を取り戻せるか、その答えは春に出る。

