記事の内容を音声で聞きたい方はこちら↓
期待していたiPhoneユーザーには、あまりに残酷な知らせだ。Appleが社運を賭けて進めていたSiriの「完全なAI化」が、想定以上の難産に直面している。
報道によれば、GoogleのGemini技術を統合した次世代Siriの本格展開は2025年後半、あるいはそれ以降にずれ込む公算が高いという。他社のAIアシスタントが日々進化を遂げる中、Appleのエコシステムだけが取り残される懸念が現実味を帯びてきた。
今回の延期、最大の要因はパフォーマンス不足にある。内部コードネーム「Linwood」と呼ばれる新アーキテクチャは、GoogleのGeminiを基盤にSiriの知能を底上げする野心的なプロジェクトだ。しかし、ブルームバーグのマーク・ガーマン氏が報じたところによると、その挙動はAppleの品質基準には程遠い。
テスターからの報告は散々だ。反応が鈍い、複雑な指示を理解できない、早口で話しかけると処理が中断する。Siriが「賢くなる」以前に、アシスタントとしての基本的な対話能力すら安定していないのが実情らしい。Apple幹部がこの状態でリリースするリスクを避け、機能を分割して段階的に提供する判断を下したのは当然の帰結だ。
具体的には、ユーザーの文脈を理解する「パーソナルコンテキスト認識」や、アプリを横断して操作する「高度なアプリ内アクション」といった目玉機能が、iOS 26.5からiOS 27にかけて五月雨式に実装されることになる。

例えば「先月友人が送ってくれたポッドキャストを再生して」といった、人間なら容易に理解できる指示も、Siriがスムーズにこなせるようになるにはまだ時間がかかる。
ここで浮き彫りになるのが、Appleが掲げる「プライバシー第一」主義のジレンマだ。競合他社がユーザーデータをクラウド上で高速処理して精度を高める一方、Appleは「プライベートクラウドコンピューティング」に固執する。
暗号化されたデータをApple自身も見ることができないセキュアな環境で処理を行う手法は、ユーザーにとって安心材料ではあるが、技術的なハードルを著しく上げている。ティム・クックCEOが自社製チップによるデータセンター強化を示唆しているのも、このボトルネックを解消するための苦肉の策だ。
皮肉なのは、自社のAIが不安定なため、一部の処理をChatGPTに頼らざるを得ない現状だろう。本来Siriが単独で処理すべきタスクまで外部AIに依存する姿は、かつて革新の象徴だったAppleらしくない。独自開発のウェブ検索ツールや画像生成機能も進行中とはいえ、テスターからは「扱いにくい」との評価も漏れ聞こえる。
iOS 27向けに計画されている「Project Campo」では、Siriが本格的なチャットボットへと進化し、メールやカレンダーと深く連携する未来が描かれている。しかし、それはまだ「絵に描いた餅」だ。
ユーザーは当面の間、劇的な進化を遂げたAIアシスタントではなく、少しずつ、ゆっくりと改善されるSiriと付き合っていくしかない。ただ、ライバルたちが周回先を行くAI競争において、ユーザーの忍耐がいつまで続くかは別の話だ。2025年後半、満を持して登場する「完全版Siri」が、待たされた時間を埋め合わせるだけの驚きを提供できるか。Appleの底力が試されている。
Source:Bloomberg’s Mark Gurman

