iPhoneはまもなくモデルコンテキストプロトコル(MCP)のサポートを開始するかもしれません。これにより、サードパーティ製のAIツールがApple製品上でこれまで以上に便利になる可能性があります。
Appleは月曜日にiOS 26.1の最初の開発者向けベータ版をリリースしました。ソフトウェアコードから、Appleがモデルコンテキストプロトコル(MCP)のサポート実装に取り組んでいることがわかります。
簡単に言うと、MCPはAIシステムがデータソースごとにカスタム実装に依存するのではなく、共通プロトコルを介して必要なデータにアクセスし、操作することを可能にします。
9to5macが指摘しているように、モデルコンテキストプロトコル(MCP)はもともとAnthropicによって提案されましたが、その後、OpenAIやGoogleなどの大手AI企業に採用されています。iOS 26.1の最初の開発者向けベータ版により、AppleはMCPサポートを実装した最新のテクノロジー大手となりました。
App Intents、Siri、MCP
モデルコンテキストプロトコル(MCP)のサポートを導入することで、Appleはサードパーティ製のAIシステムがiPhone、iPad、Macアプリと連携できるようになります。 AppleのApp Intentsシステムは、これがどのように機能するかについて貴重な洞察を提供します。
App Intentsは、Siriがアプリ内でアクションを実行できるようにします。これはAppleのショートカットアプリでも利用可能な機能です。Appleはこのシステムの改良に取り組んでおり、これらの改良は待望のSiriの全面的な改良につながると期待されています。
Appleの開発者向けドキュメントによると、開発者はApp Intentsシステムをテストして、画面上のコンテンツをSiriとApple Intelligenceに送信できます。簡単に言えば、これはユーザーが画面上のあらゆるアクティビティをAIに送信して解釈させることができることを意味します。
将来的には、Siriは画面上のウェブページに関する質問に答えたり、写真を編集してリクエストに応じて送信したりできるようになるかもしれません。音声アシスタントは、Instagramの投稿にコメントしたり、オンラインショッピングカートに商品を追加したりすることも、すべて画面に触れることなく可能になるかもしれません。
Appleが計画通りにModel Context Protocol(MCP)を実装すれば、サードパーティ製ツールが同様にアプリとやり取りできるようになる可能性があります。理論上、これはユーザーがOpenAIのChatGPTにiPhone、iPad、Macのアプリ内アクションを実行させることを意味します。
しかし、MCPのもう一つの潜在的な用途は、SiriがWebからより多くのデータを収集できるようになることです。以前の噂では、Siriの検索機能はAppleの基盤モデルによって処理されると示唆されていました。
Apple、Siriの改良を計画
2025年9月の噂によると、AppleはApple Foundation Modelsを搭載したWeb検索機能を導入する予定です。これにより、Google Geminiを利用してSiriの情報収集・集約能力が向上すると報じられています。
暗いタブレット画面には、ブラウザやドキュメントリーダーなど、Siriのドメインとアクションの一覧表と、カラフルなアプリアイコンのサイドバーが表示されます。
Siriは2026年初頭にアプリの意図に基づいたアップグレードを受ける予定です。
新しいSiriには、プランナー、検索演算子、サマライザーという3つのコアコンポーネントが含まれると報じられています。 Appleの基盤モデルは、デバイス上で個人データを処理する必要があるため、プランナーと検索オペレーターとして機能します。
Webからのデータのスクレイピングと整理は、Googleのモデルに依存する可能性があります。Googleは既に、自社のプライベートクラウドコンピューティングプラットフォームで動作するGeminiのバージョンを提供しており、これはWebデータ集約ツールとして機能します。
理論的には、iOSでのMCPサポートにより、Google GeminiはiPhone上で検索結果の提供だけでなく、より多くの機能を実現できるようになります。サードパーティ製アプリ間でのアプリ内アクションも実現可能です。
Appleは以前、Siriが高度なアプリ内タスクを実行できるようになると約束していましたが、計画されていたアップグレードは延期されています。サードパーティ製ツールで同じアクションを実行できるようにすることは、一時的な対策に過ぎず、消費者に幅広い選択肢を提供することになるでしょう。
一方、MCPは、SiriがGoogle Geminiやその他のAI製品に依存せずにWebから情報を取得できるようにする可能性があります。これは、MCPがAIシステムがさまざまなソースからデータにアクセスできるようにするプロトコルであるためです。
スマートフォンの画面には、カフェ・グレネルでのザック・ウィンゲートとのミーティングの通知と、7月3日の制作打ち合わせのカレンダーイベントが表示されています。
MCPは、SiriやサードパーティのAIがiOS上で高度なアプリ内アクションを実行できるようにする可能性があります。
現在、Siriは情報が必要な場合にのみ、プライバシーを保護しながら基本的なウェブ検索を実行できます。もちろん、より高度なタスクはユーザーの同意を得た上で、ChatGPTに委任されます。
結局のところ、Appleは模倣製品を作るよりも、AI企業との連携を好んでいるようです。このアプローチは独特であり、ユーザーに多様なAIオプションを提供しながら、より有意義な開発を促進する可能性があります。
刷新されたSiriは、おそらくiOS 26.4アップデートと同時に、2025年春にデビューする予定です。