Appleは、今週リリースされたOSで初めて導入されたApple Intelligence機能の第2弾として、ChatGPTをSiriに統合しました(「OS X.2アップデートでApple Intelligenceなどが強化」2024年12月11日記事参照)。あまり期待しすぎないようにしましょう。
macOS 15.2とiOS 18.2のベータ版とリリース版でこの機能を試してみましたが、Siriとのやり取りがますますストレスフルになってしまいました。さらに悪いことに、SiriとChatGPTの統合に支障をきたすような、より根深い問題がいくつか存在するのではないかと懸念しています。
機能上の問題
私が遭遇した機能上の問題のいくつかは次のとおりです。
- ChatGPTはデバイスごとに個別に有効にする必要があるため、新しいデバイスでSiriに複雑なクエリを初めて送信すると、クエリが失敗し、ChatGPTを有効にするように求められます。これはあまり歓迎されていないように感じます。
- iPhone 16 Proでは問題なく使えるのに、M1 MacBook Airでは「ChatGPTは利用できません。後でもう一度お試しください」と何度も表示されます。Apple Intelligenceの要約機能もMacBook Airでは機能しないので、どうやら呪われているようです。Appleサポートに電話するしかないでしょう。
- プライバシー保護のため、Siriは、Siriが内部的に、または簡単な検索で回答できる範囲を超える質問に対して、ChatGPTを使用するかどうかを尋ねます。これは煩わしいですが、「設定」>「Apple Intelligence & Siri」>「ChatGPT」>「ChatGPTリクエストを確認」で確認手順を省略できます。
少なくとも ChatGPT は設定の一般的な領域を正しく理解していました。 - 私のM1 MacBook Airでは、DockアイコンをクリックしてSiriを起動すると「Siriに入力」が起動し、音声入力するにはマイクボタンをクリックする必要がありました。これは変更点です。Apple Intelligenceをサポートしていない27インチiMacでは、SiriボタンをクリックするとSiriが即座にマイクを認識できるようになります。
- iPhoneでは、サイドボタンを長押しするか「Hey Siri」と話しかけることでSiriを起動できます。しかし、ChatGPTとの会話を続けたい場合、Siriのアニメーションが画面の端で揺れ動いている間は、Siriが常に話を聞いているとは限らないことに気づくかもしれません。サイドボタン長押しの方が確実ではありますが、少し扱いにくいです。音声入力ができない時にも同様のアニメーションが表示されることがあるため、派手なグラフィックがSiriが話を聞いていることを意味するとは限りません。
- 使用する単語によっては、SiriがChatGPTとやり取りする代わりに、一見ランダムな応答を返したり、Web検索結果を表示したりすることがあります。こうしたランダムな応答は、ChatGPTとの会話中に返される場合もあります。プロンプトがChatGPTに届くようにするには、プロンプトのどこかでChatGPTの名前を言ってください。
- Siriを使ってChatGPTに話しかけることはできますが、返答は常にテキストで返ってきます。多くの場合は問題ありませんが、ChatGPTの高度な音声モード(音声で返答するモード)に慣れている人はがっかりするかもしれません。
- ChatGPTへのプロンプトが長ければ長いほど、Siriが途中で聞き取りを止め、それまでに聞き取った内容を送信する可能性が高くなります。話している最中に誰かに割り込まれるのがイライラするなら、Siriがあなたの話に飽きたことを示すまで待ってみてください。
- ChatGPTのトランスクリプトを確認して以前の応答を参照する方法はありません。最後の応答しか表示できません。ただし、「設定」>「Apple Intelligence & Siri」>「ChatGPT」でChatGPTアカウントにサインインすれば、すべてのチャットの完全なトランスクリプトを閲覧できます。(私のChatGPTアカウントへのサインインもM1 MacBook Airでは失敗します。本当に最悪です!)少なくとも、Siriで誤って起動してしまった中断されたトランスクリプトは削除できます。
より深い懸念
これらの問題は確かに苛立たしいものですが、もっと深い懸念があります。SiriはChatGPTと連携する良い方法なのでしょうか?Siriがうまく機能しなくなる可能性が増えると、Siriを使いたいという気持ちが薄れてしまうのでしょうか?SiriのApple Intelligenceの強化、特にChatGPTとの連携によって、Siriの使い勝手が改善することを期待していました。しかし、逆のことも起こり得るのでしょうか?
AppleはSiriを、簡単なコマンドの実行や高度な検索が可能なデジタルアシスタントとして売り出しています。私の経験では、Siriはアーティスト名を使った音楽の再生、HomeKit対応デバイスの操作、タイマーの設定、リマインダーの設定など、かなりスムーズに機能します。明日の天気を尋ねるといった検索も、かなりスムーズに動作します。
しかし、Siriを使ってWeb検索を開始するのは、特にHomePodでSiriを使うことに慣れていると、イライラさせられるものです。そのようなプロンプトは通常、「Web検索結果が見つかりました。iPhoneからもう一度尋ねれば表示できます」といった、役に立つ返答ではなく、むしろ「Web検索結果が見つかりました。iPhoneからもう一度尋ねれば表示できます」といった返答になります。また、Appleは最近、会話中のSiriの文脈維持能力を若干改善しましたが、私たちは13年間、単独の独立したコマンド以外では失敗を経験してきました。Siriが間違った応答をしてしまった場合、私たちにできる唯一の方法は、「Hey Siri、ストップ」と言ってSiriを黙らせ、会話を方向転換するのではなく、別の言い回しでリクエストを出すことです。
対照的に、ChatGPTはいかなる種類のコマンドも実行できず、検索エンジンでもありません。ただし、OpenAIは最近、ChatGPT Plusの有料ユーザーにそのような機能へのアクセスを許可しました。生成AIシステムが事実を誤認し、事実を捏造するケースについては多くのことが書かれており、それは間違いではありません。Webを検索するなら検索エンジンを使えばいいのです。ChatGPTは、データの分析、コンテンツの作成、未知のトピックの探索において、はるかに価値があります。会話を目的として設計されており、最適な結果を得るために必要なフォローアップクエリ、コメント、追加情報を提供します。SiriとChatGPTは、単純に同じような機能を提供しません。
AppleはSiriを擬人化することを望んでいませんが、自然な声で応答するデジタルアシスタントに話しかける場合、それはほぼ不可能です。ですから、Siriがランダムに応答したり、話し終わる前に話を聞くのをやめてしまったり、会話が下手だったりすると、同じような会話特性を持つ人間が引き起こすであろう不快感を避けることは不可能です。そのような人間と会話を続けようとはしないでしょうし、私たちの多くはSiriと会話を続けようともしないでしょう。
Siriのランダムな応答って一体何なの? 上の会話では、Siriは緊急サービスに電話するように提案したり、リマインダーを作成したり、ウェブ検索をしたり、私が運転ルートを尋ねていると勘違いしたり、あとは何度か混乱したり。確かに、私の指示は自然な話し方を心がけたものだったけど、Siriはもうそういうのも処理できるようになっているんじゃないの?
Apple IntelligenceがSiriを改善するには、ユーザーの質問を理解し、適切な対応をしなければなりません。これまでSiriの失敗パターンは、ユーザーの期待に応えるか、予測可能な方法で失敗するかのどちらかでした。Apple Intelligenceの登場により、Siriはこれまで以上に広範囲かつ予測不可能な方法で失敗するようになり、単純なタスクでさえもSiriを使う意欲を失わせる可能性が出てきました。
Appleは間違いなくSiriの開発を続けるでしょうが、手遅れになるのではないかと心配しています。経験上、Siriを使った特定のタスクを何度も失敗してしまうと、もう二度とやり直そうとは思わないでしょう。例えば、メモ帳にテキストを追加しようとした時もそうでした。