待望のChatGPTの新しい音声モードが、最近再びデモの中心となり、その演技力を披露しました。この動画は、AppleとOpenAIの間で噂される新たな協力関係から期待できることを示唆しているのかもしれません。
ChatGPTアプリには既に音声モードが搭載されていますが、OpenAIは5月に新しいGPT-4モデルを発表した際に、さらに印象的なバージョンを披露しました。残念ながら、当時はOpenAIとスカーレット・ヨハンソンとの間で、ChatGPTのSkyの声が映画「her/世界でひとつの彼女」での彼女の声に似ているという公開争いによって影を落とされました。しかし、OpenAIは下のクリップで再び新しいモードを宣伝しています。
動画では、誰かが物語を書き、ChatGPTに「威厳のあるライオン」とネズミの声を演じさせることで、効果的に即興劇を演じさせています。声の表現力に加えて、会話の流れを良くするためにChatGPTの声を簡単に中断できること、そして低遅延であることも注目に値します。
OpenAIは、新しいモードが「今後数週間で展開される」と述べており、これはかなり大きなことです。とりわけ、BloombergのMark Gurmanが再び報じているように、Appleが6月10日のWWDC 2024でOpenAIとの新たな提携を発表する予定であるためです。
OpenAIの技術がiOS 18にどのように統合されるかはまだ不明ですが、Gurmanのレポートによると、AppleはデジタルアシスタントSiriをAIで「強化」する予定です。これは、いくつかのオフデバイス機能がChatGPTを利用する可能性があることを意味し、もしOpenAIの新しいデモのようなものであれば、今日のSiriから大きく進歩することになります。
音声アシスタントはついに成熟するのか?
Siriの発表されたAI刷新は、おそらくWWDC 2024の大きな話題の一つとなるでしょう。2010年にAppleに買収される前にSiriを共同設立し、率いたDag Kittlausによると、OpenAIとの契約は、Appleが追いつくまでの「短・中期的な関係」になる可能性が高いとのことです。しかし、それでも大きな驚きです。
SiriのAI改善は、より小規模なオンデバイス機能に限定され、AppleはOpenAIとの提携をテキストベースの問い合わせにのみ利用する可能性もあります。結局のところ、AppleはiOS 15以降、Siriの音声処理をデフォルトでデバイス上で行っており、インターネット接続なしで利用できるようになりました。
しかし、BloombergのGurmanは、Appleが「OpenAIのChatGPTをiPhoneのオペレーティングシステムに統合するために提携した」と主張しています。もしそうなら、Siriがオフデバイスの問い合わせやよりスムーズな会話の流れのためにChatGPTに依存するという、ありそうもないステップが続く可能性があります。Appleのショートカットを使ってChatGPTをSiriと連携させることは、すでにしばらく前から可能です。
AppleがサードパーティのソフトウェアをiOSに統合するのは初めてではありません。初代iPhoneには、YouTubeアプリがプリインストールされていましたが、後にGoogleが独自のバージョンを開発した際に削除されました。Gurmanの情報源は、AIチャットボットをアウトソーシングすることで、Appleは「技術そのもの、特に時折発生する不正確さや幻覚から距離を置くことができる」と指摘しました。
WWDC 2024でAppleがOpenAIの技術をiOS、そしておそらくSiriにどのように組み込むのか、注目しています。