概要
https://firebase.blog/posts/2025/10/understand-ai-logic-hybrid-inference/
詳細内容
## ハイブリッド推論を理解する:Firebase AI Logicの役割
https://firebase.blog/posts/2025/10/understand-ai-logic-hybrid-inference/
**Original Title**: Understanding hybrid inference: the role of Firebase AI Logic
Firebase AI Logicがハイブリッド推論を導入し、Webアプリ開発者がオンデバイスモデルとクラウドモデルをシームレスに切り替えてAI機能を構築できるよう支援する。
**Content Type**: Tools
**Language**: en
**Scores**: Signal:5/5 | Depth:4/5 | Unique:4/5 | Practical:5/5 | Anti-Hype:4/5
**Main Journal**: 89/100 | **Annex Potential**: 87/100 | **Overall**: 88/100
**Topics**: [[ハイブリッド推論, オンデバイスAI, Firebase AI Logic, Gemini Nano, Webアプリ開発]]
Firebase AI Logicが、Webアプリケーション向けにハイブリッド推論機能を導入しました。これは、AI機能を構築する際に、利用可能な場合はオンデバイスAIモデル(例:ChromeデスクトップのGemini Nano)を使用し、そうでない場合はクラウドホスト型モデルに自動的にフォールバックする(またはその逆も行う)ことを可能にするものです。この機能は現在、プレビュー版として提供されており、WebアプリがChromeデスクトップ上でGemini Nanoモデルにアクセスする際に利用できます。
このハイブリッド推論は、Webアプリケーション開発者にとって、AI機能をより堅牢かつ効率的に提供する上で重要です。ユーザーがオフラインの場合や、低遅延・コスト不要の推論が求められる場合にオンデバイスモデルを利用し、より複雑なタスクや高性能が求められる場合には強力なクラウドモデルを活用するといった「AIのインテリジェントな分散」を実現します。
具体的なユースケースとして、以下の3つが挙げられています。
1. **テキスト要約**: 個人のメモやメール、記事などをデバイス上で直接要約するWebアプリを構築できます。`InferenceMode.PREFER_ON_DEVICE` を設定することで、オンデバイス処理を優先し、デバイスがオフラインの場合でも自動的にクラウドにフォールバックします。
2. **オフライン画像キャプション生成**: 画像ギャラリーアプリで、ユーザーがオフライン状態でも写真の記述的なキャプションを自動生成できます。オンデバイスモデルのマルチモーダル機能を活用し、画像とテキストプロンプトを組み合わせてキャプションを作成します。
3. **リアルタイム翻訳**: ライブでの文字起こしや翻訳機能を提供するWebアプリでは、短いシンプルな文章には低遅延・低コストのオンデバイスモデル(`PREFER_ON_DEVICE`)を使用し、より複雑で長いテキストには高性能なクラウドホスト型モデル(`PREFER_IN_CLOUD`)を利用するというルーティングロジックを実装できます。
Firebase AI Logicのこの新しいハイブリッド推論機能は、オフライン対応、高速処理、コスト効率、そして柔軟なAIモデル利用を可能にし、次世代のWebアプリケーション開発の可能性を広げます。