Reasoning Engine の概要

Reasoning Engine は、Vertex AI でオーケストレーション フレームワークをカスタマイズしてデプロイできるマネージド サービスです。LLM に委任する推論の量と、カスタマイズされたコードで処理する量を柔軟に選択できます。

既存の生成 AI アプリケーションがある場合は、Reasoning Engine を使用して、Vertex AI 上の本番環境に対応したクラウドネイティブなサービスに変換できます。

Reasoning Engine は、LangChain または独自のオープンソース Python フレームワークと互換性があります。詳細については、Reasoning Engine を使用するをご覧ください。

Reasoning Engine のメリット

  • 自由にカスタマイズ可能: 生成 AI アプリケーション シナリオのロジックをカスタマイズし、オープンソース フレームワークを組み込むことができます。
  • 本番環境対応: コードとパッケージの依存関係のみを提供します。残りは Vertex AI が管理します。モニタリング、ロギング、パフォーマンス指標にアクセスできます。
  • Google Cloud と Vertex AI エコシステムとのインテグレーション: Vertex AI のインフラストラクチャとビルド済みのコンテナを使用して、LLM アプリケーションのデプロイを迅速に行うことができます。BigQuery などの Google Cloud サービス、関数呼び出しVertex AI 拡張機能との連携はシームレスで安全です。

Reasoning Engine を使用する

Reasoning Engine を使用するプロセスは次のとおりです。

ステップ 説明
1. 環境を準備する Google プロジェクトを設定し、Vertex AI SDK for Python をインストールします。
2. アプリケーションを開発する Vertex AI にデプロイ可能な形式で LangChain アプリケーションを開発します。
3. アプリケーションをデプロイして提供する アプリケーションを Reasoning Engine にデプロイし、コンテンツをクエリします。
4. デプロイされたアプリケーションを管理する デプロイされたアプリケーションを管理および削除して、不要な料金が発生しないようにします。

Reasoning Engine と関数呼び出し

Reasoning Engine を関数呼び出しと組み合わせて使用すると、ユーザー向けのツールを使用した生成 AI エクスペリエンスを構築できます。

  • 柔軟性と管理: Reasoning Engine は、関数の宣言、パラメータの記述、API 呼び出しを完全に管理できます。LangChain での開発、または他のオーケストレーション フレームワークと推論チェーンでの開発を選択できます。
  • 検索拡張生成(RAG)を超える処理: RAG 実装を使用すると、非構造化ドキュメントをインタラクティブに検索できます。Reasoning Engine は、関数呼び出しに加えて、構造化されたデータの処理、外部システムからの情報の取得、API 呼び出しによるアクションの実行など、さまざまな処理を行うことができます。
  • 迅速なプロトタイピング: Reasoning Engine と関数呼び出しは、LLM を外部システムに接続するためのシンプルなソリューションです。これにより、反復処理を迅速に行い、新しいアイデアを探求できます。LangChainReAct、その他のフレームワークを使用する必要はありません。
  • 独自のスタックがない: Reasoning Engine と関数呼び出しでは、いつもと同じように Python 関数と API 呼び出しを使用できます。OpenAPI 仕様、追加の YAML ファイル、ボイラープレート コードは必要ありません。
  • 組み込みのインテグレーション: 関数呼び出しは Gemini 1.0 Pro の組み込み機能です。Reasoning Engine は Vertex AI のサービスです。2 つのシステム間のすべてのインタラクションは Vertex AI によって処理されるため、データのシリアル化やパイプは必要ありません。

次のステップ