ベクターデータベースのデプロイ
10 minutesこのステップでは、OpenShift クラスターにベクターデータベースをデプロイし、ワークショップ参加者が使用するテストデータを投入します。
ベクターデータベースのデプロイ
このワークショップでは、オープンソースのベクターデータベースである Weaviate をデプロイします。
まず、Weaviate の Helm チャートを含む Weaviate Helm リポジトリを追加します。
weaviate/weaviate-values.yaml ファイルには、Weaviate ベクターデータベースのデプロイに使用する設定が含まれています。
Weaviate が Prometheus receiverでスクレイピングできるメトリクスを公開するように、以下の環境変数を TRUE に設定しています。
追加のカスタマイズオプションについては、Weaviate のドキュメントを参照してください。
新しい Namespace を作成します。
以下のコマンドを実行して、Weaviate が特権コンテナを実行できるようにします。
注意: この方法は本番環境では推奨されません。
次に、Weaviate をデプロイします。
ベクターデータベースへのデータ投入
Weaviate が起動したので、ワークショップでカスタムアプリケーションと共に使用するデータを追加します。
この作業に使用するアプリケーションは、LangChain Playbook for NeMo Retriever Text Embedding NIM に基づいています。
./load-embeddings/k8s-job.yaml の設定に従い、NVIDIA H200 Tensor Core GPU のデータシートをベクターデータベースにロードします。
このドキュメントには、大規模言語モデルが学習していない NVIDIA H200 GPU に関する情報が含まれています。ワークショップの次のパートでは、ベクターデータベースにロードされたこのドキュメントのコンテキストを使用して、LLM が質問に回答するアプリケーションを構築します。
OpenShift クラスターに Kubernetes Job をデプロイしてエンベディングをロードします。 このプロセスが1回だけ実行されるようにするために、Pod ではなく Kubernetes Job を使用します。
注意: エンベディングを Weaviate にロードする Python アプリケーションの Docker イメージをビルドするために、以下のコマンドを実行しました。