
グローバル展開を目指す企業が最も望むAI機能は、「自社のビジネスを理解する」インテリジェントなアシスタントである。
グローバル展開を目指す多くの企業が、同じ疑問を抱いている。ChatGPTは強力ですが、当社の製品、コンプライアンス要件、営業トークを理解してくれません。実際のビジネスでどのように活用できるでしょうか?
答えは RAG(検索強化生成)。
RAGの基本的なロジックはシンプルです。AIが回答する前に、まず独自の知識ベースから関連コンテンツを取得し、それを大規模モデルと組み合わせて正確な回答を生成します。これにより、大規模モデルの言語能力を維持しつつ、「知識の錯覚」や「情報の適時性」といった問題を解決します。
AWS Bedrock ナレッジベース これは、エンタープライズRAGシステム構築のための最も成熟したマネージドソリューションの一つです。ベクトルデータベースや組み込みモデルを自分で管理する必要がなくなり、数時間以内に導入できます。
この記事では、AWS Bedrock を使用して RAG ナレッジベースを構築するプロセス全体を詳細に解説します。
I. RAGとは何か、そしてグローバル展開を目指す企業にとってなぜRAGが必要なのか?
RAG vs 純粋な大規模モデル vs ファインチューニングモデル
| プラン | 料金 | 知識の適時性 | 正確さ | 適切なシナリオ |
|---|---|---|---|---|
| 純粋な大規模モデル(直接API呼び出し) | 低い | トレーニング期限により制限される | 幻覚を起こしやすい | 一般対話 |
| モデルの微調整 | 高(大量のラベル付きデータが必要) | 再訓練が必要です。 | 高いが静的 | 垂直ドメイン固定タスク |
| ぼろ布 | 真ん中 | リアルタイム(知識ベースを更新するだけ) | 高くて制御可能 | 企業知識に関する質疑応答、顧客サービス、文書検索 |
海外進出を検討している企業にとって、RAGは以下のようなシナリオに適しています。
- AIカスタマーサービス製品に関するよくある質問、返品・交換ポリシー、海外における法令遵守問題などに対する自動回答。
- 販売アシスタント製品マニュアルや競合製品との比較データを素早く取得できます。
- 社内知識に関するQ&A人事規定、経費精算手続き、および技術文書の検索。
- コンプライアンスレビュー対象市場の規制を自動的に取得し、コンプライアンス評価を支援します。
II. AWS Bedrock RAGアーキテクチャの概要
ユーザーが質問します ↓ Amazon Bedrock ナレッジベース ├── 質問のベクトル化 (Amazon Titan Embeddings などの埋め込みモデル) ├── ベクトルの取得 (Amazon OpenSearch Serverless / Pinecone) └── 関連するドキュメントブロックの取得 ↓ Foundation Model (Claude 3 Sonnet / Llama 3 など) └── 検索結果に基づいて回答を生成 ↓ ユーザーに返します (出典引用を含む)
コアコンポーネント:
| コンポーネント | AWS サービス | 説明する |
|---|---|---|
| ナレッジベース文書の保管 | アマゾンS3 | PDF、Word、HTMLなどのドキュメントを保存します。 |
| 組み込みモデル | Amazon Titan Embeddings V2 | テキストをベクターに変換する |
| ベクターデータベース | Amazon OpenSearch Serverless | ベクトルの保存と取得 |
| 大規模言語モデル | クロード/ラマ on Bedrock など | 最終解答を生成する |
| 配置レイヤー | Bedrock ナレッジベース | RAGプロセス全体の自動管理 |
III.セットアップ手順(ステップバイステップ)
ステップ1:文書データの準備
サポートされているドキュメント形式PDF、TXT、HTML、Markdown、Word (.docx)、CSV
データ準備に関する提案:
- 各文書は 50ページ以内(非常に大きな文書は分割することをお勧めします)
- 文書の命名規則は、後々出典を追跡するのに役立つ。
- 中国語のドキュメントは完全にサポートされています(Titan Embeddingsは複数の言語をサポートしています)。
すべてのドキュメントをS3バケットにアップロードしてください。
AWS S3 cp ./knowledge-docs/ s3://your-company-knowledge-base/ --recursive
ステップ2:基盤となる知識ベースを作成する
入力 AWSコンソール → Amazon Bedrock → ナレッジベース → 作成
主要構成項目:
1. データソースの設定
- データソースの種類: Amazon S3を選択
- S3 URI: ドキュメントバケットのパスを入力してください
2. 埋め込みモデルの選択 推薦する:Amazon Titan Embeddings V2
- 中国語と英語の両方に対応しています。
- 入力次元: 1536
- 低コスト(100万トークンあたり約$0.02)
3. ベクターデータベースの選択
- 初心者におすすめAmazon OpenSearch Serverless(フルマネージド、メンテナンス不要)
- 既存のソリューションPinecone、MongoDB Atlas、およびRedis Enterpriseとの統合をサポートします。
4. チャンキング戦略
- デフォルトのブロックサイズ:1ブロックあたり300トークン、20%の重複
- 構造化された文書(FAQ、コンプライアンス条項など)については、セマンティックチャンキングの使用をお勧めします。
ステップ3:データ取り込み(同期)
作成後、クリック 同期 データ取り込みプロセスの開始:
S3ドキュメント → テキスト抽出 → チャンキング → Titan埋め込みベクトル化 → OpenSearchへの書き込み
摂取時間の参考:
- 100ページのPDF:約3~5分
- 文書1000件:約30~60分(文書サイズによる)
知識ベースを更新するS3に新しいドキュメントを追加した後は、再同期するだけでよく、ナレッジベース全体を再構築する必要はありません。
ステップ4:ビジネスシステムへの統合
一般的な統合方法:
- ウェブサイトAIカスタマーサービスAPIを介して、フロントエンドのチャットコンポーネント(Amazon LexやカスタムReactコンポーネントなど)と統合します。
- WeChat for Business/Lark RobotWebhookとLambda関数を使用してメッセージを受信し、ナレッジベースを照会して回答を返します。
- 内部ツール統合NotionやConfluenceなどの知識管理ツールとの統合
IV.コスト見積もり(中小企業を例として)
予測1日あたり1000件の文書(約5000ページ)、100件のクエリ
| コスト項目 | 平均月額費用 |
|---|---|
| S3ストレージ(10GBのドキュメント) | ~$0.23 |
| タイタン埋め込み(初期摂取) | ~$2.50(使い捨て) |
| OpenSearchサーバーレス | 月額約$175(最小構成) |
| クロード・ソネット第3番推論問題(1日100回、1回あたり3000入力+500出力トークン) | 約$35/月 |
| 合計 | 約$210/月 |
知らせOpenSearch Serverlessには最低料金(0.5 OCU)が設定されており、クエリ量が少ない場合は検討する価値があります。 パインコーン無料プラン 代替ベクターデータベースを使用すれば、月額コストを$50以下に削減できる。
V. よくある落とし穴と解決策
落とし穴1:関連性のない検索結果
理由ブロックの粒度が大きすぎたり小さすぎたりすると、意味的な焦点がぼやけてしまう。
解決する:
- 対話型シナリオ:ブロックあたり200~400トークン
- 詳細な技術文書:セマンティックチャンキングの有効化
落とし穴2:中国語の回答の質が低い
理由埋め込みモデルには、英語に最適化されたバージョンが選択されました。
解決する使用を確認する Titan Embeddings V2(多言語版)中国語のサポートが強化されました。
落とし穴3:知識ベースが更新されても、回答は変わらない。
理由S3ファイルを更新した後、同期を実行するのを忘れていました。
解決するS3イベント通知の設定 → Lambdaの自動トリガー → 呼び出し 取り込みジョブの開始 API。
落とし穴4:幻覚を含む回答
理由大規模なモデルは、知識ベースに一致するコンテンツがない場合でも、回答を「捏造」してしまうことがある。
解決するプロンプトで明示的に指示する:
提供された参考資料に関連情報が含まれていない場合は、推測するのではなく、「既存の知識ベースによると、関連する記録はありません」と回答してください。
VI. 高度な拡張機能:アクセス制御と会話履歴の追加
アクセス制御(マルチテナント環境)
部署ごとに文書のアクセス権限が異なる場合は、以下の操作が可能です。
- 各部署は独自の知識ベースを作成する。
- または メタデータフィルタ 検索時に部門タグで絞り込み検索してください。
対話記憶
取得と生成 サポート セッションID システムは、パラメータに関する複数ターンの対話コンテキストを自動的に維持します。
レスポンス = bedrock_agent_runtime.retrieve_and_generate(
入力={'文章':質問}、sessionId=「ユーザーセッション123」, # は同じセッション ID で会話の継続性を維持します
...
)
要約する
AWS Bedrockナレッジベースは、エンタープライズレベルのRAG(リスク分析グループ)を、「AIチームを必要とするもの」から「中小企業でも迅速に導入できるもの」へと変革しました。
主な利点:
- ✅ 完全管理型なので、ベクターデータベースのメンテナンスは不要です
- ✅ 中国語文書に対応
- ✅ AWSエコシステム(S3、Lambda、IAMアクセス制御)とのシームレスな統合
- ✅従量課金制で、中小企業にとってコスト管理が容易です。
グローバル展開を目指す企業にとってAIカスタマーサービス+社内Q&A これらはROIを達成するための最も迅速なRAGアプリケーションシナリオであり、この2つの方向からアプローチすることが推奨されます。

