生成 AI アプリケーションの規模が拡大するにつれて、計算コストが非常に重要になります。人々は、お金に見合った価値を非常に求めています。第二に、本当に優れた生成 AI アプリケーションを構築するのは、実はかなり難しいです。 3 番目に、ビルダーにやりたいことを選択する自由を与えると、使用されるモデルは多様になります。 Amazon が提供するモデルの幅広さと奥深さにより、お客様は独自のニーズに最適な機能を正確に選択できます。 AWS は、顧客のニーズと技術の進歩を綿密に監視し、有望な新モデルと実績のある業界で人気のモデルを組み合わせて、モデルの選択肢を定期的に拡大しています。当社の高性能かつ差別化されたモデル提供の継続的な拡大により、お客様は AI イノベーションの最前線に留まることができます。
Amazon BedrockとAmazon SageMaker AIが利用可能になりましたAmazon Bedrock に DeepSeek-R1 モデルをデプロイすることは、API を介して事前トレーニング済みの基本モデルを迅速に統合したいチームに最適です。 Amazon SageMaker AI は、基盤となるインフラストラクチャへのアクセスを伴う高度なカスタマイズ、トレーニング、デプロイメントを必要とする組織に最適です。さらに、AWS Trainium と AWS Inferentia を使用すると、Amazon Elastic Compute Cloud (Amazon EC2) または Amazon SageMaker AI を通じて DeepSeek-R1-Distill モデルをコスト効率よくデプロイできます。
AWS では、DeepSeek-R1 モデルを使用して生成 AI のアイデアを構築、実験し、責任を持って拡張できるため、この強力でコスト効率の高いモデルを最小限のインフラストラクチャ投資で利用できます。セキュリティを考慮して構築された AWS サービスを通じて、生成 AI イノベーションを自信を持って推進することもできます。生成 AI アプリケーションにさらなる保護レイヤーを追加するために、DeepSeek-R1 モデルのデプロイメントを Amazon Bedrock Guardrails と統合することを強くお勧めします。これは、Amazon Bedrock と Amazon SageMaker AI の両方のお客様がご利用いただけます。
DeepSeek-R1 モデルを AWS にデプロイする方法を次の方法で選択できるようになりました。
1. DeepSeek-R1 モデル用の Amazon Bedrock マーケットプレイス
2. DeepSeek-R1 モデル用の Amazon SageMaker JumpStart
3. DeepSeek-R1-Distill モデル用の Amazon Bedrock 顧客モデルのインポート
4. DeepSeek-R1-Distill モデル用の Amazon EC2 Trn1 インスタンス。
この記事は、AWS で DeepSeek-R1 モデルの使用を開始するためのさまざまな方法を理解するのに役立ちます。最初の AI アプリケーションを構築する場合でも、既存のソリューションを拡張する場合でも、これらの方法論は、チームの専門知識と要件に基づいた柔軟な出発点を提供します。
1. Amazon Bedrock Marketplace の DeepSeek-R1 モデル
Amazon Bedrock マーケットプレイスでは、100 種類を超える人気 FM、新興 FM、専門 FM のほか、現在 Amazon Bedrock で提供されている業界をリードするモデルの厳選セレクションを提供しています。単一のカタログ内のモデルを簡単に検出し、サブスクライブして、管理対象エンドポイントにデプロイできます。
Amazon Bedrock MarketplaceでDeepSeek-R1モデルにアクセスするには、Amazon Bedrockコンソールにアクセスし、基礎モデルセクションの下モデルカタログ。 DeepSeek は、モデル プロバイダーで検索またはフィルタリングすることですぐに見つけることができます。
モデルの機能や実装ガイダンスを含むモデルの詳細ページを表示した後、エンドポイント名を指定し、インスタンスの数を選択し、インスタンスタイプを選択することで、モデルを直接デプロイできます。
また、VPC ネットワーク、サービス ロールの権限、暗号化設定など、DeepSeek-R1 モデルのセキュリティとインフラストラクチャの設定をカスタマイズするための詳細オプションを構成することもできます。実稼働環境での展開では、組織のセキュリティとコンプライアンスの要件を満たすようにこれらの設定を確認する必要があります。
Amazon Bedrock Guardrails を使用すると、ユーザー入力とモデル出力を個別に評価できます。生成 AI アプリケーション内の不快で有害なコンテンツをフィルタリングすることにより、定義済みのポリシー セットを使用して、ユーザーと DeepSeek-R1 間のやり取りを制御できます。 Amazon Bedrock Marketplace の DeepSeek-R1 モデルは、Bedrock の ApplyGuardrail API でのみ使用でき、Amazon Bedrock 外で利用可能なカスタム FM およびサードパーティ FM のユーザー入力とモデル応答を評価します。詳細については、「Amazon Bedrock Guardrails を使用したモデルに依存しないセキュリティ対策の実装」をお読みください。
Amazon Bedrock Guardrails は、Amazon Bedrock Agents や Amazon Bedrock Knowledge Base などの他の Bedrock ツールと統合して、責任ある AI ポリシーに準拠した、より安全で信頼性の高い生成 AI アプリケーションを構築することもできます。詳細については、AWS Responsible AI ページをご覧ください。
2. Amazon SageMaker JumpStart の DeepSeek-R1 モデル
Amazon SageMaker JumpStart は、FM、組み込みアルゴリズム、および数回クリックするだけでデプロイできる事前構築済みの ML ソリューションを備えた機械学習 (ML) ハブです。 SageMaker JumpStart で DeepSeek-R1 をデプロイするには、SageMaker Unified Studio、SageMaker Studio、SageMaker AI コンソール、または SageMaker Python SDK を通じてプログラムで DeepSeek-R1 モデルを検出します。
Amazon SageMaker AIコンソールでSageMaker Studioを開き、ジャンプスタートディープシーク-R1
、 それからすべての公開モデルページ内で「 」を検索してください。
モデルを選択し、「デプロイ」を選択すると、デフォルト設定でエンドポイントを作成できます。エンドポイントが現役状態に到達すると、そのエンドポイントにリクエストを送信して推論を実行できます。
Amazon SageMaker Pipelines、Amazon SageMaker Debugger、コンテナログなどの Amazon SageMaker AI 機能を使用して、モデルのパフォーマンスと ML 操作を制御できます。このモデルは AWS の安全な環境にデプロイされ、仮想プライベートクラウド (VPC) によって制御され、データセキュリティのサポートに役立ちます。
Bedrock Marketplaceと同様に、ガードレールを適用する
SageMaker JumpStart の API は、生成 AI アプリケーションのガードレールを DeepSeek-R1 モデルから分離します。ガードは FM を呼び出さなくても使用できるようになり、使用されているモデルに関係なく、標準化され徹底的にテストされたエンタープライズ ガードをアプリケーション プロセスにさらに統合できるようになりました。
3. Amazon Bedrock Custom Model Importを使用してDeepSeek-R1-Distillモデルを構築する
Amazon Bedrock カスタムモデルインポートを使用すると、基盤となるインフラストラクチャを管理することなく、単一のサーバーレスの統合 API を通じて、既存の FM と一緒にカスタムモデルをインポートして使用できます。 Amazon Bedrock カスタムモデルインポートを使用すると、15 億から 700 億のパラメータに及ぶ DeepSeek-R1-Distill モデルをインポートできます。
これらの公開モデルをAmazon Simple Storage Service (Amazon S3)バケットまたはAmazon SageMakerモデルレジストリに保存した後、Amazon Bedrockコンソールに移動します。基本モデル次モデルのインポートその後、Amazon Bedrock を介して完全に管理されたサーバーレス環境にインポートされ、デプロイされます。このサーバーレス アプローチにより、インフラストラクチャを管理する必要がなくなり、エンタープライズ グレードのセキュリティとスケーラビリティが実現します。
2月1日に更新– 洗練されたモデルをインポートしたら、Bedrock プレイグラウンドを使用して、洗練されたモデルが入力にどのように反応するかを理解できます。
4. AWS Trainium と AWS Inferentia を使用した DeepSeek-R1-Distill モデル
AWS Deep Learning AMI (DLAMI) は、小規模な CPU インスタンスから最新の高性能マルチ GPU インスタンスまで、幅広い Amazon EC2 インスタンスでディープラーニングに使用できるカスタムマシンイメージを提供します。最高の価格/パフォーマンスを得るために、DeepSeek-R1-Distill モデルを AWS Trainuim1 または AWS Inferentia2 インスタンスにデプロイできます。
まずAmazon EC2コンソールにアクセスしますtrn1.32xlarge
そして、Deep Learning AMI Neuron (Ubuntu 22.04) という名前の Neuron Multi Framework DLAMI を使用して EC2 インスタンスを起動します。
起動した ec2 インスタンスに接続したら、大規模言語モデル (LLM) を提供するオープンソースツールである vLLM をインストールし、Hugging Face から DeepSeek-R1-Distill モデルをダウンロードします。 vLLM を使用してモデルをデプロイし、モデル サーバーを呼び出すことができます。
知っておくべきこと
知っておくべき重要な事項をいくつか示します。
- 価格– DeepSeek-R1 などの公開モデルの場合、Amazon Bedrock Markeplace、Amazon SageMaker JumpStart、Amazon EC2 で選択した推論インスタンス時間数に基づいてインフラストラクチャ料金のみを支払います。 Bedrock カスタム モデルのインポートの場合、モデル推論の料金はカスタム モデルのアクティブなコピーの数に基づいて 5 分単位で課金されるので、料金のみが発生します。詳細については、Amazon Bedrock の料金、Amazon SageMaker AI の料金、Amazon EC2 の料金ページをご覧ください。
- データセキュリティ – Amazon Bedrock と Amazon SageMaker のエンタープライズグレードのセキュリティ機能を使用して、データとアプリケーションの安全性とプライベートを維持できます。つまり、データはモデルプロバイダーと共有されず、モデルの改善にも使用されません。これは、Amazon Bedrock および Amazon SageMaker の DeepSeek-R1 モデルなど、すべてのモデル (独自のモデルおよび公開されているモデル) に適用されます。
要約する
DeepSeek モデルは、AI 分野における AWS の最先端のイノベーションを表しており、さまざまな業界に強力なデータ分析機能を提供します。意思決定プロセスの加速、ビジネス インテリジェンスの向上、顧客エクスペリエンスの最適化など、DeepSeek は企業に大きな価値をもたらします。より多くの企業がこの最先端技術をできるだけ早く体験できるように、当社は独占的なコンサルティングおよび導入サポート サービスを提供する特別オファーを開始しました。弊社を通じて、DeepSeek モデルを実際のシナリオに最短時間で適用し、ビジネス変革を支援し、競争力を強化することができます。オファーの詳細については、ページ下部の QR コードをスキャンしてお問い合わせください。