リソースの有効活用と開発効率の向上を実現します。
高速化の結果を再びモニタリングすることで、高速化のサイクルを継続的に回すことができます。
LLMに専門知識を加える継続事前学習ライブラリ「Megatron-LM」の高速化事例
継続事前学習の高速化事例について詳しくは
ホワイトペーパーをダウンロード高度な計算能力と大量のデータ処理が求められる分野において、
GPUの性能を最大限に引き出し、開発効率と生産性を大幅に向上させることが可能です。
処理性能の向上により、1回の学習にかかる日数が減り、
結果として1回の学習にかかる費用が大幅に改善します。
クラウドA | クラウドB | クラウドA +Fixstars AI Booster |
クラウドB +Fixstars AI Booster |
|
---|---|---|---|---|
ノード月額利用料 | 1076万円 (オンデマンド) |
300万円 (月額固定) |
1076万円 (オンデマンド) |
300万円 |
処理性能 | 1(基準) | 1倍 | 2.5倍 | 2.5倍 |
利用期間 | 6か月 | 6か月 | 6か月 | 6か月 |
実行できる学習回数 | 1.9回 | 1.9回 | 4.7回 | 4.7回 |
1回の学習にかかる日数 | 95日 | 95日 | 38日 | 38日 |
1回の学習にかかる費用 | 6,811万円 | 1,899万円 | 2,724万円 | 760万円 |
お客様の開発環境やご要望に応じたAIモデルの高速化やFixstars AI Boosterのチューニングを行います。
お客様のニーズや開発環境に合わせて、GPUサーバーのご提案やセットアップ支援を行います。
NVIDIA社製ハイエンドGPU搭載サーバーが利用可能な各種クラウドサービスやオンプレサーバーをご提案いたします。
原則として変更不要です。生成AI/LLMで使われる標準的なOSSミドルウェアで提供しているため、通常は共通コードで動作します。さらなる性能向上のために引数追加などが推奨されることもあります。
可能性は十分にあります。お手元の処理のオプションにもよりますが、一般的には利用が難しい一方で効果の高い機能も導入済みのため、追加効果が見込めます。実際の推定にはGPU利用診断サービス等もご利用ください。
利用しているサーバー条件や想定される処理手法に合わせてミドルウェアをチューニングすることで実現しています。例えばGPU通信の機能やファイルストレージは、ハードウェアの接続関係などを見て、生成AI/LLMに適した形で導入されています。
フィックスターズの長年の高速化エンジニアリングサービスの実績と培った技術力により、ハードウェアからAI学習手法まで、幅広い技術スタックに対応できる専門家集団が、日々開発しているからです。