arrow-up icon
hero-k4

Fixstars K4

特長

すぐ使える、すぐ速い、ずっと速い、を実現する
Fixstars K4の特長をご紹介します。

Fixstars K4の特長

01

すぐ使える

一般的なGPUクラウドサービスはハードウェアのみで提供されるので、自社で環境構築や動作確認をしてから開発を始める必要があります。

Fixstars K4では、AIモデル開発のためのミドルウェアと統合開発システムが一緒に提供されるので、契約したらすぐに開発を始めることができます。

通常のセットアップ
  1. 1
    サーバーの立ち上げ
    ・ウェブサーバー等を社内限定に公開する設定
    ・ローカルストレージの容量と性能を引き出すシステム構築
  2. 2
    GPU環境のインストール
    ・サーバーと処理の特性に合わせたCUDAのインストール
    ・インターコネクトの性能を引き出すNCCLのインストールと設定
  3. 3
    フレームワークのインストール
    ・CUDAバージョンと処理特性に合わせたPyTorchのインストールと設定
    ・PyTorchの設定と処理特性に合わせたMegatron-LMやDeepSpeedのインストールと設定
  4. 4
    動作確認
    ・GPU環境に合わせた学習スクリプトのチューニング

  5. 5
    LLMやAIの開発
    ・専有サーバーを空き時間なく使い続けるための学習パイプラインの構築
    ・最新モデルや手法の導入
Fixstars K4を使った場合の手順
decoration decoration decoration
動作確認済みなので

すぐ使える

  1. 1
    LLMやAIの開発
    ・SSHログインして手順通りに実行するだけ
02

すぐ速い

非常に高性能なGPU搭載サーバーでは、一般的な使用方法そのままだと十分に性能が発揮されない場合があります。

Fixstars K4で提供されるGPUサーバー環境およびOSSツール類にはハードウェアの処理性能を引き出す技術が適用されているのですぐに最高の状態で開発を始めることができます。

処理時間の期待と現実の例
従来のサーバーの処理性能での時間
triangle-down
期待decoration高価な高性能GPUなので処理時間は半分くらいになって欲しい!
triangle-down
現実decoration20%程度しか速くなっていない…
Fixstars K4による高速化事例
7Bモデル学習の処理時間
70Bモデル学習の処理時間
シングルバッチ推論の処理時間
マルチバッチ推論の処理時間
03

ずっと速い

LLMの分野では、モデルのアーキテクチャや学習手法、ハードウェアの最適化技術などが日々進化しており、新しい手法や改善技法が頻繁に発表されています。

Fixstars K4は最新の技術を即座にサービスに取り込み、高頻度なアップデートを行っているので、開発者は常に最新で最良の方法を使うことができます。

K4のリリーススケジュール

月に1度以上のアップデートで常に最先端の手法の取り込んでいます。
Fixstars K4をご利用中はずっと継続的にリリースを受け取ることができます。

バージョンアップ機能の実例

  • DPOによる選好学習の追加
  • MegatronLMを用いた(継続)事前学習の追加と高速化(最大で5.5倍)
  • Llama3対応

特長や費用対効果についてもっと知りたい方へ

Fixstars K4サービス資料

Fixstars K4の導入についてご不明な点は
お気軽にお問い合わせください

サービスの詳しい説明やデモを依頼する
お問い合わせ decoration
特長や費用対効果について確認する
資料ダウンロード decoration
要件に応じた見積もりやリソースの在庫を確認する
見積もりを依頼する decoration