マルチGPUと分散ワークフロー
EvoXは分散ワークフローの実験的サポートを提供しており、通常の進化アルゴリズムを複数のGPUや複数のマシンにまたがって実行できます。これにより、特に時間のかかる問題に対して最適化プロセスを大幅に高速化できます。
使用方法
分散ワークフローを使用するには、いくつかの設定が必要です:
- 乱数生成器のシードを手動で固定していることを確認してください。
torch.manual_seed(seed)
# オプション:numpyのシードを設定
np.random.seed(seed)
# オプション:決定論的アルゴリズムを使用
torch.use_deterministic_algorithms(True)
重要: torchやnumpyの操作の前に、すべての乱数生成器のシードを設定してください。これにより、操作が実行される前に乱数生成器が既知の状態にあることが保証されます。
torch.distributedまたはtorchrunコマンドを使用してスクリプトを起動します。例えば:
torchrun
--standalone
--nnodes=1
--nproc-per-node=$NUM_GPUS
your_program.py (--arg1 ... train script args...)
ヒント:
torchrunは分散torchプログラムを起動するための推奨方法です。詳細については、PyTorchドキュメントを参照してください。