
Explanation:
ボックス 1: pytorch を deeplearninglib としてインポートする
ボックス 2: ..DistributedSampler(Sampler)..
DistributedSampler(サンプラー):
データの読み込みをデータセットのサブセットに制限するサンプラー。
class:`torch.nn.parallel.DistributedDataParallel` と組み合わせると特に便利です。このような場合、各プロセスは DistributedSampler インスタンスを DataLoader サンプラーとして渡し、それ専用の元のデータセットのサブセットをロードできます。
シナリオ: サンプリングは、同じ機能を共有するローカル セグメンテーション モデルとグローバル セグメンテーション モデルの間で排他的に相互および集合を保証する必要があります。
ボックス 3: オプティマイザー = deeplearninglib.train. GradientDescentOptimizer(learning_rate=0.10) 不正解: ..SGD..
シナリオ: すべてのペナルティ検出モデルは、確率的勾配降下法 (SGD) を使用した推論フェーズの実行が遅すぎることを示しています。
ボックス 4: ..nn.parallel.DistributedDataParallel..
DistributedSampler(Sampler): データの読み込みをデータセットのサブセットに制限するサンプラー。
:class:`torch.nn.parallel.DistributedDataParallel` と組み合わせると特に便利です。
参考文献:
https://github.com/pytorch/pytorch/blob/master/torch/utils/data/distributed.py