Run fp16 resnext101 training in bench script (#17963)
authorJunjie Bai <bai@in.tum.de>
Thu, 14 Mar 2019 21:35:31 +0000 (14:35 -0700)
committerFacebook Github Bot <facebook-github-bot@users.noreply.github.com>
Thu, 14 Mar 2019 21:41:37 +0000 (14:41 -0700)
Summary:
cc xw285cornell
Pull Request resolved: https://github.com/pytorch/pytorch/pull/17963

Differential Revision: D14453445

Pulled By: bddppq

fbshipit-source-id: 7ca0e0c33ae89d4d4cf6ddba321daf4d6b2d5ed6

.jenkins/caffe2/bench.sh

index c2f012d..13045d5 100755 (executable)
@@ -37,6 +37,7 @@ if (( $num_gpus == 0 )); then
 fi
 if (( $num_gpus >= 1 )); then
     "$PYTHON" "$caffe2_pypath/python/examples/resnet50_trainer.py" --resnext_num_groups 32 --resnext_width_per_group 4 --num_layers 101 --train_data null --batch_size 32 --epoch_size 3200 --num_epochs 2 --num_gpus 1
+    "$PYTHON" "$caffe2_pypath/python/examples/resnet50_trainer.py" --resnext_num_groups 32 --resnext_width_per_group 4 --num_layers 101 --train_data null --batch_size 64 --epoch_size 3200 --num_epochs 2 --num_gpus 1 --float16_compute --dtype float16
 fi
 # Run multi-gpu training once the HSAQueue::isEmpty core dump issue is fixed
 # if (( $num_gpus >= 2 )); then