Kill Backend constructor of TensorOptions. (#18137)
authorGregory Chanan <gchanan@fb.com>
Tue, 19 Mar 2019 14:57:21 +0000 (07:57 -0700)
committerFacebook Github Bot <facebook-github-bot@users.noreply.github.com>
Tue, 19 Mar 2019 15:00:21 +0000 (08:00 -0700)
Summary:
It's wrong and unused.  Use one of the many other constructors instead :).
Pull Request resolved: https://github.com/pytorch/pytorch/pull/18137

Differential Revision: D14508364

Pulled By: gchanan

fbshipit-source-id: 19c6ff78ad9d9221d0874425edd02b78627c4ca7

c10/core/TensorOptions.h
torch/lib/c10d/test/ProcessGroupGlooTest.cpp

index 26faf31..1e7b017 100644 (file)
@@ -133,11 +133,6 @@ struct C10_API TensorOptions {
    /* implicit */ TensorOptions(Args&&... args)
     : TensorOptions(Device(std::forward<Args>(args)...)) {}
 
-  /// Constructs a `TensorOptions` object from a backend, forwarded to the
-  /// `Device` constructor.
-  /* implicit */ TensorOptions(Backend backend)
-      : TensorOptions(Device(backendToDeviceType(backend))) {}
-
   /// Constructs a `TensorOptions` object with the given dtype.
   /* implicit */ TensorOptions(caffe2::TypeMeta dtype) : TensorOptions() {
     this->set_dtype(dtype);
index b41f67d..4ca66f6 100644 (file)
@@ -154,7 +154,7 @@ std::vector<std::vector<at::Tensor>> copyTensors(
   return outputs;
 }
 
-void testAllreduce(const std::string& path, const at::Backend b) {
+void testAllreduce(const std::string& path, const at::DeviceType b) {
   const auto size = 4;
   auto tests = CollectiveTest::initialize(path, size);
 
@@ -190,7 +190,7 @@ void testAllreduce(const std::string& path, const at::Backend b) {
   }
 }
 
-void testBroadcast(const std::string& path, const at::Backend b) {
+void testBroadcast(const std::string& path, const at::DeviceType b) {
   const auto size = 2;
   const auto stride = 2;
   auto tests = CollectiveTest::initialize(path, size);
@@ -206,7 +206,7 @@ void testBroadcast(const std::string& path, const at::Backend b) {
         // This won't work if we ever support sparse CUDA
         at::OptionalDeviceGuard deviceGuard;
         for (auto l = 0; l < stride; l++) {
-          if (b == at::Backend::CUDA) {
+          if (b == at::DeviceType::CUDA) {
             deviceGuard.reset_device(at::Device(at::kCUDA, l));
           }
           inputs[k][l] = at::ones({16, 16}, b) * (k * stride + l);
@@ -285,25 +285,25 @@ int main(int argc, char** argv) {
 
   {
     TemporaryFile file;
-    testAllreduce(file.path, at::Backend::CPU);
+    testAllreduce(file.path, at::DeviceType::CPU);
   }
 
 #ifdef USE_CUDA
   {
     TemporaryFile file;
-    testAllreduce(file.path, at::Backend::CUDA);
+    testAllreduce(file.path, at::DeviceType::CUDA);
   }
 #endif
 
   {
     TemporaryFile file;
-    testBroadcast(file.path, at::Backend::CPU);
+    testBroadcast(file.path, at::DeviceType::CPU);
   }
 
 #ifdef USE_CUDA
   {
     TemporaryFile file;
-    testBroadcast(file.path, at::Backend::CUDA);
+    testBroadcast(file.path, at::DeviceType::CUDA);
   }
 #endif