Publishing 2019 R1 content
[platform/upstream/dldt.git] / inference-engine / src / gna_plugin / gna_infer_request.hpp
index ba8e99f..00a03a8 100644 (file)
@@ -1,4 +1,4 @@
-// Copyright (C) 2018 Intel Corporation
+// Copyright (C) 2018-2019 Intel Corporation
 // SPDX-License-Identifier: Apache-2.0
 //
 
@@ -32,7 +32,10 @@ class GNAInferRequest : public InferenceEngine::AsyncInferRequestInternal {
 
         // copy inputs blobs since we need to have them in separate address space to allow simultaneous infer requests
         _outputs[_networkOutputs.begin()->first] = plg->GetOutputBlob(networkOutputs.begin()->second->getPrecision());
-        _inputs[_networkInputs.begin()->first] = plg->GetInputBlob(networkInputs.begin()->second->getInputPrecision());
+        for (auto input : _networkInputs) {
+            _inputs[input.first] =
+                plg->GetInputBlob(input.first, networkInputs.begin()->second->getInputPrecision());
+        }
     }
     /**
      * @brief Infers specified input(s) in synchronous mode