Imported Upstream version 1.7.0
[platform/core/ml/nnfw.git] / tests / nnapi / specs / V1_0 / fully_connected_quant8_large.mod.py
1 #
2 # Copyright (C) 2017 The Android Open Source Project
3 #
4 # Licensed under the Apache License, Version 2.0 (the "License");
5 # you may not use this file except in compliance with the License.
6 # You may obtain a copy of the License at
7 #
8 #      http://www.apache.org/licenses/LICENSE-2.0
9 #
10 # Unless required by applicable law or agreed to in writing, software
11 # distributed under the License is distributed on an "AS IS" BASIS,
12 # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13 # See the License for the specific language governing permissions and
14 # limitations under the License.
15 #
16
17 model = Model()
18 in0 = Input("op1", "TENSOR_QUANT8_ASYMM", "{1, 5}, 0.2, 0") # batch = 1, input_size = 5
19 weights = Parameter("op2", "TENSOR_QUANT8_ASYMM", "{1, 5}, 0.2, 0", [10, 20, 20, 20, 10]) # num_units = 1, input_size = 5
20 bias = Parameter("b0", "TENSOR_INT32", "{1}, 0.04, 0", [10])
21 out0 = Output("op3", "TENSOR_QUANT8_ASYMM", "{1, 1}, 1.f, 0") # batch = 1, number_units = 1
22 act = Int32Scalar("act", 0)
23 model = model.Operation("FULLY_CONNECTED", in0, weights, bias, act).To(out0)
24
25 # Example 1. Input in operand 0,
26 input0 = {in0: # input 0
27           [10, 10, 10, 10, 10]}
28 output0 = {out0: # output 0
29            [32]}
30
31 # Instantiate an example
32 Example((input0, output0))