Imported Upstream version 1.8.0
[platform/core/ml/nnfw.git] / tests / nnapi / specs / V1_0 / resize_bilinear_quant8_nnfw.mod.py
1 # model
2 model = Model()
3 i1 = Input("op1", "TENSOR_QUANT8_ASYMM", "{1, 2, 2, 1}, 0.8, 5")
4 i2 = Output("op2", "TENSOR_QUANT8_ASYMM", "{1, 3, 3, 1}, 0.8, 5")
5 w = Int32Scalar("width", 3)
6 h = Int32Scalar("height", 3)
7 model = model.Operation("RESIZE_BILINEAR", i1, w, h).To(i2)
8
9 # Example 1. Input in operand 0,
10 input0 = {i1: # input 0
11           [1, 1, 2, 2]}
12 output0 = {i2: # output 0
13            [1, 1, 1,
14             2, 2, 2,
15             2, 2, 2]}
16
17 # Instantiate an example
18 Example((input0, output0))