Upstream version 9.38.198.0
[platform/framework/web/crosswalk.git] / src / third_party / libvpx / source / libvpx / vp8 / common / arm / neon / bilinearpredict_neon.c
1 /*
2  *  Copyright (c) 2014 The WebM project authors. All Rights Reserved.
3  *
4  *  Use of this source code is governed by a BSD-style license
5  *  that can be found in the LICENSE file in the root of the source
6  *  tree. An additional intellectual property rights grant can be found
7  *  in the file PATENTS.  All contributing project authors may
8  *  be found in the AUTHORS file in the root of the source tree.
9  */
10
11 #include <arm_neon.h>
12
13 static const uint16_t bifilter4_coeff[8][2] = {
14     {128,   0},
15     {112,  16},
16     { 96,  32},
17     { 80,  48},
18     { 64,  64},
19     { 48,  80},
20     { 32,  96},
21     { 16, 112}
22 };
23
24 void vp8_bilinear_predict4x4_neon(
25         unsigned char *src_ptr,
26         int src_pixels_per_line,
27         int xoffset,
28         int yoffset,
29         unsigned char *dst_ptr,
30         int dst_pitch) {
31     uint8x8_t d0u8, d1u8, d2u8, d3u8, d4u8, d5u8, d6u8;
32     uint8x8_t d26u8, d27u8, d28u8, d29u8, d30u8;
33     uint8x16_t q1u8, q2u8;
34     uint16x8_t q1u16, q2u16;
35     uint16x8_t q7u16, q8u16, q9u16;
36     uint64x2_t q4u64, q5u64;
37     uint64x1_t d12u64;
38     uint32x2x2_t d0u32x2, d1u32x2, d2u32x2, d3u32x2;
39
40     if (xoffset == 0) {  // skip_1stpass_filter
41         uint32x2_t d28u32 = vdup_n_u32(0);
42         uint32x2_t d29u32 = vdup_n_u32(0);
43         uint32x2_t d30u32 = vdup_n_u32(0);
44
45         d28u32 = vld1_lane_u32((const uint32_t *)src_ptr, d28u32, 0);
46         src_ptr += src_pixels_per_line;
47         d28u32 = vld1_lane_u32((const uint32_t *)src_ptr, d28u32, 1);
48         src_ptr += src_pixels_per_line;
49         d29u32 = vld1_lane_u32((const uint32_t *)src_ptr, d29u32, 0);
50         src_ptr += src_pixels_per_line;
51         d29u32 = vld1_lane_u32((const uint32_t *)src_ptr, d29u32, 1);
52         src_ptr += src_pixels_per_line;
53         d30u32 = vld1_lane_u32((const uint32_t *)src_ptr, d30u32, 0);
54         d28u8 = vreinterpret_u8_u32(d28u32);
55         d29u8 = vreinterpret_u8_u32(d29u32);
56         d30u8 = vreinterpret_u8_u32(d30u32);
57     } else {
58         d2u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
59         d3u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
60         d4u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
61         d5u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
62         d6u8 = vld1_u8(src_ptr);
63
64         q1u8 = vcombine_u8(d2u8, d3u8);
65         q2u8 = vcombine_u8(d4u8, d5u8);
66
67         d0u8 = vdup_n_u8((uint8_t)bifilter4_coeff[xoffset][0]);
68         d1u8 = vdup_n_u8((uint8_t)bifilter4_coeff[xoffset][1]);
69
70         q4u64  = vshrq_n_u64(vreinterpretq_u64_u8(q1u8), 8);
71         q5u64  = vshrq_n_u64(vreinterpretq_u64_u8(q2u8), 8);
72         d12u64 = vshr_n_u64(vreinterpret_u64_u8(d6u8), 8);
73
74         d0u32x2 = vzip_u32(vreinterpret_u32_u8(vget_low_u8(q1u8)),
75                            vreinterpret_u32_u8(vget_high_u8(q1u8)));
76         d1u32x2 = vzip_u32(vreinterpret_u32_u8(vget_low_u8(q2u8)),
77                            vreinterpret_u32_u8(vget_high_u8(q2u8)));
78         d2u32x2 = vzip_u32(vreinterpret_u32_u64(vget_low_u64(q4u64)),
79                            vreinterpret_u32_u64(vget_high_u64(q4u64)));
80         d3u32x2 = vzip_u32(vreinterpret_u32_u64(vget_low_u64(q5u64)),
81                            vreinterpret_u32_u64(vget_high_u64(q5u64)));
82
83         q7u16 = vmull_u8(vreinterpret_u8_u32(d0u32x2.val[0]), d0u8);
84         q8u16 = vmull_u8(vreinterpret_u8_u32(d1u32x2.val[0]), d0u8);
85         q9u16 = vmull_u8(d6u8, d0u8);
86
87         q7u16 = vmlal_u8(q7u16, vreinterpret_u8_u32(d2u32x2.val[0]), d1u8);
88         q8u16 = vmlal_u8(q8u16, vreinterpret_u8_u32(d3u32x2.val[0]), d1u8);
89         q9u16 = vmlal_u8(q9u16, vreinterpret_u8_u64(d12u64), d1u8);
90
91         d28u8 = vqrshrn_n_u16(q7u16, 7);
92         d29u8 = vqrshrn_n_u16(q8u16, 7);
93         d30u8 = vqrshrn_n_u16(q9u16, 7);
94     }
95
96     // secondpass_filter
97     if (yoffset == 0) {  // skip_2ndpass_filter
98         vst1_lane_u32((uint32_t *)dst_ptr, vreinterpret_u32_u8(d28u8), 0);
99         dst_ptr += dst_pitch;
100         vst1_lane_u32((uint32_t *)dst_ptr, vreinterpret_u32_u8(d28u8), 1);
101         dst_ptr += dst_pitch;
102         vst1_lane_u32((uint32_t *)dst_ptr, vreinterpret_u32_u8(d29u8), 0);
103         dst_ptr += dst_pitch;
104         vst1_lane_u32((uint32_t *)dst_ptr, vreinterpret_u32_u8(d29u8), 1);
105     } else {
106         d0u8 = vdup_n_u8(bifilter4_coeff[yoffset][0]);
107         d1u8 = vdup_n_u8(bifilter4_coeff[yoffset][1]);
108
109         q1u16 = vmull_u8(d28u8, d0u8);
110         q2u16 = vmull_u8(d29u8, d0u8);
111
112         d26u8 = vext_u8(d28u8, d29u8, 4);
113         d27u8 = vext_u8(d29u8, d30u8, 4);
114
115         q1u16 = vmlal_u8(q1u16, d26u8, d1u8);
116         q2u16 = vmlal_u8(q2u16, d27u8, d1u8);
117
118         d2u8 = vqrshrn_n_u16(q1u16, 7);
119         d3u8 = vqrshrn_n_u16(q2u16, 7);
120
121         vst1_lane_u32((uint32_t *)dst_ptr, vreinterpret_u32_u8(d2u8), 0);
122         dst_ptr += dst_pitch;
123         vst1_lane_u32((uint32_t *)dst_ptr, vreinterpret_u32_u8(d2u8), 1);
124         dst_ptr += dst_pitch;
125         vst1_lane_u32((uint32_t *)dst_ptr, vreinterpret_u32_u8(d3u8), 0);
126         dst_ptr += dst_pitch;
127         vst1_lane_u32((uint32_t *)dst_ptr, vreinterpret_u32_u8(d3u8), 1);
128     }
129     return;
130 }
131
132 void vp8_bilinear_predict8x4_neon(
133         unsigned char *src_ptr,
134         int src_pixels_per_line,
135         int xoffset,
136         int yoffset,
137         unsigned char *dst_ptr,
138         int dst_pitch) {
139     uint8x8_t d0u8, d1u8, d2u8, d3u8, d4u8, d5u8;
140     uint8x8_t d7u8, d9u8, d11u8, d22u8, d23u8, d24u8, d25u8, d26u8;
141     uint8x16_t q1u8, q2u8, q3u8, q4u8, q5u8;
142     uint16x8_t q1u16, q2u16, q3u16, q4u16;
143     uint16x8_t q6u16, q7u16, q8u16, q9u16, q10u16;
144
145     if (xoffset == 0) {  // skip_1stpass_filter
146         d22u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
147         d23u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
148         d24u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
149         d25u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
150         d26u8 = vld1_u8(src_ptr);
151     } else {
152         q1u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
153         q2u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
154         q3u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
155         q4u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
156         q5u8 = vld1q_u8(src_ptr);
157
158         d0u8 = vdup_n_u8((uint8_t)bifilter4_coeff[xoffset][0]);
159         d1u8 = vdup_n_u8((uint8_t)bifilter4_coeff[xoffset][1]);
160
161         q6u16 = vmull_u8(vget_low_u8(q1u8), d0u8);
162         q7u16 = vmull_u8(vget_low_u8(q2u8), d0u8);
163         q8u16 = vmull_u8(vget_low_u8(q3u8), d0u8);
164         q9u16 = vmull_u8(vget_low_u8(q4u8), d0u8);
165         q10u16 = vmull_u8(vget_low_u8(q5u8), d0u8);
166
167         d3u8 = vext_u8(vget_low_u8(q1u8), vget_high_u8(q1u8), 1);
168         d5u8 = vext_u8(vget_low_u8(q2u8), vget_high_u8(q2u8), 1);
169         d7u8 = vext_u8(vget_low_u8(q3u8), vget_high_u8(q3u8), 1);
170         d9u8 = vext_u8(vget_low_u8(q4u8), vget_high_u8(q4u8), 1);
171         d11u8 = vext_u8(vget_low_u8(q5u8), vget_high_u8(q5u8), 1);
172
173         q6u16 = vmlal_u8(q6u16, d3u8, d1u8);
174         q7u16 = vmlal_u8(q7u16, d5u8, d1u8);
175         q8u16 = vmlal_u8(q8u16, d7u8, d1u8);
176         q9u16 = vmlal_u8(q9u16, d9u8, d1u8);
177         q10u16 = vmlal_u8(q10u16, d11u8, d1u8);
178
179         d22u8 = vqrshrn_n_u16(q6u16, 7);
180         d23u8 = vqrshrn_n_u16(q7u16, 7);
181         d24u8 = vqrshrn_n_u16(q8u16, 7);
182         d25u8 = vqrshrn_n_u16(q9u16, 7);
183         d26u8 = vqrshrn_n_u16(q10u16, 7);
184     }
185
186     // secondpass_filter
187     if (yoffset == 0) {  // skip_2ndpass_filter
188         vst1_u8((uint8_t *)dst_ptr, d22u8); dst_ptr += dst_pitch;
189         vst1_u8((uint8_t *)dst_ptr, d23u8); dst_ptr += dst_pitch;
190         vst1_u8((uint8_t *)dst_ptr, d24u8); dst_ptr += dst_pitch;
191         vst1_u8((uint8_t *)dst_ptr, d25u8);
192     } else {
193         d0u8 = vdup_n_u8(bifilter4_coeff[yoffset][0]);
194         d1u8 = vdup_n_u8(bifilter4_coeff[yoffset][1]);
195
196         q1u16 = vmull_u8(d22u8, d0u8);
197         q2u16 = vmull_u8(d23u8, d0u8);
198         q3u16 = vmull_u8(d24u8, d0u8);
199         q4u16 = vmull_u8(d25u8, d0u8);
200
201         q1u16 = vmlal_u8(q1u16, d23u8, d1u8);
202         q2u16 = vmlal_u8(q2u16, d24u8, d1u8);
203         q3u16 = vmlal_u8(q3u16, d25u8, d1u8);
204         q4u16 = vmlal_u8(q4u16, d26u8, d1u8);
205
206         d2u8 = vqrshrn_n_u16(q1u16, 7);
207         d3u8 = vqrshrn_n_u16(q2u16, 7);
208         d4u8 = vqrshrn_n_u16(q3u16, 7);
209         d5u8 = vqrshrn_n_u16(q4u16, 7);
210
211         vst1_u8((uint8_t *)dst_ptr, d2u8); dst_ptr += dst_pitch;
212         vst1_u8((uint8_t *)dst_ptr, d3u8); dst_ptr += dst_pitch;
213         vst1_u8((uint8_t *)dst_ptr, d4u8); dst_ptr += dst_pitch;
214         vst1_u8((uint8_t *)dst_ptr, d5u8);
215     }
216     return;
217 }
218
219 void vp8_bilinear_predict8x8_neon(
220         unsigned char *src_ptr,
221         int src_pixels_per_line,
222         int xoffset,
223         int yoffset,
224         unsigned char *dst_ptr,
225         int dst_pitch) {
226     uint8x8_t d0u8, d1u8, d2u8, d3u8, d4u8, d5u8, d6u8, d7u8, d8u8, d9u8, d11u8;
227     uint8x8_t d22u8, d23u8, d24u8, d25u8, d26u8, d27u8, d28u8, d29u8, d30u8;
228     uint8x16_t q1u8, q2u8, q3u8, q4u8, q5u8;
229     uint16x8_t q1u16, q2u16, q3u16, q4u16, q5u16;
230     uint16x8_t q6u16, q7u16, q8u16, q9u16, q10u16;
231
232     if (xoffset == 0) {  // skip_1stpass_filter
233         d22u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
234         d23u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
235         d24u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
236         d25u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
237         d26u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
238         d27u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
239         d28u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
240         d29u8 = vld1_u8(src_ptr); src_ptr += src_pixels_per_line;
241         d30u8 = vld1_u8(src_ptr);
242     } else {
243         q1u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
244         q2u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
245         q3u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
246         q4u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
247
248         d0u8 = vdup_n_u8((uint8_t)bifilter4_coeff[xoffset][0]);
249         d1u8 = vdup_n_u8((uint8_t)bifilter4_coeff[xoffset][1]);
250
251         q6u16 = vmull_u8(vget_low_u8(q1u8), d0u8);
252         q7u16 = vmull_u8(vget_low_u8(q2u8), d0u8);
253         q8u16 = vmull_u8(vget_low_u8(q3u8), d0u8);
254         q9u16 = vmull_u8(vget_low_u8(q4u8), d0u8);
255
256         d3u8 = vext_u8(vget_low_u8(q1u8), vget_high_u8(q1u8), 1);
257         d5u8 = vext_u8(vget_low_u8(q2u8), vget_high_u8(q2u8), 1);
258         d7u8 = vext_u8(vget_low_u8(q3u8), vget_high_u8(q3u8), 1);
259         d9u8 = vext_u8(vget_low_u8(q4u8), vget_high_u8(q4u8), 1);
260
261         q6u16 = vmlal_u8(q6u16, d3u8, d1u8);
262         q7u16 = vmlal_u8(q7u16, d5u8, d1u8);
263         q8u16 = vmlal_u8(q8u16, d7u8, d1u8);
264         q9u16 = vmlal_u8(q9u16, d9u8, d1u8);
265
266         d22u8 = vqrshrn_n_u16(q6u16, 7);
267         d23u8 = vqrshrn_n_u16(q7u16, 7);
268         d24u8 = vqrshrn_n_u16(q8u16, 7);
269         d25u8 = vqrshrn_n_u16(q9u16, 7);
270
271         // first_pass filtering on the rest 5-line data
272         q1u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
273         q2u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
274         q3u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
275         q4u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
276         q5u8 = vld1q_u8(src_ptr);
277
278         q6u16 = vmull_u8(vget_low_u8(q1u8), d0u8);
279         q7u16 = vmull_u8(vget_low_u8(q2u8), d0u8);
280         q8u16 = vmull_u8(vget_low_u8(q3u8), d0u8);
281         q9u16 = vmull_u8(vget_low_u8(q4u8), d0u8);
282         q10u16 = vmull_u8(vget_low_u8(q5u8), d0u8);
283
284         d3u8 = vext_u8(vget_low_u8(q1u8), vget_high_u8(q1u8), 1);
285         d5u8 = vext_u8(vget_low_u8(q2u8), vget_high_u8(q2u8), 1);
286         d7u8 = vext_u8(vget_low_u8(q3u8), vget_high_u8(q3u8), 1);
287         d9u8 = vext_u8(vget_low_u8(q4u8), vget_high_u8(q4u8), 1);
288         d11u8 = vext_u8(vget_low_u8(q5u8), vget_high_u8(q5u8), 1);
289
290         q6u16 = vmlal_u8(q6u16, d3u8, d1u8);
291         q7u16 = vmlal_u8(q7u16, d5u8, d1u8);
292         q8u16 = vmlal_u8(q8u16, d7u8, d1u8);
293         q9u16 = vmlal_u8(q9u16, d9u8, d1u8);
294         q10u16 = vmlal_u8(q10u16, d11u8, d1u8);
295
296         d26u8 = vqrshrn_n_u16(q6u16, 7);
297         d27u8 = vqrshrn_n_u16(q7u16, 7);
298         d28u8 = vqrshrn_n_u16(q8u16, 7);
299         d29u8 = vqrshrn_n_u16(q9u16, 7);
300         d30u8 = vqrshrn_n_u16(q10u16, 7);
301     }
302
303     // secondpass_filter
304     if (yoffset == 0) {  // skip_2ndpass_filter
305         vst1_u8((uint8_t *)dst_ptr, d22u8); dst_ptr += dst_pitch;
306         vst1_u8((uint8_t *)dst_ptr, d23u8); dst_ptr += dst_pitch;
307         vst1_u8((uint8_t *)dst_ptr, d24u8); dst_ptr += dst_pitch;
308         vst1_u8((uint8_t *)dst_ptr, d25u8); dst_ptr += dst_pitch;
309         vst1_u8((uint8_t *)dst_ptr, d26u8); dst_ptr += dst_pitch;
310         vst1_u8((uint8_t *)dst_ptr, d27u8); dst_ptr += dst_pitch;
311         vst1_u8((uint8_t *)dst_ptr, d28u8); dst_ptr += dst_pitch;
312         vst1_u8((uint8_t *)dst_ptr, d29u8);
313     } else {
314         d0u8 = vdup_n_u8(bifilter4_coeff[yoffset][0]);
315         d1u8 = vdup_n_u8(bifilter4_coeff[yoffset][1]);
316
317         q1u16 = vmull_u8(d22u8, d0u8);
318         q2u16 = vmull_u8(d23u8, d0u8);
319         q3u16 = vmull_u8(d24u8, d0u8);
320         q4u16 = vmull_u8(d25u8, d0u8);
321         q5u16 = vmull_u8(d26u8, d0u8);
322         q6u16 = vmull_u8(d27u8, d0u8);
323         q7u16 = vmull_u8(d28u8, d0u8);
324         q8u16 = vmull_u8(d29u8, d0u8);
325
326         q1u16 = vmlal_u8(q1u16, d23u8, d1u8);
327         q2u16 = vmlal_u8(q2u16, d24u8, d1u8);
328         q3u16 = vmlal_u8(q3u16, d25u8, d1u8);
329         q4u16 = vmlal_u8(q4u16, d26u8, d1u8);
330         q5u16 = vmlal_u8(q5u16, d27u8, d1u8);
331         q6u16 = vmlal_u8(q6u16, d28u8, d1u8);
332         q7u16 = vmlal_u8(q7u16, d29u8, d1u8);
333         q8u16 = vmlal_u8(q8u16, d30u8, d1u8);
334
335         d2u8 = vqrshrn_n_u16(q1u16, 7);
336         d3u8 = vqrshrn_n_u16(q2u16, 7);
337         d4u8 = vqrshrn_n_u16(q3u16, 7);
338         d5u8 = vqrshrn_n_u16(q4u16, 7);
339         d6u8 = vqrshrn_n_u16(q5u16, 7);
340         d7u8 = vqrshrn_n_u16(q6u16, 7);
341         d8u8 = vqrshrn_n_u16(q7u16, 7);
342         d9u8 = vqrshrn_n_u16(q8u16, 7);
343
344         vst1_u8((uint8_t *)dst_ptr, d2u8); dst_ptr += dst_pitch;
345         vst1_u8((uint8_t *)dst_ptr, d3u8); dst_ptr += dst_pitch;
346         vst1_u8((uint8_t *)dst_ptr, d4u8); dst_ptr += dst_pitch;
347         vst1_u8((uint8_t *)dst_ptr, d5u8); dst_ptr += dst_pitch;
348         vst1_u8((uint8_t *)dst_ptr, d6u8); dst_ptr += dst_pitch;
349         vst1_u8((uint8_t *)dst_ptr, d7u8); dst_ptr += dst_pitch;
350         vst1_u8((uint8_t *)dst_ptr, d8u8); dst_ptr += dst_pitch;
351         vst1_u8((uint8_t *)dst_ptr, d9u8);
352     }
353     return;
354 }
355
356 void vp8_bilinear_predict16x16_neon(
357         unsigned char *src_ptr,
358         int src_pixels_per_line,
359         int xoffset,
360         int yoffset,
361         unsigned char *dst_ptr,
362         int dst_pitch) {
363     int i;
364     unsigned char tmp[272];
365     unsigned char *tmpp;
366     uint8x8_t d0u8, d1u8, d2u8, d3u8, d4u8, d5u8, d6u8, d7u8, d8u8, d9u8;
367     uint8x8_t d10u8, d11u8, d12u8, d13u8, d14u8, d15u8, d16u8, d17u8, d18u8;
368     uint8x8_t d19u8, d20u8, d21u8;
369     uint8x16_t q1u8, q2u8, q3u8, q4u8, q5u8, q6u8, q7u8, q8u8, q9u8, q10u8;
370     uint8x16_t q11u8, q12u8, q13u8, q14u8, q15u8;
371     uint16x8_t q1u16, q2u16, q3u16, q4u16, q5u16, q6u16, q7u16, q8u16;
372     uint16x8_t q9u16, q10u16, q11u16, q12u16, q13u16, q14u16;
373
374     if (xoffset == 0) {  // secondpass_bfilter16x16_only
375         d0u8 = vdup_n_u8(bifilter4_coeff[yoffset][0]);
376         d1u8 = vdup_n_u8(bifilter4_coeff[yoffset][1]);
377
378         q11u8 = vld1q_u8(src_ptr);
379         src_ptr += src_pixels_per_line;
380         for (i = 4; i > 0; i--) {
381             q12u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
382             q13u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
383             q14u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
384             q15u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line;
385
386             q1u16 = vmull_u8(vget_low_u8(q11u8), d0u8);
387             q2u16 = vmull_u8(vget_high_u8(q11u8), d0u8);
388             q3u16 = vmull_u8(vget_low_u8(q12u8), d0u8);
389             q4u16 = vmull_u8(vget_high_u8(q12u8), d0u8);
390             q5u16 = vmull_u8(vget_low_u8(q13u8), d0u8);
391             q6u16 = vmull_u8(vget_high_u8(q13u8), d0u8);
392             q7u16 = vmull_u8(vget_low_u8(q14u8), d0u8);
393             q8u16 = vmull_u8(vget_high_u8(q14u8), d0u8);
394
395             q1u16 = vmlal_u8(q1u16, vget_low_u8(q12u8), d1u8);
396             q2u16 = vmlal_u8(q2u16, vget_high_u8(q12u8), d1u8);
397             q3u16 = vmlal_u8(q3u16, vget_low_u8(q13u8), d1u8);
398             q4u16 = vmlal_u8(q4u16, vget_high_u8(q13u8), d1u8);
399             q5u16 = vmlal_u8(q5u16, vget_low_u8(q14u8), d1u8);
400             q6u16 = vmlal_u8(q6u16, vget_high_u8(q14u8), d1u8);
401             q7u16 = vmlal_u8(q7u16, vget_low_u8(q15u8), d1u8);
402             q8u16 = vmlal_u8(q8u16, vget_high_u8(q15u8), d1u8);
403
404             d2u8 = vqrshrn_n_u16(q1u16, 7);
405             d3u8 = vqrshrn_n_u16(q2u16, 7);
406             d4u8 = vqrshrn_n_u16(q3u16, 7);
407             d5u8 = vqrshrn_n_u16(q4u16, 7);
408             d6u8 = vqrshrn_n_u16(q5u16, 7);
409             d7u8 = vqrshrn_n_u16(q6u16, 7);
410             d8u8 = vqrshrn_n_u16(q7u16, 7);
411             d9u8 = vqrshrn_n_u16(q8u16, 7);
412
413             q1u8 = vcombine_u8(d2u8, d3u8);
414             q2u8 = vcombine_u8(d4u8, d5u8);
415             q3u8 = vcombine_u8(d6u8, d7u8);
416             q4u8 = vcombine_u8(d8u8, d9u8);
417
418             q11u8 = q15u8;
419
420             vst1q_u8((uint8_t *)dst_ptr, q1u8); dst_ptr += dst_pitch;
421             vst1q_u8((uint8_t *)dst_ptr, q2u8); dst_ptr += dst_pitch;
422             vst1q_u8((uint8_t *)dst_ptr, q3u8); dst_ptr += dst_pitch;
423             vst1q_u8((uint8_t *)dst_ptr, q4u8); dst_ptr += dst_pitch;
424         }
425         return;
426     }
427
428     if (yoffset == 0) {  // firstpass_bfilter16x16_only
429         d0u8 = vdup_n_u8(bifilter4_coeff[xoffset][0]);
430         d1u8 = vdup_n_u8(bifilter4_coeff[xoffset][1]);
431
432         for (i = 4; i > 0 ; i--) {
433             d2u8 = vld1_u8(src_ptr);
434             d3u8 = vld1_u8(src_ptr + 8);
435             d4u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
436             d5u8 = vld1_u8(src_ptr);
437             d6u8 = vld1_u8(src_ptr + 8);
438             d7u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
439             d8u8 = vld1_u8(src_ptr);
440             d9u8 = vld1_u8(src_ptr + 8);
441             d10u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
442             d11u8 = vld1_u8(src_ptr);
443             d12u8 = vld1_u8(src_ptr + 8);
444             d13u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
445
446             q7u16  = vmull_u8(d2u8, d0u8);
447             q8u16  = vmull_u8(d3u8, d0u8);
448             q9u16  = vmull_u8(d5u8, d0u8);
449             q10u16 = vmull_u8(d6u8, d0u8);
450             q11u16 = vmull_u8(d8u8, d0u8);
451             q12u16 = vmull_u8(d9u8, d0u8);
452             q13u16 = vmull_u8(d11u8, d0u8);
453             q14u16 = vmull_u8(d12u8, d0u8);
454
455             d2u8  = vext_u8(d2u8, d3u8, 1);
456             d5u8  = vext_u8(d5u8, d6u8, 1);
457             d8u8  = vext_u8(d8u8, d9u8, 1);
458             d11u8 = vext_u8(d11u8, d12u8, 1);
459
460             q7u16  = vmlal_u8(q7u16, d2u8, d1u8);
461             q9u16  = vmlal_u8(q9u16, d5u8, d1u8);
462             q11u16 = vmlal_u8(q11u16, d8u8, d1u8);
463             q13u16 = vmlal_u8(q13u16, d11u8, d1u8);
464
465             d3u8  = vext_u8(d3u8, d4u8, 1);
466             d6u8  = vext_u8(d6u8, d7u8, 1);
467             d9u8  = vext_u8(d9u8, d10u8, 1);
468             d12u8 = vext_u8(d12u8, d13u8, 1);
469
470             q8u16  = vmlal_u8(q8u16,  d3u8, d1u8);
471             q10u16 = vmlal_u8(q10u16, d6u8, d1u8);
472             q12u16 = vmlal_u8(q12u16, d9u8, d1u8);
473             q14u16 = vmlal_u8(q14u16, d12u8, d1u8);
474
475             d14u8 = vqrshrn_n_u16(q7u16, 7);
476             d15u8 = vqrshrn_n_u16(q8u16, 7);
477             d16u8 = vqrshrn_n_u16(q9u16, 7);
478             d17u8 = vqrshrn_n_u16(q10u16, 7);
479             d18u8 = vqrshrn_n_u16(q11u16, 7);
480             d19u8 = vqrshrn_n_u16(q12u16, 7);
481             d20u8 = vqrshrn_n_u16(q13u16, 7);
482             d21u8 = vqrshrn_n_u16(q14u16, 7);
483
484             q7u8 = vcombine_u8(d14u8, d15u8);
485             q8u8 = vcombine_u8(d16u8, d17u8);
486             q9u8 = vcombine_u8(d18u8, d19u8);
487             q10u8 =vcombine_u8(d20u8, d21u8);
488
489             vst1q_u8((uint8_t *)dst_ptr, q7u8); dst_ptr += dst_pitch;
490             vst1q_u8((uint8_t *)dst_ptr, q8u8); dst_ptr += dst_pitch;
491             vst1q_u8((uint8_t *)dst_ptr, q9u8); dst_ptr += dst_pitch;
492             vst1q_u8((uint8_t *)dst_ptr, q10u8); dst_ptr += dst_pitch;
493         }
494         return;
495     }
496
497     d0u8 = vdup_n_u8(bifilter4_coeff[xoffset][0]);
498     d1u8 = vdup_n_u8(bifilter4_coeff[xoffset][1]);
499
500     d2u8 = vld1_u8(src_ptr);
501     d3u8 = vld1_u8(src_ptr + 8);
502     d4u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
503     d5u8 = vld1_u8(src_ptr);
504     d6u8 = vld1_u8(src_ptr + 8);
505     d7u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
506     d8u8 = vld1_u8(src_ptr);
507     d9u8 = vld1_u8(src_ptr + 8);
508     d10u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
509     d11u8 = vld1_u8(src_ptr);
510     d12u8 = vld1_u8(src_ptr + 8);
511     d13u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
512
513     // First Pass: output_height lines x output_width columns (17x16)
514     tmpp = tmp;
515     for (i = 3; i > 0; i--) {
516         q7u16  = vmull_u8(d2u8, d0u8);
517         q8u16  = vmull_u8(d3u8, d0u8);
518         q9u16  = vmull_u8(d5u8, d0u8);
519         q10u16 = vmull_u8(d6u8, d0u8);
520         q11u16 = vmull_u8(d8u8, d0u8);
521         q12u16 = vmull_u8(d9u8, d0u8);
522         q13u16 = vmull_u8(d11u8, d0u8);
523         q14u16 = vmull_u8(d12u8, d0u8);
524
525         d2u8  = vext_u8(d2u8, d3u8, 1);
526         d5u8  = vext_u8(d5u8, d6u8, 1);
527         d8u8  = vext_u8(d8u8, d9u8, 1);
528         d11u8 = vext_u8(d11u8, d12u8, 1);
529
530         q7u16  = vmlal_u8(q7u16, d2u8, d1u8);
531         q9u16  = vmlal_u8(q9u16, d5u8, d1u8);
532         q11u16 = vmlal_u8(q11u16, d8u8, d1u8);
533         q13u16 = vmlal_u8(q13u16, d11u8, d1u8);
534
535         d3u8  = vext_u8(d3u8, d4u8, 1);
536         d6u8  = vext_u8(d6u8, d7u8, 1);
537         d9u8  = vext_u8(d9u8, d10u8, 1);
538         d12u8 = vext_u8(d12u8, d13u8, 1);
539
540         q8u16  = vmlal_u8(q8u16,  d3u8, d1u8);
541         q10u16 = vmlal_u8(q10u16, d6u8, d1u8);
542         q12u16 = vmlal_u8(q12u16, d9u8, d1u8);
543         q14u16 = vmlal_u8(q14u16, d12u8, d1u8);
544
545         d14u8 = vqrshrn_n_u16(q7u16, 7);
546         d15u8 = vqrshrn_n_u16(q8u16, 7);
547         d16u8 = vqrshrn_n_u16(q9u16, 7);
548         d17u8 = vqrshrn_n_u16(q10u16, 7);
549         d18u8 = vqrshrn_n_u16(q11u16, 7);
550         d19u8 = vqrshrn_n_u16(q12u16, 7);
551         d20u8 = vqrshrn_n_u16(q13u16, 7);
552         d21u8 = vqrshrn_n_u16(q14u16, 7);
553
554         d2u8 = vld1_u8(src_ptr);
555         d3u8 = vld1_u8(src_ptr + 8);
556         d4u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
557         d5u8 = vld1_u8(src_ptr);
558         d6u8 = vld1_u8(src_ptr + 8);
559         d7u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
560         d8u8 = vld1_u8(src_ptr);
561         d9u8 = vld1_u8(src_ptr + 8);
562         d10u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
563         d11u8 = vld1_u8(src_ptr);
564         d12u8 = vld1_u8(src_ptr + 8);
565         d13u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
566
567         q7u8 = vcombine_u8(d14u8, d15u8);
568         q8u8 = vcombine_u8(d16u8, d17u8);
569         q9u8 = vcombine_u8(d18u8, d19u8);
570         q10u8 = vcombine_u8(d20u8, d21u8);
571
572         vst1q_u8((uint8_t *)tmpp, q7u8); tmpp += 16;
573         vst1q_u8((uint8_t *)tmpp, q8u8); tmpp += 16;
574         vst1q_u8((uint8_t *)tmpp, q9u8); tmpp += 16;
575         vst1q_u8((uint8_t *)tmpp, q10u8); tmpp += 16;
576     }
577
578     // First-pass filtering for rest 5 lines
579     d14u8 = vld1_u8(src_ptr);
580     d15u8 = vld1_u8(src_ptr + 8);
581     d16u8 = vld1_u8(src_ptr + 16); src_ptr += src_pixels_per_line;
582
583     q9u16  = vmull_u8(d2u8, d0u8);
584     q10u16 = vmull_u8(d3u8, d0u8);
585     q11u16 = vmull_u8(d5u8, d0u8);
586     q12u16 = vmull_u8(d6u8, d0u8);
587     q13u16 = vmull_u8(d8u8, d0u8);
588     q14u16 = vmull_u8(d9u8, d0u8);
589
590     d2u8  = vext_u8(d2u8, d3u8, 1);
591     d5u8  = vext_u8(d5u8, d6u8, 1);
592     d8u8  = vext_u8(d8u8, d9u8, 1);
593
594     q9u16  = vmlal_u8(q9u16, d2u8, d1u8);
595     q11u16 = vmlal_u8(q11u16, d5u8, d1u8);
596     q13u16 = vmlal_u8(q13u16, d8u8, d1u8);
597
598     d3u8  = vext_u8(d3u8, d4u8, 1);
599     d6u8  = vext_u8(d6u8, d7u8, 1);
600     d9u8  = vext_u8(d9u8, d10u8, 1);
601
602     q10u16 = vmlal_u8(q10u16, d3u8, d1u8);
603     q12u16 = vmlal_u8(q12u16, d6u8, d1u8);
604     q14u16 = vmlal_u8(q14u16, d9u8, d1u8);
605
606     q1u16 = vmull_u8(d11u8, d0u8);
607     q2u16 = vmull_u8(d12u8, d0u8);
608     q3u16 = vmull_u8(d14u8, d0u8);
609     q4u16 = vmull_u8(d15u8, d0u8);
610
611     d11u8 = vext_u8(d11u8, d12u8, 1);
612     d14u8 = vext_u8(d14u8, d15u8, 1);
613
614     q1u16 = vmlal_u8(q1u16, d11u8, d1u8);
615     q3u16 = vmlal_u8(q3u16, d14u8, d1u8);
616
617     d12u8 = vext_u8(d12u8, d13u8, 1);
618     d15u8 = vext_u8(d15u8, d16u8, 1);
619
620     q2u16 = vmlal_u8(q2u16, d12u8, d1u8);
621     q4u16 = vmlal_u8(q4u16, d15u8, d1u8);
622
623     d10u8 = vqrshrn_n_u16(q9u16, 7);
624     d11u8 = vqrshrn_n_u16(q10u16, 7);
625     d12u8 = vqrshrn_n_u16(q11u16, 7);
626     d13u8 = vqrshrn_n_u16(q12u16, 7);
627     d14u8 = vqrshrn_n_u16(q13u16, 7);
628     d15u8 = vqrshrn_n_u16(q14u16, 7);
629     d16u8 = vqrshrn_n_u16(q1u16, 7);
630     d17u8 = vqrshrn_n_u16(q2u16, 7);
631     d18u8 = vqrshrn_n_u16(q3u16, 7);
632     d19u8 = vqrshrn_n_u16(q4u16, 7);
633
634     q5u8 = vcombine_u8(d10u8, d11u8);
635     q6u8 = vcombine_u8(d12u8, d13u8);
636     q7u8 = vcombine_u8(d14u8, d15u8);
637     q8u8 = vcombine_u8(d16u8, d17u8);
638     q9u8 = vcombine_u8(d18u8, d19u8);
639
640     vst1q_u8((uint8_t *)tmpp, q5u8); tmpp += 16;
641     vst1q_u8((uint8_t *)tmpp, q6u8); tmpp += 16;
642     vst1q_u8((uint8_t *)tmpp, q7u8); tmpp += 16;
643     vst1q_u8((uint8_t *)tmpp, q8u8); tmpp += 16;
644     vst1q_u8((uint8_t *)tmpp, q9u8);
645
646     // secondpass_filter
647     d0u8 = vdup_n_u8(bifilter4_coeff[yoffset][0]);
648     d1u8 = vdup_n_u8(bifilter4_coeff[yoffset][1]);
649
650     tmpp = tmp;
651     q11u8 = vld1q_u8(tmpp);
652     tmpp += 16;
653     for (i = 4; i > 0; i--) {
654         q12u8 = vld1q_u8(tmpp); tmpp += 16;
655         q13u8 = vld1q_u8(tmpp); tmpp += 16;
656         q14u8 = vld1q_u8(tmpp); tmpp += 16;
657         q15u8 = vld1q_u8(tmpp); tmpp += 16;
658
659         q1u16 = vmull_u8(vget_low_u8(q11u8), d0u8);
660         q2u16 = vmull_u8(vget_high_u8(q11u8), d0u8);
661         q3u16 = vmull_u8(vget_low_u8(q12u8), d0u8);
662         q4u16 = vmull_u8(vget_high_u8(q12u8), d0u8);
663         q5u16 = vmull_u8(vget_low_u8(q13u8), d0u8);
664         q6u16 = vmull_u8(vget_high_u8(q13u8), d0u8);
665         q7u16 = vmull_u8(vget_low_u8(q14u8), d0u8);
666         q8u16 = vmull_u8(vget_high_u8(q14u8), d0u8);
667
668         q1u16 = vmlal_u8(q1u16, vget_low_u8(q12u8), d1u8);
669         q2u16 = vmlal_u8(q2u16, vget_high_u8(q12u8), d1u8);
670         q3u16 = vmlal_u8(q3u16, vget_low_u8(q13u8), d1u8);
671         q4u16 = vmlal_u8(q4u16, vget_high_u8(q13u8), d1u8);
672         q5u16 = vmlal_u8(q5u16, vget_low_u8(q14u8), d1u8);
673         q6u16 = vmlal_u8(q6u16, vget_high_u8(q14u8), d1u8);
674         q7u16 = vmlal_u8(q7u16, vget_low_u8(q15u8), d1u8);
675         q8u16 = vmlal_u8(q8u16, vget_high_u8(q15u8), d1u8);
676
677         d2u8 = vqrshrn_n_u16(q1u16, 7);
678         d3u8 = vqrshrn_n_u16(q2u16, 7);
679         d4u8 = vqrshrn_n_u16(q3u16, 7);
680         d5u8 = vqrshrn_n_u16(q4u16, 7);
681         d6u8 = vqrshrn_n_u16(q5u16, 7);
682         d7u8 = vqrshrn_n_u16(q6u16, 7);
683         d8u8 = vqrshrn_n_u16(q7u16, 7);
684         d9u8 = vqrshrn_n_u16(q8u16, 7);
685
686         q1u8 = vcombine_u8(d2u8, d3u8);
687         q2u8 = vcombine_u8(d4u8, d5u8);
688         q3u8 = vcombine_u8(d6u8, d7u8);
689         q4u8 = vcombine_u8(d8u8, d9u8);
690
691         q11u8 = q15u8;
692
693         vst1q_u8((uint8_t *)dst_ptr, q1u8); dst_ptr += dst_pitch;
694         vst1q_u8((uint8_t *)dst_ptr, q2u8); dst_ptr += dst_pitch;
695         vst1q_u8((uint8_t *)dst_ptr, q3u8); dst_ptr += dst_pitch;
696         vst1q_u8((uint8_t *)dst_ptr, q4u8); dst_ptr += dst_pitch;
697     }
698     return;
699 }