{
v_store((uint16_t*)dst, v_src_0);
}
- vx_cleanup();
#endif
for (; i < dst_width; i++)
{
{
v_store((uint16_t*)dst, v_srccn);
}
- vx_cleanup();
#endif
for (; i < dst_width; i++)
{
{
v_store((uint16_t*)dst, v_srccn);
}
- vx_cleanup();
#endif
if (i < dst_width)
{
{
v_store((uint32_t*)dst, v_src_0);
}
- vx_cleanup();
#endif
for (; i < dst_width; i++)
{
v_store(dst, v_pack(v_res0, v_res1));
}
- vx_cleanup();
#endif
for (; i < dst_width; i++)
*(dst++) = *(src++);
v_store(dst, v_reinterpret_as_u8(v_sub_wrap(v_res, v_128_16)));
}
- vx_cleanup();
#endif
for (; i < dst_width; i++)
{
hResize((ET*)(src + (src_height - 1) * src_step), cn, xoffsets, xcoeffs, endline, min_x, max_x, dst_width);
for (; dy < range.end; dy++)
vlineSet<ET, FT>(endline, (ET*)(dst + dst_step * dy), dst_width*cn);
+#if CV_SIMD
+ vx_cleanup();
+#endif
}
private: