Merge "Copy macroblock data to a buffer before encoding it"
[profile/ivi/libvpx.git] / vp8 / decoder / decodemv.c
1 /*
2  *  Copyright (c) 2010 The WebM project authors. All Rights Reserved.
3  *
4  *  Use of this source code is governed by a BSD-style license
5  *  that can be found in the LICENSE file in the root of the source
6  *  tree. An additional intellectual property rights grant can be found
7  *  in the file PATENTS.  All contributing project authors may
8  *  be found in the AUTHORS file in the root of the source tree.
9  */
10
11
12 #include "treereader.h"
13 #include "vp8/common/entropymv.h"
14 #include "vp8/common/entropymode.h"
15 #include "onyxd_int.h"
16 #include "vp8/common/findnearmv.h"
17
18 #if CONFIG_DEBUG
19 #include <assert.h>
20 #endif
21 static int vp8_read_bmode(vp8_reader *bc, const vp8_prob *p)
22 {
23     const int i = vp8_treed_read(bc, vp8_bmode_tree, p);
24
25     return i;
26 }
27
28
29 static int vp8_read_ymode(vp8_reader *bc, const vp8_prob *p)
30 {
31     const int i = vp8_treed_read(bc, vp8_ymode_tree, p);
32
33     return i;
34 }
35
36 static int vp8_kfread_ymode(vp8_reader *bc, const vp8_prob *p)
37 {
38     const int i = vp8_treed_read(bc, vp8_kf_ymode_tree, p);
39
40     return i;
41 }
42
43
44
45 static int vp8_read_uv_mode(vp8_reader *bc, const vp8_prob *p)
46 {
47     const int i = vp8_treed_read(bc, vp8_uv_mode_tree, p);
48
49     return i;
50 }
51
52 static void vp8_read_mb_features(vp8_reader *r, MB_MODE_INFO *mi, MACROBLOCKD *x)
53 {
54     /* Is segmentation enabled */
55     if (x->segmentation_enabled && x->update_mb_segmentation_map)
56     {
57         /* If so then read the segment id. */
58         if (vp8_read(r, x->mb_segment_tree_probs[0]))
59             mi->segment_id = (unsigned char)(2 + vp8_read(r, x->mb_segment_tree_probs[2]));
60         else
61             mi->segment_id = (unsigned char)(vp8_read(r, x->mb_segment_tree_probs[1]));
62     }
63 }
64
65 static void vp8_kfread_modes(VP8D_COMP *pbi, MODE_INFO *m, int mb_row, int mb_col)
66 {
67     vp8_reader *const bc = & pbi->bc;
68     const int mis = pbi->common.mode_info_stride;
69
70         {
71             MB_PREDICTION_MODE y_mode;
72
73             /* Read the Macroblock segmentation map if it is being updated explicitly this frame (reset to 0 above by default)
74              * By default on a key frame reset all MBs to segment 0
75              */
76             m->mbmi.segment_id = 0;
77
78             if (pbi->mb.update_mb_segmentation_map)
79                 vp8_read_mb_features(bc, &m->mbmi, &pbi->mb);
80
81             /* Read the macroblock coeff skip flag if this feature is in use, else default to 0 */
82             if (pbi->common.mb_no_coeff_skip)
83                 m->mbmi.mb_skip_coeff = vp8_read(bc, pbi->prob_skip_false);
84             else
85                 m->mbmi.mb_skip_coeff = 0;
86
87             y_mode = (MB_PREDICTION_MODE) vp8_kfread_ymode(bc, pbi->common.kf_ymode_prob);
88
89             m->mbmi.ref_frame = INTRA_FRAME;
90
91             if ((m->mbmi.mode = y_mode) == B_PRED)
92             {
93                 int i = 0;
94
95                 do
96                 {
97                     const B_PREDICTION_MODE A = above_block_mode(m, i, mis);
98                     const B_PREDICTION_MODE L = left_block_mode(m, i);
99
100                     m->bmi[i].as_mode = (B_PREDICTION_MODE) vp8_read_bmode(bc, pbi->common.kf_bmode_prob [A] [L]);
101                 }
102                 while (++i < 16);
103             }
104
105             m->mbmi.uv_mode = (MB_PREDICTION_MODE)vp8_read_uv_mode(bc, pbi->common.kf_uv_mode_prob);
106         }
107 }
108
109 static int read_mvcomponent(vp8_reader *r, const MV_CONTEXT *mvc)
110 {
111     const vp8_prob *const p = (const vp8_prob *) mvc;
112     int x = 0;
113
114     if (vp8_read(r, p [mvpis_short]))  /* Large */
115     {
116         int i = 0;
117
118         do
119         {
120             x += vp8_read(r, p [MVPbits + i]) << i;
121         }
122         while (++i < 3);
123
124         i = mvlong_width - 1;  /* Skip bit 3, which is sometimes implicit */
125
126         do
127         {
128             x += vp8_read(r, p [MVPbits + i]) << i;
129         }
130         while (--i > 3);
131
132         if (!(x & 0xFFF0)  ||  vp8_read(r, p [MVPbits + 3]))
133             x += 8;
134     }
135     else   /* small */
136         x = vp8_treed_read(r, vp8_small_mvtree, p + MVPshort);
137
138     if (x  &&  vp8_read(r, p [MVPsign]))
139         x = -x;
140
141     return x;
142 }
143
144 static void read_mv(vp8_reader *r, MV *mv, const MV_CONTEXT *mvc)
145 {
146     mv->row = (short)(read_mvcomponent(r,   mvc) << 1);
147     mv->col = (short)(read_mvcomponent(r, ++mvc) << 1);
148 }
149
150
151 static void read_mvcontexts(vp8_reader *bc, MV_CONTEXT *mvc)
152 {
153     int i = 0;
154
155     do
156     {
157         const vp8_prob *up = vp8_mv_update_probs[i].prob;
158         vp8_prob *p = (vp8_prob *)(mvc + i);
159         vp8_prob *const pstop = p + MVPcount;
160
161         do
162         {
163             if (vp8_read(bc, *up++))
164             {
165                 const vp8_prob x = (vp8_prob)vp8_read_literal(bc, 7);
166
167                 *p = x ? x << 1 : 1;
168             }
169         }
170         while (++p < pstop);
171     }
172     while (++i < 2);
173 }
174
175
176 static MB_PREDICTION_MODE read_mv_ref(vp8_reader *bc, const vp8_prob *p)
177 {
178     const int i = vp8_treed_read(bc, vp8_mv_ref_tree, p);
179
180     return (MB_PREDICTION_MODE)i;
181 }
182
183 static MB_PREDICTION_MODE sub_mv_ref(vp8_reader *bc, const vp8_prob *p)
184 {
185     const int i = vp8_treed_read(bc, vp8_sub_mv_ref_tree, p);
186
187     return (MB_PREDICTION_MODE)i;
188 }
189
190 #ifdef VPX_MODE_COUNT
191 unsigned int vp8_mv_cont_count[5][4] =
192 {
193     { 0, 0, 0, 0 },
194     { 0, 0, 0, 0 },
195     { 0, 0, 0, 0 },
196     { 0, 0, 0, 0 },
197     { 0, 0, 0, 0 }
198 };
199 #endif
200
201 static const unsigned char mbsplit_fill_count[4] = {8, 8, 4, 1};
202 static const unsigned char mbsplit_fill_offset[4][16] = {
203     { 0,  1,  2,  3,  4,  5,  6,  7,  8,  9,  10, 11, 12, 13, 14, 15},
204     { 0,  1,  4,  5,  8,  9, 12, 13,  2,  3,   6,  7, 10, 11, 14, 15},
205     { 0,  1,  4,  5,  2,  3,  6,  7,  8,  9,  12, 13, 10, 11, 14, 15},
206     { 0,  1,  2,  3,  4,  5,  6,  7,  8,  9,  10, 11, 12, 13, 14, 15}
207 };
208
209
210
211
212 static void mb_mode_mv_init(VP8D_COMP *pbi)
213 {
214     vp8_reader *const bc = & pbi->bc;
215     MV_CONTEXT *const mvc = pbi->common.fc.mvc;
216
217 #if CONFIG_ERROR_CONCEALMENT
218     /* Default is that no macroblock is corrupt, therefore we initialize
219      * mvs_corrupt_from_mb to something very big, which we can be sure is
220      * outside the frame. */
221     pbi->mvs_corrupt_from_mb = UINT_MAX;
222 #endif
223     pbi->prob_skip_false = 0;
224     if (pbi->common.mb_no_coeff_skip)
225         pbi->prob_skip_false = (vp8_prob)vp8_read_literal(bc, 8);
226
227     if(pbi->common.frame_type != KEY_FRAME)
228     {
229         pbi->prob_intra = (vp8_prob)vp8_read_literal(bc, 8);
230         pbi->prob_last  = (vp8_prob)vp8_read_literal(bc, 8);
231         pbi->prob_gf    = (vp8_prob)vp8_read_literal(bc, 8);
232
233         if (vp8_read_bit(bc))
234         {
235             int i = 0;
236
237             do
238             {
239                 pbi->common.fc.ymode_prob[i] = (vp8_prob) vp8_read_literal(bc, 8);
240             }
241             while (++i < 4);
242         }
243
244         if (vp8_read_bit(bc))
245         {
246             int i = 0;
247
248             do
249             {
250                 pbi->common.fc.uv_mode_prob[i] = (vp8_prob) vp8_read_literal(bc, 8);
251             }
252             while (++i < 3);
253         }
254
255         read_mvcontexts(bc, mvc);
256     }
257 }
258
259
260 static void read_mb_modes_mv(VP8D_COMP *pbi, MODE_INFO *mi, MB_MODE_INFO *mbmi,
261                             int mb_row, int mb_col)
262 {
263     vp8_reader *const bc = & pbi->bc;
264     MV_CONTEXT *const mvc = pbi->common.fc.mvc;
265     const int mis = pbi->common.mode_info_stride;
266
267     int_mv *const mv = & mbmi->mv;
268     int mb_to_left_edge;
269     int mb_to_right_edge;
270     int mb_to_top_edge;
271     int mb_to_bottom_edge;
272
273     mb_to_top_edge = pbi->mb.mb_to_top_edge;
274     mb_to_bottom_edge = pbi->mb.mb_to_bottom_edge;
275     mb_to_top_edge -= LEFT_TOP_MARGIN;
276     mb_to_bottom_edge += RIGHT_BOTTOM_MARGIN;
277
278     mbmi->need_to_clamp_mvs = 0;
279     /* Distance of Mb to the various image edges.
280      * These specified to 8th pel as they are always compared to MV values that are in 1/8th pel units
281      */
282     pbi->mb.mb_to_left_edge =
283     mb_to_left_edge = -((mb_col * 16) << 3);
284     mb_to_left_edge -= LEFT_TOP_MARGIN;
285
286     pbi->mb.mb_to_right_edge =
287     mb_to_right_edge = ((pbi->common.mb_cols - 1 - mb_col) * 16) << 3;
288     mb_to_right_edge += RIGHT_BOTTOM_MARGIN;
289
290     /* If required read in new segmentation data for this MB */
291     if (pbi->mb.update_mb_segmentation_map)
292         vp8_read_mb_features(bc, mbmi, &pbi->mb);
293
294     /* Read the macroblock coeff skip flag if this feature is in use, else default to 0 */
295     if (pbi->common.mb_no_coeff_skip)
296         mbmi->mb_skip_coeff = vp8_read(bc, pbi->prob_skip_false);
297     else
298         mbmi->mb_skip_coeff = 0;
299
300     if ((mbmi->ref_frame = (MV_REFERENCE_FRAME) vp8_read(bc, pbi->prob_intra)))    /* inter MB */
301     {
302         int rct[4];
303         vp8_prob mv_ref_p [VP8_MVREFS-1];
304         int_mv nearest, nearby, best_mv;
305
306         if (vp8_read(bc, pbi->prob_last))
307         {
308             mbmi->ref_frame = (MV_REFERENCE_FRAME)((int)mbmi->ref_frame + (int)(1 + vp8_read(bc, pbi->prob_gf)));
309         }
310
311         vp8_find_near_mvs(&pbi->mb, mi, &nearest, &nearby, &best_mv, rct, mbmi->ref_frame, pbi->common.ref_frame_sign_bias);
312
313         vp8_mv_ref_probs(mv_ref_p, rct);
314
315         mbmi->uv_mode = DC_PRED;
316         switch (mbmi->mode = read_mv_ref(bc, mv_ref_p))
317         {
318         case SPLITMV:
319         {
320             const int s = mbmi->partitioning =
321                       vp8_treed_read(bc, vp8_mbsplit_tree, vp8_mbsplit_probs);
322             const int num_p = vp8_mbsplit_count [s];
323             int j = 0;
324
325             do  /* for each subset j */
326             {
327                 int_mv leftmv, abovemv;
328                 int_mv blockmv;
329                 int k;  /* first block in subset j */
330                 int mv_contz;
331                 k = vp8_mbsplit_offset[s][j];
332
333                 leftmv.as_int = left_block_mv(mi, k);
334                 abovemv.as_int = above_block_mv(mi, k, mis);
335                 mv_contz = vp8_mv_cont(&leftmv, &abovemv);
336
337                 switch ((B_PREDICTION_MODE) sub_mv_ref(bc, vp8_sub_mv_ref_prob2 [mv_contz])) /*pc->fc.sub_mv_ref_prob))*/
338                 {
339                 case NEW4X4:
340                     read_mv(bc, &blockmv.as_mv, (const MV_CONTEXT *) mvc);
341                     blockmv.as_mv.row += best_mv.as_mv.row;
342                     blockmv.as_mv.col += best_mv.as_mv.col;
343   #ifdef VPX_MODE_COUNT
344                     vp8_mv_cont_count[mv_contz][3]++;
345   #endif
346                     break;
347                 case LEFT4X4:
348                     blockmv.as_int = leftmv.as_int;
349   #ifdef VPX_MODE_COUNT
350                     vp8_mv_cont_count[mv_contz][0]++;
351   #endif
352                     break;
353                 case ABOVE4X4:
354                     blockmv.as_int = abovemv.as_int;
355   #ifdef VPX_MODE_COUNT
356                     vp8_mv_cont_count[mv_contz][1]++;
357   #endif
358                     break;
359                 case ZERO4X4:
360                     blockmv.as_int = 0;
361   #ifdef VPX_MODE_COUNT
362                     vp8_mv_cont_count[mv_contz][2]++;
363   #endif
364                     break;
365                 default:
366                     break;
367                 }
368
369                 mbmi->need_to_clamp_mvs = vp8_check_mv_bounds(&blockmv,
370                                                           mb_to_left_edge,
371                                                           mb_to_right_edge,
372                                                           mb_to_top_edge,
373                                                           mb_to_bottom_edge);
374
375                 {
376                     /* Fill (uniform) modes, mvs of jth subset.
377                      Must do it here because ensuing subsets can
378                      refer back to us via "left" or "above". */
379                     const unsigned char *fill_offset;
380                     unsigned int fill_count = mbsplit_fill_count[s];
381
382                     fill_offset = &mbsplit_fill_offset[s][(unsigned char)j * mbsplit_fill_count[s]];
383
384                     do {
385                         mi->bmi[ *fill_offset].mv.as_int = blockmv.as_int;
386                         fill_offset++;
387                     }while (--fill_count);
388                 }
389
390             }
391             while (++j < num_p);
392         }
393
394         mv->as_int = mi->bmi[15].mv.as_int;
395
396         break;  /* done with SPLITMV */
397
398         case NEARMV:
399             mv->as_int = nearby.as_int;
400             /* Clip "next_nearest" so that it does not extend to far out of image */
401             vp8_clamp_mv(mv, mb_to_left_edge, mb_to_right_edge,
402                          mb_to_top_edge, mb_to_bottom_edge);
403             break;
404
405         case NEARESTMV:
406             mv->as_int = nearest.as_int;
407             /* Clip "next_nearest" so that it does not extend to far out of image */
408             vp8_clamp_mv(mv, mb_to_left_edge, mb_to_right_edge,
409                          mb_to_top_edge, mb_to_bottom_edge);
410             break;
411
412         case ZEROMV:
413             mv->as_int = 0;
414             break;
415
416         case NEWMV:
417             read_mv(bc, &mv->as_mv, (const MV_CONTEXT *) mvc);
418             mv->as_mv.row += best_mv.as_mv.row;
419             mv->as_mv.col += best_mv.as_mv.col;
420
421             /* Don't need to check this on NEARMV and NEARESTMV modes
422              * since those modes clamp the MV. The NEWMV mode does not,
423              * so signal to the prediction stage whether special
424              * handling may be required.
425              */
426             mbmi->need_to_clamp_mvs = vp8_check_mv_bounds(mv,
427                                                       mb_to_left_edge,
428                                                       mb_to_right_edge,
429                                                       mb_to_top_edge,
430                                                       mb_to_bottom_edge);
431             break;
432
433         default:;
434   #if CONFIG_DEBUG
435             assert(0);
436   #endif
437         }
438     }
439     else
440     {
441         /* required for left and above block mv */
442         mbmi->mv.as_int = 0;
443
444         /* MB is intra coded */
445         if ((mbmi->mode = (MB_PREDICTION_MODE) vp8_read_ymode(bc, pbi->common.fc.ymode_prob)) == B_PRED)
446         {
447             int j = 0;
448             do
449             {
450                 mi->bmi[j].as_mode = (B_PREDICTION_MODE)vp8_read_bmode(bc, pbi->common.fc.bmode_prob);
451             }
452             while (++j < 16);
453         }
454
455         mbmi->uv_mode = (MB_PREDICTION_MODE)vp8_read_uv_mode(bc, pbi->common.fc.uv_mode_prob);
456     }
457
458 }
459
460 void vp8_decode_mode_mvs(VP8D_COMP *pbi)
461 {
462     MODE_INFO *mi = pbi->common.mi;
463     int mb_row = -1;
464
465     mb_mode_mv_init(pbi);
466
467     while (++mb_row < pbi->common.mb_rows)
468     {
469         int mb_col = -1;
470         int mb_to_top_edge;
471         int mb_to_bottom_edge;
472
473         pbi->mb.mb_to_top_edge =
474         mb_to_top_edge = -((mb_row * 16)) << 3;
475         mb_to_top_edge -= LEFT_TOP_MARGIN;
476
477         pbi->mb.mb_to_bottom_edge =
478         mb_to_bottom_edge = ((pbi->common.mb_rows - 1 - mb_row) * 16) << 3;
479         mb_to_bottom_edge += RIGHT_BOTTOM_MARGIN;
480
481         while (++mb_col < pbi->common.mb_cols)
482         {
483 #if CONFIG_ERROR_CONCEALMENT
484             int mb_num = mb_row * pbi->common.mb_cols + mb_col;
485 #endif
486             /*read_mb_modes_mv(pbi, xd->mode_info_context, &xd->mode_info_context->mbmi, mb_row, mb_col);*/
487             if(pbi->common.frame_type == KEY_FRAME)
488                 vp8_kfread_modes(pbi, mi, mb_row, mb_col);
489             else
490                 read_mb_modes_mv(pbi, mi, &mi->mbmi, mb_row, mb_col);
491
492 #if CONFIG_ERROR_CONCEALMENT
493             /* look for corruption. set mvs_corrupt_from_mb to the current
494              * mb_num if the frame is corrupt from this macroblock. */
495             if (vp8dx_bool_error(&pbi->bc) && mb_num < pbi->mvs_corrupt_from_mb)
496             {
497                 pbi->mvs_corrupt_from_mb = mb_num;
498                 /* no need to continue since the partition is corrupt from
499                  * here on.
500                  */
501                 return;
502             }
503 #endif
504
505             mi++;       /* next macroblock */
506         }
507
508         mi++;           /* skip left predictor each row */
509     }
510 }
511