[svn] / branches / release-1_3-branch / xvidcore / src / image / image.c Repository:
ViewVC logotype

Diff of /branches/release-1_3-branch/xvidcore/src/image/image.c

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 323, Sun Jul 21 03:30:25 2002 UTC revision 1382, Mon Mar 22 22:36:25 2004 UTC
# Line 1  Line 1 
1  /**************************************************************************  /**************************************************************************
2   *   *
3   *      XVID MPEG-4 VIDEO CODEC   *      XVID MPEG-4 VIDEO CODEC
4   *      image stuff   *  - Image management functions -
5     *
6     *  Copyright(C) 2001-2003 Peter Ross <pross@xvid.org>
7   *   *
8   *      This program is free software; you can redistribute it and/or modify   *      This program is free software; you can redistribute it and/or modify
9   *      it under the terms of the GNU General Public License as published by   *      it under the terms of the GNU General Public License as published by
# Line 15  Line 17 
17   *   *
18   *      You should have received a copy of the GNU General Public License   *      You should have received a copy of the GNU General Public License
19   *      along with this program; if not, write to the Free Software   *      along with this program; if not, write to the Free Software
20   *      Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.   *  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
  *  
  *************************************************************************/  
   
 /**************************************************************************  
21   *   *
22   *      History:   * $Id: image.c,v 1.27 2004-03-22 22:36:23 edgomez Exp $
23   *   *
24   *      01.05.2002      BFRAME image-based u,v interpolation   ****************************************************************************/
  *  22.04.2002  added some B-frame support  
  *      14.04.2002      added image_dump_yuvpgm(), added image_mad()  
  *              XVID_CSP_USER input support  
  *  09.04.2002  PSNR calculations  
  *      06.04.2002      removed interlaced edging from U,V blocks (as per spec)  
  *  26.03.2002  interlacing support (field-based edging in set_edges)  
  *      26.01.2002      rgb555, rgb565  
  *      07.01.2001      commented u,v interpolation (not required for uv-block-based)  
  *  23.12.2001  removed #ifdefs, added function pointers + init_common()  
  *      22.12.2001      cpu #ifdefs  
  *  19.12.2001  image_dump(); useful for debugging  
  *       6.12.2001      inital version; (c)2001 peter ross <pross@cs.rmit.edu.au>  
  *  
  *************************************************************************/  
25    
26  #include <stdlib.h>  #include <stdlib.h>
27  #include <string.h>                             // memcpy, memset  #include <string.h>                             /* memcpy, memset */
28  #include <math.h>  #include <math.h>
29    
30  #include "../portab.h"  #include "../portab.h"
31  #include "../xvid.h"                    // XVID_CSP_XXX's  #include "../global.h"                  /* XVID_CSP_XXX's */
32    #include "../xvid.h"                    /* XVID_CSP_XXX's */
33  #include "image.h"  #include "image.h"
34  #include "colorspace.h"  #include "colorspace.h"
35  #include "interpolate8x8.h"  #include "interpolate8x8.h"
36  #include "../divx4.h"  #include "reduced.h"
37  #include "../utils/mem_align.h"  #include "../utils/mem_align.h"
38    
39    #include "font.h"               /* XXX: remove later */
40    
41  #define SAFETY  64  #define SAFETY  64
42  #define EDGE_SIZE2  (EDGE_SIZE/2)  #define EDGE_SIZE2  (EDGE_SIZE/2)
43    
# Line 62  Line 49 
49  {  {
50          const uint32_t edged_width2 = edged_width / 2;          const uint32_t edged_width2 = edged_width / 2;
51          const uint32_t edged_height2 = edged_height / 2;          const uint32_t edged_height2 = edged_height / 2;
         uint32_t i;  
52    
53          image->y =          image->y =
54                  xvid_malloc(edged_width * (edged_height + 1) + SAFETY, CACHE_LINE);                  xvid_malloc(edged_width * (edged_height + 1) + SAFETY, CACHE_LINE);
55          if (image->y == NULL) {          if (image->y == NULL) {
56                  return -1;                  return -1;
57          }          }
58            memset(image->y, 0, edged_width * (edged_height + 1) + SAFETY);
         for (i = 0; i < edged_width * edged_height + SAFETY; i++) {  
                 image->y[i] = 0;  
         }  
59    
60          image->u = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);          image->u = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);
61          if (image->u == NULL) {          if (image->u == NULL) {
62                  xvid_free(image->y);                  xvid_free(image->y);
63                    image->y = NULL;
64                  return -1;                  return -1;
65          }          }
66            memset(image->u, 0, edged_width2 * edged_height2 + SAFETY);
67    
68          image->v = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);          image->v = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);
69          if (image->v == NULL) {          if (image->v == NULL) {
70                  xvid_free(image->u);                  xvid_free(image->u);
71                    image->u = NULL;
72                  xvid_free(image->y);                  xvid_free(image->y);
73                    image->y = NULL;
74                  return -1;                  return -1;
75          }          }
76            memset(image->v, 0, edged_width2 * edged_height2 + SAFETY);
77    
78          image->y += EDGE_SIZE * edged_width + EDGE_SIZE;          image->y += EDGE_SIZE * edged_width + EDGE_SIZE;
79          image->u += EDGE_SIZE2 * edged_width2 + EDGE_SIZE2;          image->u += EDGE_SIZE2 * edged_width2 + EDGE_SIZE2;
# Line 104  Line 93 
93    
94          if (image->y) {          if (image->y) {
95                  xvid_free(image->y - (EDGE_SIZE * edged_width + EDGE_SIZE));                  xvid_free(image->y - (EDGE_SIZE * edged_width + EDGE_SIZE));
96                    image->y = NULL;
97          }          }
98          if (image->u) {          if (image->u) {
99                  xvid_free(image->u - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));                  xvid_free(image->u - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));
100                    image->u = NULL;
101          }          }
102          if (image->v) {          if (image->v) {
103                  xvid_free(image->v - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));                  xvid_free(image->v - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));
104                    image->v = NULL;
105          }          }
106  }  }
107    
# Line 118  Line 110 
110  image_swap(IMAGE * image1,  image_swap(IMAGE * image1,
111                     IMAGE * image2)                     IMAGE * image2)
112  {  {
113          uint8_t *tmp;      SWAP(uint8_t*, image1->y, image2->y);
114        SWAP(uint8_t*, image1->u, image2->u);
115          tmp = image1->y;      SWAP(uint8_t*, image1->v, image2->v);
         image1->y = image2->y;  
         image2->y = tmp;  
   
         tmp = image1->u;  
         image1->u = image2->u;  
         image2->u = tmp;  
   
         tmp = image1->v;  
         image1->v = image2->v;  
         image2->v = tmp;  
116  }  }
117    
118    
# Line 145  Line 127 
127          memcpy(image1->v, image2->v, edged_width * height / 4);          memcpy(image1->v, image2->v, edged_width * height / 4);
128  }  }
129    
130    /* setedges bug was fixed in this BS version */
131    #define SETEDGES_BUG_BEFORE             18
132    
133  void  void
134  image_setedges(IMAGE * image,  image_setedges(IMAGE * image,
# Line 152  Line 136 
136                             uint32_t edged_height,                             uint32_t edged_height,
137                             uint32_t width,                             uint32_t width,
138                             uint32_t height,                             uint32_t height,
139                             uint32_t interlacing)                             int bs_version)
140  {  {
141          const uint32_t edged_width2 = edged_width / 2;          const uint32_t edged_width2 = edged_width / 2;
142          const uint32_t width2 = width / 2;          uint32_t width2;
143          uint32_t i;          uint32_t i;
144          uint8_t *dst;          uint8_t *dst;
145          uint8_t *src;          uint8_t *src;
146    
   
147          dst = image->y - (EDGE_SIZE + EDGE_SIZE * edged_width);          dst = image->y - (EDGE_SIZE + EDGE_SIZE * edged_width);
148          src = image->y;          src = image->y;
149    
150            /* According to the Standard Clause 7.6.4, padding is done starting at 16
151             * pixel width and height multiples. This was not respected in old xvids */
152            if (bs_version == 0 || bs_version >= SETEDGES_BUG_BEFORE) {
153                    width  = (width+15)&~15;
154                    height = (height+15)&~15;
155            }
156    
157            width2 = width/2;
158    
159          for (i = 0; i < EDGE_SIZE; i++) {          for (i = 0; i < EDGE_SIZE; i++) {
                 // if interlacing, edges contain top-most data from each field  
                 if (interlacing && (i & 1)) {  
                         memset(dst, *(src + edged_width), EDGE_SIZE);  
                         memcpy(dst + EDGE_SIZE, src + edged_width, width);  
                         memset(dst + edged_width - EDGE_SIZE,  
                                    *(src + edged_width + width - 1), EDGE_SIZE);  
                 } else {  
160                          memset(dst, *src, EDGE_SIZE);                          memset(dst, *src, EDGE_SIZE);
161                          memcpy(dst + EDGE_SIZE, src, width);                          memcpy(dst + EDGE_SIZE, src, width);
162                          memset(dst + edged_width - EDGE_SIZE, *(src + width - 1),                          memset(dst + edged_width - EDGE_SIZE, *(src + width - 1),
163                                     EDGE_SIZE);                                     EDGE_SIZE);
                 }  
164                  dst += edged_width;                  dst += edged_width;
165          }          }
166    
# Line 189  Line 173 
173    
174          src -= edged_width;          src -= edged_width;
175          for (i = 0; i < EDGE_SIZE; i++) {          for (i = 0; i < EDGE_SIZE; i++) {
                 // if interlacing, edges contain bottom-most data from each field  
                 if (interlacing && !(i & 1)) {  
                         memset(dst, *(src - edged_width), EDGE_SIZE);  
                         memcpy(dst + EDGE_SIZE, src - edged_width, width);  
                         memset(dst + edged_width - EDGE_SIZE,  
                                    *(src - edged_width + width - 1), EDGE_SIZE);  
                 } else {  
176                          memset(dst, *src, EDGE_SIZE);                          memset(dst, *src, EDGE_SIZE);
177                          memcpy(dst + EDGE_SIZE, src, width);                          memcpy(dst + EDGE_SIZE, src, width);
178                          memset(dst + edged_width - EDGE_SIZE, *(src + width - 1),                          memset(dst + edged_width - EDGE_SIZE, *(src + width - 1),
179                                     EDGE_SIZE);                                     EDGE_SIZE);
                 }  
180                  dst += edged_width;                  dst += edged_width;
181          }          }
182    
183    
184  //U          /* U */
185          dst = image->u - (EDGE_SIZE2 + EDGE_SIZE2 * edged_width2);          dst = image->u - (EDGE_SIZE2 + EDGE_SIZE2 * edged_width2);
186          src = image->u;          src = image->u;
187    
# Line 233  Line 209 
209          }          }
210    
211    
212  // V          /* V */
213          dst = image->v - (EDGE_SIZE2 + EDGE_SIZE2 * edged_width2);          dst = image->v - (EDGE_SIZE2 + EDGE_SIZE2 * edged_width2);
214          src = image->v;          src = image->v;
215    
# Line 261  Line 237 
237          }          }
238  }  }
239    
240  // bframe encoding requires image-based u,v interpolation  /* bframe encoding requires image-based u,v interpolation */
241  void  void
242  image_interpolate(const IMAGE * refn,  image_interpolate(const IMAGE * refn,
243                                    IMAGE * refh,                                    IMAGE * refh,
# Line 269  Line 245 
245                                    IMAGE * refhv,                                    IMAGE * refhv,
246                                    uint32_t edged_width,                                    uint32_t edged_width,
247                                    uint32_t edged_height,                                    uint32_t edged_height,
248                                      uint32_t quarterpel,
249                                    uint32_t rounding)                                    uint32_t rounding)
250  {  {
251          const uint32_t offset = EDGE_SIZE * (edged_width + 1);          const uint32_t offset = EDGE_SIZE2 * (edged_width + 1); /* we only interpolate half of the edge area */
252          const uint32_t stride_add = 7 * edged_width;          const uint32_t stride_add = 7 * edged_width;
253    #if 0
 #ifdef BFRAMES  
254          const uint32_t edged_width2 = edged_width / 2;          const uint32_t edged_width2 = edged_width / 2;
255          const uint32_t edged_height2 = edged_height / 2;          const uint32_t edged_height2 = edged_height / 2;
256          const uint32_t offset2 = EDGE_SIZE2 * (edged_width2 + 1);          const uint32_t offset2 = EDGE_SIZE2 * (edged_width2 + 1);
257          const uint32_t stride_add2 = 7 * edged_width2;          const uint32_t stride_add2 = 7 * edged_width2;
258  #endif  #endif
   
259          uint8_t *n_ptr, *h_ptr, *v_ptr, *hv_ptr;          uint8_t *n_ptr, *h_ptr, *v_ptr, *hv_ptr;
260          uint32_t x, y;          uint32_t x, y;
261    
# Line 288  Line 263 
263          n_ptr = refn->y;          n_ptr = refn->y;
264          h_ptr = refh->y;          h_ptr = refh->y;
265          v_ptr = refv->y;          v_ptr = refv->y;
         hv_ptr = refhv->y;  
266    
267          n_ptr -= offset;          n_ptr -= offset;
268          h_ptr -= offset;          h_ptr -= offset;
269          v_ptr -= offset;          v_ptr -= offset;
270    
271            /* Note we initialize the hv pointer later, as we can optimize code a bit
272             * doing it down to up in quarterpel and up to down in halfpel */
273            if(quarterpel) {
274    
275                    for (y = 0; y < (edged_height - EDGE_SIZE); y += 8) {
276                            for (x = 0; x < (edged_width - EDGE_SIZE); x += 8) {
277                                    interpolate8x8_6tap_lowpass_h(h_ptr, n_ptr, edged_width, rounding);
278                                    interpolate8x8_6tap_lowpass_v(v_ptr, n_ptr, edged_width, rounding);
279    
280                                    n_ptr += 8;
281                                    h_ptr += 8;
282                                    v_ptr += 8;
283                            }
284    
285                            n_ptr += EDGE_SIZE;
286                            h_ptr += EDGE_SIZE;
287                            v_ptr += EDGE_SIZE;
288    
289                            h_ptr += stride_add;
290                            v_ptr += stride_add;
291                            n_ptr += stride_add;
292                    }
293    
294                    h_ptr = refh->y + (edged_height - EDGE_SIZE - EDGE_SIZE2)*edged_width - EDGE_SIZE2;
295                    hv_ptr = refhv->y + (edged_height - EDGE_SIZE - EDGE_SIZE2)*edged_width - EDGE_SIZE2;
296    
297                    for (y = 0; y < (edged_height - EDGE_SIZE); y = y + 8) {
298                            hv_ptr -= stride_add;
299                            h_ptr -= stride_add;
300                            hv_ptr -= EDGE_SIZE;
301                            h_ptr -= EDGE_SIZE;
302    
303                            for (x = 0; x < (edged_width - EDGE_SIZE); x = x + 8) {
304                                    hv_ptr -= 8;
305                                    h_ptr -= 8;
306                                    interpolate8x8_6tap_lowpass_v(hv_ptr, h_ptr, edged_width, rounding);
307                            }
308                    }
309            } else {
310    
311                    hv_ptr = refhv->y;
312          hv_ptr -= offset;          hv_ptr -= offset;
313    
314          for (y = 0; y < edged_height; y = y + 8) {                  for (y = 0; y < (edged_height - EDGE_SIZE); y += 8) {
315                  for (x = 0; x < edged_width; x = x + 8) {                          for (x = 0; x < (edged_width - EDGE_SIZE); x += 8) {
316                          interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width, rounding);                          interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width, rounding);
317                          interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width, rounding);                          interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width, rounding);
318                          interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width, rounding);                          interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width, rounding);
# Line 306  Line 322 
322                          v_ptr += 8;                          v_ptr += 8;
323                          hv_ptr += 8;                          hv_ptr += 8;
324                  }                  }
325    
326                            h_ptr += EDGE_SIZE;
327                            v_ptr += EDGE_SIZE;
328                            hv_ptr += EDGE_SIZE;
329                            n_ptr += EDGE_SIZE;
330    
331                  h_ptr += stride_add;                  h_ptr += stride_add;
332                  v_ptr += stride_add;                  v_ptr += stride_add;
333                  hv_ptr += stride_add;                  hv_ptr += stride_add;
334                  n_ptr += stride_add;                  n_ptr += stride_add;
335          }          }
336            }
337    /*
338  #ifdef BFRAMES  #ifdef BFRAMES
339          n_ptr = refn->u;          n_ptr = refn->u;
340          h_ptr = refh->u;          h_ptr = refh->u;
# Line 323  Line 346 
346          v_ptr -= offset2;          v_ptr -= offset2;
347          hv_ptr -= offset2;          hv_ptr -= offset2;
348    
349          for (y = 0; y < edged_height2; y = y + 8) {          for (y = 0; y < edged_height2; y += 8) {
350                  for (x = 0; x < edged_width2; x = x + 8) {                  for (x = 0; x < edged_width2; x += 8) {
351                          interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width2, rounding);                          interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width2, rounding);
352                          interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width2, rounding);                          interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width2, rounding);
353                          interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width2, rounding);                          interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width2, rounding);
# Line 367  Line 390 
390                  n_ptr += stride_add2;                  n_ptr += stride_add2;
391          }          }
392  #endif  #endif
393    */
394          /*          /*
395             interpolate_halfpel_h(             interpolate_halfpel_h(
396             refh->y - offset,             refh->y - offset,
# Line 431  Line 454 
454  }  }
455    
456    
457    /*
458    chroma optimize filter, invented by mf
459    a chroma pixel is average from the surrounding pixels, when the
460    correpsonding luma pixels are pure black or white.
461    */
462    
463    void
464    image_chroma_optimize(IMAGE * img, int width, int height, int edged_width)
465    {
466            int x,y;
467            int pixels = 0;
468    
469            for (y = 1; y < height/2 - 1; y++)
470            for (x = 1; x < width/2 - 1; x++)
471            {
472    #define IS_PURE(a)  ((a)<=16||(a)>=235)
473    #define IMG_Y(Y,X)      img->y[(Y)*edged_width + (X)]
474    #define IMG_U(Y,X)      img->u[(Y)*edged_width/2 + (X)]
475    #define IMG_V(Y,X)      img->v[(Y)*edged_width/2 + (X)]
476    
477                    if (IS_PURE(IMG_Y(y*2  ,x*2  )) &&
478                            IS_PURE(IMG_Y(y*2  ,x*2+1)) &&
479                            IS_PURE(IMG_Y(y*2+1,x*2  )) &&
480                            IS_PURE(IMG_Y(y*2+1,x*2+1)))
481                    {
482                            IMG_U(y,x) = (IMG_U(y,x-1) + IMG_U(y-1, x) + IMG_U(y, x+1) + IMG_U(y+1, x)) / 4;
483                            IMG_V(y,x) = (IMG_V(y,x-1) + IMG_V(y-1, x) + IMG_V(y, x+1) + IMG_V(y+1, x)) / 4;
484                            pixels++;
485                    }
486    
487    #undef IS_PURE
488    #undef IMG_Y
489    #undef IMG_U
490    #undef IMG_V
491            }
492    
493            DPRINTF(XVID_DEBUG_DEBUG,"chroma_optimized_pixels = %i/%i\n", pixels, width*height/4);
494    }
495    
496    
497    
498    
499    
500    /*
501      perform safe packed colorspace conversion, by splitting
502      the image up into an optimized area (pixel width divisible by 16),
503      and two unoptimized/plain-c areas (pixel width divisible by 2)
504    */
505    
506    static void
507    safe_packed_conv(uint8_t * x_ptr, int x_stride,
508                                     uint8_t * y_ptr, uint8_t * u_ptr, uint8_t * v_ptr,
509                                     int y_stride, int uv_stride,
510                                     int width, int height, int vflip,
511                                     packedFunc * func_opt, packedFunc func_c, int size)
512    {
513            int width_opt, width_c;
514    
515            if (func_opt != func_c && x_stride < size*((width+15)/16)*16)
516            {
517                    width_opt = width & (~15);
518                    width_c = width - width_opt;
519            }
520            else
521            {
522                    width_opt = width;
523                    width_c = 0;
524            }
525    
526            func_opt(x_ptr, x_stride,
527                            y_ptr, u_ptr, v_ptr, y_stride, uv_stride,
528                            width_opt, height, vflip);
529    
530            if (width_c)
531            {
532                    func_c(x_ptr + size*width_opt, x_stride,
533                            y_ptr + width_opt, u_ptr + width_opt/2, v_ptr + width_opt/2,
534                            y_stride, uv_stride, width_c, height, vflip);
535            }
536    }
537    
538    
539    
540  int  int
541  image_input(IMAGE * image,  image_input(IMAGE * image,
542                          uint32_t width,                          uint32_t width,
543                          int height,                          int height,
544                          uint32_t edged_width,                          uint32_t edged_width,
545                          uint8_t * src,                          uint8_t * src[4],
546                          int csp)                          int src_stride[4],
547                            int csp,
548                            int interlacing)
549  {  {
550            const int edged_width2 = edged_width/2;
551  /*      if (csp & XVID_CSP_VFLIP)          const int width2 = width/2;
552          {          const int height2 = height/2;
553                  height = -height;  #if 0
554          }          const int height_signed = (csp & XVID_CSP_VFLIP) ? -height : height;
555  */  #endif
556    
557          switch (csp & ~XVID_CSP_VFLIP) {          switch (csp & ~XVID_CSP_VFLIP) {
558          case XVID_CSP_RGB555:          case XVID_CSP_RGB555:
559                  rgb555_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
560                                             edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
561                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
562                            interlacing?rgb555i_to_yv12  :rgb555_to_yv12,
563                            interlacing?rgb555i_to_yv12_c:rgb555_to_yv12_c, 2);
564                    break;
565    
566          case XVID_CSP_RGB565:          case XVID_CSP_RGB565:
567                  rgb565_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
568                                             edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
569                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
570                            interlacing?rgb565i_to_yv12  :rgb565_to_yv12,
571                            interlacing?rgb565i_to_yv12_c:rgb565_to_yv12_c, 2);
572                    break;
573    
574    
575          case XVID_CSP_RGB24:          case XVID_CSP_BGR:
576                  rgb24_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
577                                            edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
578                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
579                            interlacing?bgri_to_yv12  :bgr_to_yv12,
580                            interlacing?bgri_to_yv12_c:bgr_to_yv12_c, 3);
581                    break;
582    
583          case XVID_CSP_RGB32:          case XVID_CSP_BGRA:
584                  rgb32_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
585                                            edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
586                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
587                            interlacing?bgrai_to_yv12  :bgra_to_yv12,
588                            interlacing?bgrai_to_yv12_c:bgra_to_yv12_c, 4);
589                    break;
590    
591          case XVID_CSP_I420:          case XVID_CSP_ABGR :
592                  yuv_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
593                                          edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
594                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
595                            interlacing?abgri_to_yv12  :abgr_to_yv12,
596                            interlacing?abgri_to_yv12_c:abgr_to_yv12_c, 4);
597                    break;
598    
599          case XVID_CSP_YV12:             /* u/v swapped */          case XVID_CSP_RGBA :
600                  yuv_to_yv12(image->y, image->v, image->u, src, width, height,                  safe_packed_conv(
601                                          edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
602                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
603                            interlacing?rgbai_to_yv12  :rgba_to_yv12,
604                            interlacing?rgbai_to_yv12_c:rgba_to_yv12_c, 4);
605                    break;
606    
607            case XVID_CSP_ARGB:
608                    safe_packed_conv(
609                            src[0], src_stride[0], image->y, image->u, image->v,
610                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
611                            interlacing?argbi_to_yv12  : argb_to_yv12,
612                            interlacing?argbi_to_yv12_c: argb_to_yv12_c, 4);
613                    break;
614    
615          case XVID_CSP_YUY2:          case XVID_CSP_YUY2:
616                  yuyv_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
617                                           edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
618                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
619                            interlacing?yuyvi_to_yv12  :yuyv_to_yv12,
620                            interlacing?yuyvi_to_yv12_c:yuyv_to_yv12_c, 2);
621                    break;
622    
623          case XVID_CSP_YVYU:             /* u/v swapped */          case XVID_CSP_YVYU:             /* u/v swapped */
624                  yuyv_to_yv12(image->y, image->v, image->u, src, width, height,                  safe_packed_conv(
625                                           edged_width);                          src[0], src_stride[0], image->y, image->v, image->u,
626                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
627                            interlacing?yuyvi_to_yv12  :yuyv_to_yv12,
628                            interlacing?yuyvi_to_yv12_c:yuyv_to_yv12_c, 2);
629                    break;
630    
631          case XVID_CSP_UYVY:          case XVID_CSP_UYVY:
632                  uyvy_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
633                                           edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
634                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
635                            interlacing?uyvyi_to_yv12  :uyvy_to_yv12,
636                            interlacing?uyvyi_to_yv12_c:uyvy_to_yv12_c, 2);
637                    break;
638    
639          case XVID_CSP_USER:          case XVID_CSP_I420:     /* YCbCr == YUV == internal colorspace for MPEG */
640                  user_to_yuv_c(image->y, image->u, image->v, edged_width,                  yv12_to_yv12(image->y, image->u, image->v, edged_width, edged_width2,
641                                            (DEC_PICTURE *) src, width, height);                          src[0], src[0] + src_stride[0]*height, src[0] + src_stride[0]*height + (src_stride[0]/2)*height2,
642                  return 0;                          src_stride[0], src_stride[0]/2, width, height, (csp & XVID_CSP_VFLIP));
643                    break;
644    
645            case XVID_CSP_YV12: /* YCrCb == YVA == U and V plane swapped */
646                    yv12_to_yv12(image->y, image->v, image->u, edged_width, edged_width2,
647                            src[0], src[0] + src_stride[0]*height, src[0] + src_stride[0]*height + (src_stride[0]/2)*height2,
648                            src_stride[0], src_stride[0]/2, width, height, (csp & XVID_CSP_VFLIP));
649                    break;
650    
651            case XVID_CSP_PLANAR:  /* YCbCr with arbitrary pointers and different strides for Y and UV */
652                    yv12_to_yv12(image->y, image->u, image->v, edged_width, edged_width2,
653                            src[0], src[1], src[2], src_stride[0], src_stride[1],  /* v: dst_stride[2] not yet supported */
654                            width, height, (csp & XVID_CSP_VFLIP));
655                    break;
656    
657          case XVID_CSP_NULL:          case XVID_CSP_NULL:
658                  break;                  break;
659    
660            default :
661                    return -1;
662          }          }
663    
664          return -1;  
665            /* pad out image when the width and/or height is not a multiple of 16 */
666    
667            if (width & 15)
668            {
669                    int i;
670                    int pad_width = 16 - (width&15);
671                    for (i = 0; i < height; i++)
672                    {
673                            memset(image->y + i*edged_width + width,
674                                     *(image->y + i*edged_width + width - 1), pad_width);
675                    }
676                    for (i = 0; i < height/2; i++)
677                    {
678                            memset(image->u + i*edged_width2 + width2,
679                                     *(image->u + i*edged_width2 + width2 - 1),pad_width/2);
680                            memset(image->v + i*edged_width2 + width2,
681                                     *(image->v + i*edged_width2 + width2 - 1),pad_width/2);
682                    }
683            }
684    
685            if (height & 15)
686            {
687                    int pad_height = 16 - (height&15);
688                    int length = ((width+15)/16)*16;
689                    int i;
690                    for (i = 0; i < pad_height; i++)
691                    {
692                            memcpy(image->y + (height+i)*edged_width,
693                                       image->y + (height-1)*edged_width,length);
694                    }
695    
696                    for (i = 0; i < pad_height/2; i++)
697                    {
698                            memcpy(image->u + (height2+i)*edged_width2,
699                                       image->u + (height2-1)*edged_width2,length/2);
700                            memcpy(image->v + (height2+i)*edged_width2,
701                                       image->v + (height2-1)*edged_width2,length/2);
702                    }
703            }
704    
705    /*
706            if (interlacing)
707                    image_printf(image, edged_width, height, 5,5, "[i]");
708            image_dump_yuvpgm(image, edged_width, ((width+15)/16)*16, ((height+15)/16)*16, "\\encode.pgm");
709    */
710            return 0;
711  }  }
712    
713    
# Line 513  Line 717 
717                           uint32_t width,                           uint32_t width,
718                           int height,                           int height,
719                           uint32_t edged_width,                           uint32_t edged_width,
720                           uint8_t * dst,                           uint8_t * dst[4],
721                           uint32_t dst_stride,                           uint32_t dst_stride[4],
722                           int csp)                           int csp,
723                             int interlacing)
724  {  {
725          if (csp & XVID_CSP_VFLIP) {          const int edged_width2 = edged_width/2;
726                  height = -height;          int height2 = height/2;
727          }  
728    /*
729            if (interlacing)
730                    image_printf(image, edged_width, height, 5,100, "[i]=%i,%i",width,height);
731            image_dump_yuvpgm(image, edged_width, width, height, "\\decode.pgm");
732    */
733    
734          switch (csp & ~XVID_CSP_VFLIP) {          switch (csp & ~XVID_CSP_VFLIP) {
735          case XVID_CSP_RGB555:          case XVID_CSP_RGB555:
736                  yv12_to_rgb555(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
737                                             edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
738                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
739                            interlacing?yv12_to_rgb555i  :yv12_to_rgb555,
740                            interlacing?yv12_to_rgb555i_c:yv12_to_rgb555_c, 2);
741                  return 0;                  return 0;
742    
743          case XVID_CSP_RGB565:          case XVID_CSP_RGB565:
744                  yv12_to_rgb565(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
745                                             edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
746                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
747                            interlacing?yv12_to_rgb565i  :yv12_to_rgb565,
748          case XVID_CSP_RGB24:                          interlacing?yv12_to_rgb565i_c:yv12_to_rgb565_c, 2);
749                  yv12_to_rgb24(dst, dst_stride, image->y, image->u, image->v,                  return 0;
750                                            edged_width, edged_width / 2, width, height);  
751                  return 0;      case XVID_CSP_BGR:
752                    safe_packed_conv(
753          case XVID_CSP_RGB32:                          dst[0], dst_stride[0], image->y, image->u, image->v,
754                  yv12_to_rgb32(dst, dst_stride, image->y, image->u, image->v,                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
755                                            edged_width, edged_width / 2, width, height);                          interlacing?yv12_to_bgri  :yv12_to_bgr,
756                  return 0;                          interlacing?yv12_to_bgri_c:yv12_to_bgr_c, 3);
757                    return 0;
758          case XVID_CSP_I420:  
759                  yv12_to_yuv(dst, dst_stride, image->y, image->u, image->v, edged_width,          case XVID_CSP_BGRA:
760                                          edged_width / 2, width, height);                  safe_packed_conv(
761                  return 0;                          dst[0], dst_stride[0], image->y, image->u, image->v,
762                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
763          case XVID_CSP_YV12:             // u,v swapped                          interlacing?yv12_to_bgrai  :yv12_to_bgra,
764                  yv12_to_yuv(dst, dst_stride, image->y, image->v, image->u, edged_width,                          interlacing?yv12_to_bgrai_c:yv12_to_bgra_c, 4);
765                                          edged_width / 2, width, height);                  return 0;
766    
767            case XVID_CSP_ABGR:
768                    safe_packed_conv(
769                            dst[0], dst_stride[0], image->y, image->u, image->v,
770                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
771                            interlacing?yv12_to_abgri  :yv12_to_abgr,
772                            interlacing?yv12_to_abgri_c:yv12_to_abgr_c, 4);
773                    return 0;
774    
775            case XVID_CSP_RGBA:
776                    safe_packed_conv(
777                            dst[0], dst_stride[0], image->y, image->u, image->v,
778                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
779                            interlacing?yv12_to_rgbai  :yv12_to_rgba,
780                            interlacing?yv12_to_rgbai_c:yv12_to_rgba_c, 4);
781                    return 0;
782    
783            case XVID_CSP_ARGB:
784                    safe_packed_conv(
785                            dst[0], dst_stride[0], image->y, image->u, image->v,
786                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
787                            interlacing?yv12_to_argbi  :yv12_to_argb,
788                            interlacing?yv12_to_argbi_c:yv12_to_argb_c, 4);
789                  return 0;                  return 0;
790    
791          case XVID_CSP_YUY2:          case XVID_CSP_YUY2:
792                  yv12_to_yuyv(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
793                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
794                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
795                            interlacing?yv12_to_yuyvi  :yv12_to_yuyv,
796                            interlacing?yv12_to_yuyvi_c:yv12_to_yuyv_c, 2);
797                  return 0;                  return 0;
798    
799          case XVID_CSP_YVYU:             // u,v swapped          case XVID_CSP_YVYU:             /* u,v swapped */
800                  yv12_to_yuyv(dst, dst_stride, image->y, image->v, image->u,                  safe_packed_conv(
801                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->v, image->u,
802                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
803                            interlacing?yv12_to_yuyvi  :yv12_to_yuyv,
804                            interlacing?yv12_to_yuyvi_c:yv12_to_yuyv_c, 2);
805                  return 0;                  return 0;
806    
807          case XVID_CSP_UYVY:          case XVID_CSP_UYVY:
808                  yv12_to_uyvy(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
809                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
810                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
811                            interlacing?yv12_to_uyvyi  :yv12_to_uyvy,
812          case XVID_CSP_USER:                          interlacing?yv12_to_uyvyi_c:yv12_to_uyvy_c, 2);
813                  ((DEC_PICTURE *) dst)->y = image->y;                  return 0;
814                  ((DEC_PICTURE *) dst)->u = image->u;  
815                  ((DEC_PICTURE *) dst)->v = image->v;          case XVID_CSP_I420: /* YCbCr == YUV == internal colorspace for MPEG */
816                  ((DEC_PICTURE *) dst)->stride_y = edged_width;                  yv12_to_yv12(dst[0], dst[0] + dst_stride[0]*height, dst[0] + dst_stride[0]*height + (dst_stride[0]/2)*height2,
817                  ((DEC_PICTURE *) dst)->stride_uv = edged_width / 2;                          dst_stride[0], dst_stride[0]/2,
818                            image->y, image->u, image->v, edged_width, edged_width2,
819                            width, height, (csp & XVID_CSP_VFLIP));
820                    return 0;
821    
822            case XVID_CSP_YV12:     /* YCrCb == YVU == U and V plane swapped */
823                    yv12_to_yv12(dst[0], dst[0] + dst_stride[0]*height, dst[0] + dst_stride[0]*height + (dst_stride[0]/2)*height2,
824                            dst_stride[0], dst_stride[0]/2,
825                            image->y, image->v, image->u, edged_width, edged_width2,
826                            width, height, (csp & XVID_CSP_VFLIP));
827                    return 0;
828    
829            case XVID_CSP_PLANAR:  /* YCbCr with arbitrary pointers and different strides for Y and UV */
830                    yv12_to_yv12(dst[0], dst[1], dst[2],
831                            dst_stride[0], dst_stride[1],   /* v: dst_stride[2] not yet supported */
832                            image->y, image->u, image->v, edged_width, edged_width2,
833                            width, height, (csp & XVID_CSP_VFLIP));
834                    return 0;
835    
836            case XVID_CSP_INTERNAL :
837                    dst[0] = image->y;
838                    dst[1] = image->u;
839                    dst[2] = image->v;
840                    dst_stride[0] = edged_width;
841                    dst_stride[1] = edged_width/2;
842                    dst_stride[2] = edged_width/2;
843                  return 0;                  return 0;
844    
845          case XVID_CSP_NULL:          case XVID_CSP_NULL:
846          case XVID_CSP_EXTERN:          case XVID_CSP_SLICE:
847                  return 0;                  return 0;
848    
849          }          }
# Line 616  Line 883 
883          return psnr_y;          return psnr_y;
884  }  }
885    
886  /*  
887    float sse_to_PSNR(long sse, int pixels)
888    {
889            if (sse==0)
890                    return 99.99F;
891    
892            return 48.131F - 10*(float)log10((float)sse/(float)(pixels));   /* log10(255*255)=4.8131 */
893    
894    }
895    
896    long plane_sse(uint8_t * orig,
897                       uint8_t * recon,
898                       uint16_t stride,
899                       uint16_t width,
900                       uint16_t height)
901    {
902            int diff, x, y;
903            long sse=0;
904    
905            for (y = 0; y < height; y++) {
906                    for (x = 0; x < width; x++) {
907                            diff = *(orig + x) - *(recon + x);
908                            sse += diff * diff;
909                    }
910                    orig += stride;
911                    recon += stride;
912            }
913            return sse;
914    }
915    
916    #if 0
917    
918  #include <stdio.h>  #include <stdio.h>
919  #include <string.h>  #include <string.h>
# Line 640  Line 937 
937  }  }
938    
939    
940  // dump image+edges to yuv pgm files  /* dump image+edges to yuv pgm files */
941    
942  int image_dump(IMAGE * image, uint32_t edged_width, uint32_t edged_height, char * path, int number)  int image_dump(IMAGE * image, uint32_t edged_width, uint32_t edged_height, char * path, int number)
943  {  {
# Line 663  Line 960 
960    
961          return 0;          return 0;
962  }  }
963  */  #endif
964    
965    
966    
# Line 712  Line 1009 
1009  }  }
1010    
1011    
 #define ABS(X)    (((X)>0)?(X):-(X))  
1012  float  float
1013  image_mad(const IMAGE * img1,  image_mad(const IMAGE * img1,
1014                    const IMAGE * img2,                    const IMAGE * img2,
# Line 729  Line 1025 
1025    
1026          for (y = 0; y < height; y++)          for (y = 0; y < height; y++)
1027                  for (x = 0; x < width; x++)                  for (x = 0; x < width; x++)
1028                          sum += ABS(img1->y[x + y * stride] - img2->y[x + y * stride]);                          sum += abs(img1->y[x + y * stride] - img2->y[x + y * stride]);
1029    
1030          for (y = 0; y < height2; y++)          for (y = 0; y < height2; y++)
1031                  for (x = 0; x < width2; x++)                  for (x = 0; x < width2; x++)
1032                          sum += ABS(img1->u[x + y * stride2] - img2->u[x + y * stride2]);                          sum += abs(img1->u[x + y * stride2] - img2->u[x + y * stride2]);
1033    
1034          for (y = 0; y < height2; y++)          for (y = 0; y < height2; y++)
1035                  for (x = 0; x < width2; x++)                  for (x = 0; x < width2; x++)
1036                          sum += ABS(img1->v[x + y * stride2] - img2->v[x + y * stride2]);                          sum += abs(img1->v[x + y * stride2] - img2->v[x + y * stride2]);
1037    
1038          return (float) sum / (width * height * 3 / 2);          return (float) sum / (width * height * 3 / 2);
1039  }  }
1040    
1041  void  void
1042  output_slice(IMAGE * cur, int std, int width, XVID_DEC_PICTURE* out_frm, int mbx, int mby,int mbl) {  output_slice(IMAGE * cur, int std, int width, xvid_image_t* out_frm, int mbx, int mby,int mbl) {
1043    uint8_t *dY,*dU,*dV,*sY,*sU,*sV;    uint8_t *dY,*dU,*dV,*sY,*sU,*sV;
1044    int std2 = std >> 1;    int std2 = std >> 1;
1045    int w = mbl << 4, w2,i;    int w = mbl << 4, w2,i;
# Line 752  Line 1048 
1048      w = width;      w = width;
1049    w2 = w >> 1;    w2 = w >> 1;
1050    
1051    dY = (uint8_t*)out_frm->y + (mby << 4) * out_frm->stride_y + (mbx << 4);    dY = (uint8_t*)out_frm->plane[0] + (mby << 4) * out_frm->stride[0] + (mbx << 4);
1052    dU = (uint8_t*)out_frm->u + (mby << 3) * out_frm->stride_u + (mbx << 3);    dU = (uint8_t*)out_frm->plane[1] + (mby << 3) * out_frm->stride[1] + (mbx << 3);
1053    dV = (uint8_t*)out_frm->v + (mby << 3) * out_frm->stride_v + (mbx << 3);    dV = (uint8_t*)out_frm->plane[2] + (mby << 3) * out_frm->stride[2] + (mbx << 3);
1054    sY = cur->y + (mby << 4) * std + (mbx << 4);    sY = cur->y + (mby << 4) * std + (mbx << 4);
1055    sU = cur->u + (mby << 3) * std2 + (mbx << 3);    sU = cur->u + (mby << 3) * std2 + (mbx << 3);
1056    sV = cur->v + (mby << 3) * std2 + (mbx << 3);    sV = cur->v + (mby << 3) * std2 + (mbx << 3);
1057    
1058    for(i = 0 ; i < 16 ; i++) {    for(i = 0 ; i < 16 ; i++) {
1059      memcpy(dY,sY,w);      memcpy(dY,sY,w);
1060      dY += out_frm->stride_y;      dY += out_frm->stride[0];
1061      sY += std;      sY += std;
1062    }    }
1063    for(i = 0 ; i < 8 ; i++) {    for(i = 0 ; i < 8 ; i++) {
1064      memcpy(dU,sU,w2);      memcpy(dU,sU,w2);
1065      dU += out_frm->stride_u;      dU += out_frm->stride[1];
1066      sU += std2;      sU += std2;
1067    }    }
1068    for(i = 0 ; i < 8 ; i++) {    for(i = 0 ; i < 8 ; i++) {
1069      memcpy(dV,sV,w2);      memcpy(dV,sV,w2);
1070      dV += out_frm->stride_v;      dV += out_frm->stride[2];
1071      sV += std2;      sV += std2;
1072    }    }
1073  }  }
1074    
1075    
1076    void
1077    image_clear(IMAGE * img, int width, int height, int edged_width,
1078                                            int y, int u, int v)
1079    {
1080            uint8_t * p;
1081            int i;
1082    
1083            p = img->y;
1084            for (i = 0; i < height; i++) {
1085                    memset(p, y, width);
1086                    p += edged_width;
1087            }
1088    
1089            p = img->u;
1090            for (i = 0; i < height/2; i++) {
1091                    memset(p, u, width/2);
1092                    p += edged_width/2;
1093            }
1094    
1095            p = img->v;
1096            for (i = 0; i < height/2; i++) {
1097                    memset(p, v, width/2);
1098                    p += edged_width/2;
1099            }
1100    }
1101    
1102    
1103    /* reduced resolution deblocking filter
1104            block = block size (16=rrv, 8=full resolution)
1105            flags = XVID_DEC_YDEBLOCK|XVID_DEC_UVDEBLOCK
1106    */
1107    void
1108    image_deblock_rrv(IMAGE * img, int edged_width,
1109                                    const MACROBLOCK * mbs, int mb_width, int mb_height, int mb_stride,
1110                                    int block, int flags)
1111    {
1112            const int edged_width2 = edged_width /2;
1113            const int nblocks = block / 8;  /* skals code uses 8pixel block uints */
1114            int i,j;
1115    
1116            /* luma: j,i in block units */
1117    
1118                    for (j = 1; j < mb_height*2; j++)               /* horizontal deblocking */
1119                    for (i = 0; i < mb_width*2; i++)
1120                    {
1121                            if (mbs[(j-1)/2*mb_stride + (i/2)].mode != MODE_NOT_CODED ||
1122                                    mbs[(j+0)/2*mb_stride + (i/2)].mode != MODE_NOT_CODED)
1123                            {
1124                                    hfilter_31(img->y + (j*block - 1)*edged_width + i*block,
1125                                                                      img->y + (j*block + 0)*edged_width + i*block, nblocks);
1126                            }
1127                    }
1128    
1129                    for (j = 0; j < mb_height*2; j++)               /* vertical deblocking */
1130                    for (i = 1; i < mb_width*2; i++)
1131                    {
1132                            if (mbs[(j/2)*mb_stride + (i-1)/2].mode != MODE_NOT_CODED ||
1133                                    mbs[(j/2)*mb_stride + (i+0)/2].mode != MODE_NOT_CODED)
1134                            {
1135                                    vfilter_31(img->y + (j*block)*edged_width + i*block - 1,
1136                                                       img->y + (j*block)*edged_width + i*block + 0,
1137                                                       edged_width, nblocks);
1138                            }
1139                    }
1140    
1141    
1142    
1143            /* chroma */
1144    
1145                    for (j = 1; j < mb_height; j++)         /* horizontal deblocking */
1146                    for (i = 0; i < mb_width; i++)
1147                    {
1148                            if (mbs[(j-1)*mb_stride + i].mode != MODE_NOT_CODED ||
1149                                    mbs[(j+0)*mb_stride + i].mode != MODE_NOT_CODED)
1150                            {
1151                                    hfilter_31(img->u + (j*block - 1)*edged_width2 + i*block,
1152                                                       img->u + (j*block + 0)*edged_width2 + i*block, nblocks);
1153                                    hfilter_31(img->v + (j*block - 1)*edged_width2 + i*block,
1154                                                       img->v + (j*block + 0)*edged_width2 + i*block, nblocks);
1155                            }
1156                    }
1157    
1158                    for (j = 0; j < mb_height; j++)         /* vertical deblocking */
1159                    for (i = 1; i < mb_width; i++)
1160                    {
1161                            if (mbs[j*mb_stride + i - 1].mode != MODE_NOT_CODED ||
1162                                    mbs[j*mb_stride + i + 0].mode != MODE_NOT_CODED)
1163                            {
1164                                    vfilter_31(img->u + (j*block)*edged_width2 + i*block - 1,
1165                                                       img->u + (j*block)*edged_width2 + i*block + 0,
1166                                                       edged_width2, nblocks);
1167                                    vfilter_31(img->v + (j*block)*edged_width2 + i*block - 1,
1168                                                       img->v + (j*block)*edged_width2 + i*block + 0,
1169                                                       edged_width2, nblocks);
1170                            }
1171                    }
1172    
1173    
1174    }
1175    

Legend:
Removed from v.323  
changed lines
  Added in v.1382

No admin address has been configured
ViewVC Help
Powered by ViewVC 1.0.4