[svn] / branches / dev-api-4 / xvidcore / src / image / image.c Repository:
ViewVC logotype

Diff of /branches/dev-api-4/xvidcore/src/image/image.c

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

trunk/xvidcore/src/image/image.c revision 677, Tue Nov 26 23:44:11 2002 UTC branches/dev-api-4/xvidcore/src/image/image.c revision 1200, Wed Nov 5 16:15:47 2003 UTC
# Line 1  Line 1 
1  /*****************************************************************************  /**************************************************************************
2   *   *
3   *  XVID MPEG-4 VIDEO CODEC   *  XVID MPEG-4 VIDEO CODEC
4   *  - image module -   *  - Image management functions -
5   *   *
6   *  Copyright(C) 2002 Peter Ross <pross@xvid.org>   *  Copyright(C) 2001-2003 Peter Ross <pross@xvid.org>
7   *   *
8   *  This file is part of XviD, a free MPEG-4 video encoder/decoder   *  This program is free software ; you can redistribute it and/or modify
9   *   *  it under the terms of the GNU General Public License as published by
  *  XviD is free software; you can redistribute it and/or modify it  
  *  under the terms of the GNU General Public License as published by  
10   *  the Free Software Foundation; either version 2 of the License, or   *  the Free Software Foundation; either version 2 of the License, or
11   *  (at your option) any later version.   *  (at your option) any later version.
12   *   *
# Line 21  Line 19 
19   *  along with this program; if not, write to the Free Software   *  along with this program; if not, write to the Free Software
20   *  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA   *  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
21   *   *
22   *  Under section 8 of the GNU General Public License, the copyright   * $Id: image.c,v 1.26.2.11 2003-11-05 16:15:47 edgomez Exp $
  *  holders of XVID explicitly forbid distribution in the following  
  *  countries:  
  *  
  *    - Japan  
  *    - United States of America  
  *  
  *  Linking XviD statically or dynamically with other modules is making a  
  *  combined work based on XviD.  Thus, the terms and conditions of the  
  *  GNU General Public License cover the whole combination.  
  *  
  *  As a special exception, the copyright holders of XviD give you  
  *  permission to link XviD with independent modules that communicate with  
  *  XviD solely through the VFW1.1 and DShow interfaces, regardless of the  
  *  license terms of these independent modules, and to copy and distribute  
  *  the resulting combined work under terms of your choice, provided that  
  *  every copy of the combined work is accompanied by a complete copy of  
  *  the source code of XviD (the version of XviD used to produce the  
  *  combined work), being distributed under the terms of the GNU General  
  *  Public License plus this exception.  An independent module is a module  
  *  which is not derived from or based on XviD.  
  *  
  *  Note that people who make modified versions of XviD are not obligated  
  *  to grant this special exception for their modified versions; it is  
  *  their choice whether to do so.  The GNU General Public License gives  
  *  permission to release a modified version without this exception; this  
  *  exception also makes it possible to release a modified version which  
  *  carries forward this exception.  
  *  
  * $Id: image.c,v 1.25 2002-11-26 23:44:10 edgomez Exp $  
23   *   *
24   ****************************************************************************/   ****************************************************************************/
25    
# Line 59  Line 28 
28  #include <math.h>  #include <math.h>
29    
30  #include "../portab.h"  #include "../portab.h"
31    #include "../global.h"                  /* XVID_CSP_XXX's */
32  #include "../xvid.h"                    /* XVID_CSP_XXX's */  #include "../xvid.h"                    /* XVID_CSP_XXX's */
33  #include "image.h"  #include "image.h"
34  #include "colorspace.h"  #include "colorspace.h"
35  #include "interpolate8x8.h"  #include "interpolate8x8.h"
36  #include "../divx4.h"  #include "reduced.h"
37  #include "../utils/mem_align.h"  #include "../utils/mem_align.h"
38    
39    #include "font.h"               /* XXX: remove later */
40    
41  #define SAFETY  64  #define SAFETY  64
42  #define EDGE_SIZE2  (EDGE_SIZE/2)  #define EDGE_SIZE2  (EDGE_SIZE/2)
43    
# Line 77  Line 49 
49  {  {
50          const uint32_t edged_width2 = edged_width / 2;          const uint32_t edged_width2 = edged_width / 2;
51          const uint32_t edged_height2 = edged_height / 2;          const uint32_t edged_height2 = edged_height / 2;
         uint32_t i;  
52    
53          image->y =          image->y =
54                  xvid_malloc(edged_width * (edged_height + 1) + SAFETY, CACHE_LINE);                  xvid_malloc(edged_width * (edged_height + 1) + SAFETY, CACHE_LINE);
55          if (image->y == NULL) {          if (image->y == NULL) {
56                  return -1;                  return -1;
57          }          }
58            memset(image->y, 0, edged_width * (edged_height + 1) + SAFETY);
         for (i = 0; i < edged_width * edged_height + SAFETY; i++) {  
                 image->y[i] = 0;  
         }  
59    
60          image->u = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);          image->u = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);
61          if (image->u == NULL) {          if (image->u == NULL) {
62                  xvid_free(image->y);                  xvid_free(image->y);
63                    image->y = NULL;
64                  return -1;                  return -1;
65          }          }
66            memset(image->u, 0, edged_width2 * edged_height2 + SAFETY);
67    
68          image->v = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);          image->v = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);
69          if (image->v == NULL) {          if (image->v == NULL) {
70                  xvid_free(image->u);                  xvid_free(image->u);
71                    image->u = NULL;
72                  xvid_free(image->y);                  xvid_free(image->y);
73                    image->y = NULL;
74                  return -1;                  return -1;
75          }          }
76            memset(image->v, 0, edged_width2 * edged_height2 + SAFETY);
77    
78          image->y += EDGE_SIZE * edged_width + EDGE_SIZE;          image->y += EDGE_SIZE * edged_width + EDGE_SIZE;
79          image->u += EDGE_SIZE2 * edged_width2 + EDGE_SIZE2;          image->u += EDGE_SIZE2 * edged_width2 + EDGE_SIZE2;
# Line 119  Line 93 
93    
94          if (image->y) {          if (image->y) {
95                  xvid_free(image->y - (EDGE_SIZE * edged_width + EDGE_SIZE));                  xvid_free(image->y - (EDGE_SIZE * edged_width + EDGE_SIZE));
96                    image->y = NULL;
97          }          }
98          if (image->u) {          if (image->u) {
99                  xvid_free(image->u - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));                  xvid_free(image->u - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));
100                    image->u = NULL;
101          }          }
102          if (image->v) {          if (image->v) {
103                  xvid_free(image->v - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));                  xvid_free(image->v - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));
104                    image->v = NULL;
105          }          }
106  }  }
107    
# Line 133  Line 110 
110  image_swap(IMAGE * image1,  image_swap(IMAGE * image1,
111                     IMAGE * image2)                     IMAGE * image2)
112  {  {
113          uint8_t *tmp;      SWAP(uint8_t*, image1->y, image2->y);
114        SWAP(uint8_t*, image1->u, image2->u);
115          tmp = image1->y;      SWAP(uint8_t*, image1->v, image2->v);
         image1->y = image2->y;  
         image2->y = tmp;  
   
         tmp = image1->u;  
         image1->u = image2->u;  
         image2->u = tmp;  
   
         tmp = image1->v;  
         image1->v = image2->v;  
         image2->v = tmp;  
116  }  }
117    
118    
# Line 169  Line 136 
136                             uint32_t height)                             uint32_t height)
137  {  {
138          const uint32_t edged_width2 = edged_width / 2;          const uint32_t edged_width2 = edged_width / 2;
139          const uint32_t width2 = width / 2;          uint32_t width2;
140          uint32_t i;          uint32_t i;
141          uint8_t *dst;          uint8_t *dst;
142          uint8_t *src;          uint8_t *src;
# Line 178  Line 145 
145          dst = image->y - (EDGE_SIZE + EDGE_SIZE * edged_width);          dst = image->y - (EDGE_SIZE + EDGE_SIZE * edged_width);
146          src = image->y;          src = image->y;
147    
148            /* According to the Standard Clause 7.6.4, padding is done starting at 16
149             * pixel width and height multiples */
150            width  = (width+15)&~15;
151            height = (height+15)&~15;
152            width2 = width/2;
153    
154          for (i = 0; i < EDGE_SIZE; i++) {          for (i = 0; i < EDGE_SIZE; i++) {
155                          memset(dst, *src, EDGE_SIZE);                          memset(dst, *src, EDGE_SIZE);
156                          memcpy(dst + EDGE_SIZE, src, width);                          memcpy(dst + EDGE_SIZE, src, width);
# Line 267  Line 240 
240                                    IMAGE * refhv,                                    IMAGE * refhv,
241                                    uint32_t edged_width,                                    uint32_t edged_width,
242                                    uint32_t edged_height,                                    uint32_t edged_height,
243                                      uint32_t quarterpel,
244                                    uint32_t rounding)                                    uint32_t rounding)
245  {  {
246          const uint32_t offset = EDGE_SIZE * (edged_width + 1);          const uint32_t offset = EDGE_SIZE2 * (edged_width + 1); /* we only interpolate half of the edge area */
247          const uint32_t stride_add = 7 * edged_width;          const uint32_t stride_add = 7 * edged_width;
248    #if 0
249            const uint32_t edged_width2 = edged_width / 2;
250            const uint32_t edged_height2 = edged_height / 2;
251            const uint32_t offset2 = EDGE_SIZE2 * (edged_width2 + 1);
252            const uint32_t stride_add2 = 7 * edged_width2;
253    #endif
254          uint8_t *n_ptr, *h_ptr, *v_ptr, *hv_ptr;          uint8_t *n_ptr, *h_ptr, *v_ptr, *hv_ptr;
255          uint32_t x, y;          uint32_t x, y;
256    
# Line 279  Line 258 
258          n_ptr = refn->y;          n_ptr = refn->y;
259          h_ptr = refh->y;          h_ptr = refh->y;
260          v_ptr = refv->y;          v_ptr = refv->y;
         hv_ptr = refhv->y;  
261    
262          n_ptr -= offset;          n_ptr -= offset;
263          h_ptr -= offset;          h_ptr -= offset;
264          v_ptr -= offset;          v_ptr -= offset;
265    
266            /* Note we initialize the hv pointer later, as we can optimize code a bit
267             * doing it down to up in quarterpel and up to down in halfpel */
268            if(quarterpel) {
269    
270                    for (y = 0; y < (edged_height - EDGE_SIZE); y += 8) {
271                            for (x = 0; x < (edged_width - EDGE_SIZE); x += 8) {
272                                    interpolate8x8_6tap_lowpass_h(h_ptr, n_ptr, edged_width, rounding);
273                                    interpolate8x8_6tap_lowpass_v(v_ptr, n_ptr, edged_width, rounding);
274    
275                                    n_ptr += 8;
276                                    h_ptr += 8;
277                                    v_ptr += 8;
278                            }
279    
280                            n_ptr += EDGE_SIZE;
281                            h_ptr += EDGE_SIZE;
282                            v_ptr += EDGE_SIZE;
283    
284                            h_ptr += stride_add;
285                            v_ptr += stride_add;
286                            n_ptr += stride_add;
287                    }
288    
289                    h_ptr = refh->y + (edged_height - EDGE_SIZE - EDGE_SIZE2)*edged_width - EDGE_SIZE2;
290                    hv_ptr = refhv->y + (edged_height - EDGE_SIZE - EDGE_SIZE2)*edged_width - EDGE_SIZE2;
291    
292                    for (y = 0; y < (edged_height - EDGE_SIZE); y = y + 8) {
293                            hv_ptr -= stride_add;
294                            h_ptr -= stride_add;
295                            hv_ptr -= EDGE_SIZE;
296                            h_ptr -= EDGE_SIZE;
297    
298                            for (x = 0; x < (edged_width - EDGE_SIZE); x = x + 8) {
299                                    hv_ptr -= 8;
300                                    h_ptr -= 8;
301                                    interpolate8x8_6tap_lowpass_v(hv_ptr, h_ptr, edged_width, rounding);
302                            }
303                    }
304            } else {
305    
306                    hv_ptr = refhv->y;
307          hv_ptr -= offset;          hv_ptr -= offset;
308    
309          for (y = 0; y < edged_height; y = y + 8) {                  for (y = 0; y < (edged_height - EDGE_SIZE); y += 8) {
310                  for (x = 0; x < edged_width; x = x + 8) {                          for (x = 0; x < (edged_width - EDGE_SIZE); x += 8) {
311                          interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width, rounding);                          interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width, rounding);
312                          interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width, rounding);                          interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width, rounding);
313                          interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width, rounding);                          interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width, rounding);
# Line 297  Line 317 
317                          v_ptr += 8;                          v_ptr += 8;
318                          hv_ptr += 8;                          hv_ptr += 8;
319                  }                  }
320    
321                            h_ptr += EDGE_SIZE;
322                            v_ptr += EDGE_SIZE;
323                            hv_ptr += EDGE_SIZE;
324                            n_ptr += EDGE_SIZE;
325    
326                  h_ptr += stride_add;                  h_ptr += stride_add;
327                  v_ptr += stride_add;                  v_ptr += stride_add;
328                  hv_ptr += stride_add;                  hv_ptr += stride_add;
329                  n_ptr += stride_add;                  n_ptr += stride_add;
330          }          }
331            }
332    /*
333    #ifdef BFRAMES
334            n_ptr = refn->u;
335            h_ptr = refh->u;
336            v_ptr = refv->u;
337            hv_ptr = refhv->u;
338    
339            n_ptr -= offset2;
340            h_ptr -= offset2;
341            v_ptr -= offset2;
342            hv_ptr -= offset2;
343    
344            for (y = 0; y < edged_height2; y += 8) {
345                    for (x = 0; x < edged_width2; x += 8) {
346                            interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width2, rounding);
347                            interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width2, rounding);
348                            interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width2, rounding);
349    
350                            n_ptr += 8;
351                            h_ptr += 8;
352                            v_ptr += 8;
353                            hv_ptr += 8;
354                    }
355                    h_ptr += stride_add2;
356                    v_ptr += stride_add2;
357                    hv_ptr += stride_add2;
358                    n_ptr += stride_add2;
359            }
360    
361            n_ptr = refn->v;
362            h_ptr = refh->v;
363            v_ptr = refv->v;
364            hv_ptr = refhv->v;
365    
366            n_ptr -= offset2;
367            h_ptr -= offset2;
368            v_ptr -= offset2;
369            hv_ptr -= offset2;
370    
371            for (y = 0; y < edged_height2; y = y + 8) {
372                    for (x = 0; x < edged_width2; x = x + 8) {
373                            interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width2, rounding);
374                            interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width2, rounding);
375                            interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width2, rounding);
376    
377                            n_ptr += 8;
378                            h_ptr += 8;
379                            v_ptr += 8;
380                            hv_ptr += 8;
381                    }
382                    h_ptr += stride_add2;
383                    v_ptr += stride_add2;
384                    hv_ptr += stride_add2;
385                    n_ptr += stride_add2;
386            }
387    #endif
388    */
389          /*          /*
390             interpolate_halfpel_h(             interpolate_halfpel_h(
391             refh->y - offset,             refh->y - offset,
# Line 366  Line 449 
449  }  }
450    
451    
452    /*
453    chroma optimize filter, invented by mf
454    a chroma pixel is average from the surrounding pixels, when the
455    correpsonding luma pixels are pure black or white.
456    */
457    
458    void
459    image_chroma_optimize(IMAGE * img, int width, int height, int edged_width)
460    {
461            int x,y;
462            int pixels = 0;
463    
464            for (y = 1; y < height/2 - 1; y++)
465            for (x = 1; x < width/2 - 1; x++)
466            {
467    #define IS_PURE(a)  ((a)<=16||(a)>=235)
468    #define IMG_Y(Y,X)      img->y[(Y)*edged_width + (X)]
469    #define IMG_U(Y,X)      img->u[(Y)*edged_width/2 + (X)]
470    #define IMG_V(Y,X)      img->v[(Y)*edged_width/2 + (X)]
471    
472                    if (IS_PURE(IMG_Y(y*2  ,x*2  )) &&
473                            IS_PURE(IMG_Y(y*2  ,x*2+1)) &&
474                            IS_PURE(IMG_Y(y*2+1,x*2  )) &&
475                            IS_PURE(IMG_Y(y*2+1,x*2+1)))
476                    {
477                            IMG_U(y,x) = (IMG_U(y,x-1) + IMG_U(y-1, x) + IMG_U(y, x+1) + IMG_U(y+1, x)) / 4;
478                            IMG_V(y,x) = (IMG_V(y,x-1) + IMG_V(y-1, x) + IMG_V(y, x+1) + IMG_V(y+1, x)) / 4;
479                            pixels++;
480                    }
481    
482    #undef IS_PURE
483    #undef IMG_Y
484    #undef IMG_U
485    #undef IMG_V
486            }
487    
488            DPRINTF(XVID_DEBUG_DEBUG,"chroma_optimized_pixels = %i/%i\n", pixels, width*height/4);
489    }
490    
491    
492    
493    
494    
495    /*
496      perform safe packed colorspace conversion, by splitting
497      the image up into an optimized area (pixel width divisible by 16),
498      and two unoptimized/plain-c areas (pixel width divisible by 2)
499    */
500    
501    static void
502    safe_packed_conv(uint8_t * x_ptr, int x_stride,
503                                     uint8_t * y_ptr, uint8_t * u_ptr, uint8_t * v_ptr,
504                                     int y_stride, int uv_stride,
505                                     int width, int height, int vflip,
506                                     packedFunc * func_opt, packedFunc func_c, int size)
507    {
508            int width_opt, width_c;
509    
510            if (func_opt != func_c && x_stride < size*((width+15)/16)*16)
511            {
512                    width_opt = width & (~15);
513                    width_c = width - width_opt;
514            }
515            else
516            {
517                    width_opt = width;
518                    width_c = 0;
519            }
520    
521            func_opt(x_ptr, x_stride,
522                            y_ptr, u_ptr, v_ptr, y_stride, uv_stride,
523                            width_opt, height, vflip);
524    
525            if (width_c)
526            {
527                    func_c(x_ptr + size*width_opt, x_stride,
528                            y_ptr + width_opt, u_ptr + width_opt/2, v_ptr + width_opt/2,
529                            y_stride, uv_stride, width_c, height, vflip);
530            }
531    }
532    
533    
534    
535  int  int
536  image_input(IMAGE * image,  image_input(IMAGE * image,
537                          uint32_t width,                          uint32_t width,
538                          int height,                          int height,
539                          uint32_t edged_width,                          uint32_t edged_width,
540                          uint8_t * src,                          uint8_t * src[4],
541                          int csp)                          int src_stride[4],
542                            int csp,
543                            int interlacing)
544  {  {
545            const int edged_width2 = edged_width/2;
546  /*      if (csp & XVID_CSP_VFLIP)          const int width2 = width/2;
547          {          const int height2 = height/2;
548                  height = -height;  #if 0
549          }          const int height_signed = (csp & XVID_CSP_VFLIP) ? -height : height;
550  */  #endif
551    
552          switch (csp & ~XVID_CSP_VFLIP) {          switch (csp & ~XVID_CSP_VFLIP) {
553          case XVID_CSP_RGB555:          case XVID_CSP_RGB555:
554                  rgb555_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
555                                             edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
556                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
557                            interlacing?rgb555i_to_yv12  :rgb555_to_yv12,
558                            interlacing?rgb555i_to_yv12_c:rgb555_to_yv12_c, 2);
559                    break;
560    
561          case XVID_CSP_RGB565:          case XVID_CSP_RGB565:
562                  rgb565_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
563                                             edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
564                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
565                            interlacing?rgb565i_to_yv12  :rgb565_to_yv12,
566                            interlacing?rgb565i_to_yv12_c:rgb565_to_yv12_c, 2);
567                    break;
568    
569    
570          case XVID_CSP_RGB24:          case XVID_CSP_BGR:
571                  rgb24_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
572                                            edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
573                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
574                            interlacing?bgri_to_yv12  :bgr_to_yv12,
575                            interlacing?bgri_to_yv12_c:bgr_to_yv12_c, 3);
576                    break;
577    
578          case XVID_CSP_RGB32:          case XVID_CSP_BGRA:
579                  rgb32_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
580                                            edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
581                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
582                            interlacing?bgrai_to_yv12  :bgra_to_yv12,
583                            interlacing?bgrai_to_yv12_c:bgra_to_yv12_c, 4);
584                    break;
585    
586          case XVID_CSP_I420:          case XVID_CSP_ABGR :
587                  yuv_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
588                                          edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
589                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
590                            interlacing?abgri_to_yv12  :abgr_to_yv12,
591                            interlacing?abgri_to_yv12_c:abgr_to_yv12_c, 4);
592                    break;
593    
594          case XVID_CSP_YV12:             /* u/v swapped */          case XVID_CSP_RGBA :
595                  yuv_to_yv12(image->y, image->v, image->u, src, width, height,                  safe_packed_conv(
596                                          edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
597                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
598                            interlacing?rgbai_to_yv12  :rgba_to_yv12,
599                            interlacing?rgbai_to_yv12_c:rgba_to_yv12_c, 4);
600                    break;
601    
602          case XVID_CSP_YUY2:          case XVID_CSP_YUY2:
603                  yuyv_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
604                                           edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
605                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
606                            interlacing?yuyvi_to_yv12  :yuyv_to_yv12,
607                            interlacing?yuyvi_to_yv12_c:yuyv_to_yv12_c, 2);
608                    break;
609    
610          case XVID_CSP_YVYU:             /* u/v swapped */          case XVID_CSP_YVYU:             /* u/v swapped */
611                  yuyv_to_yv12(image->y, image->v, image->u, src, width, height,                  safe_packed_conv(
612                                           edged_width);                          src[0], src_stride[0], image->y, image->v, image->y,
613                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
614                            interlacing?yuyvi_to_yv12  :yuyv_to_yv12,
615                            interlacing?yuyvi_to_yv12_c:yuyv_to_yv12_c, 2);
616                    break;
617    
618          case XVID_CSP_UYVY:          case XVID_CSP_UYVY:
619                  uyvy_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
620                                           edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
621                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
622                            interlacing?uyvyi_to_yv12  :uyvy_to_yv12,
623                            interlacing?uyvyi_to_yv12_c:uyvy_to_yv12_c, 2);
624                    break;
625    
626            case XVID_CSP_I420:
627                    yv12_to_yv12(image->y, image->u, image->v, edged_width, edged_width2,
628                            src[0], src[0] + src_stride[0]*height, src[0] + src_stride[0]*height + (src_stride[0]/2)*height2,
629                            src_stride[0], src_stride[0]/2, width, height, (csp & XVID_CSP_VFLIP));
630                    break
631                            ;
632            case XVID_CSP_YV12:             /* u/v swapped */
633                    yv12_to_yv12(image->y, image->v, image->u, edged_width, edged_width2,
634                            src[0], src[0] + src_stride[0]*height, src[0] + src_stride[0]*height + (src_stride[0]/2)*height2,
635                            src_stride[0], src_stride[0]/2, width, height, (csp & XVID_CSP_VFLIP));
636                    break;
637    
638          case XVID_CSP_USER:          case XVID_CSP_USER:
639                  user_to_yuv_c(image->y, image->u, image->v, edged_width,          /*XXX: support for different u & v strides */
640                                            (DEC_PICTURE *) src, width, height);                  yv12_to_yv12(image->y, image->u, image->v, edged_width, edged_width2,
641                  return 0;                          src[0], src[1], src[2], src_stride[0], src_stride[1],
642                            width, height, (csp & XVID_CSP_VFLIP));
643                    break;
644    
645          case XVID_CSP_NULL:          case XVID_CSP_NULL:
646                  break;                  break;
647    
648            default :
649                    return -1;
650          }          }
651    
652          return -1;  
653            /* pad out image when the width and/or height is not a multiple of 16 */
654    
655            if (width & 15)
656            {
657                    int i;
658                    int pad_width = 16 - (width&15);
659                    for (i = 0; i < height; i++)
660                    {
661                            memset(image->y + i*edged_width + width,
662                                     *(image->y + i*edged_width + width - 1), pad_width);
663                    }
664                    for (i = 0; i < height/2; i++)
665                    {
666                            memset(image->u + i*edged_width2 + width2,
667                                     *(image->u + i*edged_width2 + width2 - 1),pad_width/2);
668                            memset(image->v + i*edged_width2 + width2,
669                                     *(image->v + i*edged_width2 + width2 - 1),pad_width/2);
670                    }
671            }
672    
673            if (height & 15)
674            {
675                    int pad_height = 16 - (height&15);
676                    int length = ((width+15)/16)*16;
677                    int i;
678                    for (i = 0; i < pad_height; i++)
679                    {
680                            memcpy(image->y + (height+i)*edged_width,
681                                       image->y + (height-1)*edged_width,length);
682                    }
683    
684                    for (i = 0; i < pad_height/2; i++)
685                    {
686                            memcpy(image->u + (height2+i)*edged_width2,
687                                       image->u + (height2-1)*edged_width2,length/2);
688                            memcpy(image->v + (height2+i)*edged_width2,
689                                       image->v + (height2-1)*edged_width2,length/2);
690                    }
691            }
692    
693    /*
694            if (interlacing)
695                    image_printf(image, edged_width, height, 5,5, "[i]");
696            image_dump_yuvpgm(image, edged_width, ((width+15)/16)*16, ((height+15)/16)*16, "\\encode.pgm");
697    */
698            return 0;
699  }  }
700    
701    
# Line 448  Line 705 
705                           uint32_t width,                           uint32_t width,
706                           int height,                           int height,
707                           uint32_t edged_width,                           uint32_t edged_width,
708                           uint8_t * dst,                           uint8_t * dst[4],
709                           uint32_t dst_stride,                           uint32_t dst_stride[4],
710                           int csp)                           int csp,
711                             int interlacing)
712  {  {
713          if (csp & XVID_CSP_VFLIP) {          const int edged_width2 = edged_width/2;
714                  height = -height;          int height2 = height/2;
715          }  
716    /*
717            if (interlacing)
718                    image_printf(image, edged_width, height, 5,100, "[i]=%i,%i",width,height);
719            image_dump_yuvpgm(image, edged_width, width, height, "\\decode.pgm");
720    */
721    
722          switch (csp & ~XVID_CSP_VFLIP) {          switch (csp & ~XVID_CSP_VFLIP) {
723          case XVID_CSP_RGB555:          case XVID_CSP_RGB555:
724                  yv12_to_rgb555(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
725                                             edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
726                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
727                            interlacing?yv12_to_rgb555i  :yv12_to_rgb555,
728                            interlacing?yv12_to_rgb555i_c:yv12_to_rgb555_c, 2);
729                  return 0;                  return 0;
730    
731          case XVID_CSP_RGB565:          case XVID_CSP_RGB565:
732                  yv12_to_rgb565(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
733                                             edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
734                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
735                            interlacing?yv12_to_rgb565i  :yv12_to_rgb565,
736          case XVID_CSP_RGB24:                          interlacing?yv12_to_rgb565i_c:yv12_to_rgb565_c, 2);
737                  yv12_to_rgb24(dst, dst_stride, image->y, image->u, image->v,                  return 0;
738                                            edged_width, edged_width / 2, width, height);  
739                  return 0;      case XVID_CSP_BGR:
740                    safe_packed_conv(
741          case XVID_CSP_RGB32:                          dst[0], dst_stride[0], image->y, image->u, image->v,
742                  yv12_to_rgb32(dst, dst_stride, image->y, image->u, image->v,                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
743                                            edged_width, edged_width / 2, width, height);                          interlacing?yv12_to_bgri  :yv12_to_bgr,
744                  return 0;                          interlacing?yv12_to_bgri_c:yv12_to_bgr_c, 3);
745                    return 0;
746          case XVID_CSP_I420:  
747                  yv12_to_yuv(dst, dst_stride, image->y, image->u, image->v, edged_width,          case XVID_CSP_BGRA:
748                                          edged_width / 2, width, height);                  safe_packed_conv(
749                  return 0;                          dst[0], dst_stride[0], image->y, image->u, image->v,
750                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
751          case XVID_CSP_YV12:             /* u,v swapped */                          interlacing?yv12_to_bgrai  :yv12_to_bgra,
752                  yv12_to_yuv(dst, dst_stride, image->y, image->v, image->u, edged_width,                          interlacing?yv12_to_bgrai_c:yv12_to_bgra_c, 4);
753                                          edged_width / 2, width, height);                  return 0;
754    
755            case XVID_CSP_ABGR:
756                    safe_packed_conv(
757                            dst[0], dst_stride[0], image->y, image->u, image->v,
758                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
759                            interlacing?yv12_to_abgri  :yv12_to_abgr,
760                            interlacing?yv12_to_abgri_c:yv12_to_abgr_c, 4);
761                    return 0;
762    
763            case XVID_CSP_RGBA:
764                    safe_packed_conv(
765                            dst[0], dst_stride[0], image->y, image->u, image->v,
766                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
767                            interlacing?yv12_to_rgbai  :yv12_to_rgba,
768                            interlacing?yv12_to_rgbai_c:yv12_to_rgba_c, 4);
769                  return 0;                  return 0;
770    
771          case XVID_CSP_YUY2:          case XVID_CSP_YUY2:
772                  yv12_to_yuyv(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
773                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
774                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
775                            interlacing?yv12_to_yuyvi  :yv12_to_yuyv,
776                            interlacing?yv12_to_yuyvi_c:yv12_to_yuyv_c, 2);
777                  return 0;                  return 0;
778    
779          case XVID_CSP_YVYU:             /* u,v swapped */          case XVID_CSP_YVYU:             /* u,v swapped */
780                  yv12_to_yuyv(dst, dst_stride, image->y, image->v, image->u,                  safe_packed_conv(
781                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->v, image->u,
782                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
783                            interlacing?yv12_to_yuyvi  :yv12_to_yuyv,
784                            interlacing?yv12_to_yuyvi_c:yv12_to_yuyv_c, 2);
785                  return 0;                  return 0;
786    
787          case XVID_CSP_UYVY:          case XVID_CSP_UYVY:
788                  yv12_to_uyvy(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
789                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
790                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
791                            interlacing?yv12_to_uyvyi  :yv12_to_uyvy,
792                            interlacing?yv12_to_uyvyi_c:yv12_to_uyvy_c, 2);
793                  return 0;                  return 0;
794    
795          case XVID_CSP_USER:          case XVID_CSP_I420:
796                  ((DEC_PICTURE *) dst)->y = image->y;                  yv12_to_yv12(dst[0], dst[0] + dst_stride[0]*height, dst[0] + dst_stride[0]*height + (dst_stride[0]/2)*height2,
797                  ((DEC_PICTURE *) dst)->u = image->u;                          dst_stride[0], dst_stride[0]/2,
798                  ((DEC_PICTURE *) dst)->v = image->v;                          image->y, image->u, image->v, edged_width, edged_width2,
799                  ((DEC_PICTURE *) dst)->stride_y = edged_width;                          width, height, (csp & XVID_CSP_VFLIP));
800                  ((DEC_PICTURE *) dst)->stride_uv = edged_width / 2;                  return 0;
801    
802            case XVID_CSP_YV12:             /* u,v swapped */
803                    yv12_to_yv12(dst[0], dst[0] + dst_stride[0]*height, dst[0] + dst_stride[0]*height + (dst_stride[0]/2)*height2,
804                            dst_stride[0], dst_stride[0]/2,
805                            image->y, image->v, image->u, edged_width, edged_width2,
806                            width, height, (csp & XVID_CSP_VFLIP));
807                    return 0;
808    
809            case XVID_CSP_USER :            /* u,v swapped */
810                    yv12_to_yv12(dst[0], dst[1], dst[2],
811                            dst_stride[0], dst_stride[1],   /* v: dst_stride[2] */
812                            image->y, image->v, image->u, edged_width, edged_width2,
813                            width, height, (csp & XVID_CSP_VFLIP));
814                    return 0;
815    
816            case XVID_CSP_INTERNAL :
817                    dst[0] = image->y;
818                    dst[1] = image->u;
819                    dst[2] = image->v;
820                    dst_stride[0] = edged_width;
821                    dst_stride[1] = edged_width/2;
822                    dst_stride[2] = edged_width/2;
823                  return 0;                  return 0;
824    
825          case XVID_CSP_NULL:          case XVID_CSP_NULL:
826          case XVID_CSP_EXTERN:          case XVID_CSP_SLICE:
827                  return 0;                  return 0;
828    
829          }          }
# Line 551  Line 863 
863          return psnr_y;          return psnr_y;
864  }  }
865    
866    
867    float sse_to_PSNR(long sse, int pixels)
868    {
869            if (sse==0)
870                    return 99.99F;
871    
872            return 48.131F - 10*(float)log10((float)sse/(float)(pixels));   /* log10(255*255)=4.8131 */
873    
874    }
875    
876    long plane_sse(uint8_t * orig,
877                       uint8_t * recon,
878                       uint16_t stride,
879                       uint16_t width,
880                       uint16_t height)
881    {
882            int diff, x, y;
883            long sse=0;
884    
885            for (y = 0; y < height; y++) {
886                    for (x = 0; x < width; x++) {
887                            diff = *(orig + x) - *(recon + x);
888                            sse += diff * diff;
889                    }
890                    orig += stride;
891                    recon += stride;
892            }
893            return sse;
894    }
895    
896  #if     0  #if     0
897    
898  #include <stdio.h>  #include <stdio.h>
# Line 647  Line 989 
989  }  }
990    
991    
 #define ABS(X)    (((X)>0)?(X):-(X))  
992  float  float
993  image_mad(const IMAGE * img1,  image_mad(const IMAGE * img1,
994                    const IMAGE * img2,                    const IMAGE * img2,
# Line 664  Line 1005 
1005    
1006          for (y = 0; y < height; y++)          for (y = 0; y < height; y++)
1007                  for (x = 0; x < width; x++)                  for (x = 0; x < width; x++)
1008                          sum += ABS(img1->y[x + y * stride] - img2->y[x + y * stride]);                          sum += abs(img1->y[x + y * stride] - img2->y[x + y * stride]);
1009    
1010          for (y = 0; y < height2; y++)          for (y = 0; y < height2; y++)
1011                  for (x = 0; x < width2; x++)                  for (x = 0; x < width2; x++)
1012                          sum += ABS(img1->u[x + y * stride2] - img2->u[x + y * stride2]);                          sum += abs(img1->u[x + y * stride2] - img2->u[x + y * stride2]);
1013    
1014          for (y = 0; y < height2; y++)          for (y = 0; y < height2; y++)
1015                  for (x = 0; x < width2; x++)                  for (x = 0; x < width2; x++)
1016                          sum += ABS(img1->v[x + y * stride2] - img2->v[x + y * stride2]);                          sum += abs(img1->v[x + y * stride2] - img2->v[x + y * stride2]);
1017    
1018          return (float) sum / (width * height * 3 / 2);          return (float) sum / (width * height * 3 / 2);
1019  }  }
1020    
1021  void  void
1022  output_slice(IMAGE * cur, int std, int width, XVID_DEC_PICTURE* out_frm, int mbx, int mby,int mbl) {  output_slice(IMAGE * cur, int std, int width, xvid_image_t* out_frm, int mbx, int mby,int mbl) {
1023    uint8_t *dY,*dU,*dV,*sY,*sU,*sV;    uint8_t *dY,*dU,*dV,*sY,*sU,*sV;
1024    int std2 = std >> 1;    int std2 = std >> 1;
1025    int w = mbl << 4, w2,i;    int w = mbl << 4, w2,i;
# Line 687  Line 1028 
1028      w = width;      w = width;
1029    w2 = w >> 1;    w2 = w >> 1;
1030    
1031    dY = (uint8_t*)out_frm->y + (mby << 4) * out_frm->stride_y + (mbx << 4);    dY = (uint8_t*)out_frm->plane[0] + (mby << 4) * out_frm->stride[0] + (mbx << 4);
1032    dU = (uint8_t*)out_frm->u + (mby << 3) * out_frm->stride_u + (mbx << 3);    dU = (uint8_t*)out_frm->plane[1] + (mby << 3) * out_frm->stride[1] + (mbx << 3);
1033    dV = (uint8_t*)out_frm->v + (mby << 3) * out_frm->stride_v + (mbx << 3);    dV = (uint8_t*)out_frm->plane[2] + (mby << 3) * out_frm->stride[2] + (mbx << 3);
1034    sY = cur->y + (mby << 4) * std + (mbx << 4);    sY = cur->y + (mby << 4) * std + (mbx << 4);
1035    sU = cur->u + (mby << 3) * std2 + (mbx << 3);    sU = cur->u + (mby << 3) * std2 + (mbx << 3);
1036    sV = cur->v + (mby << 3) * std2 + (mbx << 3);    sV = cur->v + (mby << 3) * std2 + (mbx << 3);
1037    
1038    for(i = 0 ; i < 16 ; i++) {    for(i = 0 ; i < 16 ; i++) {
1039      memcpy(dY,sY,w);      memcpy(dY,sY,w);
1040      dY += out_frm->stride_y;      dY += out_frm->stride[0];
1041      sY += std;      sY += std;
1042    }    }
1043    for(i = 0 ; i < 8 ; i++) {    for(i = 0 ; i < 8 ; i++) {
1044      memcpy(dU,sU,w2);      memcpy(dU,sU,w2);
1045      dU += out_frm->stride_u;      dU += out_frm->stride[1];
1046      sU += std2;      sU += std2;
1047    }    }
1048    for(i = 0 ; i < 8 ; i++) {    for(i = 0 ; i < 8 ; i++) {
1049      memcpy(dV,sV,w2);      memcpy(dV,sV,w2);
1050      dV += out_frm->stride_v;      dV += out_frm->stride[2];
1051      sV += std2;      sV += std2;
1052    }    }
1053  }  }
1054    
1055    
1056    void
1057    image_clear(IMAGE * img, int width, int height, int edged_width,
1058                                            int y, int u, int v)
1059    {
1060            uint8_t * p;
1061            int i;
1062    
1063            p = img->y;
1064            for (i = 0; i < height; i++) {
1065                    memset(p, y, width);
1066                    p += edged_width;
1067            }
1068    
1069            p = img->u;
1070            for (i = 0; i < height/2; i++) {
1071                    memset(p, u, width/2);
1072                    p += edged_width/2;
1073            }
1074    
1075            p = img->v;
1076            for (i = 0; i < height/2; i++) {
1077                    memset(p, v, width/2);
1078                    p += edged_width/2;
1079            }
1080    }
1081    
1082    
1083    /* reduced resolution deblocking filter
1084            block = block size (16=rrv, 8=full resolution)
1085            flags = XVID_DEC_YDEBLOCK|XVID_DEC_UVDEBLOCK
1086    */
1087    void
1088    image_deblock_rrv(IMAGE * img, int edged_width,
1089                                    const MACROBLOCK * mbs, int mb_width, int mb_height, int mb_stride,
1090                                    int block, int flags)
1091    {
1092            const int edged_width2 = edged_width /2;
1093            const int nblocks = block / 8;  /* skals code uses 8pixel block uints */
1094            int i,j;
1095    
1096            /* luma: j,i in block units */
1097    
1098                    for (j = 1; j < mb_height*2; j++)               /* horizontal deblocking */
1099                    for (i = 0; i < mb_width*2; i++)
1100                    {
1101                            if (mbs[(j-1)/2*mb_stride + (i/2)].mode != MODE_NOT_CODED ||
1102                                    mbs[(j+0)/2*mb_stride + (i/2)].mode != MODE_NOT_CODED)
1103                            {
1104                                    hfilter_31(img->y + (j*block - 1)*edged_width + i*block,
1105                                                                      img->y + (j*block + 0)*edged_width + i*block, nblocks);
1106                            }
1107                    }
1108    
1109                    for (j = 0; j < mb_height*2; j++)               /* vertical deblocking */
1110                    for (i = 1; i < mb_width*2; i++)
1111                    {
1112                            if (mbs[(j/2)*mb_stride + (i-1)/2].mode != MODE_NOT_CODED ||
1113                                    mbs[(j/2)*mb_stride + (i+0)/2].mode != MODE_NOT_CODED)
1114                            {
1115                                    vfilter_31(img->y + (j*block)*edged_width + i*block - 1,
1116                                                       img->y + (j*block)*edged_width + i*block + 0,
1117                                                       edged_width, nblocks);
1118                            }
1119                    }
1120    
1121    
1122    
1123            /* chroma */
1124    
1125                    for (j = 1; j < mb_height; j++)         /* horizontal deblocking */
1126                    for (i = 0; i < mb_width; i++)
1127                    {
1128                            if (mbs[(j-1)*mb_stride + i].mode != MODE_NOT_CODED ||
1129                                    mbs[(j+0)*mb_stride + i].mode != MODE_NOT_CODED)
1130                            {
1131                                    hfilter_31(img->u + (j*block - 1)*edged_width2 + i*block,
1132                                                       img->u + (j*block + 0)*edged_width2 + i*block, nblocks);
1133                                    hfilter_31(img->v + (j*block - 1)*edged_width2 + i*block,
1134                                                       img->v + (j*block + 0)*edged_width2 + i*block, nblocks);
1135                            }
1136                    }
1137    
1138                    for (j = 0; j < mb_height; j++)         /* vertical deblocking */
1139                    for (i = 1; i < mb_width; i++)
1140                    {
1141                            if (mbs[j*mb_stride + i - 1].mode != MODE_NOT_CODED ||
1142                                    mbs[j*mb_stride + i + 0].mode != MODE_NOT_CODED)
1143                            {
1144                                    vfilter_31(img->u + (j*block)*edged_width2 + i*block - 1,
1145                                                       img->u + (j*block)*edged_width2 + i*block + 0,
1146                                                       edged_width2, nblocks);
1147                                    vfilter_31(img->v + (j*block)*edged_width2 + i*block - 1,
1148                                                       img->v + (j*block)*edged_width2 + i*block + 0,
1149                                                       edged_width2, nblocks);
1150                            }
1151                    }
1152    
1153    
1154    }
1155    

Legend:
Removed from v.677  
changed lines
  Added in v.1200

No admin address has been configured
ViewVC Help
Powered by ViewVC 1.0.4