[svn] / branches / dev-api-4 / xvidcore / src / image / image.c Repository:
ViewVC logotype

Diff of /branches/dev-api-4/xvidcore/src/image/image.c

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

trunk/xvidcore/src/image/image.c revision 677, Tue Nov 26 23:44:11 2002 UTC branches/dev-api-4/xvidcore/src/image/image.c revision 1161, Wed Oct 1 23:23:01 2003 UTC
# Line 1  Line 1 
1  /*****************************************************************************  /**************************************************************************
2   *   *
3   *  XVID MPEG-4 VIDEO CODEC   *  XVID MPEG-4 VIDEO CODEC
4   *  - image module -   *  - Image management functions -
5   *   *
6   *  Copyright(C) 2002 Peter Ross <pross@xvid.org>   *  Copyright(C) 2001-2003 Peter Ross <pross@xvid.org>
7   *   *
8   *  This file is part of XviD, a free MPEG-4 video encoder/decoder   *  This program is free software ; you can redistribute it and/or modify
9   *   *  it under the terms of the GNU General Public License as published by
  *  XviD is free software; you can redistribute it and/or modify it  
  *  under the terms of the GNU General Public License as published by  
10   *  the Free Software Foundation; either version 2 of the License, or   *  the Free Software Foundation; either version 2 of the License, or
11   *  (at your option) any later version.   *  (at your option) any later version.
12   *   *
# Line 21  Line 19 
19   *  along with this program; if not, write to the Free Software   *  along with this program; if not, write to the Free Software
20   *  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA   *  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
21   *   *
22   *  Under section 8 of the GNU General Public License, the copyright   * $Id: image.c,v 1.26.2.10 2003-10-01 23:23:01 edgomez Exp $
  *  holders of XVID explicitly forbid distribution in the following  
  *  countries:  
  *  
  *    - Japan  
  *    - United States of America  
  *  
  *  Linking XviD statically or dynamically with other modules is making a  
  *  combined work based on XviD.  Thus, the terms and conditions of the  
  *  GNU General Public License cover the whole combination.  
  *  
  *  As a special exception, the copyright holders of XviD give you  
  *  permission to link XviD with independent modules that communicate with  
  *  XviD solely through the VFW1.1 and DShow interfaces, regardless of the  
  *  license terms of these independent modules, and to copy and distribute  
  *  the resulting combined work under terms of your choice, provided that  
  *  every copy of the combined work is accompanied by a complete copy of  
  *  the source code of XviD (the version of XviD used to produce the  
  *  combined work), being distributed under the terms of the GNU General  
  *  Public License plus this exception.  An independent module is a module  
  *  which is not derived from or based on XviD.  
  *  
  *  Note that people who make modified versions of XviD are not obligated  
  *  to grant this special exception for their modified versions; it is  
  *  their choice whether to do so.  The GNU General Public License gives  
  *  permission to release a modified version without this exception; this  
  *  exception also makes it possible to release a modified version which  
  *  carries forward this exception.  
  *  
  * $Id: image.c,v 1.25 2002-11-26 23:44:10 edgomez Exp $  
23   *   *
24   ****************************************************************************/   ****************************************************************************/
25    
# Line 59  Line 28 
28  #include <math.h>  #include <math.h>
29    
30  #include "../portab.h"  #include "../portab.h"
31    #include "../global.h"                  /* XVID_CSP_XXX's */
32  #include "../xvid.h"                    /* XVID_CSP_XXX's */  #include "../xvid.h"                    /* XVID_CSP_XXX's */
33  #include "image.h"  #include "image.h"
34  #include "colorspace.h"  #include "colorspace.h"
35  #include "interpolate8x8.h"  #include "interpolate8x8.h"
36  #include "../divx4.h"  #include "reduced.h"
37  #include "../utils/mem_align.h"  #include "../utils/mem_align.h"
38    
39    #include "font.h"               /* XXX: remove later */
40    
41  #define SAFETY  64  #define SAFETY  64
42  #define EDGE_SIZE2  (EDGE_SIZE/2)  #define EDGE_SIZE2  (EDGE_SIZE/2)
43    
# Line 77  Line 49 
49  {  {
50          const uint32_t edged_width2 = edged_width / 2;          const uint32_t edged_width2 = edged_width / 2;
51          const uint32_t edged_height2 = edged_height / 2;          const uint32_t edged_height2 = edged_height / 2;
         uint32_t i;  
52    
53          image->y =          image->y =
54                  xvid_malloc(edged_width * (edged_height + 1) + SAFETY, CACHE_LINE);                  xvid_malloc(edged_width * (edged_height + 1) + SAFETY, CACHE_LINE);
55          if (image->y == NULL) {          if (image->y == NULL) {
56                  return -1;                  return -1;
57          }          }
58            memset(image->y, 0, edged_width * (edged_height + 1) + SAFETY);
         for (i = 0; i < edged_width * edged_height + SAFETY; i++) {  
                 image->y[i] = 0;  
         }  
59    
60          image->u = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);          image->u = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);
61          if (image->u == NULL) {          if (image->u == NULL) {
62                  xvid_free(image->y);                  xvid_free(image->y);
63                    image->y = NULL;
64                  return -1;                  return -1;
65          }          }
66            memset(image->u, 0, edged_width2 * edged_height2 + SAFETY);
67    
68          image->v = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);          image->v = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);
69          if (image->v == NULL) {          if (image->v == NULL) {
70                  xvid_free(image->u);                  xvid_free(image->u);
71                    image->u = NULL;
72                  xvid_free(image->y);                  xvid_free(image->y);
73                    image->y = NULL;
74                  return -1;                  return -1;
75          }          }
76            memset(image->v, 0, edged_width2 * edged_height2 + SAFETY);
77    
78          image->y += EDGE_SIZE * edged_width + EDGE_SIZE;          image->y += EDGE_SIZE * edged_width + EDGE_SIZE;
79          image->u += EDGE_SIZE2 * edged_width2 + EDGE_SIZE2;          image->u += EDGE_SIZE2 * edged_width2 + EDGE_SIZE2;
# Line 119  Line 93 
93    
94          if (image->y) {          if (image->y) {
95                  xvid_free(image->y - (EDGE_SIZE * edged_width + EDGE_SIZE));                  xvid_free(image->y - (EDGE_SIZE * edged_width + EDGE_SIZE));
96                    image->y = NULL;
97          }          }
98          if (image->u) {          if (image->u) {
99                  xvid_free(image->u - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));                  xvid_free(image->u - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));
100                    image->u = NULL;
101          }          }
102          if (image->v) {          if (image->v) {
103                  xvid_free(image->v - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));                  xvid_free(image->v - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));
104                    image->v = NULL;
105          }          }
106  }  }
107    
# Line 133  Line 110 
110  image_swap(IMAGE * image1,  image_swap(IMAGE * image1,
111                     IMAGE * image2)                     IMAGE * image2)
112  {  {
113          uint8_t *tmp;      SWAP(uint8_t*, image1->y, image2->y);
114        SWAP(uint8_t*, image1->u, image2->u);
115          tmp = image1->y;      SWAP(uint8_t*, image1->v, image2->v);
         image1->y = image2->y;  
         image2->y = tmp;  
   
         tmp = image1->u;  
         image1->u = image2->u;  
         image2->u = tmp;  
   
         tmp = image1->v;  
         image1->v = image2->v;  
         image2->v = tmp;  
116  }  }
117    
118    
# Line 169  Line 136 
136                             uint32_t height)                             uint32_t height)
137  {  {
138          const uint32_t edged_width2 = edged_width / 2;          const uint32_t edged_width2 = edged_width / 2;
139          const uint32_t width2 = width / 2;          uint32_t width2;
140          uint32_t i;          uint32_t i;
141          uint8_t *dst;          uint8_t *dst;
142          uint8_t *src;          uint8_t *src;
# Line 178  Line 145 
145          dst = image->y - (EDGE_SIZE + EDGE_SIZE * edged_width);          dst = image->y - (EDGE_SIZE + EDGE_SIZE * edged_width);
146          src = image->y;          src = image->y;
147    
148            /* According to the Standard Clause 7.6.4, padding is done starting at 16
149             * pixel width and height multiples */
150            width  = (width+15)&~15;
151            height = (height+15)&~15;
152            width2 = width/2;
153    
154          for (i = 0; i < EDGE_SIZE; i++) {          for (i = 0; i < EDGE_SIZE; i++) {
155                          memset(dst, *src, EDGE_SIZE);                          memset(dst, *src, EDGE_SIZE);
156                          memcpy(dst + EDGE_SIZE, src, width);                          memcpy(dst + EDGE_SIZE, src, width);
# Line 267  Line 240 
240                                    IMAGE * refhv,                                    IMAGE * refhv,
241                                    uint32_t edged_width,                                    uint32_t edged_width,
242                                    uint32_t edged_height,                                    uint32_t edged_height,
243                                      uint32_t quarterpel,
244                                    uint32_t rounding)                                    uint32_t rounding)
245  {  {
246          const uint32_t offset = EDGE_SIZE * (edged_width + 1);          const uint32_t offset = EDGE_SIZE2 * (edged_width + 1); /* we only interpolate half of the edge area */
247          const uint32_t stride_add = 7 * edged_width;          const uint32_t stride_add = 7 * edged_width;
248    #if 0
249            const uint32_t edged_width2 = edged_width / 2;
250            const uint32_t edged_height2 = edged_height / 2;
251            const uint32_t offset2 = EDGE_SIZE2 * (edged_width2 + 1);
252            const uint32_t stride_add2 = 7 * edged_width2;
253    #endif
254          uint8_t *n_ptr, *h_ptr, *v_ptr, *hv_ptr;          uint8_t *n_ptr, *h_ptr, *v_ptr, *hv_ptr;
255          uint32_t x, y;          uint32_t x, y;
256    
# Line 286  Line 265 
265          v_ptr -= offset;          v_ptr -= offset;
266          hv_ptr -= offset;          hv_ptr -= offset;
267    
268          for (y = 0; y < edged_height; y = y + 8) {          if(quarterpel) {
269                  for (x = 0; x < edged_width; x = x + 8) {  
270                    for (y = 0; y < (edged_height - EDGE_SIZE); y += 8) {
271                            for (x = 0; x < (edged_width - EDGE_SIZE); x += 8) {
272                                    interpolate8x8_6tap_lowpass_h(h_ptr, n_ptr, edged_width, rounding);
273                                    interpolate8x8_6tap_lowpass_v(v_ptr, n_ptr, edged_width, rounding);
274    
275                                    n_ptr += 8;
276                                    h_ptr += 8;
277                                    v_ptr += 8;
278                            }
279    
280                            n_ptr += EDGE_SIZE;
281                            h_ptr += EDGE_SIZE;
282                            v_ptr += EDGE_SIZE;
283    
284                            h_ptr += stride_add;
285                            v_ptr += stride_add;
286                            n_ptr += stride_add;
287                    }
288    
289                    h_ptr = refh->y;
290                    h_ptr -= offset;
291    
292                    for (y = 0; y < (edged_height - EDGE_SIZE); y = y + 8) {
293                            for (x = 0; x < (edged_width - EDGE_SIZE); x = x + 8) {
294                                    interpolate8x8_6tap_lowpass_v(hv_ptr, h_ptr, edged_width, rounding);
295                                    hv_ptr += 8;
296                                    h_ptr += 8;
297                            }
298    
299                            hv_ptr += EDGE_SIZE;
300                            h_ptr += EDGE_SIZE;
301    
302                            hv_ptr += stride_add;
303                            h_ptr += stride_add;
304                    }
305            }
306            else {
307    
308                    for (y = 0; y < (edged_height - EDGE_SIZE); y += 8) {
309                            for (x = 0; x < (edged_width - EDGE_SIZE); x += 8) {
310                          interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width, rounding);                          interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width, rounding);
311                          interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width, rounding);                          interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width, rounding);
312                          interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width, rounding);                          interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width, rounding);
# Line 297  Line 316 
316                          v_ptr += 8;                          v_ptr += 8;
317                          hv_ptr += 8;                          hv_ptr += 8;
318                  }                  }
319    
320                            h_ptr += EDGE_SIZE;
321                            v_ptr += EDGE_SIZE;
322                            hv_ptr += EDGE_SIZE;
323                            n_ptr += EDGE_SIZE;
324    
325                  h_ptr += stride_add;                  h_ptr += stride_add;
326                  v_ptr += stride_add;                  v_ptr += stride_add;
327                  hv_ptr += stride_add;                  hv_ptr += stride_add;
328                  n_ptr += stride_add;                  n_ptr += stride_add;
329          }          }
330            }
331    /*
332    #ifdef BFRAMES
333            n_ptr = refn->u;
334            h_ptr = refh->u;
335            v_ptr = refv->u;
336            hv_ptr = refhv->u;
337    
338            n_ptr -= offset2;
339            h_ptr -= offset2;
340            v_ptr -= offset2;
341            hv_ptr -= offset2;
342    
343            for (y = 0; y < edged_height2; y += 8) {
344                    for (x = 0; x < edged_width2; x += 8) {
345                            interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width2, rounding);
346                            interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width2, rounding);
347                            interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width2, rounding);
348    
349                            n_ptr += 8;
350                            h_ptr += 8;
351                            v_ptr += 8;
352                            hv_ptr += 8;
353                    }
354                    h_ptr += stride_add2;
355                    v_ptr += stride_add2;
356                    hv_ptr += stride_add2;
357                    n_ptr += stride_add2;
358            }
359    
360            n_ptr = refn->v;
361            h_ptr = refh->v;
362            v_ptr = refv->v;
363            hv_ptr = refhv->v;
364    
365            n_ptr -= offset2;
366            h_ptr -= offset2;
367            v_ptr -= offset2;
368            hv_ptr -= offset2;
369    
370            for (y = 0; y < edged_height2; y = y + 8) {
371                    for (x = 0; x < edged_width2; x = x + 8) {
372                            interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width2, rounding);
373                            interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width2, rounding);
374                            interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width2, rounding);
375    
376                            n_ptr += 8;
377                            h_ptr += 8;
378                            v_ptr += 8;
379                            hv_ptr += 8;
380                    }
381                    h_ptr += stride_add2;
382                    v_ptr += stride_add2;
383                    hv_ptr += stride_add2;
384                    n_ptr += stride_add2;
385            }
386    #endif
387    */
388          /*          /*
389             interpolate_halfpel_h(             interpolate_halfpel_h(
390             refh->y - offset,             refh->y - offset,
# Line 366  Line 448 
448  }  }
449    
450    
451    /*
452    chroma optimize filter, invented by mf
453    a chroma pixel is average from the surrounding pixels, when the
454    correpsonding luma pixels are pure black or white.
455    */
456    
457    void
458    image_chroma_optimize(IMAGE * img, int width, int height, int edged_width)
459    {
460            int x,y;
461            int pixels = 0;
462    
463            for (y = 1; y < height/2 - 1; y++)
464            for (x = 1; x < width/2 - 1; x++)
465            {
466    #define IS_PURE(a)  ((a)<=16||(a)>=235)
467    #define IMG_Y(Y,X)      img->y[(Y)*edged_width + (X)]
468    #define IMG_U(Y,X)      img->u[(Y)*edged_width/2 + (X)]
469    #define IMG_V(Y,X)      img->v[(Y)*edged_width/2 + (X)]
470    
471                    if (IS_PURE(IMG_Y(y*2  ,x*2  )) &&
472                            IS_PURE(IMG_Y(y*2  ,x*2+1)) &&
473                            IS_PURE(IMG_Y(y*2+1,x*2  )) &&
474                            IS_PURE(IMG_Y(y*2+1,x*2+1)))
475                    {
476                            IMG_U(y,x) = (IMG_U(y,x-1) + IMG_U(y-1, x) + IMG_U(y, x+1) + IMG_U(y+1, x)) / 4;
477                            IMG_V(y,x) = (IMG_V(y,x-1) + IMG_V(y-1, x) + IMG_V(y, x+1) + IMG_V(y+1, x)) / 4;
478                            pixels++;
479                    }
480    
481    #undef IS_PURE
482    #undef IMG_Y
483    #undef IMG_U
484    #undef IMG_V
485            }
486    
487            DPRINTF(XVID_DEBUG_DEBUG,"chroma_optimized_pixels = %i/%i\n", pixels, width*height/4);
488    }
489    
490    
491    
492    
493    
494    /*
495      perform safe packed colorspace conversion, by splitting
496      the image up into an optimized area (pixel width divisible by 16),
497      and two unoptimized/plain-c areas (pixel width divisible by 2)
498    */
499    
500    static void
501    safe_packed_conv(uint8_t * x_ptr, int x_stride,
502                                     uint8_t * y_ptr, uint8_t * u_ptr, uint8_t * v_ptr,
503                                     int y_stride, int uv_stride,
504                                     int width, int height, int vflip,
505                                     packedFunc * func_opt, packedFunc func_c, int size)
506    {
507            int width_opt, width_c;
508    
509            if (func_opt != func_c && x_stride < size*((width+15)/16)*16)
510            {
511                    width_opt = width & (~15);
512                    width_c = width - width_opt;
513            }
514            else
515            {
516                    width_opt = width;
517                    width_c = 0;
518            }
519    
520            func_opt(x_ptr, x_stride,
521                            y_ptr, u_ptr, v_ptr, y_stride, uv_stride,
522                            width_opt, height, vflip);
523    
524            if (width_c)
525            {
526                    func_c(x_ptr + size*width_opt, x_stride,
527                            y_ptr + width_opt, u_ptr + width_opt/2, v_ptr + width_opt/2,
528                            y_stride, uv_stride, width_c, height, vflip);
529            }
530    }
531    
532    
533    
534  int  int
535  image_input(IMAGE * image,  image_input(IMAGE * image,
536                          uint32_t width,                          uint32_t width,
537                          int height,                          int height,
538                          uint32_t edged_width,                          uint32_t edged_width,
539                          uint8_t * src,                          uint8_t * src[4],
540                          int csp)                          int src_stride[4],
541                            int csp,
542                            int interlacing)
543  {  {
544            const int edged_width2 = edged_width/2;
545  /*      if (csp & XVID_CSP_VFLIP)          const int width2 = width/2;
546          {          const int height2 = height/2;
547                  height = -height;  #if 0
548          }          const int height_signed = (csp & XVID_CSP_VFLIP) ? -height : height;
549  */  #endif
550    
551          switch (csp & ~XVID_CSP_VFLIP) {          switch (csp & ~XVID_CSP_VFLIP) {
552          case XVID_CSP_RGB555:          case XVID_CSP_RGB555:
553                  rgb555_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
554                                             edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
555                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
556                            interlacing?rgb555i_to_yv12  :rgb555_to_yv12,
557                            interlacing?rgb555i_to_yv12_c:rgb555_to_yv12_c, 2);
558                    break;
559    
560          case XVID_CSP_RGB565:          case XVID_CSP_RGB565:
561                  rgb565_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
562                                             edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
563                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
564                            interlacing?rgb565i_to_yv12  :rgb565_to_yv12,
565                            interlacing?rgb565i_to_yv12_c:rgb565_to_yv12_c, 2);
566                    break;
567    
568    
569          case XVID_CSP_RGB24:          case XVID_CSP_BGR:
570                  rgb24_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
571                                            edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
572                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
573                            interlacing?bgri_to_yv12  :bgr_to_yv12,
574                            interlacing?bgri_to_yv12_c:bgr_to_yv12_c, 3);
575                    break;
576    
577          case XVID_CSP_RGB32:          case XVID_CSP_BGRA:
578                  rgb32_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
579                                            edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
580                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
581                            interlacing?bgrai_to_yv12  :bgra_to_yv12,
582                            interlacing?bgrai_to_yv12_c:bgra_to_yv12_c, 4);
583                    break;
584    
585          case XVID_CSP_I420:          case XVID_CSP_ABGR :
586                  yuv_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
587                                          edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
588                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
589                            interlacing?abgri_to_yv12  :abgr_to_yv12,
590                            interlacing?abgri_to_yv12_c:abgr_to_yv12_c, 4);
591                    break;
592    
593          case XVID_CSP_YV12:             /* u/v swapped */          case XVID_CSP_RGBA :
594                  yuv_to_yv12(image->y, image->v, image->u, src, width, height,                  safe_packed_conv(
595                                          edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
596                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
597                            interlacing?rgbai_to_yv12  :rgba_to_yv12,
598                            interlacing?rgbai_to_yv12_c:rgba_to_yv12_c, 4);
599                    break;
600    
601          case XVID_CSP_YUY2:          case XVID_CSP_YUY2:
602                  yuyv_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
603                                           edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
604                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
605                            interlacing?yuyvi_to_yv12  :yuyv_to_yv12,
606                            interlacing?yuyvi_to_yv12_c:yuyv_to_yv12_c, 2);
607                    break;
608    
609          case XVID_CSP_YVYU:             /* u/v swapped */          case XVID_CSP_YVYU:             /* u/v swapped */
610                  yuyv_to_yv12(image->y, image->v, image->u, src, width, height,                  safe_packed_conv(
611                                           edged_width);                          src[0], src_stride[0], image->y, image->v, image->y,
612                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
613                            interlacing?yuyvi_to_yv12  :yuyv_to_yv12,
614                            interlacing?yuyvi_to_yv12_c:yuyv_to_yv12_c, 2);
615                    break;
616    
617          case XVID_CSP_UYVY:          case XVID_CSP_UYVY:
618                  uyvy_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
619                                           edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
620                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
621                            interlacing?uyvyi_to_yv12  :uyvy_to_yv12,
622                            interlacing?uyvyi_to_yv12_c:uyvy_to_yv12_c, 2);
623                    break;
624    
625            case XVID_CSP_I420:
626                    yv12_to_yv12(image->y, image->u, image->v, edged_width, edged_width2,
627                            src[0], src[0] + src_stride[0]*height, src[0] + src_stride[0]*height + (src_stride[0]/2)*height2,
628                            src_stride[0], src_stride[0]/2, width, height, (csp & XVID_CSP_VFLIP));
629                    break
630                            ;
631            case XVID_CSP_YV12:             /* u/v swapped */
632                    yv12_to_yv12(image->y, image->v, image->u, edged_width, edged_width2,
633                            src[0], src[0] + src_stride[0]*height, src[0] + src_stride[0]*height + (src_stride[0]/2)*height2,
634                            src_stride[0], src_stride[0]/2, width, height, (csp & XVID_CSP_VFLIP));
635                    break;
636    
637          case XVID_CSP_USER:          case XVID_CSP_USER:
638                  user_to_yuv_c(image->y, image->u, image->v, edged_width,          /*XXX: support for different u & v strides */
639                                            (DEC_PICTURE *) src, width, height);                  yv12_to_yv12(image->y, image->u, image->v, edged_width, edged_width2,
640                  return 0;                          src[0], src[1], src[2], src_stride[0], src_stride[1],
641                            width, height, (csp & XVID_CSP_VFLIP));
642                    break;
643    
644          case XVID_CSP_NULL:          case XVID_CSP_NULL:
645                  break;                  break;
646    
647            default :
648                    return -1;
649          }          }
650    
651          return -1;  
652            /* pad out image when the width and/or height is not a multiple of 16 */
653    
654            if (width & 15)
655            {
656                    int i;
657                    int pad_width = 16 - (width&15);
658                    for (i = 0; i < height; i++)
659                    {
660                            memset(image->y + i*edged_width + width,
661                                     *(image->y + i*edged_width + width - 1), pad_width);
662                    }
663                    for (i = 0; i < height/2; i++)
664                    {
665                            memset(image->u + i*edged_width2 + width2,
666                                     *(image->u + i*edged_width2 + width2 - 1),pad_width/2);
667                            memset(image->v + i*edged_width2 + width2,
668                                     *(image->v + i*edged_width2 + width2 - 1),pad_width/2);
669                    }
670            }
671    
672            if (height & 15)
673            {
674                    int pad_height = 16 - (height&15);
675                    int length = ((width+15)/16)*16;
676                    int i;
677                    for (i = 0; i < pad_height; i++)
678                    {
679                            memcpy(image->y + (height+i)*edged_width,
680                                       image->y + (height-1)*edged_width,length);
681                    }
682    
683                    for (i = 0; i < pad_height/2; i++)
684                    {
685                            memcpy(image->u + (height2+i)*edged_width2,
686                                       image->u + (height2-1)*edged_width2,length/2);
687                            memcpy(image->v + (height2+i)*edged_width2,
688                                       image->v + (height2-1)*edged_width2,length/2);
689                    }
690            }
691    
692    /*
693            if (interlacing)
694                    image_printf(image, edged_width, height, 5,5, "[i]");
695            image_dump_yuvpgm(image, edged_width, ((width+15)/16)*16, ((height+15)/16)*16, "\\encode.pgm");
696    */
697            return 0;
698  }  }
699    
700    
# Line 448  Line 704 
704                           uint32_t width,                           uint32_t width,
705                           int height,                           int height,
706                           uint32_t edged_width,                           uint32_t edged_width,
707                           uint8_t * dst,                           uint8_t * dst[4],
708                           uint32_t dst_stride,                           uint32_t dst_stride[4],
709                           int csp)                           int csp,
710                             int interlacing)
711  {  {
712          if (csp & XVID_CSP_VFLIP) {          const int edged_width2 = edged_width/2;
713                  height = -height;          int height2 = height/2;
714          }  
715    /*
716            if (interlacing)
717                    image_printf(image, edged_width, height, 5,100, "[i]=%i,%i",width,height);
718            image_dump_yuvpgm(image, edged_width, width, height, "\\decode.pgm");
719    */
720    
721          switch (csp & ~XVID_CSP_VFLIP) {          switch (csp & ~XVID_CSP_VFLIP) {
722          case XVID_CSP_RGB555:          case XVID_CSP_RGB555:
723                  yv12_to_rgb555(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
724                                             edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
725                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
726                            interlacing?yv12_to_rgb555i  :yv12_to_rgb555,
727                            interlacing?yv12_to_rgb555i_c:yv12_to_rgb555_c, 2);
728                  return 0;                  return 0;
729    
730          case XVID_CSP_RGB565:          case XVID_CSP_RGB565:
731                  yv12_to_rgb565(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
732                                             edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
733                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
734                            interlacing?yv12_to_rgb565i  :yv12_to_rgb565,
735          case XVID_CSP_RGB24:                          interlacing?yv12_to_rgb565i_c:yv12_to_rgb565_c, 2);
736                  yv12_to_rgb24(dst, dst_stride, image->y, image->u, image->v,                  return 0;
737                                            edged_width, edged_width / 2, width, height);  
738                  return 0;      case XVID_CSP_BGR:
739                    safe_packed_conv(
740          case XVID_CSP_RGB32:                          dst[0], dst_stride[0], image->y, image->u, image->v,
741                  yv12_to_rgb32(dst, dst_stride, image->y, image->u, image->v,                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
742                                            edged_width, edged_width / 2, width, height);                          interlacing?yv12_to_bgri  :yv12_to_bgr,
743                  return 0;                          interlacing?yv12_to_bgri_c:yv12_to_bgr_c, 3);
744                    return 0;
745          case XVID_CSP_I420:  
746                  yv12_to_yuv(dst, dst_stride, image->y, image->u, image->v, edged_width,          case XVID_CSP_BGRA:
747                                          edged_width / 2, width, height);                  safe_packed_conv(
748                  return 0;                          dst[0], dst_stride[0], image->y, image->u, image->v,
749                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
750          case XVID_CSP_YV12:             /* u,v swapped */                          interlacing?yv12_to_bgrai  :yv12_to_bgra,
751                  yv12_to_yuv(dst, dst_stride, image->y, image->v, image->u, edged_width,                          interlacing?yv12_to_bgrai_c:yv12_to_bgra_c, 4);
752                                          edged_width / 2, width, height);                  return 0;
753    
754            case XVID_CSP_ABGR:
755                    safe_packed_conv(
756                            dst[0], dst_stride[0], image->y, image->u, image->v,
757                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
758                            interlacing?yv12_to_abgri  :yv12_to_abgr,
759                            interlacing?yv12_to_abgri_c:yv12_to_abgr_c, 4);
760                    return 0;
761    
762            case XVID_CSP_RGBA:
763                    safe_packed_conv(
764                            dst[0], dst_stride[0], image->y, image->u, image->v,
765                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
766                            interlacing?yv12_to_rgbai  :yv12_to_rgba,
767                            interlacing?yv12_to_rgbai_c:yv12_to_rgba_c, 4);
768                  return 0;                  return 0;
769    
770          case XVID_CSP_YUY2:          case XVID_CSP_YUY2:
771                  yv12_to_yuyv(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
772                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
773                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
774                            interlacing?yv12_to_yuyvi  :yv12_to_yuyv,
775                            interlacing?yv12_to_yuyvi_c:yv12_to_yuyv_c, 2);
776                  return 0;                  return 0;
777    
778          case XVID_CSP_YVYU:             /* u,v swapped */          case XVID_CSP_YVYU:             /* u,v swapped */
779                  yv12_to_yuyv(dst, dst_stride, image->y, image->v, image->u,                  safe_packed_conv(
780                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->v, image->u,
781                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
782                            interlacing?yv12_to_yuyvi  :yv12_to_yuyv,
783                            interlacing?yv12_to_yuyvi_c:yv12_to_yuyv_c, 2);
784                  return 0;                  return 0;
785    
786          case XVID_CSP_UYVY:          case XVID_CSP_UYVY:
787                  yv12_to_uyvy(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
788                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
789                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
790                            interlacing?yv12_to_uyvyi  :yv12_to_uyvy,
791                            interlacing?yv12_to_uyvyi_c:yv12_to_uyvy_c, 2);
792                  return 0;                  return 0;
793    
794          case XVID_CSP_USER:          case XVID_CSP_I420:
795                  ((DEC_PICTURE *) dst)->y = image->y;                  yv12_to_yv12(dst[0], dst[0] + dst_stride[0]*height, dst[0] + dst_stride[0]*height + (dst_stride[0]/2)*height2,
796                  ((DEC_PICTURE *) dst)->u = image->u;                          dst_stride[0], dst_stride[0]/2,
797                  ((DEC_PICTURE *) dst)->v = image->v;                          image->y, image->u, image->v, edged_width, edged_width2,
798                  ((DEC_PICTURE *) dst)->stride_y = edged_width;                          width, height, (csp & XVID_CSP_VFLIP));
799                  ((DEC_PICTURE *) dst)->stride_uv = edged_width / 2;                  return 0;
800    
801            case XVID_CSP_YV12:             /* u,v swapped */
802                    yv12_to_yv12(dst[0], dst[0] + dst_stride[0]*height, dst[0] + dst_stride[0]*height + (dst_stride[0]/2)*height2,
803                            dst_stride[0], dst_stride[0]/2,
804                            image->y, image->v, image->u, edged_width, edged_width2,
805                            width, height, (csp & XVID_CSP_VFLIP));
806                    return 0;
807    
808            case XVID_CSP_USER :            /* u,v swapped */
809                    yv12_to_yv12(dst[0], dst[1], dst[2],
810                            dst_stride[0], dst_stride[1],   /* v: dst_stride[2] */
811                            image->y, image->v, image->u, edged_width, edged_width2,
812                            width, height, (csp & XVID_CSP_VFLIP));
813                    return 0;
814    
815            case XVID_CSP_INTERNAL :
816                    dst[0] = image->y;
817                    dst[1] = image->u;
818                    dst[2] = image->v;
819                    dst_stride[0] = edged_width;
820                    dst_stride[1] = edged_width/2;
821                    dst_stride[2] = edged_width/2;
822                  return 0;                  return 0;
823    
824          case XVID_CSP_NULL:          case XVID_CSP_NULL:
825          case XVID_CSP_EXTERN:          case XVID_CSP_SLICE:
826                  return 0;                  return 0;
827    
828          }          }
# Line 551  Line 862 
862          return psnr_y;          return psnr_y;
863  }  }
864    
865    
866    float sse_to_PSNR(long sse, int pixels)
867    {
868            if (sse==0)
869                    return 99.99F;
870    
871            return 48.131F - 10*(float)log10((float)sse/(float)(pixels));   /* log10(255*255)=4.8131 */
872    
873    }
874    
875    long plane_sse(uint8_t * orig,
876                       uint8_t * recon,
877                       uint16_t stride,
878                       uint16_t width,
879                       uint16_t height)
880    {
881            int diff, x, y;
882            long sse=0;
883    
884            for (y = 0; y < height; y++) {
885                    for (x = 0; x < width; x++) {
886                            diff = *(orig + x) - *(recon + x);
887                            sse += diff * diff;
888                    }
889                    orig += stride;
890                    recon += stride;
891            }
892            return sse;
893    }
894    
895  #if     0  #if     0
896    
897  #include <stdio.h>  #include <stdio.h>
# Line 647  Line 988 
988  }  }
989    
990    
 #define ABS(X)    (((X)>0)?(X):-(X))  
991  float  float
992  image_mad(const IMAGE * img1,  image_mad(const IMAGE * img1,
993                    const IMAGE * img2,                    const IMAGE * img2,
# Line 664  Line 1004 
1004    
1005          for (y = 0; y < height; y++)          for (y = 0; y < height; y++)
1006                  for (x = 0; x < width; x++)                  for (x = 0; x < width; x++)
1007                          sum += ABS(img1->y[x + y * stride] - img2->y[x + y * stride]);                          sum += abs(img1->y[x + y * stride] - img2->y[x + y * stride]);
1008    
1009          for (y = 0; y < height2; y++)          for (y = 0; y < height2; y++)
1010                  for (x = 0; x < width2; x++)                  for (x = 0; x < width2; x++)
1011                          sum += ABS(img1->u[x + y * stride2] - img2->u[x + y * stride2]);                          sum += abs(img1->u[x + y * stride2] - img2->u[x + y * stride2]);
1012    
1013          for (y = 0; y < height2; y++)          for (y = 0; y < height2; y++)
1014                  for (x = 0; x < width2; x++)                  for (x = 0; x < width2; x++)
1015                          sum += ABS(img1->v[x + y * stride2] - img2->v[x + y * stride2]);                          sum += abs(img1->v[x + y * stride2] - img2->v[x + y * stride2]);
1016    
1017          return (float) sum / (width * height * 3 / 2);          return (float) sum / (width * height * 3 / 2);
1018  }  }
1019    
1020  void  void
1021  output_slice(IMAGE * cur, int std, int width, XVID_DEC_PICTURE* out_frm, int mbx, int mby,int mbl) {  output_slice(IMAGE * cur, int std, int width, xvid_image_t* out_frm, int mbx, int mby,int mbl) {
1022    uint8_t *dY,*dU,*dV,*sY,*sU,*sV;    uint8_t *dY,*dU,*dV,*sY,*sU,*sV;
1023    int std2 = std >> 1;    int std2 = std >> 1;
1024    int w = mbl << 4, w2,i;    int w = mbl << 4, w2,i;
# Line 687  Line 1027 
1027      w = width;      w = width;
1028    w2 = w >> 1;    w2 = w >> 1;
1029    
1030    dY = (uint8_t*)out_frm->y + (mby << 4) * out_frm->stride_y + (mbx << 4);    dY = (uint8_t*)out_frm->plane[0] + (mby << 4) * out_frm->stride[0] + (mbx << 4);
1031    dU = (uint8_t*)out_frm->u + (mby << 3) * out_frm->stride_u + (mbx << 3);    dU = (uint8_t*)out_frm->plane[1] + (mby << 3) * out_frm->stride[1] + (mbx << 3);
1032    dV = (uint8_t*)out_frm->v + (mby << 3) * out_frm->stride_v + (mbx << 3);    dV = (uint8_t*)out_frm->plane[2] + (mby << 3) * out_frm->stride[2] + (mbx << 3);
1033    sY = cur->y + (mby << 4) * std + (mbx << 4);    sY = cur->y + (mby << 4) * std + (mbx << 4);
1034    sU = cur->u + (mby << 3) * std2 + (mbx << 3);    sU = cur->u + (mby << 3) * std2 + (mbx << 3);
1035    sV = cur->v + (mby << 3) * std2 + (mbx << 3);    sV = cur->v + (mby << 3) * std2 + (mbx << 3);
1036    
1037    for(i = 0 ; i < 16 ; i++) {    for(i = 0 ; i < 16 ; i++) {
1038      memcpy(dY,sY,w);      memcpy(dY,sY,w);
1039      dY += out_frm->stride_y;      dY += out_frm->stride[0];
1040      sY += std;      sY += std;
1041    }    }
1042    for(i = 0 ; i < 8 ; i++) {    for(i = 0 ; i < 8 ; i++) {
1043      memcpy(dU,sU,w2);      memcpy(dU,sU,w2);
1044      dU += out_frm->stride_u;      dU += out_frm->stride[1];
1045      sU += std2;      sU += std2;
1046    }    }
1047    for(i = 0 ; i < 8 ; i++) {    for(i = 0 ; i < 8 ; i++) {
1048      memcpy(dV,sV,w2);      memcpy(dV,sV,w2);
1049      dV += out_frm->stride_v;      dV += out_frm->stride[2];
1050      sV += std2;      sV += std2;
1051    }    }
1052  }  }
1053    
1054    
1055    void
1056    image_clear(IMAGE * img, int width, int height, int edged_width,
1057                                            int y, int u, int v)
1058    {
1059            uint8_t * p;
1060            int i;
1061    
1062            p = img->y;
1063            for (i = 0; i < height; i++) {
1064                    memset(p, y, width);
1065                    p += edged_width;
1066            }
1067    
1068            p = img->u;
1069            for (i = 0; i < height/2; i++) {
1070                    memset(p, u, width/2);
1071                    p += edged_width/2;
1072            }
1073    
1074            p = img->v;
1075            for (i = 0; i < height/2; i++) {
1076                    memset(p, v, width/2);
1077                    p += edged_width/2;
1078            }
1079    }
1080    
1081    
1082    /* reduced resolution deblocking filter
1083            block = block size (16=rrv, 8=full resolution)
1084            flags = XVID_DEC_YDEBLOCK|XVID_DEC_UVDEBLOCK
1085    */
1086    void
1087    image_deblock_rrv(IMAGE * img, int edged_width,
1088                                    const MACROBLOCK * mbs, int mb_width, int mb_height, int mb_stride,
1089                                    int block, int flags)
1090    {
1091            const int edged_width2 = edged_width /2;
1092            const int nblocks = block / 8;  /* skals code uses 8pixel block uints */
1093            int i,j;
1094    
1095            /* luma: j,i in block units */
1096    
1097                    for (j = 1; j < mb_height*2; j++)               /* horizontal deblocking */
1098                    for (i = 0; i < mb_width*2; i++)
1099                    {
1100                            if (mbs[(j-1)/2*mb_stride + (i/2)].mode != MODE_NOT_CODED ||
1101                                    mbs[(j+0)/2*mb_stride + (i/2)].mode != MODE_NOT_CODED)
1102                            {
1103                                    hfilter_31(img->y + (j*block - 1)*edged_width + i*block,
1104                                                                      img->y + (j*block + 0)*edged_width + i*block, nblocks);
1105                            }
1106                    }
1107    
1108                    for (j = 0; j < mb_height*2; j++)               /* vertical deblocking */
1109                    for (i = 1; i < mb_width*2; i++)
1110                    {
1111                            if (mbs[(j/2)*mb_stride + (i-1)/2].mode != MODE_NOT_CODED ||
1112                                    mbs[(j/2)*mb_stride + (i+0)/2].mode != MODE_NOT_CODED)
1113                            {
1114                                    vfilter_31(img->y + (j*block)*edged_width + i*block - 1,
1115                                                       img->y + (j*block)*edged_width + i*block + 0,
1116                                                       edged_width, nblocks);
1117                            }
1118                    }
1119    
1120    
1121    
1122            /* chroma */
1123    
1124                    for (j = 1; j < mb_height; j++)         /* horizontal deblocking */
1125                    for (i = 0; i < mb_width; i++)
1126                    {
1127                            if (mbs[(j-1)*mb_stride + i].mode != MODE_NOT_CODED ||
1128                                    mbs[(j+0)*mb_stride + i].mode != MODE_NOT_CODED)
1129                            {
1130                                    hfilter_31(img->u + (j*block - 1)*edged_width2 + i*block,
1131                                                       img->u + (j*block + 0)*edged_width2 + i*block, nblocks);
1132                                    hfilter_31(img->v + (j*block - 1)*edged_width2 + i*block,
1133                                                       img->v + (j*block + 0)*edged_width2 + i*block, nblocks);
1134                            }
1135                    }
1136    
1137                    for (j = 0; j < mb_height; j++)         /* vertical deblocking */
1138                    for (i = 1; i < mb_width; i++)
1139                    {
1140                            if (mbs[j*mb_stride + i - 1].mode != MODE_NOT_CODED ||
1141                                    mbs[j*mb_stride + i + 0].mode != MODE_NOT_CODED)
1142                            {
1143                                    vfilter_31(img->u + (j*block)*edged_width2 + i*block - 1,
1144                                                       img->u + (j*block)*edged_width2 + i*block + 0,
1145                                                       edged_width2, nblocks);
1146                                    vfilter_31(img->v + (j*block)*edged_width2 + i*block - 1,
1147                                                       img->v + (j*block)*edged_width2 + i*block + 0,
1148                                                       edged_width2, nblocks);
1149                            }
1150                    }
1151    
1152    
1153    }
1154    

Legend:
Removed from v.677  
changed lines
  Added in v.1161

No admin address has been configured
ViewVC Help
Powered by ViewVC 1.0.4