[svn] / trunk / xvidcore / src / image / x86_asm / qpel_mmx.asm Repository:
ViewVC logotype

Annotation of /trunk/xvidcore/src/image/x86_asm/qpel_mmx.asm

Parent Directory Parent Directory | Revision Log Revision Log


Revision 1535 - (view) (download)

1 : edgomez 1382 ;/*****************************************************************************
2 :     ; *
3 :     ; * XVID MPEG-4 VIDEO CODEC
4 :     ; * - Quarter-pixel interpolation -
5 :     ; * Copyright(C) 2002 Pascal Massimino <skal@planet-d.net>
6 :     ; *
7 :     ; * This file is part of XviD, a free MPEG-4 video encoder/decoder
8 :     ; *
9 :     ; * XviD is free software; you can redistribute it and/or modify it
10 :     ; * under the terms of the GNU General Public License as published by
11 :     ; * the Free Software Foundation; either version 2 of the License, or
12 :     ; * (at your option) any later version.
13 :     ; *
14 :     ; * This program is distributed in the hope that it will be useful,
15 :     ; * but WITHOUT ANY WARRANTY; without even the implied warranty of
16 :     ; * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
17 :     ; * GNU General Public License for more details.
18 :     ; *
19 :     ; * You should have received a copy of the GNU General Public License
20 :     ; * along with this program; if not, write to the Free Software
21 :     ; * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
22 :     ; *
23 : edgomez 1535 ; * $Id: qpel_mmx.asm,v 1.4 2004-08-22 11:46:10 edgomez Exp $
24 : edgomez 1382 ; *
25 :     ; *************************************************************************/
26 :    
27 :     ;/**************************************************************************
28 :     ; *
29 :     ; * History:
30 :     ; *
31 :     ; * 22.10.2002 initial coding. unoptimized 'proof of concept',
32 :     ; * just to heft the qpel filtering. - Skal -
33 :     ; *
34 :     ; *************************************************************************/
35 :    
36 :    
37 :     %define USE_TABLES ; in order to use xvid_FIR_x_x_x_x tables
38 :     ; instead of xvid_Expand_mmx...
39 :    
40 :    
41 :     bits 32
42 :    
43 :     %macro cglobal 1
44 :     %ifdef PREFIX
45 : edgomez 1535 %ifdef MARK_FUNCS
46 :     global _%1:function
47 :     %define %1 _%1:function
48 :     %else
49 :     global _%1
50 :     %define %1 _%1
51 :     %endif
52 : edgomez 1382 %else
53 : edgomez 1535 %ifdef MARK_FUNCS
54 :     global %1:function
55 :     %else
56 :     global %1
57 :     %endif
58 : edgomez 1382 %endif
59 :     %endmacro
60 :     %macro cextern 1
61 :     %ifdef PREFIX
62 :     extern _%1
63 :     %define %1 _%1
64 :     %else
65 :     extern %1
66 :     %endif
67 :     %endmacro
68 :    
69 :    
70 :     ;//////////////////////////////////////////////////////////////////////
71 :     ;// Declarations
72 :     ;// all signatures are:
73 :     ;// void XXX(uint8_t *dst, const uint8_t *src,
74 :     ;// int32_t length, int32_t stride, int32_t rounding)
75 :     ;//////////////////////////////////////////////////////////////////////
76 :    
77 :     cglobal xvid_H_Pass_16_mmx
78 :     cglobal xvid_H_Pass_Avrg_16_mmx
79 :     cglobal xvid_H_Pass_Avrg_Up_16_mmx
80 :     cglobal xvid_V_Pass_16_mmx
81 :     cglobal xvid_V_Pass_Avrg_16_mmx
82 :     cglobal xvid_V_Pass_Avrg_Up_16_mmx
83 :     cglobal xvid_H_Pass_8_mmx
84 :     cglobal xvid_H_Pass_Avrg_8_mmx
85 :     cglobal xvid_H_Pass_Avrg_Up_8_mmx
86 :     cglobal xvid_V_Pass_8_mmx
87 :     cglobal xvid_V_Pass_Avrg_8_mmx
88 :     cglobal xvid_V_Pass_Avrg_Up_8_mmx
89 :    
90 :     cglobal xvid_H_Pass_Add_16_mmx
91 :     cglobal xvid_H_Pass_Avrg_Add_16_mmx
92 :     cglobal xvid_H_Pass_Avrg_Up_Add_16_mmx
93 :     cglobal xvid_V_Pass_Add_16_mmx
94 :     cglobal xvid_V_Pass_Avrg_Add_16_mmx
95 :     cglobal xvid_V_Pass_Avrg_Up_Add_16_mmx
96 :     cglobal xvid_H_Pass_8_Add_mmx
97 :     cglobal xvid_H_Pass_Avrg_8_Add_mmx
98 :     cglobal xvid_H_Pass_Avrg_Up_8_Add_mmx
99 :     cglobal xvid_V_Pass_8_Add_mmx
100 :     cglobal xvid_V_Pass_Avrg_8_Add_mmx
101 :     cglobal xvid_V_Pass_Avrg_Up_8_Add_mmx
102 :    
103 :     cextern xvid_Expand_mmx
104 :    
105 :     %ifdef USE_TABLES
106 :    
107 :     cextern xvid_FIR_1_0_0_0
108 :     cextern xvid_FIR_3_1_0_0
109 :     cextern xvid_FIR_6_3_1_0
110 :     cextern xvid_FIR_14_3_2_1
111 :     cextern xvid_FIR_20_6_3_1
112 :     cextern xvid_FIR_20_20_6_3
113 :     cextern xvid_FIR_23_19_6_3
114 :     cextern xvid_FIR_7_20_20_6
115 :     cextern xvid_FIR_6_20_20_6
116 :     cextern xvid_FIR_6_20_20_7
117 :     cextern xvid_FIR_3_6_20_20
118 :     cextern xvid_FIR_3_6_19_23
119 :     cextern xvid_FIR_1_3_6_20
120 :     cextern xvid_FIR_1_2_3_14
121 :     cextern xvid_FIR_0_1_3_6
122 :     cextern xvid_FIR_0_0_1_3
123 :     cextern xvid_FIR_0_0_0_1
124 :    
125 :     %endif
126 :    
127 :     ;//////////////////////////////////////////////////////////////////////
128 :    
129 :     %ifdef FORMAT_COFF
130 : edgomez 1519 SECTION .rodata
131 : edgomez 1382 %else
132 : edgomez 1519 SECTION .rodata align=16
133 : edgomez 1382 %endif
134 :    
135 :     align 16
136 :     Rounder1_MMX:
137 :     times 4 dw 1
138 :     Rounder0_MMX:
139 :     times 4 dw 0
140 :    
141 :     align 16
142 :     Rounder_QP_MMX
143 :     times 4 dw 16
144 :     times 4 dw 15
145 :    
146 :     %ifndef USE_TABLES
147 :    
148 :     align 16
149 :    
150 :     ; H-Pass table shared by 16x? and 8x? filters
151 :    
152 :     FIR_R0: dw 14, -3, 2, -1
153 :     align 16
154 :     FIR_R1: dw 23, 19, -6, 3, -1, 0, 0, 0
155 :    
156 :     FIR_R2: dw -7, 20, 20, -6, 3, -1, 0, 0
157 :    
158 :     FIR_R3: dw 3, -6, 20, 20, -6, 3, -1, 0
159 :    
160 :     FIR_R4: dw -1, 3, -6, 20, 20, -6, 3, -1
161 :    
162 :     FIR_R5: dw 0, -1, 3, -6, 20, 20, -6, 3, -1, 0, 0, 0
163 :     align 16
164 :     FIR_R6: dw 0, 0, -1, 3, -6, 20, 20, -6, 3, -1, 0, 0
165 :     align 16
166 :     FIR_R7: dw 0, 0, 0, -1, 3, -6, 20, 20, -6, 3, -1, 0
167 :     align 16
168 :     FIR_R8: dw -1, 3, -6, 20, 20, -6, 3, -1
169 :    
170 :     FIR_R9: dw 0, -1, 3, -6, 20, 20, -6, 3, -1, 0, 0, 0
171 :     align 16
172 :     FIR_R10: dw 0, 0, -1, 3, -6, 20, 20, -6, 3, -1, 0, 0
173 :     align 16
174 :     FIR_R11: dw 0, 0, 0, -1, 3, -6, 20, 20, -6, 3, -1, 0
175 :     align 16
176 :     FIR_R12: dw -1, 3, -6, 20, 20, -6, 3, -1
177 :    
178 :     FIR_R13: dw 0, -1, 3, -6, 20, 20, -6, 3
179 :    
180 :     FIR_R14: dw 0, 0, -1, 3, -6, 20, 20, -7
181 :    
182 :     FIR_R15: dw 0, 0, 0, -1, 3, -6, 19, 23
183 :    
184 :     FIR_R16: dw -1, 2, -3, 14
185 :    
186 :     %endif ; !USE_TABLES
187 :    
188 :     ; V-Pass taps
189 :    
190 :     align 16
191 :     FIR_Cm7: times 4 dw -7
192 :     FIR_Cm6: times 4 dw -6
193 :     FIR_Cm3: times 4 dw -3
194 :     FIR_Cm1: times 4 dw -1
195 :     FIR_C2: times 4 dw 2
196 :     FIR_C3: times 4 dw 3
197 :     FIR_C14: times 4 dw 14
198 :     FIR_C19: times 4 dw 19
199 :     FIR_C20: times 4 dw 20
200 :     FIR_C23: times 4 dw 23
201 :    
202 :     SECTION .text
203 :    
204 :     ;//////////////////////////////////////////////////////////////////////
205 :     ;// Here we go with the Q-Pel mess.
206 :     ;// For horizontal passes, we process 4 *output* pixel in parallel
207 :     ;// For vertical ones, we process 4 *input* pixel in parallel.
208 :     ;//////////////////////////////////////////////////////////////////////
209 :    
210 :     %macro PROLOG_NO_AVRG 0
211 :     push esi
212 :     push edi
213 :     push ebp
214 :     mov edi, [esp+16 + 0*4] ; Dst
215 :     mov esi, [esp+16 + 1*4] ; Src
216 :     mov ecx, [esp+16 + 2*4] ; Size
217 :     mov ebp, [esp+16 + 3*4] ; BpS
218 :     mov eax, [esp+16 + 4*4] ; Rnd
219 :     and eax, 1
220 :     movq mm7, [Rounder_QP_MMX+eax*8] ; rounder
221 :     %endmacro
222 :    
223 :     %macro EPILOG_NO_AVRG 0
224 :     pop ebp
225 :     pop edi
226 :     pop esi
227 :     ret
228 :     %endmacro
229 :    
230 :     %macro PROLOG_AVRG 0
231 :     push ebx
232 :     push esi
233 :     push edi
234 :     push ebp
235 :     mov edi, [esp+20 + 0*4] ; Dst
236 :     mov esi, [esp+20 + 1*4] ; Src
237 :     mov ecx, [esp+20 + 2*4] ; Size
238 :     mov ebp, [esp+20 + 3*4] ; BpS
239 :     mov eax, [esp+20 + 4*4] ; Rnd
240 :     and eax, 1
241 :     movq mm7, [Rounder_QP_MMX+eax*8] ; rounder
242 :     lea ebx, [Rounder1_MMX+eax*8] ; *Rounder2
243 :     %endmacro
244 :    
245 :     %macro EPILOG_AVRG 0
246 :     pop ebp
247 :     pop edi
248 :     pop esi
249 :     pop ebx
250 :     ret
251 :     %endmacro
252 :    
253 :     ;//////////////////////////////////////////////////////////////////////
254 :     ;//
255 :     ;// All horizontal passes
256 :     ;//
257 :     ;//////////////////////////////////////////////////////////////////////
258 :    
259 :     ; macros for USE_TABLES
260 :    
261 :     %macro TLOAD 2 ; %1,%2: src pixels
262 :     movzx eax, byte [esi+%1]
263 :     movzx edx, byte [esi+%2]
264 :     movq mm0, [xvid_FIR_14_3_2_1 + eax*8 ]
265 :     movq mm3, [xvid_FIR_1_2_3_14 + edx*8 ]
266 :     paddw mm0, mm7
267 :     paddw mm3, mm7
268 :     %endmacro
269 :    
270 :     %macro TACCUM2 5 ;%1:src pixel/%2-%3:Taps tables/ %4-%5:dst regs
271 :     movzx eax, byte [esi+%1]
272 :     paddw %4, [%2 + eax*8]
273 :     paddw %5, [%3 + eax*8]
274 :     %endmacro
275 :    
276 :     %macro TACCUM3 7 ;%1:src pixel/%2-%4:Taps tables/%5-%7:dst regs
277 :     movzx eax, byte [esi+%1]
278 :     paddw %5, [%2 + eax*8]
279 :     paddw %6, [%3 + eax*8]
280 :     paddw %7, [%4 + eax*8]
281 :     %endmacro
282 :    
283 :     ;//////////////////////////////////////////////////////////////////////
284 :    
285 :     ; macros without USE_TABLES
286 :    
287 :     %macro LOAD 2 ; %1,%2: src pixels
288 :     movzx eax, byte [esi+%1]
289 :     movzx edx, byte [esi+%2]
290 :     movq mm0, [xvid_Expand_mmx + eax*8]
291 :     movq mm3, [xvid_Expand_mmx + edx*8]
292 :     pmullw mm0, [FIR_R0 ]
293 :     pmullw mm3, [FIR_R16]
294 :     paddw mm0, mm7
295 :     paddw mm3, mm7
296 :     %endmacro
297 :    
298 :     %macro ACCUM2 4 ;src pixel/Taps/dst regs #1-#2
299 :     movzx eax, byte [esi+%1]
300 :     movq mm4, [xvid_Expand_mmx + eax*8]
301 :     movq mm5, mm4
302 :     pmullw mm4, [%2]
303 :     pmullw mm5, [%2+8]
304 :     paddw %3, mm4
305 :     paddw %4, mm5
306 :     %endmacro
307 :    
308 :     %macro ACCUM3 5 ;src pixel/Taps/dst regs #1-#2-#3
309 :     movzx eax, byte [esi+%1]
310 :     movq mm4, [xvid_Expand_mmx + eax*8]
311 :     movq mm5, mm4
312 :     movq mm6, mm5
313 :     pmullw mm4, [%2 ]
314 :     pmullw mm5, [%2+ 8]
315 :     pmullw mm6, [%2+16]
316 :     paddw %3, mm4
317 :     paddw %4, mm5
318 :     paddw %5, mm6
319 :     %endmacro
320 :    
321 :     ;//////////////////////////////////////////////////////////////////////
322 :    
323 :     %macro MIX 3 ; %1:reg, %2:src, %3:rounder
324 :     pxor mm6, mm6
325 :     movq mm4, [%2]
326 :     movq mm1, %1
327 :     movq mm5, mm4
328 :     punpcklbw %1, mm6
329 :     punpcklbw mm4, mm6
330 :     punpckhbw mm1, mm6
331 :     punpckhbw mm5, mm6
332 :     movq mm6, [%3] ; rounder #2
333 :     paddusw %1, mm4
334 :     paddusw mm1, mm5
335 :     paddusw %1, mm6
336 :     paddusw mm1, mm6
337 :     psrlw %1, 1
338 :     psrlw mm1, 1
339 :     packuswb %1, mm1
340 :     %endmacro
341 :    
342 :     ;//////////////////////////////////////////////////////////////////////
343 :    
344 :     %macro H_PASS_16 2 ; %1:src-op (0=NONE,1=AVRG,2=AVRG-UP), %2:dst-op (NONE/AVRG)
345 :    
346 :     %if (%2==0) && (%1==0)
347 :     PROLOG_NO_AVRG
348 :     %else
349 :     PROLOG_AVRG
350 :     %endif
351 :    
352 :     .Loop
353 :    
354 :     ; mm0..mm3 serves as a 4x4 delay line
355 :    
356 :     %ifndef USE_TABLES
357 :    
358 :     LOAD 0, 16 ; special case for 1rst/last pixel
359 :     movq mm1, mm7
360 :     movq mm2, mm7
361 :    
362 :     ACCUM2 1, FIR_R1, mm0, mm1
363 :     ACCUM2 2, FIR_R2, mm0, mm1
364 :     ACCUM2 3, FIR_R3, mm0, mm1
365 :     ACCUM2 4, FIR_R4, mm0, mm1
366 :    
367 :     ACCUM3 5, FIR_R5, mm0, mm1, mm2
368 :     ACCUM3 6, FIR_R6, mm0, mm1, mm2
369 :     ACCUM3 7, FIR_R7, mm0, mm1, mm2
370 :     ACCUM2 8, FIR_R8, mm1, mm2
371 :     ACCUM3 9, FIR_R9, mm1, mm2, mm3
372 :     ACCUM3 10, FIR_R10,mm1, mm2, mm3
373 :     ACCUM3 11, FIR_R11,mm1, mm2, mm3
374 :    
375 :     ACCUM2 12, FIR_R12, mm2, mm3
376 :     ACCUM2 13, FIR_R13, mm2, mm3
377 :     ACCUM2 14, FIR_R14, mm2, mm3
378 :     ACCUM2 15, FIR_R15, mm2, mm3
379 :    
380 :     %else
381 :    
382 :     TLOAD 0, 16 ; special case for 1rst/last pixel
383 :     movq mm1, mm7
384 :     movq mm2, mm7
385 :    
386 :     TACCUM2 1, xvid_FIR_23_19_6_3, xvid_FIR_1_0_0_0 , mm0, mm1
387 :     TACCUM2 2, xvid_FIR_7_20_20_6, xvid_FIR_3_1_0_0 , mm0, mm1
388 :     TACCUM2 3, xvid_FIR_3_6_20_20, xvid_FIR_6_3_1_0 , mm0, mm1
389 :     TACCUM2 4, xvid_FIR_1_3_6_20 , xvid_FIR_20_6_3_1, mm0, mm1
390 :    
391 :     TACCUM3 5, xvid_FIR_0_1_3_6 , xvid_FIR_20_20_6_3, xvid_FIR_1_0_0_0 , mm0, mm1, mm2
392 :     TACCUM3 6, xvid_FIR_0_0_1_3 , xvid_FIR_6_20_20_6, xvid_FIR_3_1_0_0 , mm0, mm1, mm2
393 :     TACCUM3 7, xvid_FIR_0_0_0_1 , xvid_FIR_3_6_20_20, xvid_FIR_6_3_1_0 , mm0, mm1, mm2
394 :    
395 :     TACCUM2 8, xvid_FIR_1_3_6_20 , xvid_FIR_20_6_3_1 , mm1, mm2
396 :    
397 :     TACCUM3 9, xvid_FIR_0_1_3_6 , xvid_FIR_20_20_6_3, xvid_FIR_1_0_0_0, mm1, mm2, mm3
398 :     TACCUM3 10, xvid_FIR_0_0_1_3 , xvid_FIR_6_20_20_6, xvid_FIR_3_1_0_0, mm1, mm2, mm3
399 :     TACCUM3 11, xvid_FIR_0_0_0_1 , xvid_FIR_3_6_20_20, xvid_FIR_6_3_1_0, mm1, mm2, mm3
400 :    
401 :     TACCUM2 12, xvid_FIR_1_3_6_20, xvid_FIR_20_6_3_1 , mm2, mm3
402 :     TACCUM2 13, xvid_FIR_0_1_3_6 , xvid_FIR_20_20_6_3, mm2, mm3
403 :     TACCUM2 14, xvid_FIR_0_0_1_3 , xvid_FIR_6_20_20_7, mm2, mm3
404 :     TACCUM2 15, xvid_FIR_0_0_0_1 , xvid_FIR_3_6_19_23, mm2, mm3
405 :    
406 :     %endif
407 :    
408 :     psraw mm0, 5
409 :     psraw mm1, 5
410 :     psraw mm2, 5
411 :     psraw mm3, 5
412 :     packuswb mm0, mm1
413 :     packuswb mm2, mm3
414 :    
415 :     %if (%1==1)
416 :     MIX mm0, esi, ebx
417 :     %elif (%1==2)
418 :     MIX mm0, esi+1, ebx
419 :     %endif
420 :     %if (%2==1)
421 :     MIX mm0, edi, Rounder1_MMX
422 :     %endif
423 :    
424 :     %if (%1==1)
425 :     MIX mm2, esi+8, ebx
426 :     %elif (%1==2)
427 :     MIX mm2, esi+9, ebx
428 :     %endif
429 :     %if (%2==1)
430 :     MIX mm2, edi+8, Rounder1_MMX
431 :     %endif
432 :    
433 :     lea esi, [esi+ebp]
434 :    
435 :     movq [edi+0], mm0
436 :     movq [edi+8], mm2
437 :    
438 :     add edi, ebp
439 :     dec ecx
440 :     jg .Loop
441 :    
442 :     %if (%2==0) && (%1==0)
443 :     EPILOG_NO_AVRG
444 :     %else
445 :     EPILOG_AVRG
446 :     %endif
447 :    
448 :     %endmacro
449 :    
450 :    
451 :     ;//////////////////////////////////////////////////////////////////////
452 :    
453 :     %macro H_PASS_8 2 ; %1:src-op (0=NONE,1=AVRG,2=AVRG-UP), %2:dst-op (NONE/AVRG)
454 :    
455 :     %if (%2==0) && (%1==0)
456 :     PROLOG_NO_AVRG
457 :     %else
458 :     PROLOG_AVRG
459 :     %endif
460 :    
461 :     .Loop
462 :     ; mm0..mm3 serves as a 4x4 delay line
463 :    
464 :     %ifndef USE_TABLES
465 :    
466 :     LOAD 0, 8 ; special case for 1rst/last pixel
467 :     ACCUM2 1, FIR_R1, mm0, mm3
468 :     ACCUM2 2, FIR_R2, mm0, mm3
469 :     ACCUM2 3, FIR_R3, mm0, mm3
470 :     ACCUM2 4, FIR_R4, mm0, mm3
471 :    
472 :     ACCUM2 5, FIR_R13, mm0, mm3
473 :     ACCUM2 6, FIR_R14, mm0, mm3
474 :     ACCUM2 7, FIR_R15, mm0, mm3
475 :    
476 :     %else
477 :    
478 :     %if 0 ; test with no unrolling
479 :    
480 :     TLOAD 0, 8 ; special case for 1rst/last pixel
481 :     TACCUM2 1, xvid_FIR_23_19_6_3, xvid_FIR_1_0_0_0 , mm0, mm3
482 :     TACCUM2 2, xvid_FIR_7_20_20_6, xvid_FIR_3_1_0_0 , mm0, mm3
483 :     TACCUM2 3, xvid_FIR_3_6_20_20, xvid_FIR_6_3_1_0 , mm0, mm3
484 :     TACCUM2 4, xvid_FIR_1_3_6_20 , xvid_FIR_20_6_3_1 , mm0, mm3
485 :     TACCUM2 5, xvid_FIR_0_1_3_6 , xvid_FIR_20_20_6_3, mm0, mm3
486 :     TACCUM2 6, xvid_FIR_0_0_1_3 , xvid_FIR_6_20_20_7, mm0, mm3
487 :     TACCUM2 7, xvid_FIR_0_0_0_1 , xvid_FIR_3_6_19_23, mm0, mm3
488 :    
489 :     %else ; test with unrolling (little faster, but not much)
490 :    
491 :     movzx eax, byte [esi]
492 :     movzx edx, byte [esi+8]
493 :     movq mm0, [xvid_FIR_14_3_2_1 + eax*8 ]
494 :     movzx eax, byte [esi+1]
495 :     movq mm3, [xvid_FIR_1_2_3_14 + edx*8 ]
496 :     paddw mm0, mm7
497 :     paddw mm3, mm7
498 :    
499 :     movzx edx, byte [esi+2]
500 :     paddw mm0, [xvid_FIR_23_19_6_3 + eax*8]
501 :     paddw mm3, [xvid_FIR_1_0_0_0 + eax*8]
502 :    
503 :     movzx eax, byte [esi+3]
504 :     paddw mm0, [xvid_FIR_7_20_20_6 + edx*8]
505 :     paddw mm3, [xvid_FIR_3_1_0_0 + edx*8]
506 :    
507 :     movzx edx, byte [esi+4]
508 :     paddw mm0, [xvid_FIR_3_6_20_20 + eax*8]
509 :     paddw mm3, [xvid_FIR_6_3_1_0 + eax*8]
510 :    
511 :     movzx eax, byte [esi+5]
512 :     paddw mm0, [xvid_FIR_1_3_6_20 + edx*8]
513 :     paddw mm3, [xvid_FIR_20_6_3_1 + edx*8]
514 :    
515 :     movzx edx, byte [esi+6]
516 :     paddw mm0, [xvid_FIR_0_1_3_6 + eax*8]
517 :     paddw mm3, [xvid_FIR_20_20_6_3 + eax*8]
518 :    
519 :     movzx eax, byte [esi+7]
520 :     paddw mm0, [xvid_FIR_0_0_1_3 + edx*8]
521 :     paddw mm3, [xvid_FIR_6_20_20_7 + edx*8]
522 :    
523 :     paddw mm0, [xvid_FIR_0_0_0_1 + eax*8]
524 :     paddw mm3, [xvid_FIR_3_6_19_23 + eax*8]
525 :    
526 :     %endif
527 :    
528 :     %endif ; !USE_TABLES
529 :    
530 :     psraw mm0, 5
531 :     psraw mm3, 5
532 :     packuswb mm0, mm3
533 :    
534 :     %if (%1==1)
535 :     MIX mm0, esi, ebx
536 :     %elif (%1==2)
537 :     MIX mm0, esi+1, ebx
538 :     %endif
539 :     %if (%2==1)
540 :     MIX mm0, edi, Rounder1_MMX
541 :     %endif
542 :    
543 :     movq [edi], mm0
544 :    
545 :     add edi, ebp
546 :     add esi, ebp
547 :     dec ecx
548 :     jg .Loop
549 :    
550 :     %if (%2==0) && (%1==0)
551 :     EPILOG_NO_AVRG
552 :     %else
553 :     EPILOG_AVRG
554 :     %endif
555 :    
556 :     %endmacro
557 :    
558 :     ;//////////////////////////////////////////////////////////////////////
559 :     ;// 16x? copy Functions
560 :    
561 :     xvid_H_Pass_16_mmx:
562 :     H_PASS_16 0, 0
563 :     xvid_H_Pass_Avrg_16_mmx:
564 :     H_PASS_16 1, 0
565 :     xvid_H_Pass_Avrg_Up_16_mmx:
566 :     H_PASS_16 2, 0
567 :    
568 :     ;//////////////////////////////////////////////////////////////////////
569 :     ;// 8x? copy Functions
570 :    
571 :     xvid_H_Pass_8_mmx:
572 :     H_PASS_8 0, 0
573 :     xvid_H_Pass_Avrg_8_mmx:
574 :     H_PASS_8 1, 0
575 :     xvid_H_Pass_Avrg_Up_8_mmx:
576 :     H_PASS_8 2, 0
577 :    
578 :     ;//////////////////////////////////////////////////////////////////////
579 :     ;// 16x? avrg Functions
580 :    
581 :     xvid_H_Pass_Add_16_mmx:
582 :     H_PASS_16 0, 1
583 :     xvid_H_Pass_Avrg_Add_16_mmx:
584 :     H_PASS_16 1, 1
585 :     xvid_H_Pass_Avrg_Up_Add_16_mmx:
586 :     H_PASS_16 2, 1
587 :    
588 :     ;//////////////////////////////////////////////////////////////////////
589 :     ;// 8x? avrg Functions
590 :    
591 :     xvid_H_Pass_8_Add_mmx:
592 :     H_PASS_8 0, 1
593 :     xvid_H_Pass_Avrg_8_Add_mmx:
594 :     H_PASS_8 1, 1
595 :     xvid_H_Pass_Avrg_Up_8_Add_mmx:
596 :     H_PASS_8 2, 1
597 :    
598 :    
599 :    
600 :     ;//////////////////////////////////////////////////////////////////////
601 :     ;//
602 :     ;// All vertical passes
603 :     ;//
604 :     ;//////////////////////////////////////////////////////////////////////
605 :    
606 :     %macro V_LOAD 1 ; %1=Last?
607 :    
608 :     movd mm4, [edx]
609 :     pxor mm6, mm6
610 :     %if (%1==0)
611 :     add edx, ebp
612 :     %endif
613 :     punpcklbw mm4, mm6
614 :    
615 :     %endmacro
616 :    
617 :     %macro V_ACC1 2 ; %1:reg; 2:tap
618 :     pmullw mm4, [%2]
619 :     paddw %1, mm4
620 :     %endmacro
621 :    
622 :     %macro V_ACC2 4 ; %1-%2: regs, %3-%4: taps
623 :     movq mm5, mm4
624 :     movq mm6, mm4
625 :     pmullw mm5, [%3]
626 :     pmullw mm6, [%4]
627 :     paddw %1, mm5
628 :     paddw %2, mm6
629 :     %endmacro
630 :    
631 :     %macro V_ACC2l 4 ; %1-%2: regs, %3-%4: taps
632 :     movq mm5, mm4
633 :     pmullw mm5, [%3]
634 :     pmullw mm4, [%4]
635 :     paddw %1, mm5
636 :     paddw %2, mm4
637 :     %endmacro
638 :    
639 :     %macro V_ACC4 8 ; %1-%4: regs, %5-%8: taps
640 :     V_ACC2 %1,%2, %5,%6
641 :     V_ACC2l %3,%4, %7,%8
642 :     %endmacro
643 :    
644 :    
645 :     %macro V_MIX 3 ; %1:dst-reg, %2:src, %3: rounder
646 :     pxor mm6, mm6
647 :     movq mm4, [%2]
648 :     punpcklbw %1, mm6
649 :     punpcklbw mm4, mm6
650 :     paddusw %1, mm4
651 :     paddusw %1, [%3]
652 :     psrlw %1, 1
653 :     packuswb %1, %1
654 :     %endmacro
655 :    
656 :     %macro V_STORE 4 ; %1-%2: mix ops, %3: reg, %4:last?
657 :    
658 :     psraw %3, 5
659 :     packuswb %3, %3
660 :    
661 :     %if (%1==1)
662 :     V_MIX %3, esi, ebx
663 :     add esi, ebp
664 :     %elif (%1==2)
665 :     add esi, ebp
666 :     V_MIX %3, esi, ebx
667 :     %endif
668 :     %if (%2==1)
669 :     V_MIX %3, edi, Rounder1_MMX
670 :     %endif
671 :    
672 :     movd eax, %3
673 :     mov [edi], eax
674 :    
675 :     %if (%4==0)
676 :     add edi, ebp
677 :     %endif
678 :    
679 :     %endmacro
680 :    
681 :     ;//////////////////////////////////////////////////////////////////////
682 :    
683 :     %macro V_PASS_16 2 ; %1:src-op (0=NONE,1=AVRG,2=AVRG-UP), %2:dst-op (NONE/AVRG)
684 :    
685 :     %if (%2==0) && (%1==0)
686 :     PROLOG_NO_AVRG
687 :     %else
688 :     PROLOG_AVRG
689 :     %endif
690 :    
691 :     ; we process one stripe of 4x16 pixel each time.
692 :     ; the size (3rd argument) is meant to be a multiple of 4
693 :     ; mm0..mm3 serves as a 4x4 delay line
694 :    
695 :     .Loop
696 :    
697 :     push edi
698 :     push esi ; esi is preserved for src-mixing
699 :     mov edx, esi
700 :    
701 :     ; ouput rows [0..3], from input rows [0..8]
702 :    
703 :     movq mm0, mm7
704 :     movq mm1, mm7
705 :     movq mm2, mm7
706 :     movq mm3, mm7
707 :    
708 :     V_LOAD 0
709 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C14, FIR_Cm3, FIR_C2, FIR_Cm1
710 :     V_LOAD 0
711 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C23, FIR_C19, FIR_Cm6, FIR_C3
712 :     V_LOAD 0
713 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm7, FIR_C20, FIR_C20, FIR_Cm6
714 :     V_LOAD 0
715 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C3, FIR_Cm6, FIR_C20, FIR_C20
716 :     V_LOAD 0
717 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm1, FIR_C3, FIR_Cm6, FIR_C20
718 :     V_STORE %1, %2, mm0, 0
719 :    
720 :     V_LOAD 0
721 :     V_ACC2 mm1, mm2, FIR_Cm1, FIR_C3
722 :     V_ACC1 mm3, FIR_Cm6
723 :     V_STORE %1, %2, mm1, 0
724 :    
725 :     V_LOAD 0
726 :     V_ACC2l mm2, mm3, FIR_Cm1, FIR_C3
727 :     V_STORE %1, %2, mm2, 0
728 :    
729 :     V_LOAD 1
730 :     V_ACC1 mm3, FIR_Cm1
731 :     V_STORE %1, %2, mm3, 0
732 :    
733 :     ; ouput rows [4..7], from input rows [1..11] (!!)
734 :    
735 :     mov esi, [esp]
736 :     lea edx, [esi+ebp]
737 :    
738 :     lea esi, [esi+4*ebp] ; for src-mixing
739 :     push esi ; this will be the new value for next round
740 :    
741 :     movq mm0, mm7
742 :     movq mm1, mm7
743 :     movq mm2, mm7
744 :     movq mm3, mm7
745 :    
746 :     V_LOAD 0
747 :     V_ACC1 mm0, FIR_Cm1
748 :    
749 :     V_LOAD 0
750 :     V_ACC2l mm0, mm1, FIR_C3, FIR_Cm1
751 :    
752 :     V_LOAD 0
753 :     V_ACC2 mm0, mm1, FIR_Cm6, FIR_C3
754 :     V_ACC1 mm2, FIR_Cm1
755 :    
756 :     V_LOAD 0
757 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C20, FIR_Cm6, FIR_C3, FIR_Cm1
758 :     V_LOAD 0
759 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C20, FIR_C20, FIR_Cm6, FIR_C3
760 :     V_LOAD 0
761 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm6, FIR_C20, FIR_C20, FIR_Cm6
762 :     V_LOAD 0
763 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C3, FIR_Cm6, FIR_C20, FIR_C20
764 :     V_LOAD 0
765 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm1, FIR_C3, FIR_Cm6, FIR_C20
766 :     V_STORE %1, %2, mm0, 0
767 :    
768 :     V_LOAD 0
769 :     V_ACC2 mm1, mm2, FIR_Cm1, FIR_C3
770 :     V_ACC1 mm3, FIR_Cm6
771 :     V_STORE %1, %2, mm1, 0
772 :    
773 :     V_LOAD 0
774 :     V_ACC2l mm2, mm3, FIR_Cm1, FIR_C3
775 :     V_STORE %1, %2, mm2, 0
776 :    
777 :     V_LOAD 1
778 :     V_ACC1 mm3, FIR_Cm1
779 :     V_STORE %1, %2, mm3, 0
780 :    
781 :     ; ouput rows [8..11], from input rows [5..15]
782 :    
783 :     pop esi
784 :     lea edx, [esi+ebp]
785 :    
786 :     lea esi, [esi+4*ebp] ; for src-mixing
787 :     push esi ; this will be the new value for next round
788 :    
789 :     movq mm0, mm7
790 :     movq mm1, mm7
791 :     movq mm2, mm7
792 :     movq mm3, mm7
793 :    
794 :     V_LOAD 0
795 :     V_ACC1 mm0, FIR_Cm1
796 :    
797 :     V_LOAD 0
798 :     V_ACC2l mm0, mm1, FIR_C3, FIR_Cm1
799 :    
800 :     V_LOAD 0
801 :     V_ACC2 mm0, mm1, FIR_Cm6, FIR_C3
802 :     V_ACC1 mm2, FIR_Cm1
803 :    
804 :     V_LOAD 0
805 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C20, FIR_Cm6, FIR_C3, FIR_Cm1
806 :     V_LOAD 0
807 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C20, FIR_C20, FIR_Cm6, FIR_C3
808 :     V_LOAD 0
809 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm6, FIR_C20, FIR_C20, FIR_Cm6
810 :     V_LOAD 0
811 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C3, FIR_Cm6, FIR_C20, FIR_C20
812 :     V_LOAD 0
813 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm1, FIR_C3, FIR_Cm6, FIR_C20
814 :    
815 :     V_STORE %1, %2, mm0, 0
816 :    
817 :     V_LOAD 0
818 :     V_ACC2 mm1, mm2, FIR_Cm1, FIR_C3
819 :     V_ACC1 mm3, FIR_Cm6
820 :     V_STORE %1, %2, mm1, 0
821 :    
822 :     V_LOAD 0
823 :     V_ACC2l mm2, mm3, FIR_Cm1, FIR_C3
824 :     V_STORE %1, %2, mm2, 0
825 :    
826 :     V_LOAD 1
827 :     V_ACC1 mm3, FIR_Cm1
828 :     V_STORE %1, %2, mm3, 0
829 :    
830 :    
831 :     ; ouput rows [12..15], from input rows [9.16]
832 :    
833 :     pop esi
834 :     lea edx, [esi+ebp]
835 :    
836 :     %if (%1!=0)
837 :     lea esi, [esi+4*ebp] ; for src-mixing
838 :     %endif
839 :    
840 :     movq mm0, mm7
841 :     movq mm1, mm7
842 :     movq mm2, mm7
843 :     movq mm3, mm7
844 :    
845 :     V_LOAD 0
846 :     V_ACC1 mm3, FIR_Cm1
847 :    
848 :     V_LOAD 0
849 :     V_ACC2l mm2, mm3, FIR_Cm1, FIR_C3
850 :    
851 :     V_LOAD 0
852 :     V_ACC2 mm1, mm2, FIR_Cm1, FIR_C3
853 :     V_ACC1 mm3, FIR_Cm6
854 :    
855 :     V_LOAD 0
856 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm1, FIR_C3, FIR_Cm6, FIR_C20
857 :     V_LOAD 0
858 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C3, FIR_Cm6, FIR_C20, FIR_C20
859 :     V_LOAD 0
860 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm7, FIR_C20, FIR_C20, FIR_Cm6
861 :     V_LOAD 0
862 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C23, FIR_C19, FIR_Cm6, FIR_C3
863 :     V_LOAD 1
864 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C14, FIR_Cm3, FIR_C2, FIR_Cm1
865 :    
866 :     V_STORE %1, %2, mm3, 0
867 :     V_STORE %1, %2, mm2, 0
868 :     V_STORE %1, %2, mm1, 0
869 :     V_STORE %1, %2, mm0, 1
870 :    
871 :     ; ... next 4 columns
872 :    
873 :     pop esi
874 :     pop edi
875 :     add esi, 4
876 :     add edi, 4
877 :     sub ecx, 4
878 :     jg .Loop
879 :    
880 :     %if (%2==0) && (%1==0)
881 :     EPILOG_NO_AVRG
882 :     %else
883 :     EPILOG_AVRG
884 :     %endif
885 :    
886 :     %endmacro
887 :    
888 :     ;//////////////////////////////////////////////////////////////////////
889 :    
890 :     %macro V_PASS_8 2 ; %1:src-op (0=NONE,1=AVRG,2=AVRG-UP), %2:dst-op (NONE/AVRG)
891 :    
892 :     %if (%2==0) && (%1==0)
893 :     PROLOG_NO_AVRG
894 :     %else
895 :     PROLOG_AVRG
896 :     %endif
897 :    
898 :     ; we process one stripe of 4x8 pixel each time
899 :     ; the size (3rd argument) is meant to be a multiple of 4
900 :     ; mm0..mm3 serves as a 4x4 delay line
901 :     .Loop
902 :    
903 :     push edi
904 :     push esi ; esi is preserved for src-mixing
905 :     mov edx, esi
906 :    
907 :     ; ouput rows [0..3], from input rows [0..8]
908 :    
909 :     movq mm0, mm7
910 :     movq mm1, mm7
911 :     movq mm2, mm7
912 :     movq mm3, mm7
913 :    
914 :     V_LOAD 0
915 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C14, FIR_Cm3, FIR_C2, FIR_Cm1
916 :     V_LOAD 0
917 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C23, FIR_C19, FIR_Cm6, FIR_C3
918 :     V_LOAD 0
919 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm7, FIR_C20, FIR_C20, FIR_Cm6
920 :     V_LOAD 0
921 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C3, FIR_Cm6, FIR_C20, FIR_C20
922 :     V_LOAD 0
923 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm1, FIR_C3, FIR_Cm6, FIR_C20
924 :     V_STORE %1, %2, mm0, 0
925 :    
926 :     V_LOAD 0
927 :     V_ACC2 mm1, mm2, FIR_Cm1, FIR_C3
928 :     V_ACC1 mm3, FIR_Cm6
929 :    
930 :     V_STORE %1, %2, mm1, 0
931 :    
932 :     V_LOAD 0
933 :     V_ACC2l mm2, mm3, FIR_Cm1, FIR_C3
934 :     V_STORE %1, %2, mm2, 0
935 :    
936 :     V_LOAD 1
937 :     V_ACC1 mm3, FIR_Cm1
938 :     V_STORE %1, %2, mm3, 0
939 :    
940 :     ; ouput rows [4..7], from input rows [1..9]
941 :    
942 :     mov esi, [esp]
943 :     lea edx, [esi+ebp]
944 :    
945 :     %if (%1!=0)
946 :     lea esi, [esi+4*ebp] ; for src-mixing
947 :     %endif
948 :    
949 :     movq mm0, mm7
950 :     movq mm1, mm7
951 :     movq mm2, mm7
952 :     movq mm3, mm7
953 :    
954 :     V_LOAD 0
955 :     V_ACC1 mm3, FIR_Cm1
956 :    
957 :     V_LOAD 0
958 :     V_ACC2l mm2, mm3, FIR_Cm1, FIR_C3
959 :    
960 :     V_LOAD 0
961 :     V_ACC2 mm1, mm2, FIR_Cm1, FIR_C3
962 :     V_ACC1 mm3, FIR_Cm6
963 :    
964 :     V_LOAD 0
965 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm1, FIR_C3, FIR_Cm6, FIR_C20
966 :     V_LOAD 0
967 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C3, FIR_Cm6, FIR_C20, FIR_C20
968 :     V_LOAD 0
969 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_Cm7, FIR_C20, FIR_C20, FIR_Cm6
970 :     V_LOAD 0
971 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C23, FIR_C19, FIR_Cm6, FIR_C3
972 :     V_LOAD 1
973 :     V_ACC4 mm0, mm1, mm2, mm3, FIR_C14, FIR_Cm3, FIR_C2, FIR_Cm1
974 :    
975 :     V_STORE %1, %2, mm3, 0
976 :     V_STORE %1, %2, mm2, 0
977 :     V_STORE %1, %2, mm1, 0
978 :     V_STORE %1, %2, mm0, 1
979 :    
980 :     ; ... next 4 columns
981 :    
982 :     pop esi
983 :     pop edi
984 :     add esi, 4
985 :     add edi, 4
986 :     sub ecx, 4
987 :     jg .Loop
988 :    
989 :     %if (%2==0) && (%1==0)
990 :     EPILOG_NO_AVRG
991 :     %else
992 :     EPILOG_AVRG
993 :     %endif
994 :    
995 :     %endmacro
996 :    
997 :    
998 :     ;//////////////////////////////////////////////////////////////////////
999 :     ;// 16x? copy Functions
1000 :    
1001 :     xvid_V_Pass_16_mmx:
1002 :     V_PASS_16 0, 0
1003 :     xvid_V_Pass_Avrg_16_mmx:
1004 :     V_PASS_16 1, 0
1005 :     xvid_V_Pass_Avrg_Up_16_mmx:
1006 :     V_PASS_16 2, 0
1007 :    
1008 :     ;//////////////////////////////////////////////////////////////////////
1009 :     ;// 8x? copy Functions
1010 :    
1011 :     xvid_V_Pass_8_mmx:
1012 :     V_PASS_8 0, 0
1013 :     xvid_V_Pass_Avrg_8_mmx:
1014 :     V_PASS_8 1, 0
1015 :     xvid_V_Pass_Avrg_Up_8_mmx:
1016 :     V_PASS_8 2, 0
1017 :    
1018 :     ;//////////////////////////////////////////////////////////////////////
1019 :     ;// 16x? avrg Functions
1020 :    
1021 :     xvid_V_Pass_Add_16_mmx:
1022 :     V_PASS_16 0, 1
1023 :     xvid_V_Pass_Avrg_Add_16_mmx:
1024 :     V_PASS_16 1, 1
1025 :     xvid_V_Pass_Avrg_Up_Add_16_mmx:
1026 :     V_PASS_16 2, 1
1027 :    
1028 :     ;//////////////////////////////////////////////////////////////////////
1029 :     ;// 8x? avrg Functions
1030 :    
1031 :     xvid_V_Pass_8_Add_mmx:
1032 :     V_PASS_8 0, 1
1033 :     xvid_V_Pass_Avrg_8_Add_mmx:
1034 :     V_PASS_8 1, 1
1035 :     xvid_V_Pass_Avrg_Up_8_Add_mmx:
1036 :     V_PASS_8 2, 1
1037 :    
1038 :     ;//////////////////////////////////////////////////////////////////////

No admin address has been configured
ViewVC Help
Powered by ViewVC 1.0.4