]> git.sesse.net Git - ffmpeg/blob - libavutil/x86/x86inc.asm
Merge commit '43dd004747fa697396b47d034a80e069facbea09'
[ffmpeg] / libavutil / x86 / x86inc.asm
1 ;*****************************************************************************
2 ;* x86inc.asm: x264asm abstraction layer
3 ;*****************************************************************************
4 ;* Copyright (C) 2005-2013 x264 project
5 ;*
6 ;* Authors: Loren Merritt <lorenm@u.washington.edu>
7 ;*          Anton Mitrofanov <BugMaster@narod.ru>
8 ;*          Fiona Glaser <fiona@x264.com>
9 ;*          Henrik Gramner <henrik@gramner.com>
10 ;*
11 ;* Permission to use, copy, modify, and/or distribute this software for any
12 ;* purpose with or without fee is hereby granted, provided that the above
13 ;* copyright notice and this permission notice appear in all copies.
14 ;*
15 ;* THE SOFTWARE IS PROVIDED "AS IS" AND THE AUTHOR DISCLAIMS ALL WARRANTIES
16 ;* WITH REGARD TO THIS SOFTWARE INCLUDING ALL IMPLIED WARRANTIES OF
17 ;* MERCHANTABILITY AND FITNESS. IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR
18 ;* ANY SPECIAL, DIRECT, INDIRECT, OR CONSEQUENTIAL DAMAGES OR ANY DAMAGES
19 ;* WHATSOEVER RESULTING FROM LOSS OF USE, DATA OR PROFITS, WHETHER IN AN
20 ;* ACTION OF CONTRACT, NEGLIGENCE OR OTHER TORTIOUS ACTION, ARISING OUT OF
21 ;* OR IN CONNECTION WITH THE USE OR PERFORMANCE OF THIS SOFTWARE.
22 ;*****************************************************************************
23
24 ; This is a header file for the x264ASM assembly language, which uses
25 ; NASM/YASM syntax combined with a large number of macros to provide easy
26 ; abstraction between different calling conventions (x86_32, win64, linux64).
27 ; It also has various other useful features to simplify writing the kind of
28 ; DSP functions that are most often used in x264.
29
30 ; Unlike the rest of x264, this file is available under an ISC license, as it
31 ; has significant usefulness outside of x264 and we want it to be available
32 ; to the largest audience possible.  Of course, if you modify it for your own
33 ; purposes to add a new feature, we strongly encourage contributing a patch
34 ; as this feature might be useful for others as well.  Send patches or ideas
35 ; to x264-devel@videolan.org .
36
37 %ifndef private_prefix
38     %define private_prefix x264
39 %endif
40
41 %ifndef public_prefix
42     %define public_prefix private_prefix
43 %endif
44
45 %define WIN64  0
46 %define UNIX64 0
47 %if ARCH_X86_64
48     %ifidn __OUTPUT_FORMAT__,win32
49         %define WIN64  1
50     %elifidn __OUTPUT_FORMAT__,win64
51         %define WIN64  1
52     %elifidn __OUTPUT_FORMAT__,x64
53         %define WIN64  1
54     %else
55         %define UNIX64 1
56     %endif
57 %endif
58
59 %ifdef PREFIX
60     %define mangle(x) _ %+ x
61 %else
62     %define mangle(x) x
63 %endif
64
65 ; aout does not support align=
66 ; NOTE: This section is out of sync with x264, in order to
67 ; keep supporting OS/2.
68 %macro SECTION_RODATA 0-1 16
69     %ifidn __OUTPUT_FORMAT__,aout
70         section .text
71     %else
72         SECTION .rodata align=%1
73     %endif
74 %endmacro
75
76 %macro SECTION_TEXT 0-1 16
77     %ifidn __OUTPUT_FORMAT__,aout
78         SECTION .text
79     %else
80         SECTION .text align=%1
81     %endif
82 %endmacro
83
84 %if WIN64
85     %define PIC
86 %elif ARCH_X86_64 == 0
87 ; x86_32 doesn't require PIC.
88 ; Some distros prefer shared objects to be PIC, but nothing breaks if
89 ; the code contains a few textrels, so we'll skip that complexity.
90     %undef PIC
91 %endif
92 %ifdef PIC
93     default rel
94 %endif
95
96 %macro CPUNOP 1
97     %if HAVE_CPUNOP
98         CPU %1
99     %endif
100 %endmacro
101
102 ; Macros to eliminate most code duplication between x86_32 and x86_64:
103 ; Currently this works only for leaf functions which load all their arguments
104 ; into registers at the start, and make no other use of the stack. Luckily that
105 ; covers most of x264's asm.
106
107 ; PROLOGUE:
108 ; %1 = number of arguments. loads them from stack if needed.
109 ; %2 = number of registers used. pushes callee-saved regs if needed.
110 ; %3 = number of xmm registers used. pushes callee-saved xmm regs if needed.
111 ; %4 = (optional) stack size to be allocated. If not aligned (x86-32 ICC 10.x,
112 ;      MSVC or YMM), the stack will be manually aligned (to 16 or 32 bytes),
113 ;      and an extra register will be allocated to hold the original stack
114 ;      pointer (to not invalidate r0m etc.). To prevent the use of an extra
115 ;      register as stack pointer, request a negative stack size.
116 ; %4+/%5+ = list of names to define to registers
117 ; PROLOGUE can also be invoked by adding the same options to cglobal
118
119 ; e.g.
120 ; cglobal foo, 2,3,0, dst, src, tmp
121 ; declares a function (foo), taking two args (dst and src) and one local variable (tmp)
122
123 ; TODO Some functions can use some args directly from the stack. If they're the
124 ; last args then you can just not declare them, but if they're in the middle
125 ; we need more flexible macro.
126
127 ; RET:
128 ; Pops anything that was pushed by PROLOGUE, and returns.
129
130 ; REP_RET:
131 ; Use this instead of RET if it's a branch target.
132
133 ; registers:
134 ; rN and rNq are the native-size register holding function argument N
135 ; rNd, rNw, rNb are dword, word, and byte size
136 ; rNh is the high 8 bits of the word size
137 ; rNm is the original location of arg N (a register or on the stack), dword
138 ; rNmp is native size
139
140 %macro DECLARE_REG 2-3
141     %define r%1q %2
142     %define r%1d %2d
143     %define r%1w %2w
144     %define r%1b %2b
145     %define r%1h %2h
146     %define %2q %2
147     %if %0 == 2
148         %define r%1m  %2d
149         %define r%1mp %2
150     %elif ARCH_X86_64 ; memory
151         %define r%1m [rstk + stack_offset + %3]
152         %define r%1mp qword r %+ %1 %+ m
153     %else
154         %define r%1m [rstk + stack_offset + %3]
155         %define r%1mp dword r %+ %1 %+ m
156     %endif
157     %define r%1  %2
158 %endmacro
159
160 %macro DECLARE_REG_SIZE 3
161     %define r%1q r%1
162     %define e%1q r%1
163     %define r%1d e%1
164     %define e%1d e%1
165     %define r%1w %1
166     %define e%1w %1
167     %define r%1h %3
168     %define e%1h %3
169     %define r%1b %2
170     %define e%1b %2
171 %if ARCH_X86_64 == 0
172     %define r%1  e%1
173 %endif
174 %endmacro
175
176 DECLARE_REG_SIZE ax, al, ah
177 DECLARE_REG_SIZE bx, bl, bh
178 DECLARE_REG_SIZE cx, cl, ch
179 DECLARE_REG_SIZE dx, dl, dh
180 DECLARE_REG_SIZE si, sil, null
181 DECLARE_REG_SIZE di, dil, null
182 DECLARE_REG_SIZE bp, bpl, null
183
184 ; t# defines for when per-arch register allocation is more complex than just function arguments
185
186 %macro DECLARE_REG_TMP 1-*
187     %assign %%i 0
188     %rep %0
189         CAT_XDEFINE t, %%i, r%1
190         %assign %%i %%i+1
191         %rotate 1
192     %endrep
193 %endmacro
194
195 %macro DECLARE_REG_TMP_SIZE 0-*
196     %rep %0
197         %define t%1q t%1 %+ q
198         %define t%1d t%1 %+ d
199         %define t%1w t%1 %+ w
200         %define t%1h t%1 %+ h
201         %define t%1b t%1 %+ b
202         %rotate 1
203     %endrep
204 %endmacro
205
206 DECLARE_REG_TMP_SIZE 0,1,2,3,4,5,6,7,8,9,10,11,12,13,14
207
208 %if ARCH_X86_64
209     %define gprsize 8
210 %else
211     %define gprsize 4
212 %endif
213
214 %macro PUSH 1
215     push %1
216     %ifidn rstk, rsp
217         %assign stack_offset stack_offset+gprsize
218     %endif
219 %endmacro
220
221 %macro POP 1
222     pop %1
223     %ifidn rstk, rsp
224         %assign stack_offset stack_offset-gprsize
225     %endif
226 %endmacro
227
228 %macro PUSH_IF_USED 1-*
229     %rep %0
230         %if %1 < regs_used
231             PUSH r%1
232         %endif
233         %rotate 1
234     %endrep
235 %endmacro
236
237 %macro POP_IF_USED 1-*
238     %rep %0
239         %if %1 < regs_used
240             pop r%1
241         %endif
242         %rotate 1
243     %endrep
244 %endmacro
245
246 %macro LOAD_IF_USED 1-*
247     %rep %0
248         %if %1 < num_args
249             mov r%1, r %+ %1 %+ mp
250         %endif
251         %rotate 1
252     %endrep
253 %endmacro
254
255 %macro SUB 2
256     sub %1, %2
257     %ifidn %1, rstk
258         %assign stack_offset stack_offset+(%2)
259     %endif
260 %endmacro
261
262 %macro ADD 2
263     add %1, %2
264     %ifidn %1, rstk
265         %assign stack_offset stack_offset-(%2)
266     %endif
267 %endmacro
268
269 %macro movifnidn 2
270     %ifnidn %1, %2
271         mov %1, %2
272     %endif
273 %endmacro
274
275 %macro movsxdifnidn 2
276     %ifnidn %1, %2
277         movsxd %1, %2
278     %endif
279 %endmacro
280
281 %macro ASSERT 1
282     %if (%1) == 0
283         %error assert failed
284     %endif
285 %endmacro
286
287 %macro DEFINE_ARGS 0-*
288     %ifdef n_arg_names
289         %assign %%i 0
290         %rep n_arg_names
291             CAT_UNDEF arg_name %+ %%i, q
292             CAT_UNDEF arg_name %+ %%i, d
293             CAT_UNDEF arg_name %+ %%i, w
294             CAT_UNDEF arg_name %+ %%i, h
295             CAT_UNDEF arg_name %+ %%i, b
296             CAT_UNDEF arg_name %+ %%i, m
297             CAT_UNDEF arg_name %+ %%i, mp
298             CAT_UNDEF arg_name, %%i
299             %assign %%i %%i+1
300         %endrep
301     %endif
302
303     %xdefine %%stack_offset stack_offset
304     %undef stack_offset ; so that the current value of stack_offset doesn't get baked in by xdefine
305     %assign %%i 0
306     %rep %0
307         %xdefine %1q r %+ %%i %+ q
308         %xdefine %1d r %+ %%i %+ d
309         %xdefine %1w r %+ %%i %+ w
310         %xdefine %1h r %+ %%i %+ h
311         %xdefine %1b r %+ %%i %+ b
312         %xdefine %1m r %+ %%i %+ m
313         %xdefine %1mp r %+ %%i %+ mp
314         CAT_XDEFINE arg_name, %%i, %1
315         %assign %%i %%i+1
316         %rotate 1
317     %endrep
318     %xdefine stack_offset %%stack_offset
319     %assign n_arg_names %0
320 %endmacro
321
322 %macro ALLOC_STACK 1-2 0 ; stack_size, n_xmm_regs (for win64 only)
323     %ifnum %1
324         %if %1 != 0
325             %assign %%stack_alignment ((mmsize + 15) & ~15)
326             %assign stack_size %1
327             %if stack_size < 0
328                 %assign stack_size -stack_size
329             %endif
330             %assign stack_size_padded stack_size
331             %if WIN64
332                 %assign stack_size_padded stack_size_padded + 32 ; reserve 32 bytes for shadow space
333                 %if mmsize != 8
334                     %assign xmm_regs_used %2
335                     %if xmm_regs_used > 8
336                         %assign stack_size_padded stack_size_padded + (xmm_regs_used-8)*16
337                     %endif
338                 %endif
339             %endif
340             %if mmsize <= 16 && HAVE_ALIGNED_STACK
341                 %assign stack_size_padded stack_size_padded + %%stack_alignment - gprsize - (stack_offset & (%%stack_alignment - 1))
342                 SUB rsp, stack_size_padded
343             %else
344                 %assign %%reg_num (regs_used - 1)
345                 %xdefine rstk r %+ %%reg_num
346                 ; align stack, and save original stack location directly above
347                 ; it, i.e. in [rsp+stack_size_padded], so we can restore the
348                 ; stack in a single instruction (i.e. mov rsp, rstk or mov
349                 ; rsp, [rsp+stack_size_padded])
350                 mov  rstk, rsp
351                 %if %1 < 0 ; need to store rsp on stack
352                     sub  rsp, gprsize+stack_size_padded
353                     and  rsp, ~(%%stack_alignment-1)
354                     %xdefine rstkm [rsp+stack_size_padded]
355                     mov rstkm, rstk
356                 %else ; can keep rsp in rstk during whole function
357                     sub  rsp, stack_size_padded
358                     and  rsp, ~(%%stack_alignment-1)
359                     %xdefine rstkm rstk
360                 %endif
361             %endif
362             WIN64_PUSH_XMM
363         %endif
364     %endif
365 %endmacro
366
367 %macro SETUP_STACK_POINTER 1
368     %ifnum %1
369         %if %1 != 0 && (HAVE_ALIGNED_STACK == 0 || mmsize == 32)
370             %if %1 > 0
371                 %assign regs_used (regs_used + 1)
372             %elif ARCH_X86_64 && regs_used == num_args && num_args <= 4 + UNIX64 * 2
373                 %warning "Stack pointer will overwrite register argument"
374             %endif
375         %endif
376     %endif
377 %endmacro
378
379 %macro DEFINE_ARGS_INTERNAL 3+
380     %ifnum %2
381         DEFINE_ARGS %3
382     %elif %1 == 4
383         DEFINE_ARGS %2
384     %elif %1 > 4
385         DEFINE_ARGS %2, %3
386     %endif
387 %endmacro
388
389 %if WIN64 ; Windows x64 ;=================================================
390
391 DECLARE_REG 0,  rcx
392 DECLARE_REG 1,  rdx
393 DECLARE_REG 2,  R8
394 DECLARE_REG 3,  R9
395 DECLARE_REG 4,  R10, 40
396 DECLARE_REG 5,  R11, 48
397 DECLARE_REG 6,  rax, 56
398 DECLARE_REG 7,  rdi, 64
399 DECLARE_REG 8,  rsi, 72
400 DECLARE_REG 9,  rbx, 80
401 DECLARE_REG 10, rbp, 88
402 DECLARE_REG 11, R12, 96
403 DECLARE_REG 12, R13, 104
404 DECLARE_REG 13, R14, 112
405 DECLARE_REG 14, R15, 120
406
407 %macro PROLOGUE 2-5+ 0 ; #args, #regs, #xmm_regs, [stack_size,] arg_names...
408     %assign num_args %1
409     %assign regs_used %2
410     ASSERT regs_used >= num_args
411     SETUP_STACK_POINTER %4
412     ASSERT regs_used <= 15
413     PUSH_IF_USED 7, 8, 9, 10, 11, 12, 13, 14
414     ALLOC_STACK %4, %3
415     %if mmsize != 8 && stack_size == 0
416         WIN64_SPILL_XMM %3
417     %endif
418     LOAD_IF_USED 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14
419     DEFINE_ARGS_INTERNAL %0, %4, %5
420 %endmacro
421
422 %macro WIN64_PUSH_XMM 0
423     ; Use the shadow space to store XMM6 and XMM7, the rest needs stack space allocated.
424     %if xmm_regs_used > 6
425         movaps [rstk + stack_offset +  8], xmm6
426     %endif
427     %if xmm_regs_used > 7
428         movaps [rstk + stack_offset + 24], xmm7
429     %endif
430     %if xmm_regs_used > 8
431         %assign %%i 8
432         %rep xmm_regs_used-8
433             movaps [rsp + (%%i-8)*16 + stack_size + 32], xmm %+ %%i
434             %assign %%i %%i+1
435         %endrep
436     %endif
437 %endmacro
438
439 %macro WIN64_SPILL_XMM 1
440     %assign xmm_regs_used %1
441     ASSERT xmm_regs_used <= 16
442     %if xmm_regs_used > 8
443         %assign stack_size_padded (xmm_regs_used-8)*16 + (~stack_offset&8) + 32
444         SUB rsp, stack_size_padded
445     %endif
446     WIN64_PUSH_XMM
447 %endmacro
448
449 %macro WIN64_RESTORE_XMM_INTERNAL 1
450     %assign %%pad_size 0
451     %if xmm_regs_used > 8
452         %assign %%i xmm_regs_used
453         %rep xmm_regs_used-8
454             %assign %%i %%i-1
455             movaps xmm %+ %%i, [%1 + (%%i-8)*16 + stack_size + 32]
456         %endrep
457     %endif
458     %if stack_size_padded > 0
459         %if stack_size > 0 && (mmsize == 32 || HAVE_ALIGNED_STACK == 0)
460             mov rsp, rstkm
461         %else
462             add %1, stack_size_padded
463             %assign %%pad_size stack_size_padded
464         %endif
465     %endif
466     %if xmm_regs_used > 7
467         movaps xmm7, [%1 + stack_offset - %%pad_size + 24]
468     %endif
469     %if xmm_regs_used > 6
470         movaps xmm6, [%1 + stack_offset - %%pad_size +  8]
471     %endif
472 %endmacro
473
474 %macro WIN64_RESTORE_XMM 1
475     WIN64_RESTORE_XMM_INTERNAL %1
476     %assign stack_offset (stack_offset-stack_size_padded)
477     %assign xmm_regs_used 0
478 %endmacro
479
480 %define has_epilogue regs_used > 7 || xmm_regs_used > 6 || mmsize == 32 || stack_size > 0
481
482 %macro RET 0
483     WIN64_RESTORE_XMM_INTERNAL rsp
484     POP_IF_USED 14, 13, 12, 11, 10, 9, 8, 7
485 %if mmsize == 32
486     vzeroupper
487 %endif
488     AUTO_REP_RET
489 %endmacro
490
491 %elif ARCH_X86_64 ; *nix x64 ;=============================================
492
493 DECLARE_REG 0,  rdi
494 DECLARE_REG 1,  rsi
495 DECLARE_REG 2,  rdx
496 DECLARE_REG 3,  rcx
497 DECLARE_REG 4,  R8
498 DECLARE_REG 5,  R9
499 DECLARE_REG 6,  rax, 8
500 DECLARE_REG 7,  R10, 16
501 DECLARE_REG 8,  R11, 24
502 DECLARE_REG 9,  rbx, 32
503 DECLARE_REG 10, rbp, 40
504 DECLARE_REG 11, R12, 48
505 DECLARE_REG 12, R13, 56
506 DECLARE_REG 13, R14, 64
507 DECLARE_REG 14, R15, 72
508
509 %macro PROLOGUE 2-5+ ; #args, #regs, #xmm_regs, [stack_size,] arg_names...
510     %assign num_args %1
511     %assign regs_used %2
512     ASSERT regs_used >= num_args
513     SETUP_STACK_POINTER %4
514     ASSERT regs_used <= 15
515     PUSH_IF_USED 9, 10, 11, 12, 13, 14
516     ALLOC_STACK %4
517     LOAD_IF_USED 6, 7, 8, 9, 10, 11, 12, 13, 14
518     DEFINE_ARGS_INTERNAL %0, %4, %5
519 %endmacro
520
521 %define has_epilogue regs_used > 9 || mmsize == 32 || stack_size > 0
522
523 %macro RET 0
524 %if stack_size_padded > 0
525 %if mmsize == 32 || HAVE_ALIGNED_STACK == 0
526     mov rsp, rstkm
527 %else
528     add rsp, stack_size_padded
529 %endif
530 %endif
531     POP_IF_USED 14, 13, 12, 11, 10, 9
532 %if mmsize == 32
533     vzeroupper
534 %endif
535     AUTO_REP_RET
536 %endmacro
537
538 %else ; X86_32 ;==============================================================
539
540 DECLARE_REG 0, eax, 4
541 DECLARE_REG 1, ecx, 8
542 DECLARE_REG 2, edx, 12
543 DECLARE_REG 3, ebx, 16
544 DECLARE_REG 4, esi, 20
545 DECLARE_REG 5, edi, 24
546 DECLARE_REG 6, ebp, 28
547 %define rsp esp
548
549 %macro DECLARE_ARG 1-*
550     %rep %0
551         %define r%1m [rstk + stack_offset + 4*%1 + 4]
552         %define r%1mp dword r%1m
553         %rotate 1
554     %endrep
555 %endmacro
556
557 DECLARE_ARG 7, 8, 9, 10, 11, 12, 13, 14
558
559 %macro PROLOGUE 2-5+ ; #args, #regs, #xmm_regs, [stack_size,] arg_names...
560     %assign num_args %1
561     %assign regs_used %2
562     ASSERT regs_used >= num_args
563     %if num_args > 7
564         %assign num_args 7
565     %endif
566     %if regs_used > 7
567         %assign regs_used 7
568     %endif
569     SETUP_STACK_POINTER %4
570     ASSERT regs_used <= 7
571     PUSH_IF_USED 3, 4, 5, 6
572     ALLOC_STACK %4
573     LOAD_IF_USED 0, 1, 2, 3, 4, 5, 6
574     DEFINE_ARGS_INTERNAL %0, %4, %5
575 %endmacro
576
577 %define has_epilogue regs_used > 3 || mmsize == 32 || stack_size > 0
578
579 %macro RET 0
580 %if stack_size_padded > 0
581 %if mmsize == 32 || HAVE_ALIGNED_STACK == 0
582     mov rsp, rstkm
583 %else
584     add rsp, stack_size_padded
585 %endif
586 %endif
587     POP_IF_USED 6, 5, 4, 3
588 %if mmsize == 32
589     vzeroupper
590 %endif
591     AUTO_REP_RET
592 %endmacro
593
594 %endif ;======================================================================
595
596 %if WIN64 == 0
597 %macro WIN64_SPILL_XMM 1
598 %endmacro
599 %macro WIN64_RESTORE_XMM 1
600 %endmacro
601 %macro WIN64_PUSH_XMM 0
602 %endmacro
603 %endif
604
605 ; On AMD cpus <=K10, an ordinary ret is slow if it immediately follows either
606 ; a branch or a branch target. So switch to a 2-byte form of ret in that case.
607 ; We can automatically detect "follows a branch", but not a branch target.
608 ; (SSSE3 is a sufficient condition to know that your cpu doesn't have this problem.)
609 %macro REP_RET 0
610     %if has_epilogue
611         RET
612     %else
613         rep ret
614     %endif
615 %endmacro
616
617 %define last_branch_adr $$
618 %macro AUTO_REP_RET 0
619     %ifndef cpuflags
620         times ((last_branch_adr-$)>>31)+1 rep ; times 1 iff $ != last_branch_adr.
621     %elif notcpuflag(ssse3)
622         times ((last_branch_adr-$)>>31)+1 rep
623     %endif
624     ret
625 %endmacro
626
627 %macro BRANCH_INSTR 0-*
628     %rep %0
629         %macro %1 1-2 %1
630             %2 %1
631             %%branch_instr:
632             %xdefine last_branch_adr %%branch_instr
633         %endmacro
634         %rotate 1
635     %endrep
636 %endmacro
637
638 BRANCH_INSTR jz, je, jnz, jne, jl, jle, jnl, jnle, jg, jge, jng, jnge, ja, jae, jna, jnae, jb, jbe, jnb, jnbe, jc, jnc, js, jns, jo, jno, jp, jnp
639
640 %macro TAIL_CALL 2 ; callee, is_nonadjacent
641     %if has_epilogue
642         call %1
643         RET
644     %elif %2
645         jmp %1
646     %endif
647 %endmacro
648
649 ;=============================================================================
650 ; arch-independent part
651 ;=============================================================================
652
653 %assign function_align 16
654
655 ; Begin a function.
656 ; Applies any symbol mangling needed for C linkage, and sets up a define such that
657 ; subsequent uses of the function name automatically refer to the mangled version.
658 ; Appends cpuflags to the function name if cpuflags has been specified.
659 ; The "" empty default parameter is a workaround for nasm, which fails if SUFFIX
660 ; is empty and we call cglobal_internal with just %1 %+ SUFFIX (without %2).
661 %macro cglobal 1-2+ "" ; name, [PROLOGUE args]
662     cglobal_internal 1, %1 %+ SUFFIX, %2
663 %endmacro
664 %macro cvisible 1-2+ "" ; name, [PROLOGUE args]
665     cglobal_internal 0, %1 %+ SUFFIX, %2
666 %endmacro
667 %macro cglobal_internal 2-3+
668     %if %1
669         %xdefine %%FUNCTION_PREFIX private_prefix
670         %xdefine %%VISIBILITY hidden
671     %else
672         %xdefine %%FUNCTION_PREFIX public_prefix
673         %xdefine %%VISIBILITY
674     %endif
675     %ifndef cglobaled_%2
676         %xdefine %2 mangle(%%FUNCTION_PREFIX %+ _ %+ %2)
677         %xdefine %2.skip_prologue %2 %+ .skip_prologue
678         CAT_XDEFINE cglobaled_, %2, 1
679     %endif
680     %xdefine current_function %2
681     %ifidn __OUTPUT_FORMAT__,elf
682         global %2:function %%VISIBILITY
683     %else
684         global %2
685     %endif
686     align function_align
687     %2:
688     RESET_MM_PERMUTATION        ; needed for x86-64, also makes disassembly somewhat nicer
689     %xdefine rstk rsp           ; copy of the original stack pointer, used when greater alignment than the known stack alignment is required
690     %assign stack_offset 0      ; stack pointer offset relative to the return address
691     %assign stack_size 0        ; amount of stack space that can be freely used inside a function
692     %assign stack_size_padded 0 ; total amount of allocated stack space, including space for callee-saved xmm registers on WIN64 and alignment padding
693     %assign xmm_regs_used 0     ; number of XMM registers requested, used for dealing with callee-saved registers on WIN64
694     %ifnidn %3, ""
695         PROLOGUE %3
696     %endif
697 %endmacro
698
699 %macro cextern 1
700     %xdefine %1 mangle(private_prefix %+ _ %+ %1)
701     CAT_XDEFINE cglobaled_, %1, 1
702     extern %1
703 %endmacro
704
705 ; like cextern, but without the prefix
706 %macro cextern_naked 1
707     %xdefine %1 mangle(%1)
708     CAT_XDEFINE cglobaled_, %1, 1
709     extern %1
710 %endmacro
711
712 %macro const 1-2+
713     %xdefine %1 mangle(private_prefix %+ _ %+ %1)
714     %ifidn __OUTPUT_FORMAT__,elf
715         global %1:data hidden
716     %else
717         global %1
718     %endif
719     %1: %2
720 %endmacro
721
722 ; This is needed for ELF, otherwise the GNU linker assumes the stack is
723 ; executable by default.
724 %ifidn __OUTPUT_FORMAT__,elf
725 [section .note.GNU-stack noalloc noexec nowrite progbits]
726 %endif
727
728 ; Overrides the default .text section.
729 ; Silences warnings when defining structures.
730 %define __SECT__
731
732 ; cpuflags
733
734 %assign cpuflags_mmx      (1<<0)
735 %assign cpuflags_mmx2     (1<<1) | cpuflags_mmx
736 %assign cpuflags_3dnow    (1<<2) | cpuflags_mmx
737 %assign cpuflags_3dnowext (1<<3) | cpuflags_3dnow
738 %assign cpuflags_sse      (1<<4) | cpuflags_mmx2
739 %assign cpuflags_sse2     (1<<5) | cpuflags_sse
740 %assign cpuflags_sse2slow (1<<6) | cpuflags_sse2
741 %assign cpuflags_sse3     (1<<7) | cpuflags_sse2
742 %assign cpuflags_ssse3    (1<<8) | cpuflags_sse3
743 %assign cpuflags_sse4     (1<<9) | cpuflags_ssse3
744 %assign cpuflags_sse42    (1<<10)| cpuflags_sse4
745 %assign cpuflags_avx      (1<<11)| cpuflags_sse42
746 %assign cpuflags_xop      (1<<12)| cpuflags_avx
747 %assign cpuflags_fma4     (1<<13)| cpuflags_avx
748 %assign cpuflags_avx2     (1<<14)| cpuflags_avx
749 %assign cpuflags_fma3     (1<<15)| cpuflags_avx
750
751 %assign cpuflags_cache32  (1<<16)
752 %assign cpuflags_cache64  (1<<17)
753 %assign cpuflags_slowctz  (1<<18)
754 %assign cpuflags_lzcnt    (1<<19)
755 %assign cpuflags_aligned  (1<<20) ; not a cpu feature, but a function variant
756 %assign cpuflags_atom     (1<<21)
757 %assign cpuflags_bmi1     (1<<22)|cpuflags_lzcnt
758 %assign cpuflags_bmi2     (1<<23)|cpuflags_bmi1
759
760 %define    cpuflag(x) ((cpuflags & (cpuflags_ %+ x)) == (cpuflags_ %+ x))
761 %define notcpuflag(x) ((cpuflags & (cpuflags_ %+ x)) != (cpuflags_ %+ x))
762
763 ; Takes an arbitrary number of cpuflags from the above list.
764 ; All subsequent functions (up to the next INIT_CPUFLAGS) is built for the specified cpu.
765 ; You shouldn't need to invoke this macro directly, it's a subroutine for INIT_MMX &co.
766 %macro INIT_CPUFLAGS 0-*
767     %xdefine SUFFIX
768     %undef cpuname
769     %assign cpuflags 0
770
771     %if %0 >= 1
772         %rep %0
773             %ifdef cpuname
774                 %xdefine cpuname cpuname %+ _%1
775             %else
776                 %xdefine cpuname %1
777             %endif
778             %assign cpuflags cpuflags | cpuflags_%1
779             %rotate 1
780         %endrep
781         %xdefine SUFFIX _ %+ cpuname
782
783         %if cpuflag(avx)
784             %assign avx_enabled 1
785         %endif
786         %if (mmsize == 16 && notcpuflag(sse2)) || (mmsize == 32 && notcpuflag(avx2))
787             %define mova movaps
788             %define movu movups
789             %define movnta movntps
790         %endif
791         %if cpuflag(aligned)
792             %define movu mova
793         %elif cpuflag(sse3) && notcpuflag(ssse3)
794             %define movu lddqu
795         %endif
796     %endif
797
798     %if cpuflag(sse2)
799         CPUNOP amdnop
800     %else
801         CPUNOP basicnop
802     %endif
803 %endmacro
804
805 ; Merge mmx and sse*
806 ; m# is a simd register of the currently selected size
807 ; xm# is the corresponding xmm register if mmsize >= 16, otherwise the same as m#
808 ; ym# is the corresponding ymm register if mmsize >= 32, otherwise the same as m#
809 ; (All 3 remain in sync through SWAP.)
810
811 %macro CAT_XDEFINE 3
812     %xdefine %1%2 %3
813 %endmacro
814
815 %macro CAT_UNDEF 2
816     %undef %1%2
817 %endmacro
818
819 %macro INIT_MMX 0-1+
820     %assign avx_enabled 0
821     %define RESET_MM_PERMUTATION INIT_MMX %1
822     %define mmsize 8
823     %define num_mmregs 8
824     %define mova movq
825     %define movu movq
826     %define movh movd
827     %define movnta movntq
828     %assign %%i 0
829     %rep 8
830     CAT_XDEFINE m, %%i, mm %+ %%i
831     CAT_XDEFINE nnmm, %%i, %%i
832     %assign %%i %%i+1
833     %endrep
834     %rep 8
835     CAT_UNDEF m, %%i
836     CAT_UNDEF nnmm, %%i
837     %assign %%i %%i+1
838     %endrep
839     INIT_CPUFLAGS %1
840 %endmacro
841
842 %macro INIT_XMM 0-1+
843     %assign avx_enabled 0
844     %define RESET_MM_PERMUTATION INIT_XMM %1
845     %define mmsize 16
846     %define num_mmregs 8
847     %if ARCH_X86_64
848     %define num_mmregs 16
849     %endif
850     %define mova movdqa
851     %define movu movdqu
852     %define movh movq
853     %define movnta movntdq
854     %assign %%i 0
855     %rep num_mmregs
856     CAT_XDEFINE m, %%i, xmm %+ %%i
857     CAT_XDEFINE nnxmm, %%i, %%i
858     %assign %%i %%i+1
859     %endrep
860     INIT_CPUFLAGS %1
861 %endmacro
862
863 %macro INIT_YMM 0-1+
864     %assign avx_enabled 1
865     %define RESET_MM_PERMUTATION INIT_YMM %1
866     %define mmsize 32
867     %define num_mmregs 8
868     %if ARCH_X86_64
869     %define num_mmregs 16
870     %endif
871     %define mova movdqa
872     %define movu movdqu
873     %undef movh
874     %define movnta movntdq
875     %assign %%i 0
876     %rep num_mmregs
877     CAT_XDEFINE m, %%i, ymm %+ %%i
878     CAT_XDEFINE nnymm, %%i, %%i
879     %assign %%i %%i+1
880     %endrep
881     INIT_CPUFLAGS %1
882 %endmacro
883
884 INIT_XMM
885
886 %macro DECLARE_MMCAST 1
887     %define  mmmm%1   mm%1
888     %define  mmxmm%1  mm%1
889     %define  mmymm%1  mm%1
890     %define xmmmm%1   mm%1
891     %define xmmxmm%1 xmm%1
892     %define xmmymm%1 xmm%1
893     %define ymmmm%1   mm%1
894     %define ymmxmm%1 xmm%1
895     %define ymmymm%1 ymm%1
896     %define xm%1 xmm %+ m%1
897     %define ym%1 ymm %+ m%1
898 %endmacro
899
900 %assign i 0
901 %rep 16
902     DECLARE_MMCAST i
903 %assign i i+1
904 %endrep
905
906 ; I often want to use macros that permute their arguments. e.g. there's no
907 ; efficient way to implement butterfly or transpose or dct without swapping some
908 ; arguments.
909 ;
910 ; I would like to not have to manually keep track of the permutations:
911 ; If I insert a permutation in the middle of a function, it should automatically
912 ; change everything that follows. For more complex macros I may also have multiple
913 ; implementations, e.g. the SSE2 and SSSE3 versions may have different permutations.
914 ;
915 ; Hence these macros. Insert a PERMUTE or some SWAPs at the end of a macro that
916 ; permutes its arguments. It's equivalent to exchanging the contents of the
917 ; registers, except that this way you exchange the register names instead, so it
918 ; doesn't cost any cycles.
919
920 %macro PERMUTE 2-* ; takes a list of pairs to swap
921 %rep %0/2
922     %xdefine %%tmp%2 m%2
923     %rotate 2
924 %endrep
925 %rep %0/2
926     %xdefine m%1 %%tmp%2
927     CAT_XDEFINE nn, m%1, %1
928     %rotate 2
929 %endrep
930 %endmacro
931
932 %macro SWAP 2+ ; swaps a single chain (sometimes more concise than pairs)
933 %ifnum %1 ; SWAP 0, 1, ...
934     SWAP_INTERNAL_NUM %1, %2
935 %else ; SWAP m0, m1, ...
936     SWAP_INTERNAL_NAME %1, %2
937 %endif
938 %endmacro
939
940 %macro SWAP_INTERNAL_NUM 2-*
941     %rep %0-1
942         %xdefine %%tmp m%1
943         %xdefine m%1 m%2
944         %xdefine m%2 %%tmp
945         CAT_XDEFINE nn, m%1, %1
946         CAT_XDEFINE nn, m%2, %2
947     %rotate 1
948     %endrep
949 %endmacro
950
951 %macro SWAP_INTERNAL_NAME 2-*
952     %xdefine %%args nn %+ %1
953     %rep %0-1
954         %xdefine %%args %%args, nn %+ %2
955     %rotate 1
956     %endrep
957     SWAP_INTERNAL_NUM %%args
958 %endmacro
959
960 ; If SAVE_MM_PERMUTATION is placed at the end of a function, then any later
961 ; calls to that function will automatically load the permutation, so values can
962 ; be returned in mmregs.
963 %macro SAVE_MM_PERMUTATION 0-1
964     %if %0
965         %xdefine %%f %1_m
966     %else
967         %xdefine %%f current_function %+ _m
968     %endif
969     %assign %%i 0
970     %rep num_mmregs
971         CAT_XDEFINE %%f, %%i, m %+ %%i
972     %assign %%i %%i+1
973     %endrep
974 %endmacro
975
976 %macro LOAD_MM_PERMUTATION 1 ; name to load from
977     %ifdef %1_m0
978         %assign %%i 0
979         %rep num_mmregs
980             CAT_XDEFINE m, %%i, %1_m %+ %%i
981             CAT_XDEFINE nn, m %+ %%i, %%i
982         %assign %%i %%i+1
983         %endrep
984     %endif
985 %endmacro
986
987 ; Append cpuflags to the callee's name iff the appended name is known and the plain name isn't
988 %macro call 1
989     call_internal %1 %+ SUFFIX, %1
990 %endmacro
991 %macro call_internal 2
992     %xdefine %%i %2
993     %ifndef cglobaled_%2
994         %ifdef cglobaled_%1
995             %xdefine %%i %1
996         %endif
997     %endif
998     call %%i
999     LOAD_MM_PERMUTATION %%i
1000 %endmacro
1001
1002 ; Substitutions that reduce instruction size but are functionally equivalent
1003 %macro add 2
1004     %ifnum %2
1005         %if %2==128
1006             sub %1, -128
1007         %else
1008             add %1, %2
1009         %endif
1010     %else
1011         add %1, %2
1012     %endif
1013 %endmacro
1014
1015 %macro sub 2
1016     %ifnum %2
1017         %if %2==128
1018             add %1, -128
1019         %else
1020             sub %1, %2
1021         %endif
1022     %else
1023         sub %1, %2
1024     %endif
1025 %endmacro
1026
1027 ;=============================================================================
1028 ; AVX abstraction layer
1029 ;=============================================================================
1030
1031 %assign i 0
1032 %rep 16
1033     %if i < 8
1034         CAT_XDEFINE sizeofmm, i, 8
1035     %endif
1036     CAT_XDEFINE sizeofxmm, i, 16
1037     CAT_XDEFINE sizeofymm, i, 32
1038 %assign i i+1
1039 %endrep
1040 %undef i
1041
1042 %macro CHECK_AVX_INSTR_EMU 3-*
1043     %xdefine %%opcode %1
1044     %xdefine %%dst %2
1045     %rep %0-2
1046         %ifidn %%dst, %3
1047             %error non-avx emulation of ``%%opcode'' is not supported
1048         %endif
1049         %rotate 1
1050     %endrep
1051 %endmacro
1052
1053 ;%1 == instruction
1054 ;%2 == minimal instruction set
1055 ;%3 == 1 if float, 0 if int
1056 ;%4 == 1 if non-destructive or 4-operand (xmm, xmm, xmm, imm), 0 otherwise
1057 ;%5 == 1 if commutative (i.e. doesn't matter which src arg is which), 0 if not
1058 ;%6+: operands
1059 %macro RUN_AVX_INSTR 6-9+
1060     %ifnum sizeof%7
1061         %assign __sizeofreg sizeof%7
1062     %elifnum sizeof%6
1063         %assign __sizeofreg sizeof%6
1064     %else
1065         %assign __sizeofreg mmsize
1066     %endif
1067     %assign __emulate_avx 0
1068     %if avx_enabled && __sizeofreg >= 16
1069         %xdefine __instr v%1
1070     %else
1071         %xdefine __instr %1
1072         %if %0 >= 8+%4
1073             %assign __emulate_avx 1
1074         %endif
1075     %endif
1076     %ifnidn %2, fnord
1077         %ifdef cpuname
1078             %if notcpuflag(%2)
1079                 %error use of ``%1'' %2 instruction in cpuname function: current_function
1080             %elif cpuflags_%2 < cpuflags_sse && notcpuflag(sse2) && __sizeofreg > 8
1081                 %error use of ``%1'' sse2 instruction in cpuname function: current_function
1082             %endif
1083         %endif
1084     %endif
1085
1086     %if __emulate_avx
1087         %xdefine __src1 %7
1088         %xdefine __src2 %8
1089         %ifnidn %6, %7
1090             %if %0 >= 9
1091                 CHECK_AVX_INSTR_EMU {%1 %6, %7, %8, %9}, %6, %8, %9
1092             %else
1093                 CHECK_AVX_INSTR_EMU {%1 %6, %7, %8}, %6, %8
1094             %endif
1095             %if %5 && %4 == 0
1096                 %ifnid %8
1097                     ; 3-operand AVX instructions with a memory arg can only have it in src2,
1098                     ; whereas SSE emulation prefers to have it in src1 (i.e. the mov).
1099                     ; So, if the instruction is commutative with a memory arg, swap them.
1100                     %xdefine __src1 %8
1101                     %xdefine __src2 %7
1102                 %endif
1103             %endif
1104             %if __sizeofreg == 8
1105                 MOVQ %6, __src1
1106             %elif %3
1107                 MOVAPS %6, __src1
1108             %else
1109                 MOVDQA %6, __src1
1110             %endif
1111         %endif
1112         %if %0 >= 9
1113             %1 %6, __src2, %9
1114         %else
1115             %1 %6, __src2
1116         %endif
1117     %elif %0 >= 9
1118         __instr %6, %7, %8, %9
1119     %elif %0 == 8
1120         __instr %6, %7, %8
1121     %elif %0 == 7
1122         __instr %6, %7
1123     %else
1124         __instr %6
1125     %endif
1126 %endmacro
1127
1128 ;%1 == instruction
1129 ;%2 == minimal instruction set
1130 ;%3 == 1 if float, 0 if int
1131 ;%4 == 1 if non-destructive or 4-operand (xmm, xmm, xmm, imm), 0 otherwise
1132 ;%5 == 1 if commutative (i.e. doesn't matter which src arg is which), 0 if not
1133 %macro AVX_INSTR 1-5 fnord, 0, 1, 0
1134     %macro %1 1-10 fnord, fnord, fnord, fnord, %1, %2, %3, %4, %5
1135         %ifidn %2, fnord
1136             RUN_AVX_INSTR %6, %7, %8, %9, %10, %1
1137         %elifidn %3, fnord
1138             RUN_AVX_INSTR %6, %7, %8, %9, %10, %1, %2
1139         %elifidn %4, fnord
1140             RUN_AVX_INSTR %6, %7, %8, %9, %10, %1, %2, %3
1141         %elifidn %5, fnord
1142             RUN_AVX_INSTR %6, %7, %8, %9, %10, %1, %2, %3, %4
1143         %else
1144             RUN_AVX_INSTR %6, %7, %8, %9, %10, %1, %2, %3, %4, %5
1145         %endif
1146     %endmacro
1147 %endmacro
1148
1149 ; Instructions with both VEX and non-VEX encodings
1150 ; Non-destructive instructions are written without parameters
1151 AVX_INSTR addpd, sse2, 1, 0, 1
1152 AVX_INSTR addps, sse, 1, 0, 1
1153 AVX_INSTR addsd, sse2, 1, 0, 1
1154 AVX_INSTR addss, sse, 1, 0, 1
1155 AVX_INSTR addsubpd, sse3, 1, 0, 0
1156 AVX_INSTR addsubps, sse3, 1, 0, 0
1157 AVX_INSTR aesdec, fnord, 0, 0, 0
1158 AVX_INSTR aesdeclast, fnord, 0, 0, 0
1159 AVX_INSTR aesenc, fnord, 0, 0, 0
1160 AVX_INSTR aesenclast, fnord, 0, 0, 0
1161 AVX_INSTR aesimc
1162 AVX_INSTR aeskeygenassist
1163 AVX_INSTR andnpd, sse2, 1, 0, 0
1164 AVX_INSTR andnps, sse, 1, 0, 0
1165 AVX_INSTR andpd, sse2, 1, 0, 1
1166 AVX_INSTR andps, sse, 1, 0, 1
1167 AVX_INSTR blendpd, sse4, 1, 0, 0
1168 AVX_INSTR blendps, sse4, 1, 0, 0
1169 AVX_INSTR blendvpd, sse4, 1, 0, 0
1170 AVX_INSTR blendvps, sse4, 1, 0, 0
1171 AVX_INSTR cmppd, sse2, 1, 1, 0
1172 AVX_INSTR cmpps, sse, 1, 1, 0
1173 AVX_INSTR cmpsd, sse2, 1, 1, 0
1174 AVX_INSTR cmpss, sse, 1, 1, 0
1175 AVX_INSTR comisd, sse2
1176 AVX_INSTR comiss, sse
1177 AVX_INSTR cvtdq2pd, sse2
1178 AVX_INSTR cvtdq2ps, sse2
1179 AVX_INSTR cvtpd2dq, sse2
1180 AVX_INSTR cvtpd2ps, sse2
1181 AVX_INSTR cvtps2dq, sse2
1182 AVX_INSTR cvtps2pd, sse2
1183 AVX_INSTR cvtsd2si, sse2
1184 AVX_INSTR cvtsd2ss, sse2
1185 AVX_INSTR cvtsi2sd, sse2
1186 AVX_INSTR cvtsi2ss, sse
1187 AVX_INSTR cvtss2sd, sse2
1188 AVX_INSTR cvtss2si, sse
1189 AVX_INSTR cvttpd2dq, sse2
1190 AVX_INSTR cvttps2dq, sse2
1191 AVX_INSTR cvttsd2si, sse2
1192 AVX_INSTR cvttss2si, sse
1193 AVX_INSTR divpd, sse2, 1, 0, 0
1194 AVX_INSTR divps, sse, 1, 0, 0
1195 AVX_INSTR divsd, sse2, 1, 0, 0
1196 AVX_INSTR divss, sse, 1, 0, 0
1197 AVX_INSTR dppd, sse4, 1, 1, 0
1198 AVX_INSTR dpps, sse4, 1, 1, 0
1199 AVX_INSTR extractps, sse4
1200 AVX_INSTR haddpd, sse3, 1, 0, 0
1201 AVX_INSTR haddps, sse3, 1, 0, 0
1202 AVX_INSTR hsubpd, sse3, 1, 0, 0
1203 AVX_INSTR hsubps, sse3, 1, 0, 0
1204 AVX_INSTR insertps, sse4, 1, 1, 0
1205 AVX_INSTR lddqu, sse3
1206 AVX_INSTR ldmxcsr, sse
1207 AVX_INSTR maskmovdqu, sse2
1208 AVX_INSTR maxpd, sse2, 1, 0, 1
1209 AVX_INSTR maxps, sse, 1, 0, 1
1210 AVX_INSTR maxsd, sse2, 1, 0, 1
1211 AVX_INSTR maxss, sse, 1, 0, 1
1212 AVX_INSTR minpd, sse2, 1, 0, 1
1213 AVX_INSTR minps, sse, 1, 0, 1
1214 AVX_INSTR minsd, sse2, 1, 0, 1
1215 AVX_INSTR minss, sse, 1, 0, 1
1216 AVX_INSTR movapd, sse2
1217 AVX_INSTR movaps, sse
1218 AVX_INSTR movd, mmx
1219 AVX_INSTR movddup, sse3
1220 AVX_INSTR movdqa, sse2
1221 AVX_INSTR movdqu, sse2
1222 AVX_INSTR movhlps, sse, 1, 0, 0
1223 AVX_INSTR movhpd, sse2, 1, 0, 0
1224 AVX_INSTR movhps, sse, 1, 0, 0
1225 AVX_INSTR movlhps, sse, 1, 0, 0
1226 AVX_INSTR movlpd, sse2, 1, 0, 0
1227 AVX_INSTR movlps, sse, 1, 0, 0
1228 AVX_INSTR movmskpd, sse2
1229 AVX_INSTR movmskps, sse
1230 AVX_INSTR movntdq, sse2
1231 AVX_INSTR movntdqa, sse4
1232 AVX_INSTR movntpd, sse2
1233 AVX_INSTR movntps, sse
1234 AVX_INSTR movq, mmx
1235 AVX_INSTR movsd, sse2, 1, 0, 0
1236 AVX_INSTR movshdup, sse3
1237 AVX_INSTR movsldup, sse3
1238 AVX_INSTR movss, sse, 1, 0, 0
1239 AVX_INSTR movupd, sse2
1240 AVX_INSTR movups, sse
1241 AVX_INSTR mpsadbw, sse4
1242 AVX_INSTR mulpd, sse2, 1, 0, 1
1243 AVX_INSTR mulps, sse, 1, 0, 1
1244 AVX_INSTR mulsd, sse2, 1, 0, 1
1245 AVX_INSTR mulss, sse, 1, 0, 1
1246 AVX_INSTR orpd, sse2, 1, 0, 1
1247 AVX_INSTR orps, sse, 1, 0, 1
1248 AVX_INSTR pabsb, ssse3
1249 AVX_INSTR pabsd, ssse3
1250 AVX_INSTR pabsw, ssse3
1251 AVX_INSTR packsswb, mmx, 0, 0, 0
1252 AVX_INSTR packssdw, mmx, 0, 0, 0
1253 AVX_INSTR packuswb, mmx, 0, 0, 0
1254 AVX_INSTR packusdw, sse4, 0, 0, 0
1255 AVX_INSTR paddb, mmx, 0, 0, 1
1256 AVX_INSTR paddw, mmx, 0, 0, 1
1257 AVX_INSTR paddd, mmx, 0, 0, 1
1258 AVX_INSTR paddq, sse2, 0, 0, 1
1259 AVX_INSTR paddsb, mmx, 0, 0, 1
1260 AVX_INSTR paddsw, mmx, 0, 0, 1
1261 AVX_INSTR paddusb, mmx, 0, 0, 1
1262 AVX_INSTR paddusw, mmx, 0, 0, 1
1263 AVX_INSTR palignr, ssse3
1264 AVX_INSTR pand, mmx, 0, 0, 1
1265 AVX_INSTR pandn, mmx, 0, 0, 0
1266 AVX_INSTR pavgb, mmx2, 0, 0, 1
1267 AVX_INSTR pavgw, mmx2, 0, 0, 1
1268 AVX_INSTR pblendvb, sse4, 0, 0, 0
1269 AVX_INSTR pblendw, sse4
1270 AVX_INSTR pclmulqdq
1271 AVX_INSTR pcmpestri, sse42
1272 AVX_INSTR pcmpestrm, sse42
1273 AVX_INSTR pcmpistri, sse42
1274 AVX_INSTR pcmpistrm, sse42
1275 AVX_INSTR pcmpeqb, mmx, 0, 0, 1
1276 AVX_INSTR pcmpeqw, mmx, 0, 0, 1
1277 AVX_INSTR pcmpeqd, mmx, 0, 0, 1
1278 AVX_INSTR pcmpeqq, sse4, 0, 0, 1
1279 AVX_INSTR pcmpgtb, mmx, 0, 0, 0
1280 AVX_INSTR pcmpgtw, mmx, 0, 0, 0
1281 AVX_INSTR pcmpgtd, mmx, 0, 0, 0
1282 AVX_INSTR pcmpgtq, sse42, 0, 0, 0
1283 AVX_INSTR pextrb, sse4
1284 AVX_INSTR pextrd, sse4
1285 AVX_INSTR pextrq, sse4
1286 AVX_INSTR pextrw, mmx2
1287 AVX_INSTR phaddw, ssse3, 0, 0, 0
1288 AVX_INSTR phaddd, ssse3, 0, 0, 0
1289 AVX_INSTR phaddsw, ssse3, 0, 0, 0
1290 AVX_INSTR phminposuw, sse4
1291 AVX_INSTR phsubw, ssse3, 0, 0, 0
1292 AVX_INSTR phsubd, ssse3, 0, 0, 0
1293 AVX_INSTR phsubsw, ssse3, 0, 0, 0
1294 AVX_INSTR pinsrb, sse4
1295 AVX_INSTR pinsrd, sse4
1296 AVX_INSTR pinsrq, sse4
1297 AVX_INSTR pinsrw, mmx2
1298 AVX_INSTR pmaddwd, mmx, 0, 0, 1
1299 AVX_INSTR pmaddubsw, ssse3, 0, 0, 0
1300 AVX_INSTR pmaxsb, sse4, 0, 0, 1
1301 AVX_INSTR pmaxsw, mmx2, 0, 0, 1
1302 AVX_INSTR pmaxsd, sse4, 0, 0, 1
1303 AVX_INSTR pmaxub, mmx2, 0, 0, 1
1304 AVX_INSTR pmaxuw, sse4, 0, 0, 1
1305 AVX_INSTR pmaxud, sse4, 0, 0, 1
1306 AVX_INSTR pminsb, sse4, 0, 0, 1
1307 AVX_INSTR pminsw, mmx2, 0, 0, 1
1308 AVX_INSTR pminsd, sse4, 0, 0, 1
1309 AVX_INSTR pminub, mmx2, 0, 0, 1
1310 AVX_INSTR pminuw, sse4, 0, 0, 1
1311 AVX_INSTR pminud, sse4, 0, 0, 1
1312 AVX_INSTR pmovmskb, mmx2
1313 AVX_INSTR pmovsxbw, sse4
1314 AVX_INSTR pmovsxbd, sse4
1315 AVX_INSTR pmovsxbq, sse4
1316 AVX_INSTR pmovsxwd, sse4
1317 AVX_INSTR pmovsxwq, sse4
1318 AVX_INSTR pmovsxdq, sse4
1319 AVX_INSTR pmovzxbw, sse4
1320 AVX_INSTR pmovzxbd, sse4
1321 AVX_INSTR pmovzxbq, sse4
1322 AVX_INSTR pmovzxwd, sse4
1323 AVX_INSTR pmovzxwq, sse4
1324 AVX_INSTR pmovzxdq, sse4
1325 AVX_INSTR pmuldq, sse4, 0, 0, 1
1326 AVX_INSTR pmulhrsw, ssse3, 0, 0, 1
1327 AVX_INSTR pmulhuw, mmx2, 0, 0, 1
1328 AVX_INSTR pmulhw, mmx, 0, 0, 1
1329 AVX_INSTR pmullw, mmx, 0, 0, 1
1330 AVX_INSTR pmulld, sse4, 0, 0, 1
1331 AVX_INSTR pmuludq, sse2, 0, 0, 1
1332 AVX_INSTR por, mmx, 0, 0, 1
1333 AVX_INSTR psadbw, mmx2, 0, 0, 1
1334 AVX_INSTR pshufb, ssse3, 0, 0, 0
1335 AVX_INSTR pshufd, sse2
1336 AVX_INSTR pshufhw, sse2
1337 AVX_INSTR pshuflw, sse2
1338 AVX_INSTR psignb, ssse3, 0, 0, 0
1339 AVX_INSTR psignw, ssse3, 0, 0, 0
1340 AVX_INSTR psignd, ssse3, 0, 0, 0
1341 AVX_INSTR psllw, mmx, 0, 0, 0
1342 AVX_INSTR pslld, mmx, 0, 0, 0
1343 AVX_INSTR psllq, mmx, 0, 0, 0
1344 AVX_INSTR pslldq, sse2, 0, 0, 0
1345 AVX_INSTR psraw, mmx, 0, 0, 0
1346 AVX_INSTR psrad, mmx, 0, 0, 0
1347 AVX_INSTR psrlw, mmx, 0, 0, 0
1348 AVX_INSTR psrld, mmx, 0, 0, 0
1349 AVX_INSTR psrlq, mmx, 0, 0, 0
1350 AVX_INSTR psrldq, sse2, 0, 0, 0
1351 AVX_INSTR psubb, mmx, 0, 0, 0
1352 AVX_INSTR psubw, mmx, 0, 0, 0
1353 AVX_INSTR psubd, mmx, 0, 0, 0
1354 AVX_INSTR psubq, sse2, 0, 0, 0
1355 AVX_INSTR psubsb, mmx, 0, 0, 0
1356 AVX_INSTR psubsw, mmx, 0, 0, 0
1357 AVX_INSTR psubusb, mmx, 0, 0, 0
1358 AVX_INSTR psubusw, mmx, 0, 0, 0
1359 AVX_INSTR ptest, sse4
1360 AVX_INSTR punpckhbw, mmx, 0, 0, 0
1361 AVX_INSTR punpckhwd, mmx, 0, 0, 0
1362 AVX_INSTR punpckhdq, mmx, 0, 0, 0
1363 AVX_INSTR punpckhqdq, sse2, 0, 0, 0
1364 AVX_INSTR punpcklbw, mmx, 0, 0, 0
1365 AVX_INSTR punpcklwd, mmx, 0, 0, 0
1366 AVX_INSTR punpckldq, mmx, 0, 0, 0
1367 AVX_INSTR punpcklqdq, sse2, 0, 0, 0
1368 AVX_INSTR pxor, mmx, 0, 0, 1
1369 AVX_INSTR rcpps, sse, 1, 0, 0
1370 AVX_INSTR rcpss, sse, 1, 0, 0
1371 AVX_INSTR roundpd, sse4
1372 AVX_INSTR roundps, sse4
1373 AVX_INSTR roundsd, sse4
1374 AVX_INSTR roundss, sse4
1375 AVX_INSTR rsqrtps, sse, 1, 0, 0
1376 AVX_INSTR rsqrtss, sse, 1, 0, 0
1377 AVX_INSTR shufpd, sse2, 1, 1, 0
1378 AVX_INSTR shufps, sse, 1, 1, 0
1379 AVX_INSTR sqrtpd, sse2, 1, 0, 0
1380 AVX_INSTR sqrtps, sse, 1, 0, 0
1381 AVX_INSTR sqrtsd, sse2, 1, 0, 0
1382 AVX_INSTR sqrtss, sse, 1, 0, 0
1383 AVX_INSTR stmxcsr, sse
1384 AVX_INSTR subpd, sse2, 1, 0, 0
1385 AVX_INSTR subps, sse, 1, 0, 0
1386 AVX_INSTR subsd, sse2, 1, 0, 0
1387 AVX_INSTR subss, sse, 1, 0, 0
1388 AVX_INSTR ucomisd, sse2
1389 AVX_INSTR ucomiss, sse
1390 AVX_INSTR unpckhpd, sse2, 1, 0, 0
1391 AVX_INSTR unpckhps, sse, 1, 0, 0
1392 AVX_INSTR unpcklpd, sse2, 1, 0, 0
1393 AVX_INSTR unpcklps, sse, 1, 0, 0
1394 AVX_INSTR xorpd, sse2, 1, 0, 1
1395 AVX_INSTR xorps, sse, 1, 0, 1
1396
1397 ; 3DNow instructions, for sharing code between AVX, SSE and 3DN
1398 AVX_INSTR pfadd, 3dnow, 1, 0, 1
1399 AVX_INSTR pfsub, 3dnow, 1, 0, 0
1400 AVX_INSTR pfmul, 3dnow, 1, 0, 1
1401
1402 ; base-4 constants for shuffles
1403 %assign i 0
1404 %rep 256
1405     %assign j ((i>>6)&3)*1000 + ((i>>4)&3)*100 + ((i>>2)&3)*10 + (i&3)
1406     %if j < 10
1407         CAT_XDEFINE q000, j, i
1408     %elif j < 100
1409         CAT_XDEFINE q00, j, i
1410     %elif j < 1000
1411         CAT_XDEFINE q0, j, i
1412     %else
1413         CAT_XDEFINE q, j, i
1414     %endif
1415 %assign i i+1
1416 %endrep
1417 %undef i
1418 %undef j
1419
1420 ; tzcnt is equivalent to "rep bsf" and is backwards-compatible with bsf.
1421 ; This lets us use tzcnt without bumping the yasm version requirement yet.
1422 %define tzcnt rep bsf
1423
1424 ; convert FMA4 to FMA3 if possible
1425 %macro FMA4_INSTR 4
1426     %macro %1 4-8 %1, %2, %3, %4
1427         %if cpuflag(fma4)
1428             v%5 %1, %2, %3, %4
1429         %elifidn %1, %2
1430             v%6 %1, %4, %3 ; %1 = %1 * %3 + %4
1431         %elifidn %1, %3
1432             v%7 %1, %2, %4 ; %1 = %2 * %1 + %4
1433         %elifidn %1, %4
1434             v%8 %1, %2, %3 ; %1 = %2 * %3 + %1
1435         %else
1436             %error fma3 emulation of ``%5 %1, %2, %3, %4'' is not supported
1437         %endif
1438     %endmacro
1439 %endmacro
1440
1441 FMA4_INSTR fmaddpd, fmadd132pd, fmadd213pd, fmadd231pd
1442 FMA4_INSTR fmaddps, fmadd132ps, fmadd213ps, fmadd231ps
1443 FMA4_INSTR fmaddsd, fmadd132sd, fmadd213sd, fmadd231sd
1444 FMA4_INSTR fmaddss, fmadd132ss, fmadd213ss, fmadd231ss
1445
1446 FMA4_INSTR fmaddsubpd, fmaddsub132pd, fmaddsub213pd, fmaddsub231pd
1447 FMA4_INSTR fmaddsubps, fmaddsub132ps, fmaddsub213ps, fmaddsub231ps
1448 FMA4_INSTR fmsubaddpd, fmsubadd132pd, fmsubadd213pd, fmsubadd231pd
1449 FMA4_INSTR fmsubaddps, fmsubadd132ps, fmsubadd213ps, fmsubadd231ps
1450
1451 FMA4_INSTR fmsubpd, fmsub132pd, fmsub213pd, fmsub231pd
1452 FMA4_INSTR fmsubps, fmsub132ps, fmsub213ps, fmsub231ps
1453 FMA4_INSTR fmsubsd, fmsub132sd, fmsub213sd, fmsub231sd
1454 FMA4_INSTR fmsubss, fmsub132ss, fmsub213ss, fmsub231ss
1455
1456 FMA4_INSTR fnmaddpd, fnmadd132pd, fnmadd213pd, fnmadd231pd
1457 FMA4_INSTR fnmaddps, fnmadd132ps, fnmadd213ps, fnmadd231ps
1458 FMA4_INSTR fnmaddsd, fnmadd132sd, fnmadd213sd, fnmadd231sd
1459 FMA4_INSTR fnmaddss, fnmadd132ss, fnmadd213ss, fnmadd231ss
1460
1461 FMA4_INSTR fnmsubpd, fnmsub132pd, fnmsub213pd, fnmsub231pd
1462 FMA4_INSTR fnmsubps, fnmsub132ps, fnmsub213ps, fnmsub231ps
1463 FMA4_INSTR fnmsubsd, fnmsub132sd, fnmsub213sd, fnmsub231sd
1464 FMA4_INSTR fnmsubss, fnmsub132ss, fnmsub213ss, fnmsub231ss
1465
1466 ; workaround: vpbroadcastq is broken in x86_32 due to a yasm bug
1467 %if ARCH_X86_64 == 0
1468 %macro vpbroadcastq 2
1469 %if sizeof%1 == 16
1470     movddup %1, %2
1471 %else
1472     vbroadcastsd %1, %2
1473 %endif
1474 %endmacro
1475 %endif