]> git.sesse.net Git - ffmpeg/blob - libavcodec/arm/mathops.h
ARM: remove MULL inline asm
[ffmpeg] / libavcodec / arm / mathops.h
1 /*
2  * simple math operations
3  * Copyright (c) 2006 Michael Niedermayer <michaelni@gmx.at> et al
4  *
5  * This file is part of Libav.
6  *
7  * Libav is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU Lesser General Public
9  * License as published by the Free Software Foundation; either
10  * version 2.1 of the License, or (at your option) any later version.
11  *
12  * Libav is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * Lesser General Public License for more details.
16  *
17  * You should have received a copy of the GNU Lesser General Public
18  * License along with Libav; if not, write to the Free Software
19  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
20  */
21
22 #ifndef AVCODEC_ARM_MATHOPS_H
23 #define AVCODEC_ARM_MATHOPS_H
24
25 #include <stdint.h>
26 #include "config.h"
27 #include "libavutil/common.h"
28
29 #if HAVE_INLINE_ASM
30
31 #define MULH MULH
32 #define MUL64 MUL64
33
34 #if HAVE_ARMV6
35 static inline av_const int MULH(int a, int b)
36 {
37     int r;
38     __asm__ ("smmul %0, %1, %2" : "=r"(r) : "r"(a), "r"(b));
39     return r;
40 }
41
42 static inline av_const int64_t MUL64(int a, int b)
43 {
44     int64_t x;
45     __asm__ ("smull %Q0, %R0, %1, %2" : "=r"(x) : "r"(a), "r"(b));
46     return x;
47 }
48 #else
49 static inline av_const int MULH(int a, int b)
50 {
51     int lo, hi;
52     __asm__ ("smull %0, %1, %2, %3" : "=&r"(lo), "=&r"(hi) : "r"(b), "r"(a));
53     return hi;
54 }
55
56 static inline av_const int64_t MUL64(int a, int b)
57 {
58     int64_t x;
59     __asm__ ("smull %Q0, %R0, %1, %2" : "=&r"(x) : "r"(a), "r"(b));
60     return x;
61 }
62 #endif
63
64 static inline av_const int64_t MAC64(int64_t d, int a, int b)
65 {
66     __asm__ ("smlal %Q0, %R0, %1, %2" : "+r"(d) : "r"(a), "r"(b));
67     return d;
68 }
69 #define MAC64(d, a, b) ((d) = MAC64(d, a, b))
70 #define MLS64(d, a, b) MAC64(d, -(a), b)
71
72 #if HAVE_ARMV5TE
73
74 /* signed 16x16 -> 32 multiply add accumulate */
75 #   define MAC16(rt, ra, rb)                                            \
76     __asm__ ("smlabb %0, %1, %2, %0" : "+r"(rt) : "r"(ra), "r"(rb));
77
78 /* signed 16x16 -> 32 multiply */
79 #   define MUL16 MUL16
80 static inline av_const int MUL16(int ra, int rb)
81 {
82     int rt;
83     __asm__ ("smulbb %0, %1, %2" : "=r"(rt) : "r"(ra), "r"(rb));
84     return rt;
85 }
86
87 #endif
88
89 #define mid_pred mid_pred
90 static inline av_const int mid_pred(int a, int b, int c)
91 {
92     int m;
93     __asm__ (
94         "mov   %0, %2  \n\t"
95         "cmp   %1, %2  \n\t"
96         "movgt %0, %1  \n\t"
97         "movgt %1, %2  \n\t"
98         "cmp   %1, %3  \n\t"
99         "movle %1, %3  \n\t"
100         "cmp   %0, %1  \n\t"
101         "movgt %0, %1  \n\t"
102         : "=&r"(m), "+r"(a)
103         : "r"(b), "r"(c)
104         : "cc");
105     return m;
106 }
107
108 #endif /* HAVE_INLINE_ASM */
109
110 #endif /* AVCODEC_ARM_MATHOPS_H */