]> git.sesse.net Git - ffmpeg/blob - libavutil/softfloat.h
Merge commit 'faa3f17a76333b672ce4a40cf80f678ab68bdbae'
[ffmpeg] / libavutil / softfloat.h
1 /*
2  * Copyright (c) 2006 Michael Niedermayer <michaelni@gmx.at>
3  *
4  * This file is part of FFmpeg.
5  *
6  * FFmpeg is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2.1 of the License, or (at your option) any later version.
10  *
11  * FFmpeg is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with FFmpeg; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
19  */
20
21 #ifndef AVUTIL_SOFTFLOAT_H
22 #define AVUTIL_SOFTFLOAT_H
23
24 #include <stdint.h>
25 #include "common.h"
26
27 #include "avassert.h"
28 #include "softfloat_tables.h"
29
30 #define MIN_EXP -126
31 #define MAX_EXP  126
32 #define ONE_BITS 29
33
34 typedef struct SoftFloat{
35     int32_t mant;
36     int32_t  exp;
37 }SoftFloat;
38
39 static const SoftFloat FLOAT_0          = {          0,   0};
40 static const SoftFloat FLOAT_05         = { 0x20000000,   0};
41 static const SoftFloat FLOAT_1          = { 0x20000000,   1};
42 static const SoftFloat FLOAT_EPSILON    = { 0x29F16B12, -16};
43 static const SoftFloat FLOAT_1584893192 = { 0x32B771ED,   1};
44 static const SoftFloat FLOAT_100000     = { 0x30D40000,  17};
45 static const SoftFloat FLOAT_0999999    = { 0x3FFFFBCE,   0};
46
47 static inline av_const double av_sf2double(SoftFloat v) {
48     v.exp -= ONE_BITS +1;
49     if(v.exp > 0) return (double)v.mant * (double)(1 << v.exp);
50     else          return (double)v.mant / (double)(1 << (-v.exp));
51 }
52
53 static av_const SoftFloat av_normalize_sf(SoftFloat a){
54     if(a.mant){
55 #if 1
56         while((a.mant + 0x1FFFFFFFU)<0x3FFFFFFFU){
57             a.mant += a.mant;
58             a.exp  -= 1;
59         }
60 #else
61         int s=ONE_BITS - av_log2(FFABS(a.mant));
62         a.exp   -= s;
63         a.mant <<= s;
64 #endif
65         if(a.exp < MIN_EXP){
66             a.exp = MIN_EXP;
67             a.mant= 0;
68         }
69     }else{
70         a.exp= MIN_EXP;
71     }
72     return a;
73 }
74
75 static inline av_const SoftFloat av_normalize1_sf(SoftFloat a){
76 #if 1
77     if((int32_t)(a.mant + 0x40000000U) <= 0){
78         a.exp++;
79         a.mant>>=1;
80     }
81     av_assert2(a.mant < 0x40000000 && a.mant > -0x40000000);
82     return a;
83 #elif 1
84     int t= a.mant + 0x40000000 < 0;
85     return (SoftFloat){ a.mant>>t, a.exp+t};
86 #else
87     int t= (a.mant + 0x3FFFFFFFU)>>31;
88     return (SoftFloat){a.mant>>t, a.exp+t};
89 #endif
90 }
91
92 /**
93  * @return Will not be more denormalized than a+b. So if either input is
94  *         normalized, then the output will not be worse then the other input.
95  *         If both are normalized, then the output will be normalized.
96  */
97 static inline av_const SoftFloat av_mul_sf(SoftFloat a, SoftFloat b){
98     a.exp += b.exp;
99     av_assert2((int32_t)((a.mant * (int64_t)b.mant) >> ONE_BITS) == (a.mant * (int64_t)b.mant) >> ONE_BITS);
100     a.mant = (a.mant * (int64_t)b.mant) >> ONE_BITS;
101     return av_normalize1_sf((SoftFloat){a.mant, a.exp - 1});
102 }
103
104 /**
105  * b has to be normalized and not zero.
106  * @return Will not be more denormalized than a.
107  */
108 static inline av_const SoftFloat av_div_sf(SoftFloat a, SoftFloat b){
109     a.exp -= b.exp;
110     a.mant = ((int64_t)a.mant<<(ONE_BITS+1)) / b.mant;
111     return av_normalize1_sf(a);
112 }
113
114 static inline av_const int av_cmp_sf(SoftFloat a, SoftFloat b){
115     int t= a.exp - b.exp;
116     if(t<0) return (a.mant >> (-t)) -  b.mant      ;
117     else    return  a.mant          - (b.mant >> t);
118 }
119
120 static inline av_const int av_gt_sf(SoftFloat a, SoftFloat b)
121 {
122     int t= a.exp - b.exp;
123     if(t<0) return (a.mant >> (-t)) >  b.mant      ;
124     else    return  a.mant          > (b.mant >> t);
125 }
126
127 static inline av_const SoftFloat av_add_sf(SoftFloat a, SoftFloat b){
128     int t= a.exp - b.exp;
129     if      (t <-31) return b;
130     else if (t <  0) return av_normalize_sf(av_normalize1_sf((SoftFloat){ b.mant + (a.mant >> (-t)), b.exp}));
131     else if (t < 32) return av_normalize_sf(av_normalize1_sf((SoftFloat){ a.mant + (b.mant >>   t ), a.exp}));
132     else             return a;
133 }
134
135 static inline av_const SoftFloat av_sub_sf(SoftFloat a, SoftFloat b){
136     return av_add_sf(a, (SoftFloat){ -b.mant, b.exp});
137 }
138
139 //FIXME log, exp, pow
140
141 /**
142  * Converts a mantisse and exponent to a SoftFloat
143  * @returns a SoftFloat with value v * 2^frac_bits
144  */
145 static inline av_const SoftFloat av_int2sf(int v, int frac_bits){
146     return av_normalize_sf((SoftFloat){v, ONE_BITS + 1 - frac_bits});
147 }
148
149 /**
150  * Rounding is to -inf.
151  */
152 static inline av_const int av_sf2int(SoftFloat v, int frac_bits){
153     v.exp += frac_bits - (ONE_BITS + 1);
154     if(v.exp >= 0) return v.mant <<  v.exp ;
155     else           return v.mant >>(-v.exp);
156 }
157
158 /**
159  * Rounding-to-nearest used.
160  */
161 static av_always_inline SoftFloat av_sqrt_sf(SoftFloat val)
162 {
163     int tabIndex, rem;
164
165     if (val.mant == 0)
166         val.exp = 0;
167     else
168     {
169         tabIndex = (val.mant - 0x20000000) >> 20;
170
171         rem = val.mant & 0xFFFFF;
172         val.mant  = (int)(((int64_t)av_sqrttbl_sf[tabIndex] * (0x100000 - rem) +
173                            (int64_t)av_sqrttbl_sf[tabIndex + 1] * rem +
174                            0x80000) >> 20);
175         val.mant = (int)(((int64_t)av_sqr_exp_multbl_sf[val.exp & 1] * val.mant +
176                           0x10000000) >> 29);
177
178         if (val.mant < 0x40000000)
179             val.exp -= 2;
180         else
181             val.mant >>= 1;
182
183         val.exp = (val.exp >> 1) + 1;
184     }
185
186     return val;
187 }
188
189 /**
190  * Rounding-to-nearest used.
191  */
192 static av_unused void av_sincos_sf(int a, int *s, int *c)
193 {
194     int idx, sign;
195     int sv, cv;
196     int st, ct;
197
198     idx = a >> 26;
199     sign = (idx << 27) >> 31;
200     cv = av_costbl_1_sf[idx & 0xf];
201     cv = (cv ^ sign) - sign;
202
203     idx -= 8;
204     sign = (idx << 27) >> 31;
205     sv = av_costbl_1_sf[idx & 0xf];
206     sv = (sv ^ sign) - sign;
207
208     idx = a >> 21;
209     ct = av_costbl_2_sf[idx & 0x1f];
210     st = av_sintbl_2_sf[idx & 0x1f];
211
212     idx = (int)(((int64_t)cv * ct - (int64_t)sv * st + 0x20000000) >> 30);
213
214     sv = (int)(((int64_t)cv * st + (int64_t)sv * ct + 0x20000000) >> 30);
215
216     cv = idx;
217
218     idx = a >> 16;
219     ct = av_costbl_3_sf[idx & 0x1f];
220     st = av_sintbl_3_sf[idx & 0x1f];
221
222     idx = (int)(((int64_t)cv * ct - (int64_t)sv * st + 0x20000000) >> 30);
223
224     sv = (int)(((int64_t)cv * st + (int64_t)sv * ct + 0x20000000) >> 30);
225     cv = idx;
226
227     idx = a >> 11;
228
229     ct = (int)(((int64_t)av_costbl_4_sf[idx & 0x1f] * (0x800 - (a & 0x7ff)) +
230                 (int64_t)av_costbl_4_sf[(idx & 0x1f)+1]*(a & 0x7ff) +
231                 0x400) >> 11);
232     st = (int)(((int64_t)av_sintbl_4_sf[idx & 0x1f] * (0x800 - (a & 0x7ff)) +
233                 (int64_t)av_sintbl_4_sf[(idx & 0x1f) + 1] * (a & 0x7ff) +
234                 0x400) >> 11);
235
236     *c = (int)(((int64_t)cv * ct + (int64_t)sv * st + 0x20000000) >> 30);
237
238     *s = (int)(((int64_t)cv * st + (int64_t)sv * ct + 0x20000000) >> 30);
239 }
240
241 #endif /* AVUTIL_SOFTFLOAT_H */