]> git.sesse.net Git - ffmpeg/commitdiff
Merge commit '3fd22538bc0e0de84b31335266b4b1577d3d609e'
authorJames Almer <jamrial@gmail.com>
Sun, 19 Mar 2017 18:30:13 +0000 (15:30 -0300)
committerJames Almer <jamrial@gmail.com>
Sun, 19 Mar 2017 18:30:13 +0000 (15:30 -0300)
* commit '3fd22538bc0e0de84b31335266b4b1577d3d609e':
  prores: Change type of stride parameters to ptrdiff_t

Merged-by: James Almer <jamrial@gmail.com>
1  2 
libavcodec/proresdsp.c
libavcodec/proresdsp.h
libavcodec/proresenc_kostya.c
libavcodec/x86/proresdsp_init.c
libavcodec/x86/simple_idct10_template.asm

Simple merge
index 159862ec3da984f6bbfcff3deb3afec552e4cc6b,7f06494daf58c1381d0157ef41223be2688c55e9..558fae53bf10a9d7884915a616fc3a28b804cdf9
  #ifndef AVCODEC_PRORESDSP_H
  #define AVCODEC_PRORESDSP_H
  
+ #include <stddef.h>
  #include <stdint.h>
 +#include "avcodec.h"
  
  #define PRORES_BITS_PER_SAMPLE 10 ///< output precision of prores decoder
  
  typedef struct ProresDSPContext {
      int idct_permutation_type;
      uint8_t idct_permutation[64];
-     void (* idct_put) (uint16_t *out, int linesize, int16_t *block, const int16_t *qmat);
+     void (*idct_put)(uint16_t *out, ptrdiff_t linesize, int16_t *block, const int16_t *qmat);
  } ProresDSPContext;
  
 -void ff_proresdsp_init(ProresDSPContext *dsp);
 +void ff_proresdsp_init(ProresDSPContext *dsp, AVCodecContext *avctx);
  
 -void ff_proresdsp_init_x86(ProresDSPContext *dsp);
 +void ff_proresdsp_init_x86(ProresDSPContext *dsp, AVCodecContext *avctx);
  
  #endif /* AVCODEC_PRORESDSP_H */
Simple merge
index ead11ae9c1757e4b217df76b40ef1d65271d00d3,ff4d39836b0164c1996e8c7bd6665a5b4db3c240..8ca4d4d9b3c44df78b514de0b7ffd6347f830cac
  #include "libavcodec/idctdsp.h"
  #include "libavcodec/proresdsp.h"
  
- void ff_prores_idct_put_10_sse2(uint16_t *dst, int linesize,
+ void ff_prores_idct_put_10_sse2(uint16_t *dst, ptrdiff_t linesize,
                                  int16_t *block, const int16_t *qmat);
- void ff_prores_idct_put_10_avx (uint16_t *dst, int linesize,
 -void ff_prores_idct_put_10_sse4(uint16_t *dst, ptrdiff_t linesize,
 -                                int16_t *block, const int16_t *qmat);
+ void ff_prores_idct_put_10_avx (uint16_t *dst, ptrdiff_t linesize,
                                  int16_t *block, const int16_t *qmat);
  
 -av_cold void ff_proresdsp_init_x86(ProresDSPContext *dsp)
 +av_cold void ff_proresdsp_init_x86(ProresDSPContext *dsp, AVCodecContext *avctx)
  {
  #if ARCH_X86_64
      int cpu_flags = av_get_cpu_flags();
index e5deb0f2e2cca13fd4107e89976f67aed343d44a,0000000000000000000000000000000000000000..9d323d99b3bcc6d7aa05317ac184ffec81339641
mode 100644,000000..100644
--- /dev/null
@@@ -1,315 -1,0 +1,315 @@@
- ; void ff_prores_idct_put_10_<opt>(uint8_t *pixels, int stride,
 +;******************************************************************************
 +;* x86-SIMD-optimized IDCT for prores
 +;* this is identical to "simple" IDCT written by Michael Niedermayer
 +;* except for the clip range
 +;*
 +;* Copyright (c) 2011 Ronald S. Bultje <rsbultje@gmail.com>
 +;*
 +;* This file is part of FFmpeg.
 +;*
 +;* FFmpeg is free software; you can redistribute it and/or
 +;* modify it under the terms of the GNU Lesser General Public
 +;* License as published by the Free Software Foundation; either
 +;* version 2.1 of the License, or (at your option) any later version.
 +;*
 +;* FFmpeg is distributed in the hope that it will be useful,
 +;* but WITHOUT ANY WARRANTY; without even the implied warranty of
 +;* MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 +;* Lesser General Public License for more details.
 +;*
 +;* You should have received a copy of the GNU Lesser General Public
 +;* License along with FFmpeg; if not, write to the Free Software
 +;* 51, Inc., Foundation Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 +;******************************************************************************
 +
 +; add SECTION_RODATA and proper include before including this file!
 +
 +%if ARCH_X86_64
 +
 +; interleave data while maintaining source
 +; %1=type, %2=dstlo, %3=dsthi, %4=src, %5=interleave
 +%macro SBUTTERFLY3 5
 +    punpckl%1   m%2, m%4, m%5
 +    punpckh%1   m%3, m%4, m%5
 +%endmacro
 +
 +; %1/%2=src1/dst1, %3/%4=dst2, %5/%6=src2, %7=shift
 +; action: %3/%4 = %1/%2 - %5/%6; %1/%2 += %5/%6
 +;         %1/%2/%3/%4 >>= %7; dword -> word (in %1/%3)
 +%macro SUMSUB_SHPK 7
 +    psubd       %3,  %1,  %5       ; { a0 - b0 }[0-3]
 +    psubd       %4,  %2,  %6       ; { a0 - b0 }[4-7]
 +    paddd       %1,  %5            ; { a0 + b0 }[0-3]
 +    paddd       %2,  %6            ; { a0 + b0 }[4-7]
 +    psrad       %1,  %7
 +    psrad       %2,  %7
 +    psrad       %3,  %7
 +    psrad       %4,  %7
 +    packssdw    %1,  %2            ; row[0]
 +    packssdw    %3,  %4            ; row[7]
 +%endmacro
 +
 +; %1 = initial bias ("" if nop)
 +; %2 = number of bits to shift at the end
 +; %3 = qmat (for prores)
 +%macro IDCT_1D 2-3
 +    ; a0 = (W4 * row[0]) + (1 << (15 - 1));
 +    ; a1 = a0;
 +    ; a2 = a0;
 +    ; a3 = a0;
 +    ; a0 += W2 * row[2];
 +    ; a1 += W6 * row[2];
 +    ; a2 -= W6 * row[2];
 +    ; a3 -= W2 * row[2];
 +%ifstr %1
 +    mova        m15, [pd_round_ %+ %2]
 +%else
 +    paddw       m10, [%1]
 +%endif
 +    SBUTTERFLY3 wd,  0,  1, 10,  8 ; { row[0], row[2] }[0-3]/[4-7]
 +    pmaddwd     m2,  m0, [w4_plus_w6]
 +    pmaddwd     m3,  m1, [w4_plus_w6]
 +    pmaddwd     m4,  m0, [w4_min_w6]
 +    pmaddwd     m5,  m1, [w4_min_w6]
 +    pmaddwd     m6,  m0, [w4_min_w2]
 +    pmaddwd     m7,  m1, [w4_min_w2]
 +    pmaddwd     m0, [w4_plus_w2]
 +    pmaddwd     m1, [w4_plus_w2]
 +%ifstr %1
 +    ; Adding 1<<(%2-1) for >=15 bits values
 +    paddd       m2, m15
 +    paddd       m3, m15
 +    paddd       m4, m15
 +    paddd       m5, m15
 +    paddd       m6, m15
 +    paddd       m7, m15
 +    paddd       m0, m15
 +    paddd       m1, m15
 +%endif
 +
 +    ; a0: -1*row[0]-1*row[2]
 +    ; a1: -1*row[0]
 +    ; a2: -1*row[0]
 +    ; a3: -1*row[0]+1*row[2]
 +
 +    ; a0 +=   W4*row[4] + W6*row[6]; i.e. -1*row[4]
 +    ; a1 -=   W4*row[4] + W2*row[6]; i.e. -1*row[4]-1*row[6]
 +    ; a2 -=   W4*row[4] - W2*row[6]; i.e. -1*row[4]+1*row[6]
 +    ; a3 +=   W4*row[4] - W6*row[6]; i.e. -1*row[4]
 +    SBUTTERFLY3 wd,  8,  9, 13, 12 ; { row[4], row[6] }[0-3]/[4-7]
 +    pmaddwd     m10, m8, [w4_plus_w6]
 +    pmaddwd     m11, m9, [w4_plus_w6]
 +    paddd       m0,  m10            ; a0[0-3]
 +    paddd       m1,  m11            ; a0[4-7]
 +    pmaddwd     m10, m8, [w4_min_w6]
 +    pmaddwd     m11, m9, [w4_min_w6]
 +    paddd       m6,  m10           ; a3[0-3]
 +    paddd       m7,  m11           ; a3[4-7]
 +    pmaddwd     m10, m8, [w4_min_w2]
 +    pmaddwd     m11, m9, [w4_min_w2]
 +    pmaddwd     m8, [w4_plus_w2]
 +    pmaddwd     m9, [w4_plus_w2]
 +    psubd       m4,  m10           ; a2[0-3] intermediate
 +    psubd       m5,  m11           ; a2[4-7] intermediate
 +    psubd       m2,  m8            ; a1[0-3] intermediate
 +    psubd       m3,  m9            ; a1[4-7] intermediate
 +
 +    ; load/store
 +    mova   [COEFFS+  0], m0
 +    mova   [COEFFS+ 32], m2
 +    mova   [COEFFS+ 64], m4
 +    mova   [COEFFS+ 96], m6
 +    mova        m10,[COEFFS+ 16]       ; { row[1] }[0-7]
 +    mova        m8, [COEFFS+ 48]       ; { row[3] }[0-7]
 +    mova        m13,[COEFFS+ 80]       ; { row[5] }[0-7]
 +    mova        m14,[COEFFS+112]       ; { row[7] }[0-7]
 +    mova   [COEFFS+ 16], m1
 +    mova   [COEFFS+ 48], m3
 +    mova   [COEFFS+ 80], m5
 +    mova   [COEFFS+112], m7
 +%if %0 == 3
 +    pmullw      m10,[%3+ 16]
 +    pmullw      m8, [%3+ 48]
 +    pmullw      m13,[%3+ 80]
 +    pmullw      m14,[%3+112]
 +%endif
 +
 +    ; b0 = MUL(W1, row[1]);
 +    ; MAC(b0, W3, row[3]);
 +    ; b1 = MUL(W3, row[1]);
 +    ; MAC(b1, -W7, row[3]);
 +    ; b2 = MUL(W5, row[1]);
 +    ; MAC(b2, -W1, row[3]);
 +    ; b3 = MUL(W7, row[1]);
 +    ; MAC(b3, -W5, row[3]);
 +    SBUTTERFLY3 wd,  0,  1, 10, 8  ; { row[1], row[3] }[0-3]/[4-7]
 +    pmaddwd     m2,  m0, [w3_min_w7]
 +    pmaddwd     m3,  m1, [w3_min_w7]
 +    pmaddwd     m4,  m0, [w5_min_w1]
 +    pmaddwd     m5,  m1, [w5_min_w1]
 +    pmaddwd     m6,  m0, [w7_min_w5]
 +    pmaddwd     m7,  m1, [w7_min_w5]
 +    pmaddwd     m0, [w1_plus_w3]
 +    pmaddwd     m1, [w1_plus_w3]
 +
 +    ; b0: +1*row[1]+2*row[3]
 +    ; b1: +2*row[1]-1*row[3]
 +    ; b2: -1*row[1]-1*row[3]
 +    ; b3: +1*row[1]+1*row[3]
 +
 +    ; MAC(b0,  W5, row[5]);
 +    ; MAC(b0,  W7, row[7]);
 +    ; MAC(b1, -W1, row[5]);
 +    ; MAC(b1, -W5, row[7]);
 +    ; MAC(b2,  W7, row[5]);
 +    ; MAC(b2,  W3, row[7]);
 +    ; MAC(b3,  W3, row[5]);
 +    ; MAC(b3, -W1, row[7]);
 +    SBUTTERFLY3 wd,  8,  9, 13, 14 ; { row[5], row[7] }[0-3]/[4-7]
 +
 +    ; b0: -1*row[5]+1*row[7]
 +    ; b1: -1*row[5]+1*row[7]
 +    ; b2: +1*row[5]+2*row[7]
 +    ; b3: +2*row[5]-1*row[7]
 +
 +    pmaddwd     m10, m8, [w1_plus_w5]
 +    pmaddwd     m11, m9, [w1_plus_w5]
 +    pmaddwd     m12, m8, [w5_plus_w7]
 +    pmaddwd     m13, m9, [w5_plus_w7]
 +    psubd       m2,  m10           ; b1[0-3]
 +    psubd       m3,  m11           ; b1[4-7]
 +    paddd       m0,  m12            ; b0[0-3]
 +    paddd       m1,  m13            ; b0[4-7]
 +    pmaddwd     m12, m8, [w7_plus_w3]
 +    pmaddwd     m13, m9, [w7_plus_w3]
 +    pmaddwd     m8, [w3_min_w1]
 +    pmaddwd     m9, [w3_min_w1]
 +    paddd       m4,  m12           ; b2[0-3]
 +    paddd       m5,  m13           ; b2[4-7]
 +    paddd       m6,  m8            ; b3[0-3]
 +    paddd       m7,  m9            ; b3[4-7]
 +
 +    ; row[0] = (a0 + b0) >> 15;
 +    ; row[7] = (a0 - b0) >> 15;
 +    ; row[1] = (a1 + b1) >> 15;
 +    ; row[6] = (a1 - b1) >> 15;
 +    ; row[2] = (a2 + b2) >> 15;
 +    ; row[5] = (a2 - b2) >> 15;
 +    ; row[3] = (a3 + b3) >> 15;
 +    ; row[4] = (a3 - b3) >> 15;
 +    mova        m8, [COEFFS+ 0]        ; a0[0-3]
 +    mova        m9, [COEFFS+16]        ; a0[4-7]
 +    SUMSUB_SHPK m8,  m9,  m10, m11, m0,  m1,  %2
 +    mova        m0, [COEFFS+32]        ; a1[0-3]
 +    mova        m1, [COEFFS+48]        ; a1[4-7]
 +    SUMSUB_SHPK m0,  m1,  m9,  m11, m2,  m3,  %2
 +    mova        m1, [COEFFS+64]        ; a2[0-3]
 +    mova        m2, [COEFFS+80]        ; a2[4-7]
 +    SUMSUB_SHPK m1,  m2,  m11, m3,  m4,  m5,  %2
 +    mova        m2, [COEFFS+96]        ; a3[0-3]
 +    mova        m3, [COEFFS+112]       ; a3[4-7]
 +    SUMSUB_SHPK m2,  m3,  m4,  m5,  m6,  m7,  %2
 +%endmacro
 +
++; void ff_prores_idct_put_10_<opt>(uint8_t *pixels, ptrdiff_t stride,
 +;                                  int16_t *block, const int16_t *qmat);
 +
 +; %1 = row shift
 +; %2 = row bias macro
 +; %3 = column shift
 +; %4 = column bias macro
 +; %5 = min pixel value
 +; %6 = max pixel value
 +; %7 = qmat (for prores)
 +
 +%macro IDCT_FN 4-7
 +%if %0 == 4
 +    ; No clamping, means pure idct
 +%xdefine COEFFS r0
 +%else
 +    movsxd      r1,  r1d
 +%xdefine COEFFS r2
 +%endif
 +
 +    ; for (i = 0; i < 8; i++)
 +    ;     idctRowCondDC(block + i*8);
 +    mova        m10,[COEFFS+ 0]        ; { row[0] }[0-7]
 +    mova        m8, [COEFFS+32]        ; { row[2] }[0-7]
 +    mova        m13,[COEFFS+64]        ; { row[4] }[0-7]
 +    mova        m12,[COEFFS+96]        ; { row[6] }[0-7]
 +
 +%if %0 == 7
 +    pmullw      m10,[%7+ 0]
 +    pmullw      m8, [%7+32]
 +    pmullw      m13,[%7+64]
 +    pmullw      m12,[%7+96]
 +
 +    IDCT_1D     %1, %2, %7
 +%else
 +    IDCT_1D     %1, %2
 +%endif
 +
 +    ; transpose for second part of IDCT
 +    TRANSPOSE8x8W 8, 0, 1, 2, 4, 11, 9, 10, 3
 +    mova   [COEFFS+ 16], m0
 +    mova   [COEFFS+ 48], m2
 +    mova   [COEFFS+ 80], m11
 +    mova   [COEFFS+112], m10
 +    SWAP         8,  10
 +    SWAP         1,   8
 +    SWAP         4,  13
 +    SWAP         9,  12
 +
 +    ; for (i = 0; i < 8; i++)
 +    ;     idctSparseColAdd(dest + i, line_size, block + i);
 +    IDCT_1D     %3, %4
 +
 +    ; clip/store
 +%if %0 == 4
 +    ; No clamping, means pure idct
 +    mova  [r0+  0], m8
 +    mova  [r0+ 16], m0
 +    mova  [r0+ 32], m1
 +    mova  [r0+ 48], m2
 +    mova  [r0+ 64], m4
 +    mova  [r0+ 80], m11
 +    mova  [r0+ 96], m9
 +    mova  [r0+112], m10
 +%else
 +%ifidn %5, 0
 +    pxor        m3, m3
 +%else
 +    mova        m3, [%5]
 +%endif
 +    mova        m5, [%6]
 +    pmaxsw      m8,  m3
 +    pmaxsw      m0,  m3
 +    pmaxsw      m1,  m3
 +    pmaxsw      m2,  m3
 +    pmaxsw      m4,  m3
 +    pmaxsw      m11, m3
 +    pmaxsw      m9,  m3
 +    pmaxsw      m10, m3
 +    pminsw      m8,  m5
 +    pminsw      m0,  m5
 +    pminsw      m1,  m5
 +    pminsw      m2,  m5
 +    pminsw      m4,  m5
 +    pminsw      m11, m5
 +    pminsw      m9,  m5
 +    pminsw      m10, m5
 +
 +    lea         r2, [r1*3]
 +    mova  [r0     ], m8
 +    mova  [r0+r1  ], m0
 +    mova  [r0+r1*2], m1
 +    mova  [r0+r2  ], m2
 +    lea         r0, [r0+r1*4]
 +    mova  [r0     ], m4
 +    mova  [r0+r1  ], m11
 +    mova  [r0+r1*2], m9
 +    mova  [r0+r2  ], m10
 +%endif
 +%endmacro
 +
 +%endif