* Copyright (C) 2009-2015 x264 project
*
* Authors: David Conrad <lessen42@gmail.com>
+ * Janne Grunau <janne-x264@jannau.net>
*
* This program is free software; you can redistribute it and/or modify
* it under the terms of the GNU General Public License as published by
SAD_X_FUNC 4, 16, 8
SAD_X_FUNC 4, 16, 16
+function x264_pixel_vsad_neon
+ subs r2, r2, #2
+ vld1.8 {q0}, [r0], r1
+ vld1.8 {q1}, [r0], r1
+ vabdl.u8 q2, d0, d2
+ vabdl.u8 q3, d1, d3
+ ble 2f
+1:
+ subs r2, r2, #2
+ vld1.8 {q0}, [r0], r1
+ vabal.u8 q2, d2, d0
+ vabal.u8 q3, d3, d1
+ vld1.8 {q1}, [r0], r1
+ blt 2f
+ vabal.u8 q2, d0, d2
+ vabal.u8 q3, d1, d3
+ bgt 1b
+2:
+ vadd.u16 q0, q2, q3
+ HORIZ_ADD d0, d0, d1
+ vmov.32 r0, d0[0]
+ bx lr
+endfunc
+
+function x264_pixel_asd8_neon
+ ldr r12, [sp, #0]
+ sub r12, r12, #2
+ vld1.8 {d0}, [r0], r1
+ vld1.8 {d1}, [r2], r3
+ vld1.8 {d2}, [r0], r1
+ vld1.8 {d3}, [r2], r3
+ vsubl.u8 q8, d0, d1
+1:
+ subs r12, r12, #2
+ vld1.8 {d4}, [r0], r1
+ vld1.8 {d5}, [r2], r3
+ vsubl.u8 q9, d2, d3
+ vsubl.u8 q10, d4, d5
+ vadd.s16 q8, q9
+ vld1.8 {d2}, [r0], r1
+ vld1.8 {d3}, [r2], r3
+ vadd.s16 q8, q10
+ bgt 1b
+ vsubl.u8 q9, d2, d3
+ vadd.s16 q8, q9
+ vpaddl.s16 q8, q8
+ vpadd.s32 d16, d16, d17
+ vpadd.s32 d16, d16, d17
+ vabs.s32 d16, d16
+ vmov.32 r0, d16[0]
+ bx lr
+endfunc
+
.macro SSD_START_4
vld1.32 {d16[]}, [r0,:32], r1
SSD_FUNC 16, 8
SSD_FUNC 16, 16
+function x264_pixel_ssd_nv12_core_neon
+ push {r4-r5}
+ ldrd r4, r5, [sp, #8]
+ add r12, r4, #8
+ bic r12, r12, #15
+ vmov.u64 q8, #0
+ vmov.u64 q9, #0
+ sub r1, r1, r12, lsl #1
+ sub r3, r3, r12, lsl #1
+1:
+ subs r12, r4, #16
+ vld2.8 {d0,d1}, [r0]!
+ vld2.8 {d2,d3}, [r2]!
+ vld2.8 {d4,d5}, [r0]!
+ vld2.8 {d6,d7}, [r2]!
+
+ vsubl.u8 q10, d0, d2
+ vsubl.u8 q11, d1, d3
+ vmull.s16 q14, d20, d20
+ vmull.s16 q15, d22, d22
+ vsubl.u8 q12, d4, d6
+ vsubl.u8 q13, d5, d7
+ vmlal.s16 q14, d21, d21
+ vmlal.s16 q15, d23, d23
+
+ blt 4f
+ beq 3f
+2:
+ vmlal.s16 q14, d24, d24
+ vmlal.s16 q15, d26, d26
+ vld2.8 {d0,d1}, [r0]!
+ vld2.8 {d2,d3}, [r2]!
+ vmlal.s16 q14, d25, d25
+ vmlal.s16 q15, d27, d27
+
+ subs r12, r12, #16
+ vsubl.u8 q10, d0, d2
+ vsubl.u8 q11, d1, d3
+ vmlal.s16 q14, d20, d20
+ vmlal.s16 q15, d22, d22
+ vld2.8 {d4,d5}, [r0]!
+ vld2.8 {d6,d7}, [r2]!
+ vmlal.s16 q14, d21, d21
+ vmlal.s16 q15, d23, d23
+ blt 4f
+
+ vsubl.u8 q12, d4, d6
+ vsubl.u8 q13, d5, d7
+ bgt 2b
+3:
+ vmlal.s16 q14, d24, d24
+ vmlal.s16 q15, d26, d26
+ vmlal.s16 q14, d25, d25
+ vmlal.s16 q15, d27, d27
+4:
+ subs r5, r5, #1
+ vaddw.s32 q8, q8, d28
+ vaddw.s32 q9, q9, d30
+ add r0, r0, r1
+ add r2, r2, r3
+ vaddw.s32 q8, q8, d29
+ vaddw.s32 q9, q9, d31
+ bgt 1b
+
+ vadd.u64 d16, d16, d17
+ vadd.u64 d18, d18, d19
+ ldrd r4, r5, [sp, #16]
+ vst1.64 {d16}, [r4]
+ vst1.64 {d18}, [r5]
+
+ pop {r4-r5}
+ bx lr
+endfunc
.macro VAR_SQR_SUM qsqr_sum qsqr_last qsqr dsrc vpadal=vpadal.u16
vmull.u8 \qsqr, \dsrc, \dsrc