arm: Add optimized addmul_1
authorRichard Henderson <rth@twiddle.net>
Tue, 26 Feb 2013 23:45:57 +0000 (15:45 -0800)
committerRichard Henderson <rth@twiddle.net>
Wed, 6 Mar 2013 15:47:25 +0000 (07:47 -0800)
Written from scratch rather than copied from GMP, due to LGPL 2.1 vs
GPL 3, but tested with the GMP testsuite.

This is 25% faster than the generic code as measured on Cortex-A15,
and the same speed as GMP on the same core.  It's probably slower
than GMP on the A8 and A9 cores though.

ports/ChangeLog.arm
ports/sysdeps/arm/addmul_1.S [new file with mode: 0644]

index 55e63fa..a701215 100644 (file)
@@ -1,5 +1,6 @@
 2013-03-06  Richard Henderson <rth@redhat.com>
 
+       * sysdeps/arm/addmul_1.S: New file.
        * sysdeps/arm/armv6t2/ffs.S: New file.
        * sysdeps/arm/armv6t2/ffsll.S: New file.
 
diff --git a/ports/sysdeps/arm/addmul_1.S b/ports/sysdeps/arm/addmul_1.S
new file mode 100644 (file)
index 0000000..09153d2
--- /dev/null
@@ -0,0 +1,67 @@
+/* mpn_addmul_1 -- multiply and accumulate bignums.
+   Copyright (C) 2013 Free Software Foundation, Inc.
+   This file is part of the GNU C Library.
+
+   The GNU C Library is free software; you can redistribute it and/or
+   modify it under the terms of the GNU Lesser General Public
+   License as published by the Free Software Foundation; either
+   version 2.1 of the License, or (at your option) any later version.
+
+   The GNU C Library is distributed in the hope that it will be useful,
+   but WITHOUT ANY WARRANTY; without even the implied warranty of
+   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
+   Lesser General Public License for more details.
+
+   You should have received a copy of the GNU Lesser General Public
+   License along with the GNU C Library.  If not, see
+   <http://www.gnu.org/licenses/>.  */
+
+#include <sysdep.h>
+
+       .syntax unified
+       .text
+
+@              cycles/limb
+@ StrongArm       ?
+@ Cortex-A8       ?
+@ Cortex-A9       ?
+@ Cortex-A15      4
+
+/* mp_limb_t mpn_addmul_1(res_ptr, src1_ptr, size, s2_limb) */
+
+ENTRY (__mpn_addmul_1)
+       push    { r4, r5, r6, r7 }
+       cfi_adjust_cfa_offset (16)
+       cfi_rel_offset (r4, 0)
+       cfi_rel_offset (r5, 4)
+       cfi_rel_offset (r6, 8)
+       cfi_rel_offset (r7, 12)
+
+       ldr     r6, [r1], #4
+       ldr     r5, [r0]
+       mov     r4, #0                  /* init carry in */
+       b       1f
+0:
+       ldr     r6, [r1], #4            /* load next ul */
+       adds    r7, r4, r5              /* (out, c) = cl + lpl */
+       ldr     r5, [r0, #4]            /* load next rl */
+       adc     r4, ip, #0              /* cl = hpl + c */
+       str     r7, [r0], #4
+1:
+       mov     ip, #0                  /* zero-extend rl */
+       umlal   r5, ip, r6, r3          /* (hpl, lpl) = ul * vl + rl */
+       subs    r2, r2, #1
+       bne     0b
+
+       adds    r4, r4, r5              /* (out, c) = cl + llpl */
+       str     r4, [r0]
+       adc     r0, ip, #0              /* return hpl + c */
+
+       pop     { r4, r5, r6, r7 }
+       cfi_adjust_cfa_offset (-16)
+       cfi_restore (r4)
+       cfi_restore (r5)
+       cfi_restore (r6)
+       cfi_restore (r7)
+       DO_RET  (lr)
+END (__mpn_addmul_1)