summaryrefslogtreecommitdiffstats
path: root/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha
diff options
context:
space:
mode:
authorYi Li <yi1.li@intel.com>2023-08-03 12:37:20 +0800
committermergify[bot] <37929162+mergify[bot]@users.noreply.github.com>2023-08-09 07:10:31 +0000
commit49a113a7a44a87693dc66c0e513af640245cdc6e (patch)
tree64692725aa6b908ae6ae669bfa037947b632b220 /CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha
parent9d6d237c3c22e8b413de91f125ab4626fcc6213c (diff)
downloadedk2-49a113a7a44a87693dc66c0e513af640245cdc6e.tar.gz
edk2-49a113a7a44a87693dc66c0e513af640245cdc6e.tar.bz2
edk2-49a113a7a44a87693dc66c0e513af640245cdc6e.zip
CryptoPkg/openssl: cleanup all openssl1.1.1 generated files and code
Signed-off-by: Gerd Hoffmann <kraxel@redhat.com> Signed-off-by: Yi Li <yi1.li@intel.com> Cc: Jiewen Yao <jiewen.yao@intel.com> Cc: Xiaoyu Lu <xiaoyu1.lu@intel.com> Cc: Guomin Jiang <guomin.jiang@intel.com> Reviewed-by: Jiewen Yao <jiewen.yao@intel.com> Acked-by: Ard Biesheuvel <ardb@kernel.org> Tested-by: Ard Biesheuvel <ardb@kernel.org> Tested-by: Brian J. Johnson <brian.johnson@hpe.com> Tested-by: Kenneth Lautner <klautner@microsoft.com>
Diffstat (limited to 'CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha')
-rw-r--r--CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-mb-x86_64.S2962
-rw-r--r--CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-x86_64.S2631
-rw-r--r--CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-mb-x86_64.S3286
-rw-r--r--CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-x86_64.S3097
-rw-r--r--CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha512-x86_64.S1811
5 files changed, 0 insertions, 13787 deletions
diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-mb-x86_64.S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-mb-x86_64.S
deleted file mode 100644
index 4572bc7227..0000000000
--- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-mb-x86_64.S
+++ /dev/null
@@ -1,2962 +0,0 @@
-# WARNING: do not edit!
-# Generated from openssl/crypto/sha/asm/sha1-mb-x86_64.pl
-#
-# Copyright 2013-2020 The OpenSSL Project Authors. All Rights Reserved.
-#
-# Licensed under the OpenSSL license (the "License"). You may not use
-# this file except in compliance with the License. You can obtain a copy
-# in the file LICENSE in the source distribution or at
-# https://www.openssl.org/source/license.html
-
-.text
-
-
-
-.globl sha1_multi_block
-.type sha1_multi_block,@function
-.align 32
-sha1_multi_block:
-.cfi_startproc
- movq OPENSSL_ia32cap_P+4(%rip),%rcx
- btq $61,%rcx
- jc _shaext_shortcut
- movq %rsp,%rax
-.cfi_def_cfa_register %rax
- pushq %rbx
-.cfi_offset %rbx,-16
- pushq %rbp
-.cfi_offset %rbx,-24
- subq $288,%rsp
- andq $-256,%rsp
- movq %rax,272(%rsp)
-.cfi_escape 0x0f,0x06,0x77,0x90,0x02,0x06,0x23,0x08
-.Lbody:
- leaq K_XX_XX(%rip),%rbp
- leaq 256(%rsp),%rbx
-
-.Loop_grande:
- movl %edx,280(%rsp)
- xorl %edx,%edx
- movq 0(%rsi),%r8
- movl 8(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,0(%rbx)
- cmovleq %rbp,%r8
- movq 16(%rsi),%r9
- movl 24(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,4(%rbx)
- cmovleq %rbp,%r9
- movq 32(%rsi),%r10
- movl 40(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,8(%rbx)
- cmovleq %rbp,%r10
- movq 48(%rsi),%r11
- movl 56(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,12(%rbx)
- cmovleq %rbp,%r11
- testl %edx,%edx
- jz .Ldone
-
- movdqu 0(%rdi),%xmm10
- leaq 128(%rsp),%rax
- movdqu 32(%rdi),%xmm11
- movdqu 64(%rdi),%xmm12
- movdqu 96(%rdi),%xmm13
- movdqu 128(%rdi),%xmm14
- movdqa 96(%rbp),%xmm5
- movdqa -32(%rbp),%xmm15
- jmp .Loop
-
-.align 32
-.Loop:
- movd (%r8),%xmm0
- leaq 64(%r8),%r8
- movd (%r9),%xmm2
- leaq 64(%r9),%r9
- movd (%r10),%xmm3
- leaq 64(%r10),%r10
- movd (%r11),%xmm4
- leaq 64(%r11),%r11
- punpckldq %xmm3,%xmm0
- movd -60(%r8),%xmm1
- punpckldq %xmm4,%xmm2
- movd -60(%r9),%xmm9
- punpckldq %xmm2,%xmm0
- movd -60(%r10),%xmm8
-.byte 102,15,56,0,197
- movd -60(%r11),%xmm7
- punpckldq %xmm8,%xmm1
- movdqa %xmm10,%xmm8
- paddd %xmm15,%xmm14
- punpckldq %xmm7,%xmm9
- movdqa %xmm11,%xmm7
- movdqa %xmm11,%xmm6
- pslld $5,%xmm8
- pandn %xmm13,%xmm7
- pand %xmm12,%xmm6
- punpckldq %xmm9,%xmm1
- movdqa %xmm10,%xmm9
-
- movdqa %xmm0,0-128(%rax)
- paddd %xmm0,%xmm14
- movd -56(%r8),%xmm2
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm11,%xmm7
-
- por %xmm9,%xmm8
- movd -56(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm14
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
-.byte 102,15,56,0,205
- movd -56(%r10),%xmm8
- por %xmm7,%xmm11
- movd -56(%r11),%xmm7
- punpckldq %xmm8,%xmm2
- movdqa %xmm14,%xmm8
- paddd %xmm15,%xmm13
- punpckldq %xmm7,%xmm9
- movdqa %xmm10,%xmm7
- movdqa %xmm10,%xmm6
- pslld $5,%xmm8
- pandn %xmm12,%xmm7
- pand %xmm11,%xmm6
- punpckldq %xmm9,%xmm2
- movdqa %xmm14,%xmm9
-
- movdqa %xmm1,16-128(%rax)
- paddd %xmm1,%xmm13
- movd -52(%r8),%xmm3
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm10,%xmm7
-
- por %xmm9,%xmm8
- movd -52(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm13
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
-.byte 102,15,56,0,213
- movd -52(%r10),%xmm8
- por %xmm7,%xmm10
- movd -52(%r11),%xmm7
- punpckldq %xmm8,%xmm3
- movdqa %xmm13,%xmm8
- paddd %xmm15,%xmm12
- punpckldq %xmm7,%xmm9
- movdqa %xmm14,%xmm7
- movdqa %xmm14,%xmm6
- pslld $5,%xmm8
- pandn %xmm11,%xmm7
- pand %xmm10,%xmm6
- punpckldq %xmm9,%xmm3
- movdqa %xmm13,%xmm9
-
- movdqa %xmm2,32-128(%rax)
- paddd %xmm2,%xmm12
- movd -48(%r8),%xmm4
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm14,%xmm7
-
- por %xmm9,%xmm8
- movd -48(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm12
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
-.byte 102,15,56,0,221
- movd -48(%r10),%xmm8
- por %xmm7,%xmm14
- movd -48(%r11),%xmm7
- punpckldq %xmm8,%xmm4
- movdqa %xmm12,%xmm8
- paddd %xmm15,%xmm11
- punpckldq %xmm7,%xmm9
- movdqa %xmm13,%xmm7
- movdqa %xmm13,%xmm6
- pslld $5,%xmm8
- pandn %xmm10,%xmm7
- pand %xmm14,%xmm6
- punpckldq %xmm9,%xmm4
- movdqa %xmm12,%xmm9
-
- movdqa %xmm3,48-128(%rax)
- paddd %xmm3,%xmm11
- movd -44(%r8),%xmm0
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm13,%xmm7
-
- por %xmm9,%xmm8
- movd -44(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm11
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
-.byte 102,15,56,0,229
- movd -44(%r10),%xmm8
- por %xmm7,%xmm13
- movd -44(%r11),%xmm7
- punpckldq %xmm8,%xmm0
- movdqa %xmm11,%xmm8
- paddd %xmm15,%xmm10
- punpckldq %xmm7,%xmm9
- movdqa %xmm12,%xmm7
- movdqa %xmm12,%xmm6
- pslld $5,%xmm8
- pandn %xmm14,%xmm7
- pand %xmm13,%xmm6
- punpckldq %xmm9,%xmm0
- movdqa %xmm11,%xmm9
-
- movdqa %xmm4,64-128(%rax)
- paddd %xmm4,%xmm10
- movd -40(%r8),%xmm1
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm12,%xmm7
-
- por %xmm9,%xmm8
- movd -40(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm10
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
-.byte 102,15,56,0,197
- movd -40(%r10),%xmm8
- por %xmm7,%xmm12
- movd -40(%r11),%xmm7
- punpckldq %xmm8,%xmm1
- movdqa %xmm10,%xmm8
- paddd %xmm15,%xmm14
- punpckldq %xmm7,%xmm9
- movdqa %xmm11,%xmm7
- movdqa %xmm11,%xmm6
- pslld $5,%xmm8
- pandn %xmm13,%xmm7
- pand %xmm12,%xmm6
- punpckldq %xmm9,%xmm1
- movdqa %xmm10,%xmm9
-
- movdqa %xmm0,80-128(%rax)
- paddd %xmm0,%xmm14
- movd -36(%r8),%xmm2
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm11,%xmm7
-
- por %xmm9,%xmm8
- movd -36(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm14
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
-.byte 102,15,56,0,205
- movd -36(%r10),%xmm8
- por %xmm7,%xmm11
- movd -36(%r11),%xmm7
- punpckldq %xmm8,%xmm2
- movdqa %xmm14,%xmm8
- paddd %xmm15,%xmm13
- punpckldq %xmm7,%xmm9
- movdqa %xmm10,%xmm7
- movdqa %xmm10,%xmm6
- pslld $5,%xmm8
- pandn %xmm12,%xmm7
- pand %xmm11,%xmm6
- punpckldq %xmm9,%xmm2
- movdqa %xmm14,%xmm9
-
- movdqa %xmm1,96-128(%rax)
- paddd %xmm1,%xmm13
- movd -32(%r8),%xmm3
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm10,%xmm7
-
- por %xmm9,%xmm8
- movd -32(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm13
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
-.byte 102,15,56,0,213
- movd -32(%r10),%xmm8
- por %xmm7,%xmm10
- movd -32(%r11),%xmm7
- punpckldq %xmm8,%xmm3
- movdqa %xmm13,%xmm8
- paddd %xmm15,%xmm12
- punpckldq %xmm7,%xmm9
- movdqa %xmm14,%xmm7
- movdqa %xmm14,%xmm6
- pslld $5,%xmm8
- pandn %xmm11,%xmm7
- pand %xmm10,%xmm6
- punpckldq %xmm9,%xmm3
- movdqa %xmm13,%xmm9
-
- movdqa %xmm2,112-128(%rax)
- paddd %xmm2,%xmm12
- movd -28(%r8),%xmm4
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm14,%xmm7
-
- por %xmm9,%xmm8
- movd -28(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm12
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
-.byte 102,15,56,0,221
- movd -28(%r10),%xmm8
- por %xmm7,%xmm14
- movd -28(%r11),%xmm7
- punpckldq %xmm8,%xmm4
- movdqa %xmm12,%xmm8
- paddd %xmm15,%xmm11
- punpckldq %xmm7,%xmm9
- movdqa %xmm13,%xmm7
- movdqa %xmm13,%xmm6
- pslld $5,%xmm8
- pandn %xmm10,%xmm7
- pand %xmm14,%xmm6
- punpckldq %xmm9,%xmm4
- movdqa %xmm12,%xmm9
-
- movdqa %xmm3,128-128(%rax)
- paddd %xmm3,%xmm11
- movd -24(%r8),%xmm0
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm13,%xmm7
-
- por %xmm9,%xmm8
- movd -24(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm11
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
-.byte 102,15,56,0,229
- movd -24(%r10),%xmm8
- por %xmm7,%xmm13
- movd -24(%r11),%xmm7
- punpckldq %xmm8,%xmm0
- movdqa %xmm11,%xmm8
- paddd %xmm15,%xmm10
- punpckldq %xmm7,%xmm9
- movdqa %xmm12,%xmm7
- movdqa %xmm12,%xmm6
- pslld $5,%xmm8
- pandn %xmm14,%xmm7
- pand %xmm13,%xmm6
- punpckldq %xmm9,%xmm0
- movdqa %xmm11,%xmm9
-
- movdqa %xmm4,144-128(%rax)
- paddd %xmm4,%xmm10
- movd -20(%r8),%xmm1
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm12,%xmm7
-
- por %xmm9,%xmm8
- movd -20(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm10
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
-.byte 102,15,56,0,197
- movd -20(%r10),%xmm8
- por %xmm7,%xmm12
- movd -20(%r11),%xmm7
- punpckldq %xmm8,%xmm1
- movdqa %xmm10,%xmm8
- paddd %xmm15,%xmm14
- punpckldq %xmm7,%xmm9
- movdqa %xmm11,%xmm7
- movdqa %xmm11,%xmm6
- pslld $5,%xmm8
- pandn %xmm13,%xmm7
- pand %xmm12,%xmm6
- punpckldq %xmm9,%xmm1
- movdqa %xmm10,%xmm9
-
- movdqa %xmm0,160-128(%rax)
- paddd %xmm0,%xmm14
- movd -16(%r8),%xmm2
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm11,%xmm7
-
- por %xmm9,%xmm8
- movd -16(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm14
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
-.byte 102,15,56,0,205
- movd -16(%r10),%xmm8
- por %xmm7,%xmm11
- movd -16(%r11),%xmm7
- punpckldq %xmm8,%xmm2
- movdqa %xmm14,%xmm8
- paddd %xmm15,%xmm13
- punpckldq %xmm7,%xmm9
- movdqa %xmm10,%xmm7
- movdqa %xmm10,%xmm6
- pslld $5,%xmm8
- pandn %xmm12,%xmm7
- pand %xmm11,%xmm6
- punpckldq %xmm9,%xmm2
- movdqa %xmm14,%xmm9
-
- movdqa %xmm1,176-128(%rax)
- paddd %xmm1,%xmm13
- movd -12(%r8),%xmm3
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm10,%xmm7
-
- por %xmm9,%xmm8
- movd -12(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm13
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
-.byte 102,15,56,0,213
- movd -12(%r10),%xmm8
- por %xmm7,%xmm10
- movd -12(%r11),%xmm7
- punpckldq %xmm8,%xmm3
- movdqa %xmm13,%xmm8
- paddd %xmm15,%xmm12
- punpckldq %xmm7,%xmm9
- movdqa %xmm14,%xmm7
- movdqa %xmm14,%xmm6
- pslld $5,%xmm8
- pandn %xmm11,%xmm7
- pand %xmm10,%xmm6
- punpckldq %xmm9,%xmm3
- movdqa %xmm13,%xmm9
-
- movdqa %xmm2,192-128(%rax)
- paddd %xmm2,%xmm12
- movd -8(%r8),%xmm4
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm14,%xmm7
-
- por %xmm9,%xmm8
- movd -8(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm12
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
-.byte 102,15,56,0,221
- movd -8(%r10),%xmm8
- por %xmm7,%xmm14
- movd -8(%r11),%xmm7
- punpckldq %xmm8,%xmm4
- movdqa %xmm12,%xmm8
- paddd %xmm15,%xmm11
- punpckldq %xmm7,%xmm9
- movdqa %xmm13,%xmm7
- movdqa %xmm13,%xmm6
- pslld $5,%xmm8
- pandn %xmm10,%xmm7
- pand %xmm14,%xmm6
- punpckldq %xmm9,%xmm4
- movdqa %xmm12,%xmm9
-
- movdqa %xmm3,208-128(%rax)
- paddd %xmm3,%xmm11
- movd -4(%r8),%xmm0
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm13,%xmm7
-
- por %xmm9,%xmm8
- movd -4(%r9),%xmm9
- pslld $30,%xmm7
- paddd %xmm6,%xmm11
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
-.byte 102,15,56,0,229
- movd -4(%r10),%xmm8
- por %xmm7,%xmm13
- movdqa 0-128(%rax),%xmm1
- movd -4(%r11),%xmm7
- punpckldq %xmm8,%xmm0
- movdqa %xmm11,%xmm8
- paddd %xmm15,%xmm10
- punpckldq %xmm7,%xmm9
- movdqa %xmm12,%xmm7
- movdqa %xmm12,%xmm6
- pslld $5,%xmm8
- prefetcht0 63(%r8)
- pandn %xmm14,%xmm7
- pand %xmm13,%xmm6
- punpckldq %xmm9,%xmm0
- movdqa %xmm11,%xmm9
-
- movdqa %xmm4,224-128(%rax)
- paddd %xmm4,%xmm10
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
- movdqa %xmm12,%xmm7
- prefetcht0 63(%r9)
-
- por %xmm9,%xmm8
- pslld $30,%xmm7
- paddd %xmm6,%xmm10
- prefetcht0 63(%r10)
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
-.byte 102,15,56,0,197
- prefetcht0 63(%r11)
- por %xmm7,%xmm12
- movdqa 16-128(%rax),%xmm2
- pxor %xmm3,%xmm1
- movdqa 32-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- pxor 128-128(%rax),%xmm1
- paddd %xmm15,%xmm14
- movdqa %xmm11,%xmm7
- pslld $5,%xmm8
- pxor %xmm3,%xmm1
- movdqa %xmm11,%xmm6
- pandn %xmm13,%xmm7
- movdqa %xmm1,%xmm5
- pand %xmm12,%xmm6
- movdqa %xmm10,%xmm9
- psrld $31,%xmm5
- paddd %xmm1,%xmm1
-
- movdqa %xmm0,240-128(%rax)
- paddd %xmm0,%xmm14
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
-
- movdqa %xmm11,%xmm7
- por %xmm9,%xmm8
- pslld $30,%xmm7
- paddd %xmm6,%xmm14
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 48-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- pxor 144-128(%rax),%xmm2
- paddd %xmm15,%xmm13
- movdqa %xmm10,%xmm7
- pslld $5,%xmm8
- pxor %xmm4,%xmm2
- movdqa %xmm10,%xmm6
- pandn %xmm12,%xmm7
- movdqa %xmm2,%xmm5
- pand %xmm11,%xmm6
- movdqa %xmm14,%xmm9
- psrld $31,%xmm5
- paddd %xmm2,%xmm2
-
- movdqa %xmm1,0-128(%rax)
- paddd %xmm1,%xmm13
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
-
- movdqa %xmm10,%xmm7
- por %xmm9,%xmm8
- pslld $30,%xmm7
- paddd %xmm6,%xmm13
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 64-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- pxor 160-128(%rax),%xmm3
- paddd %xmm15,%xmm12
- movdqa %xmm14,%xmm7
- pslld $5,%xmm8
- pxor %xmm0,%xmm3
- movdqa %xmm14,%xmm6
- pandn %xmm11,%xmm7
- movdqa %xmm3,%xmm5
- pand %xmm10,%xmm6
- movdqa %xmm13,%xmm9
- psrld $31,%xmm5
- paddd %xmm3,%xmm3
-
- movdqa %xmm2,16-128(%rax)
- paddd %xmm2,%xmm12
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
-
- movdqa %xmm14,%xmm7
- por %xmm9,%xmm8
- pslld $30,%xmm7
- paddd %xmm6,%xmm12
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 80-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- pxor 176-128(%rax),%xmm4
- paddd %xmm15,%xmm11
- movdqa %xmm13,%xmm7
- pslld $5,%xmm8
- pxor %xmm1,%xmm4
- movdqa %xmm13,%xmm6
- pandn %xmm10,%xmm7
- movdqa %xmm4,%xmm5
- pand %xmm14,%xmm6
- movdqa %xmm12,%xmm9
- psrld $31,%xmm5
- paddd %xmm4,%xmm4
-
- movdqa %xmm3,32-128(%rax)
- paddd %xmm3,%xmm11
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
-
- movdqa %xmm13,%xmm7
- por %xmm9,%xmm8
- pslld $30,%xmm7
- paddd %xmm6,%xmm11
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 96-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- pxor 192-128(%rax),%xmm0
- paddd %xmm15,%xmm10
- movdqa %xmm12,%xmm7
- pslld $5,%xmm8
- pxor %xmm2,%xmm0
- movdqa %xmm12,%xmm6
- pandn %xmm14,%xmm7
- movdqa %xmm0,%xmm5
- pand %xmm13,%xmm6
- movdqa %xmm11,%xmm9
- psrld $31,%xmm5
- paddd %xmm0,%xmm0
-
- movdqa %xmm4,48-128(%rax)
- paddd %xmm4,%xmm10
- psrld $27,%xmm9
- pxor %xmm7,%xmm6
-
- movdqa %xmm12,%xmm7
- por %xmm9,%xmm8
- pslld $30,%xmm7
- paddd %xmm6,%xmm10
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- movdqa 0(%rbp),%xmm15
- pxor %xmm3,%xmm1
- movdqa 112-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm6
- pxor 208-128(%rax),%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- pxor %xmm11,%xmm6
-
- movdqa %xmm10,%xmm9
- movdqa %xmm0,64-128(%rax)
- paddd %xmm0,%xmm14
- pxor %xmm3,%xmm1
- psrld $27,%xmm9
- pxor %xmm12,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm1,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm14
- paddd %xmm1,%xmm1
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 128-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm6
- pxor 224-128(%rax),%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- pxor %xmm10,%xmm6
-
- movdqa %xmm14,%xmm9
- movdqa %xmm1,80-128(%rax)
- paddd %xmm1,%xmm13
- pxor %xmm4,%xmm2
- psrld $27,%xmm9
- pxor %xmm11,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm2,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm13
- paddd %xmm2,%xmm2
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 144-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm6
- pxor 240-128(%rax),%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- pxor %xmm14,%xmm6
-
- movdqa %xmm13,%xmm9
- movdqa %xmm2,96-128(%rax)
- paddd %xmm2,%xmm12
- pxor %xmm0,%xmm3
- psrld $27,%xmm9
- pxor %xmm10,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm3,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm12
- paddd %xmm3,%xmm3
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 160-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm6
- pxor 0-128(%rax),%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- pxor %xmm13,%xmm6
-
- movdqa %xmm12,%xmm9
- movdqa %xmm3,112-128(%rax)
- paddd %xmm3,%xmm11
- pxor %xmm1,%xmm4
- psrld $27,%xmm9
- pxor %xmm14,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm4,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm11
- paddd %xmm4,%xmm4
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 176-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm6
- pxor 16-128(%rax),%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- pxor %xmm12,%xmm6
-
- movdqa %xmm11,%xmm9
- movdqa %xmm4,128-128(%rax)
- paddd %xmm4,%xmm10
- pxor %xmm2,%xmm0
- psrld $27,%xmm9
- pxor %xmm13,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm0,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm10
- paddd %xmm0,%xmm0
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- pxor %xmm3,%xmm1
- movdqa 192-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm6
- pxor 32-128(%rax),%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- pxor %xmm11,%xmm6
-
- movdqa %xmm10,%xmm9
- movdqa %xmm0,144-128(%rax)
- paddd %xmm0,%xmm14
- pxor %xmm3,%xmm1
- psrld $27,%xmm9
- pxor %xmm12,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm1,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm14
- paddd %xmm1,%xmm1
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 208-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm6
- pxor 48-128(%rax),%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- pxor %xmm10,%xmm6
-
- movdqa %xmm14,%xmm9
- movdqa %xmm1,160-128(%rax)
- paddd %xmm1,%xmm13
- pxor %xmm4,%xmm2
- psrld $27,%xmm9
- pxor %xmm11,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm2,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm13
- paddd %xmm2,%xmm2
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 224-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm6
- pxor 64-128(%rax),%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- pxor %xmm14,%xmm6
-
- movdqa %xmm13,%xmm9
- movdqa %xmm2,176-128(%rax)
- paddd %xmm2,%xmm12
- pxor %xmm0,%xmm3
- psrld $27,%xmm9
- pxor %xmm10,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm3,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm12
- paddd %xmm3,%xmm3
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 240-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm6
- pxor 80-128(%rax),%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- pxor %xmm13,%xmm6
-
- movdqa %xmm12,%xmm9
- movdqa %xmm3,192-128(%rax)
- paddd %xmm3,%xmm11
- pxor %xmm1,%xmm4
- psrld $27,%xmm9
- pxor %xmm14,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm4,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm11
- paddd %xmm4,%xmm4
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 0-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm6
- pxor 96-128(%rax),%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- pxor %xmm12,%xmm6
-
- movdqa %xmm11,%xmm9
- movdqa %xmm4,208-128(%rax)
- paddd %xmm4,%xmm10
- pxor %xmm2,%xmm0
- psrld $27,%xmm9
- pxor %xmm13,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm0,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm10
- paddd %xmm0,%xmm0
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- pxor %xmm3,%xmm1
- movdqa 16-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm6
- pxor 112-128(%rax),%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- pxor %xmm11,%xmm6
-
- movdqa %xmm10,%xmm9
- movdqa %xmm0,224-128(%rax)
- paddd %xmm0,%xmm14
- pxor %xmm3,%xmm1
- psrld $27,%xmm9
- pxor %xmm12,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm1,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm14
- paddd %xmm1,%xmm1
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 32-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm6
- pxor 128-128(%rax),%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- pxor %xmm10,%xmm6
-
- movdqa %xmm14,%xmm9
- movdqa %xmm1,240-128(%rax)
- paddd %xmm1,%xmm13
- pxor %xmm4,%xmm2
- psrld $27,%xmm9
- pxor %xmm11,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm2,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm13
- paddd %xmm2,%xmm2
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 48-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm6
- pxor 144-128(%rax),%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- pxor %xmm14,%xmm6
-
- movdqa %xmm13,%xmm9
- movdqa %xmm2,0-128(%rax)
- paddd %xmm2,%xmm12
- pxor %xmm0,%xmm3
- psrld $27,%xmm9
- pxor %xmm10,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm3,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm12
- paddd %xmm3,%xmm3
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 64-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm6
- pxor 160-128(%rax),%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- pxor %xmm13,%xmm6
-
- movdqa %xmm12,%xmm9
- movdqa %xmm3,16-128(%rax)
- paddd %xmm3,%xmm11
- pxor %xmm1,%xmm4
- psrld $27,%xmm9
- pxor %xmm14,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm4,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm11
- paddd %xmm4,%xmm4
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 80-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm6
- pxor 176-128(%rax),%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- pxor %xmm12,%xmm6
-
- movdqa %xmm11,%xmm9
- movdqa %xmm4,32-128(%rax)
- paddd %xmm4,%xmm10
- pxor %xmm2,%xmm0
- psrld $27,%xmm9
- pxor %xmm13,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm0,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm10
- paddd %xmm0,%xmm0
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- pxor %xmm3,%xmm1
- movdqa 96-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm6
- pxor 192-128(%rax),%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- pxor %xmm11,%xmm6
-
- movdqa %xmm10,%xmm9
- movdqa %xmm0,48-128(%rax)
- paddd %xmm0,%xmm14
- pxor %xmm3,%xmm1
- psrld $27,%xmm9
- pxor %xmm12,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm1,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm14
- paddd %xmm1,%xmm1
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 112-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm6
- pxor 208-128(%rax),%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- pxor %xmm10,%xmm6
-
- movdqa %xmm14,%xmm9
- movdqa %xmm1,64-128(%rax)
- paddd %xmm1,%xmm13
- pxor %xmm4,%xmm2
- psrld $27,%xmm9
- pxor %xmm11,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm2,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm13
- paddd %xmm2,%xmm2
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 128-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm6
- pxor 224-128(%rax),%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- pxor %xmm14,%xmm6
-
- movdqa %xmm13,%xmm9
- movdqa %xmm2,80-128(%rax)
- paddd %xmm2,%xmm12
- pxor %xmm0,%xmm3
- psrld $27,%xmm9
- pxor %xmm10,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm3,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm12
- paddd %xmm3,%xmm3
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 144-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm6
- pxor 240-128(%rax),%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- pxor %xmm13,%xmm6
-
- movdqa %xmm12,%xmm9
- movdqa %xmm3,96-128(%rax)
- paddd %xmm3,%xmm11
- pxor %xmm1,%xmm4
- psrld $27,%xmm9
- pxor %xmm14,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm4,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm11
- paddd %xmm4,%xmm4
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 160-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm6
- pxor 0-128(%rax),%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- pxor %xmm12,%xmm6
-
- movdqa %xmm11,%xmm9
- movdqa %xmm4,112-128(%rax)
- paddd %xmm4,%xmm10
- pxor %xmm2,%xmm0
- psrld $27,%xmm9
- pxor %xmm13,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm0,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm10
- paddd %xmm0,%xmm0
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- movdqa 32(%rbp),%xmm15
- pxor %xmm3,%xmm1
- movdqa 176-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm7
- pxor 16-128(%rax),%xmm1
- pxor %xmm3,%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- movdqa %xmm10,%xmm9
- pand %xmm12,%xmm7
-
- movdqa %xmm13,%xmm6
- movdqa %xmm1,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm14
- pxor %xmm12,%xmm6
-
- movdqa %xmm0,128-128(%rax)
- paddd %xmm0,%xmm14
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm11,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm1,%xmm1
- paddd %xmm6,%xmm14
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 192-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm7
- pxor 32-128(%rax),%xmm2
- pxor %xmm4,%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- movdqa %xmm14,%xmm9
- pand %xmm11,%xmm7
-
- movdqa %xmm12,%xmm6
- movdqa %xmm2,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm13
- pxor %xmm11,%xmm6
-
- movdqa %xmm1,144-128(%rax)
- paddd %xmm1,%xmm13
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm10,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm2,%xmm2
- paddd %xmm6,%xmm13
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 208-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm7
- pxor 48-128(%rax),%xmm3
- pxor %xmm0,%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- movdqa %xmm13,%xmm9
- pand %xmm10,%xmm7
-
- movdqa %xmm11,%xmm6
- movdqa %xmm3,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm12
- pxor %xmm10,%xmm6
-
- movdqa %xmm2,160-128(%rax)
- paddd %xmm2,%xmm12
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm14,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm3,%xmm3
- paddd %xmm6,%xmm12
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 224-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm7
- pxor 64-128(%rax),%xmm4
- pxor %xmm1,%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- movdqa %xmm12,%xmm9
- pand %xmm14,%xmm7
-
- movdqa %xmm10,%xmm6
- movdqa %xmm4,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm11
- pxor %xmm14,%xmm6
-
- movdqa %xmm3,176-128(%rax)
- paddd %xmm3,%xmm11
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm13,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm4,%xmm4
- paddd %xmm6,%xmm11
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 240-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm7
- pxor 80-128(%rax),%xmm0
- pxor %xmm2,%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- movdqa %xmm11,%xmm9
- pand %xmm13,%xmm7
-
- movdqa %xmm14,%xmm6
- movdqa %xmm0,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm10
- pxor %xmm13,%xmm6
-
- movdqa %xmm4,192-128(%rax)
- paddd %xmm4,%xmm10
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm12,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm0,%xmm0
- paddd %xmm6,%xmm10
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- pxor %xmm3,%xmm1
- movdqa 0-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm7
- pxor 96-128(%rax),%xmm1
- pxor %xmm3,%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- movdqa %xmm10,%xmm9
- pand %xmm12,%xmm7
-
- movdqa %xmm13,%xmm6
- movdqa %xmm1,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm14
- pxor %xmm12,%xmm6
-
- movdqa %xmm0,208-128(%rax)
- paddd %xmm0,%xmm14
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm11,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm1,%xmm1
- paddd %xmm6,%xmm14
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 16-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm7
- pxor 112-128(%rax),%xmm2
- pxor %xmm4,%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- movdqa %xmm14,%xmm9
- pand %xmm11,%xmm7
-
- movdqa %xmm12,%xmm6
- movdqa %xmm2,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm13
- pxor %xmm11,%xmm6
-
- movdqa %xmm1,224-128(%rax)
- paddd %xmm1,%xmm13
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm10,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm2,%xmm2
- paddd %xmm6,%xmm13
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 32-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm7
- pxor 128-128(%rax),%xmm3
- pxor %xmm0,%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- movdqa %xmm13,%xmm9
- pand %xmm10,%xmm7
-
- movdqa %xmm11,%xmm6
- movdqa %xmm3,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm12
- pxor %xmm10,%xmm6
-
- movdqa %xmm2,240-128(%rax)
- paddd %xmm2,%xmm12
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm14,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm3,%xmm3
- paddd %xmm6,%xmm12
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 48-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm7
- pxor 144-128(%rax),%xmm4
- pxor %xmm1,%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- movdqa %xmm12,%xmm9
- pand %xmm14,%xmm7
-
- movdqa %xmm10,%xmm6
- movdqa %xmm4,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm11
- pxor %xmm14,%xmm6
-
- movdqa %xmm3,0-128(%rax)
- paddd %xmm3,%xmm11
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm13,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm4,%xmm4
- paddd %xmm6,%xmm11
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 64-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm7
- pxor 160-128(%rax),%xmm0
- pxor %xmm2,%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- movdqa %xmm11,%xmm9
- pand %xmm13,%xmm7
-
- movdqa %xmm14,%xmm6
- movdqa %xmm0,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm10
- pxor %xmm13,%xmm6
-
- movdqa %xmm4,16-128(%rax)
- paddd %xmm4,%xmm10
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm12,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm0,%xmm0
- paddd %xmm6,%xmm10
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- pxor %xmm3,%xmm1
- movdqa 80-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm7
- pxor 176-128(%rax),%xmm1
- pxor %xmm3,%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- movdqa %xmm10,%xmm9
- pand %xmm12,%xmm7
-
- movdqa %xmm13,%xmm6
- movdqa %xmm1,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm14
- pxor %xmm12,%xmm6
-
- movdqa %xmm0,32-128(%rax)
- paddd %xmm0,%xmm14
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm11,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm1,%xmm1
- paddd %xmm6,%xmm14
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 96-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm7
- pxor 192-128(%rax),%xmm2
- pxor %xmm4,%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- movdqa %xmm14,%xmm9
- pand %xmm11,%xmm7
-
- movdqa %xmm12,%xmm6
- movdqa %xmm2,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm13
- pxor %xmm11,%xmm6
-
- movdqa %xmm1,48-128(%rax)
- paddd %xmm1,%xmm13
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm10,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm2,%xmm2
- paddd %xmm6,%xmm13
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 112-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm7
- pxor 208-128(%rax),%xmm3
- pxor %xmm0,%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- movdqa %xmm13,%xmm9
- pand %xmm10,%xmm7
-
- movdqa %xmm11,%xmm6
- movdqa %xmm3,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm12
- pxor %xmm10,%xmm6
-
- movdqa %xmm2,64-128(%rax)
- paddd %xmm2,%xmm12
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm14,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm3,%xmm3
- paddd %xmm6,%xmm12
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 128-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm7
- pxor 224-128(%rax),%xmm4
- pxor %xmm1,%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- movdqa %xmm12,%xmm9
- pand %xmm14,%xmm7
-
- movdqa %xmm10,%xmm6
- movdqa %xmm4,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm11
- pxor %xmm14,%xmm6
-
- movdqa %xmm3,80-128(%rax)
- paddd %xmm3,%xmm11
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm13,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm4,%xmm4
- paddd %xmm6,%xmm11
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 144-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm7
- pxor 240-128(%rax),%xmm0
- pxor %xmm2,%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- movdqa %xmm11,%xmm9
- pand %xmm13,%xmm7
-
- movdqa %xmm14,%xmm6
- movdqa %xmm0,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm10
- pxor %xmm13,%xmm6
-
- movdqa %xmm4,96-128(%rax)
- paddd %xmm4,%xmm10
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm12,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm0,%xmm0
- paddd %xmm6,%xmm10
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- pxor %xmm3,%xmm1
- movdqa 160-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm7
- pxor 0-128(%rax),%xmm1
- pxor %xmm3,%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- movdqa %xmm10,%xmm9
- pand %xmm12,%xmm7
-
- movdqa %xmm13,%xmm6
- movdqa %xmm1,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm14
- pxor %xmm12,%xmm6
-
- movdqa %xmm0,112-128(%rax)
- paddd %xmm0,%xmm14
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm11,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm1,%xmm1
- paddd %xmm6,%xmm14
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 176-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm7
- pxor 16-128(%rax),%xmm2
- pxor %xmm4,%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- movdqa %xmm14,%xmm9
- pand %xmm11,%xmm7
-
- movdqa %xmm12,%xmm6
- movdqa %xmm2,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm13
- pxor %xmm11,%xmm6
-
- movdqa %xmm1,128-128(%rax)
- paddd %xmm1,%xmm13
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm10,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm2,%xmm2
- paddd %xmm6,%xmm13
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 192-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm7
- pxor 32-128(%rax),%xmm3
- pxor %xmm0,%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- movdqa %xmm13,%xmm9
- pand %xmm10,%xmm7
-
- movdqa %xmm11,%xmm6
- movdqa %xmm3,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm12
- pxor %xmm10,%xmm6
-
- movdqa %xmm2,144-128(%rax)
- paddd %xmm2,%xmm12
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm14,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm3,%xmm3
- paddd %xmm6,%xmm12
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 208-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm7
- pxor 48-128(%rax),%xmm4
- pxor %xmm1,%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- movdqa %xmm12,%xmm9
- pand %xmm14,%xmm7
-
- movdqa %xmm10,%xmm6
- movdqa %xmm4,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm11
- pxor %xmm14,%xmm6
-
- movdqa %xmm3,160-128(%rax)
- paddd %xmm3,%xmm11
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm13,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm4,%xmm4
- paddd %xmm6,%xmm11
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 224-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm7
- pxor 64-128(%rax),%xmm0
- pxor %xmm2,%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- movdqa %xmm11,%xmm9
- pand %xmm13,%xmm7
-
- movdqa %xmm14,%xmm6
- movdqa %xmm0,%xmm5
- psrld $27,%xmm9
- paddd %xmm7,%xmm10
- pxor %xmm13,%xmm6
-
- movdqa %xmm4,176-128(%rax)
- paddd %xmm4,%xmm10
- por %xmm9,%xmm8
- psrld $31,%xmm5
- pand %xmm12,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- paddd %xmm0,%xmm0
- paddd %xmm6,%xmm10
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- movdqa 64(%rbp),%xmm15
- pxor %xmm3,%xmm1
- movdqa 240-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm6
- pxor 80-128(%rax),%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- pxor %xmm11,%xmm6
-
- movdqa %xmm10,%xmm9
- movdqa %xmm0,192-128(%rax)
- paddd %xmm0,%xmm14
- pxor %xmm3,%xmm1
- psrld $27,%xmm9
- pxor %xmm12,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm1,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm14
- paddd %xmm1,%xmm1
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 0-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm6
- pxor 96-128(%rax),%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- pxor %xmm10,%xmm6
-
- movdqa %xmm14,%xmm9
- movdqa %xmm1,208-128(%rax)
- paddd %xmm1,%xmm13
- pxor %xmm4,%xmm2
- psrld $27,%xmm9
- pxor %xmm11,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm2,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm13
- paddd %xmm2,%xmm2
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 16-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm6
- pxor 112-128(%rax),%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- pxor %xmm14,%xmm6
-
- movdqa %xmm13,%xmm9
- movdqa %xmm2,224-128(%rax)
- paddd %xmm2,%xmm12
- pxor %xmm0,%xmm3
- psrld $27,%xmm9
- pxor %xmm10,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm3,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm12
- paddd %xmm3,%xmm3
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 32-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm6
- pxor 128-128(%rax),%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- pxor %xmm13,%xmm6
-
- movdqa %xmm12,%xmm9
- movdqa %xmm3,240-128(%rax)
- paddd %xmm3,%xmm11
- pxor %xmm1,%xmm4
- psrld $27,%xmm9
- pxor %xmm14,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm4,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm11
- paddd %xmm4,%xmm4
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 48-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm6
- pxor 144-128(%rax),%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- pxor %xmm12,%xmm6
-
- movdqa %xmm11,%xmm9
- movdqa %xmm4,0-128(%rax)
- paddd %xmm4,%xmm10
- pxor %xmm2,%xmm0
- psrld $27,%xmm9
- pxor %xmm13,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm0,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm10
- paddd %xmm0,%xmm0
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- pxor %xmm3,%xmm1
- movdqa 64-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm6
- pxor 160-128(%rax),%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- pxor %xmm11,%xmm6
-
- movdqa %xmm10,%xmm9
- movdqa %xmm0,16-128(%rax)
- paddd %xmm0,%xmm14
- pxor %xmm3,%xmm1
- psrld $27,%xmm9
- pxor %xmm12,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm1,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm14
- paddd %xmm1,%xmm1
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 80-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm6
- pxor 176-128(%rax),%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- pxor %xmm10,%xmm6
-
- movdqa %xmm14,%xmm9
- movdqa %xmm1,32-128(%rax)
- paddd %xmm1,%xmm13
- pxor %xmm4,%xmm2
- psrld $27,%xmm9
- pxor %xmm11,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm2,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm13
- paddd %xmm2,%xmm2
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 96-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm6
- pxor 192-128(%rax),%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- pxor %xmm14,%xmm6
-
- movdqa %xmm13,%xmm9
- movdqa %xmm2,48-128(%rax)
- paddd %xmm2,%xmm12
- pxor %xmm0,%xmm3
- psrld $27,%xmm9
- pxor %xmm10,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm3,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm12
- paddd %xmm3,%xmm3
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 112-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm6
- pxor 208-128(%rax),%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- pxor %xmm13,%xmm6
-
- movdqa %xmm12,%xmm9
- movdqa %xmm3,64-128(%rax)
- paddd %xmm3,%xmm11
- pxor %xmm1,%xmm4
- psrld $27,%xmm9
- pxor %xmm14,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm4,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm11
- paddd %xmm4,%xmm4
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 128-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm6
- pxor 224-128(%rax),%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- pxor %xmm12,%xmm6
-
- movdqa %xmm11,%xmm9
- movdqa %xmm4,80-128(%rax)
- paddd %xmm4,%xmm10
- pxor %xmm2,%xmm0
- psrld $27,%xmm9
- pxor %xmm13,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm0,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm10
- paddd %xmm0,%xmm0
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- pxor %xmm3,%xmm1
- movdqa 144-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm6
- pxor 240-128(%rax),%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- pxor %xmm11,%xmm6
-
- movdqa %xmm10,%xmm9
- movdqa %xmm0,96-128(%rax)
- paddd %xmm0,%xmm14
- pxor %xmm3,%xmm1
- psrld $27,%xmm9
- pxor %xmm12,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm1,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm14
- paddd %xmm1,%xmm1
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 160-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm6
- pxor 0-128(%rax),%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- pxor %xmm10,%xmm6
-
- movdqa %xmm14,%xmm9
- movdqa %xmm1,112-128(%rax)
- paddd %xmm1,%xmm13
- pxor %xmm4,%xmm2
- psrld $27,%xmm9
- pxor %xmm11,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm2,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm13
- paddd %xmm2,%xmm2
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 176-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm6
- pxor 16-128(%rax),%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- pxor %xmm14,%xmm6
-
- movdqa %xmm13,%xmm9
- paddd %xmm2,%xmm12
- pxor %xmm0,%xmm3
- psrld $27,%xmm9
- pxor %xmm10,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm3,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm12
- paddd %xmm3,%xmm3
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 192-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm6
- pxor 32-128(%rax),%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- pxor %xmm13,%xmm6
-
- movdqa %xmm12,%xmm9
- paddd %xmm3,%xmm11
- pxor %xmm1,%xmm4
- psrld $27,%xmm9
- pxor %xmm14,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm4,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm11
- paddd %xmm4,%xmm4
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- pxor %xmm2,%xmm0
- movdqa 208-128(%rax),%xmm2
-
- movdqa %xmm11,%xmm8
- movdqa %xmm14,%xmm6
- pxor 48-128(%rax),%xmm0
- paddd %xmm15,%xmm10
- pslld $5,%xmm8
- pxor %xmm12,%xmm6
-
- movdqa %xmm11,%xmm9
- paddd %xmm4,%xmm10
- pxor %xmm2,%xmm0
- psrld $27,%xmm9
- pxor %xmm13,%xmm6
- movdqa %xmm12,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm0,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm10
- paddd %xmm0,%xmm0
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm5,%xmm0
- por %xmm7,%xmm12
- pxor %xmm3,%xmm1
- movdqa 224-128(%rax),%xmm3
-
- movdqa %xmm10,%xmm8
- movdqa %xmm13,%xmm6
- pxor 64-128(%rax),%xmm1
- paddd %xmm15,%xmm14
- pslld $5,%xmm8
- pxor %xmm11,%xmm6
-
- movdqa %xmm10,%xmm9
- paddd %xmm0,%xmm14
- pxor %xmm3,%xmm1
- psrld $27,%xmm9
- pxor %xmm12,%xmm6
- movdqa %xmm11,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm1,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm14
- paddd %xmm1,%xmm1
-
- psrld $2,%xmm11
- paddd %xmm8,%xmm14
- por %xmm5,%xmm1
- por %xmm7,%xmm11
- pxor %xmm4,%xmm2
- movdqa 240-128(%rax),%xmm4
-
- movdqa %xmm14,%xmm8
- movdqa %xmm12,%xmm6
- pxor 80-128(%rax),%xmm2
- paddd %xmm15,%xmm13
- pslld $5,%xmm8
- pxor %xmm10,%xmm6
-
- movdqa %xmm14,%xmm9
- paddd %xmm1,%xmm13
- pxor %xmm4,%xmm2
- psrld $27,%xmm9
- pxor %xmm11,%xmm6
- movdqa %xmm10,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm2,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm13
- paddd %xmm2,%xmm2
-
- psrld $2,%xmm10
- paddd %xmm8,%xmm13
- por %xmm5,%xmm2
- por %xmm7,%xmm10
- pxor %xmm0,%xmm3
- movdqa 0-128(%rax),%xmm0
-
- movdqa %xmm13,%xmm8
- movdqa %xmm11,%xmm6
- pxor 96-128(%rax),%xmm3
- paddd %xmm15,%xmm12
- pslld $5,%xmm8
- pxor %xmm14,%xmm6
-
- movdqa %xmm13,%xmm9
- paddd %xmm2,%xmm12
- pxor %xmm0,%xmm3
- psrld $27,%xmm9
- pxor %xmm10,%xmm6
- movdqa %xmm14,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm3,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm12
- paddd %xmm3,%xmm3
-
- psrld $2,%xmm14
- paddd %xmm8,%xmm12
- por %xmm5,%xmm3
- por %xmm7,%xmm14
- pxor %xmm1,%xmm4
- movdqa 16-128(%rax),%xmm1
-
- movdqa %xmm12,%xmm8
- movdqa %xmm10,%xmm6
- pxor 112-128(%rax),%xmm4
- paddd %xmm15,%xmm11
- pslld $5,%xmm8
- pxor %xmm13,%xmm6
-
- movdqa %xmm12,%xmm9
- paddd %xmm3,%xmm11
- pxor %xmm1,%xmm4
- psrld $27,%xmm9
- pxor %xmm14,%xmm6
- movdqa %xmm13,%xmm7
-
- pslld $30,%xmm7
- movdqa %xmm4,%xmm5
- por %xmm9,%xmm8
- psrld $31,%xmm5
- paddd %xmm6,%xmm11
- paddd %xmm4,%xmm4
-
- psrld $2,%xmm13
- paddd %xmm8,%xmm11
- por %xmm5,%xmm4
- por %xmm7,%xmm13
- movdqa %xmm11,%xmm8
- paddd %xmm15,%xmm10
- movdqa %xmm14,%xmm6
- pslld $5,%xmm8
- pxor %xmm12,%xmm6
-
- movdqa %xmm11,%xmm9
- paddd %xmm4,%xmm10
- psrld $27,%xmm9
- movdqa %xmm12,%xmm7
- pxor %xmm13,%xmm6
-
- pslld $30,%xmm7
- por %xmm9,%xmm8
- paddd %xmm6,%xmm10
-
- psrld $2,%xmm12
- paddd %xmm8,%xmm10
- por %xmm7,%xmm12
- movdqa (%rbx),%xmm0
- movl $1,%ecx
- cmpl 0(%rbx),%ecx
- pxor %xmm8,%xmm8
- cmovgeq %rbp,%r8
- cmpl 4(%rbx),%ecx
- movdqa %xmm0,%xmm1
- cmovgeq %rbp,%r9
- cmpl 8(%rbx),%ecx
- pcmpgtd %xmm8,%xmm1
- cmovgeq %rbp,%r10
- cmpl 12(%rbx),%ecx
- paddd %xmm1,%xmm0
- cmovgeq %rbp,%r11
-
- movdqu 0(%rdi),%xmm6
- pand %xmm1,%xmm10
- movdqu 32(%rdi),%xmm7
- pand %xmm1,%xmm11
- paddd %xmm6,%xmm10
- movdqu 64(%rdi),%xmm8
- pand %xmm1,%xmm12
- paddd %xmm7,%xmm11
- movdqu 96(%rdi),%xmm9
- pand %xmm1,%xmm13
- paddd %xmm8,%xmm12
- movdqu 128(%rdi),%xmm5
- pand %xmm1,%xmm14
- movdqu %xmm10,0(%rdi)
- paddd %xmm9,%xmm13
- movdqu %xmm11,32(%rdi)
- paddd %xmm5,%xmm14
- movdqu %xmm12,64(%rdi)
- movdqu %xmm13,96(%rdi)
- movdqu %xmm14,128(%rdi)
-
- movdqa %xmm0,(%rbx)
- movdqa 96(%rbp),%xmm5
- movdqa -32(%rbp),%xmm15
- decl %edx
- jnz .Loop
-
- movl 280(%rsp),%edx
- leaq 16(%rdi),%rdi
- leaq 64(%rsi),%rsi
- decl %edx
- jnz .Loop_grande
-
-.Ldone:
- movq 272(%rsp),%rax
-.cfi_def_cfa %rax,8
- movq -16(%rax),%rbp
-.cfi_restore %rbp
- movq -8(%rax),%rbx
-.cfi_restore %rbx
- leaq (%rax),%rsp
-.cfi_def_cfa_register %rsp
-.Lepilogue:
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha1_multi_block,.-sha1_multi_block
-.type sha1_multi_block_shaext,@function
-.align 32
-sha1_multi_block_shaext:
-.cfi_startproc
-_shaext_shortcut:
- movq %rsp,%rax
-.cfi_def_cfa_register %rax
- pushq %rbx
-.cfi_offset %rbx,-16
- pushq %rbp
-.cfi_offset %rbp,-24
- subq $288,%rsp
- shll $1,%edx
- andq $-256,%rsp
- leaq 64(%rdi),%rdi
- movq %rax,272(%rsp)
-.Lbody_shaext:
- leaq 256(%rsp),%rbx
- movdqa K_XX_XX+128(%rip),%xmm3
-
-.Loop_grande_shaext:
- movl %edx,280(%rsp)
- xorl %edx,%edx
- movq 0(%rsi),%r8
- movl 8(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,0(%rbx)
- cmovleq %rsp,%r8
- movq 16(%rsi),%r9
- movl 24(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,4(%rbx)
- cmovleq %rsp,%r9
- testl %edx,%edx
- jz .Ldone_shaext
-
- movq 0-64(%rdi),%xmm0
- movq 32-64(%rdi),%xmm4
- movq 64-64(%rdi),%xmm5
- movq 96-64(%rdi),%xmm6
- movq 128-64(%rdi),%xmm7
-
- punpckldq %xmm4,%xmm0
- punpckldq %xmm6,%xmm5
-
- movdqa %xmm0,%xmm8
- punpcklqdq %xmm5,%xmm0
- punpckhqdq %xmm5,%xmm8
-
- pshufd $63,%xmm7,%xmm1
- pshufd $127,%xmm7,%xmm9
- pshufd $27,%xmm0,%xmm0
- pshufd $27,%xmm8,%xmm8
- jmp .Loop_shaext
-
-.align 32
-.Loop_shaext:
- movdqu 0(%r8),%xmm4
- movdqu 0(%r9),%xmm11
- movdqu 16(%r8),%xmm5
- movdqu 16(%r9),%xmm12
- movdqu 32(%r8),%xmm6
-.byte 102,15,56,0,227
- movdqu 32(%r9),%xmm13
-.byte 102,68,15,56,0,219
- movdqu 48(%r8),%xmm7
- leaq 64(%r8),%r8
-.byte 102,15,56,0,235
- movdqu 48(%r9),%xmm14
- leaq 64(%r9),%r9
-.byte 102,68,15,56,0,227
-
- movdqa %xmm1,80(%rsp)
- paddd %xmm4,%xmm1
- movdqa %xmm9,112(%rsp)
- paddd %xmm11,%xmm9
- movdqa %xmm0,64(%rsp)
- movdqa %xmm0,%xmm2
- movdqa %xmm8,96(%rsp)
- movdqa %xmm8,%xmm10
-.byte 15,58,204,193,0
-.byte 15,56,200,213
-.byte 69,15,58,204,193,0
-.byte 69,15,56,200,212
-.byte 102,15,56,0,243
- prefetcht0 127(%r8)
-.byte 15,56,201,229
-.byte 102,68,15,56,0,235
- prefetcht0 127(%r9)
-.byte 69,15,56,201,220
-
-.byte 102,15,56,0,251
- movdqa %xmm0,%xmm1
-.byte 102,68,15,56,0,243
- movdqa %xmm8,%xmm9
-.byte 15,58,204,194,0
-.byte 15,56,200,206
-.byte 69,15,58,204,194,0
-.byte 69,15,56,200,205
- pxor %xmm6,%xmm4
-.byte 15,56,201,238
- pxor %xmm13,%xmm11
-.byte 69,15,56,201,229
- movdqa %xmm0,%xmm2
- movdqa %xmm8,%xmm10
-.byte 15,58,204,193,0
-.byte 15,56,200,215
-.byte 69,15,58,204,193,0
-.byte 69,15,56,200,214
-.byte 15,56,202,231
-.byte 69,15,56,202,222
- pxor %xmm7,%xmm5
-.byte 15,56,201,247
- pxor %xmm14,%xmm12
-.byte 69,15,56,201,238
- movdqa %xmm0,%xmm1
- movdqa %xmm8,%xmm9
-.byte 15,58,204,194,0
-.byte 15,56,200,204
-.byte 69,15,58,204,194,0
-.byte 69,15,56,200,203
-.byte 15,56,202,236
-.byte 69,15,56,202,227
- pxor %xmm4,%xmm6
-.byte 15,56,201,252
- pxor %xmm11,%xmm13
-.byte 69,15,56,201,243
- movdqa %xmm0,%xmm2
- movdqa %xmm8,%xmm10
-.byte 15,58,204,193,0
-.byte 15,56,200,213
-.byte 69,15,58,204,193,0
-.byte 69,15,56,200,212
-.byte 15,56,202,245
-.byte 69,15,56,202,236
- pxor %xmm5,%xmm7
-.byte 15,56,201,229
- pxor %xmm12,%xmm14
-.byte 69,15,56,201,220
- movdqa %xmm0,%xmm1
- movdqa %xmm8,%xmm9
-.byte 15,58,204,194,1
-.byte 15,56,200,206
-.byte 69,15,58,204,194,1
-.byte 69,15,56,200,205
-.byte 15,56,202,254
-.byte 69,15,56,202,245
- pxor %xmm6,%xmm4
-.byte 15,56,201,238
- pxor %xmm13,%xmm11
-.byte 69,15,56,201,229
- movdqa %xmm0,%xmm2
- movdqa %xmm8,%xmm10
-.byte 15,58,204,193,1
-.byte 15,56,200,215
-.byte 69,15,58,204,193,1
-.byte 69,15,56,200,214
-.byte 15,56,202,231
-.byte 69,15,56,202,222
- pxor %xmm7,%xmm5
-.byte 15,56,201,247
- pxor %xmm14,%xmm12
-.byte 69,15,56,201,238
- movdqa %xmm0,%xmm1
- movdqa %xmm8,%xmm9
-.byte 15,58,204,194,1
-.byte 15,56,200,204
-.byte 69,15,58,204,194,1
-.byte 69,15,56,200,203
-.byte 15,56,202,236
-.byte 69,15,56,202,227
- pxor %xmm4,%xmm6
-.byte 15,56,201,252
- pxor %xmm11,%xmm13
-.byte 69,15,56,201,243
- movdqa %xmm0,%xmm2
- movdqa %xmm8,%xmm10
-.byte 15,58,204,193,1
-.byte 15,56,200,213
-.byte 69,15,58,204,193,1
-.byte 69,15,56,200,212
-.byte 15,56,202,245
-.byte 69,15,56,202,236
- pxor %xmm5,%xmm7
-.byte 15,56,201,229
- pxor %xmm12,%xmm14
-.byte 69,15,56,201,220
- movdqa %xmm0,%xmm1
- movdqa %xmm8,%xmm9
-.byte 15,58,204,194,1
-.byte 15,56,200,206
-.byte 69,15,58,204,194,1
-.byte 69,15,56,200,205
-.byte 15,56,202,254
-.byte 69,15,56,202,245
- pxor %xmm6,%xmm4
-.byte 15,56,201,238
- pxor %xmm13,%xmm11
-.byte 69,15,56,201,229
- movdqa %xmm0,%xmm2
- movdqa %xmm8,%xmm10
-.byte 15,58,204,193,2
-.byte 15,56,200,215
-.byte 69,15,58,204,193,2
-.byte 69,15,56,200,214
-.byte 15,56,202,231
-.byte 69,15,56,202,222
- pxor %xmm7,%xmm5
-.byte 15,56,201,247
- pxor %xmm14,%xmm12
-.byte 69,15,56,201,238
- movdqa %xmm0,%xmm1
- movdqa %xmm8,%xmm9
-.byte 15,58,204,194,2
-.byte 15,56,200,204
-.byte 69,15,58,204,194,2
-.byte 69,15,56,200,203
-.byte 15,56,202,236
-.byte 69,15,56,202,227
- pxor %xmm4,%xmm6
-.byte 15,56,201,252
- pxor %xmm11,%xmm13
-.byte 69,15,56,201,243
- movdqa %xmm0,%xmm2
- movdqa %xmm8,%xmm10
-.byte 15,58,204,193,2
-.byte 15,56,200,213
-.byte 69,15,58,204,193,2
-.byte 69,15,56,200,212
-.byte 15,56,202,245
-.byte 69,15,56,202,236
- pxor %xmm5,%xmm7
-.byte 15,56,201,229
- pxor %xmm12,%xmm14
-.byte 69,15,56,201,220
- movdqa %xmm0,%xmm1
- movdqa %xmm8,%xmm9
-.byte 15,58,204,194,2
-.byte 15,56,200,206
-.byte 69,15,58,204,194,2
-.byte 69,15,56,200,205
-.byte 15,56,202,254
-.byte 69,15,56,202,245
- pxor %xmm6,%xmm4
-.byte 15,56,201,238
- pxor %xmm13,%xmm11
-.byte 69,15,56,201,229
- movdqa %xmm0,%xmm2
- movdqa %xmm8,%xmm10
-.byte 15,58,204,193,2
-.byte 15,56,200,215
-.byte 69,15,58,204,193,2
-.byte 69,15,56,200,214
-.byte 15,56,202,231
-.byte 69,15,56,202,222
- pxor %xmm7,%xmm5
-.byte 15,56,201,247
- pxor %xmm14,%xmm12
-.byte 69,15,56,201,238
- movdqa %xmm0,%xmm1
- movdqa %xmm8,%xmm9
-.byte 15,58,204,194,3
-.byte 15,56,200,204
-.byte 69,15,58,204,194,3
-.byte 69,15,56,200,203
-.byte 15,56,202,236
-.byte 69,15,56,202,227
- pxor %xmm4,%xmm6
-.byte 15,56,201,252
- pxor %xmm11,%xmm13
-.byte 69,15,56,201,243
- movdqa %xmm0,%xmm2
- movdqa %xmm8,%xmm10
-.byte 15,58,204,193,3
-.byte 15,56,200,213
-.byte 69,15,58,204,193,3
-.byte 69,15,56,200,212
-.byte 15,56,202,245
-.byte 69,15,56,202,236
- pxor %xmm5,%xmm7
- pxor %xmm12,%xmm14
-
- movl $1,%ecx
- pxor %xmm4,%xmm4
- cmpl 0(%rbx),%ecx
- cmovgeq %rsp,%r8
-
- movdqa %xmm0,%xmm1
- movdqa %xmm8,%xmm9
-.byte 15,58,204,194,3
-.byte 15,56,200,206
-.byte 69,15,58,204,194,3
-.byte 69,15,56,200,205
-.byte 15,56,202,254
-.byte 69,15,56,202,245
-
- cmpl 4(%rbx),%ecx
- cmovgeq %rsp,%r9
- movq (%rbx),%xmm6
-
- movdqa %xmm0,%xmm2
- movdqa %xmm8,%xmm10
-.byte 15,58,204,193,3
-.byte 15,56,200,215
-.byte 69,15,58,204,193,3
-.byte 69,15,56,200,214
-
- pshufd $0x00,%xmm6,%xmm11
- pshufd $0x55,%xmm6,%xmm12
- movdqa %xmm6,%xmm7
- pcmpgtd %xmm4,%xmm11
- pcmpgtd %xmm4,%xmm12
-
- movdqa %xmm0,%xmm1
- movdqa %xmm8,%xmm9
-.byte 15,58,204,194,3
-.byte 15,56,200,204
-.byte 69,15,58,204,194,3
-.byte 68,15,56,200,204
-
- pcmpgtd %xmm4,%xmm7
- pand %xmm11,%xmm0
- pand %xmm11,%xmm1
- pand %xmm12,%xmm8
- pand %xmm12,%xmm9
- paddd %xmm7,%xmm6
-
- paddd 64(%rsp),%xmm0
- paddd 80(%rsp),%xmm1
- paddd 96(%rsp),%xmm8
- paddd 112(%rsp),%xmm9
-
- movq %xmm6,(%rbx)
- decl %edx
- jnz .Loop_shaext
-
- movl 280(%rsp),%edx
-
- pshufd $27,%xmm0,%xmm0
- pshufd $27,%xmm8,%xmm8
-
- movdqa %xmm0,%xmm6
- punpckldq %xmm8,%xmm0
- punpckhdq %xmm8,%xmm6
- punpckhdq %xmm9,%xmm1
- movq %xmm0,0-64(%rdi)
- psrldq $8,%xmm0
- movq %xmm6,64-64(%rdi)
- psrldq $8,%xmm6
- movq %xmm0,32-64(%rdi)
- psrldq $8,%xmm1
- movq %xmm6,96-64(%rdi)
- movq %xmm1,128-64(%rdi)
-
- leaq 8(%rdi),%rdi
- leaq 32(%rsi),%rsi
- decl %edx
- jnz .Loop_grande_shaext
-
-.Ldone_shaext:
-
- movq -16(%rax),%rbp
-.cfi_restore %rbp
- movq -8(%rax),%rbx
-.cfi_restore %rbx
- leaq (%rax),%rsp
-.cfi_def_cfa_register %rsp
-.Lepilogue_shaext:
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha1_multi_block_shaext,.-sha1_multi_block_shaext
-
-.align 256
-.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999
-.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999
-K_XX_XX:
-.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1
-.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1
-.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc
-.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc
-.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6
-.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6
-.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
-.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
-.byte 0xf,0xe,0xd,0xc,0xb,0xa,0x9,0x8,0x7,0x6,0x5,0x4,0x3,0x2,0x1,0x0
-.byte 83,72,65,49,32,109,117,108,116,105,45,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-x86_64.S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-x86_64.S
deleted file mode 100644
index 0b59726ae4..0000000000
--- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-x86_64.S
+++ /dev/null
@@ -1,2631 +0,0 @@
-# WARNING: do not edit!
-# Generated from openssl/crypto/sha/asm/sha1-x86_64.pl
-#
-# Copyright 2006-2020 The OpenSSL Project Authors. All Rights Reserved.
-#
-# Licensed under the OpenSSL license (the "License"). You may not use
-# this file except in compliance with the License. You can obtain a copy
-# in the file LICENSE in the source distribution or at
-# https://www.openssl.org/source/license.html
-
-.text
-
-
-.globl sha1_block_data_order
-.type sha1_block_data_order,@function
-.align 16
-sha1_block_data_order:
-.cfi_startproc
- movl OPENSSL_ia32cap_P+0(%rip),%r9d
- movl OPENSSL_ia32cap_P+4(%rip),%r8d
- movl OPENSSL_ia32cap_P+8(%rip),%r10d
- testl $512,%r8d
- jz .Lialu
- testl $536870912,%r10d
- jnz _shaext_shortcut
- jmp _ssse3_shortcut
-
-.align 16
-.Lialu:
- movq %rsp,%rax
-.cfi_def_cfa_register %rax
- pushq %rbx
-.cfi_offset %rbx,-16
- pushq %rbp
-.cfi_offset %rbp,-24
- pushq %r12
-.cfi_offset %r12,-32
- pushq %r13
-.cfi_offset %r13,-40
- pushq %r14
-.cfi_offset %r14,-48
- movq %rdi,%r8
- subq $72,%rsp
- movq %rsi,%r9
- andq $-64,%rsp
- movq %rdx,%r10
- movq %rax,64(%rsp)
-.cfi_escape 0x0f,0x06,0x77,0xc0,0x00,0x06,0x23,0x08
-.Lprologue:
-
- movl 0(%r8),%esi
- movl 4(%r8),%edi
- movl 8(%r8),%r11d
- movl 12(%r8),%r12d
- movl 16(%r8),%r13d
- jmp .Lloop
-
-.align 16
-.Lloop:
- movl 0(%r9),%edx
- bswapl %edx
- movl 4(%r9),%ebp
- movl %r12d,%eax
- movl %edx,0(%rsp)
- movl %esi,%ecx
- bswapl %ebp
- xorl %r11d,%eax
- roll $5,%ecx
- andl %edi,%eax
- leal 1518500249(%rdx,%r13,1),%r13d
- addl %ecx,%r13d
- xorl %r12d,%eax
- roll $30,%edi
- addl %eax,%r13d
- movl 8(%r9),%r14d
- movl %r11d,%eax
- movl %ebp,4(%rsp)
- movl %r13d,%ecx
- bswapl %r14d
- xorl %edi,%eax
- roll $5,%ecx
- andl %esi,%eax
- leal 1518500249(%rbp,%r12,1),%r12d
- addl %ecx,%r12d
- xorl %r11d,%eax
- roll $30,%esi
- addl %eax,%r12d
- movl 12(%r9),%edx
- movl %edi,%eax
- movl %r14d,8(%rsp)
- movl %r12d,%ecx
- bswapl %edx
- xorl %esi,%eax
- roll $5,%ecx
- andl %r13d,%eax
- leal 1518500249(%r14,%r11,1),%r11d
- addl %ecx,%r11d
- xorl %edi,%eax
- roll $30,%r13d
- addl %eax,%r11d
- movl 16(%r9),%ebp
- movl %esi,%eax
- movl %edx,12(%rsp)
- movl %r11d,%ecx
- bswapl %ebp
- xorl %r13d,%eax
- roll $5,%ecx
- andl %r12d,%eax
- leal 1518500249(%rdx,%rdi,1),%edi
- addl %ecx,%edi
- xorl %esi,%eax
- roll $30,%r12d
- addl %eax,%edi
- movl 20(%r9),%r14d
- movl %r13d,%eax
- movl %ebp,16(%rsp)
- movl %edi,%ecx
- bswapl %r14d
- xorl %r12d,%eax
- roll $5,%ecx
- andl %r11d,%eax
- leal 1518500249(%rbp,%rsi,1),%esi
- addl %ecx,%esi
- xorl %r13d,%eax
- roll $30,%r11d
- addl %eax,%esi
- movl 24(%r9),%edx
- movl %r12d,%eax
- movl %r14d,20(%rsp)
- movl %esi,%ecx
- bswapl %edx
- xorl %r11d,%eax
- roll $5,%ecx
- andl %edi,%eax
- leal 1518500249(%r14,%r13,1),%r13d
- addl %ecx,%r13d
- xorl %r12d,%eax
- roll $30,%edi
- addl %eax,%r13d
- movl 28(%r9),%ebp
- movl %r11d,%eax
- movl %edx,24(%rsp)
- movl %r13d,%ecx
- bswapl %ebp
- xorl %edi,%eax
- roll $5,%ecx
- andl %esi,%eax
- leal 1518500249(%rdx,%r12,1),%r12d
- addl %ecx,%r12d
- xorl %r11d,%eax
- roll $30,%esi
- addl %eax,%r12d
- movl 32(%r9),%r14d
- movl %edi,%eax
- movl %ebp,28(%rsp)
- movl %r12d,%ecx
- bswapl %r14d
- xorl %esi,%eax
- roll $5,%ecx
- andl %r13d,%eax
- leal 1518500249(%rbp,%r11,1),%r11d
- addl %ecx,%r11d
- xorl %edi,%eax
- roll $30,%r13d
- addl %eax,%r11d
- movl 36(%r9),%edx
- movl %esi,%eax
- movl %r14d,32(%rsp)
- movl %r11d,%ecx
- bswapl %edx
- xorl %r13d,%eax
- roll $5,%ecx
- andl %r12d,%eax
- leal 1518500249(%r14,%rdi,1),%edi
- addl %ecx,%edi
- xorl %esi,%eax
- roll $30,%r12d
- addl %eax,%edi
- movl 40(%r9),%ebp
- movl %r13d,%eax
- movl %edx,36(%rsp)
- movl %edi,%ecx
- bswapl %ebp
- xorl %r12d,%eax
- roll $5,%ecx
- andl %r11d,%eax
- leal 1518500249(%rdx,%rsi,1),%esi
- addl %ecx,%esi
- xorl %r13d,%eax
- roll $30,%r11d
- addl %eax,%esi
- movl 44(%r9),%r14d
- movl %r12d,%eax
- movl %ebp,40(%rsp)
- movl %esi,%ecx
- bswapl %r14d
- xorl %r11d,%eax
- roll $5,%ecx
- andl %edi,%eax
- leal 1518500249(%rbp,%r13,1),%r13d
- addl %ecx,%r13d
- xorl %r12d,%eax
- roll $30,%edi
- addl %eax,%r13d
- movl 48(%r9),%edx
- movl %r11d,%eax
- movl %r14d,44(%rsp)
- movl %r13d,%ecx
- bswapl %edx
- xorl %edi,%eax
- roll $5,%ecx
- andl %esi,%eax
- leal 1518500249(%r14,%r12,1),%r12d
- addl %ecx,%r12d
- xorl %r11d,%eax
- roll $30,%esi
- addl %eax,%r12d
- movl 52(%r9),%ebp
- movl %edi,%eax
- movl %edx,48(%rsp)
- movl %r12d,%ecx
- bswapl %ebp
- xorl %esi,%eax
- roll $5,%ecx
- andl %r13d,%eax
- leal 1518500249(%rdx,%r11,1),%r11d
- addl %ecx,%r11d
- xorl %edi,%eax
- roll $30,%r13d
- addl %eax,%r11d
- movl 56(%r9),%r14d
- movl %esi,%eax
- movl %ebp,52(%rsp)
- movl %r11d,%ecx
- bswapl %r14d
- xorl %r13d,%eax
- roll $5,%ecx
- andl %r12d,%eax
- leal 1518500249(%rbp,%rdi,1),%edi
- addl %ecx,%edi
- xorl %esi,%eax
- roll $30,%r12d
- addl %eax,%edi
- movl 60(%r9),%edx
- movl %r13d,%eax
- movl %r14d,56(%rsp)
- movl %edi,%ecx
- bswapl %edx
- xorl %r12d,%eax
- roll $5,%ecx
- andl %r11d,%eax
- leal 1518500249(%r14,%rsi,1),%esi
- addl %ecx,%esi
- xorl %r13d,%eax
- roll $30,%r11d
- addl %eax,%esi
- xorl 0(%rsp),%ebp
- movl %r12d,%eax
- movl %edx,60(%rsp)
- movl %esi,%ecx
- xorl 8(%rsp),%ebp
- xorl %r11d,%eax
- roll $5,%ecx
- xorl 32(%rsp),%ebp
- andl %edi,%eax
- leal 1518500249(%rdx,%r13,1),%r13d
- roll $30,%edi
- xorl %r12d,%eax
- addl %ecx,%r13d
- roll $1,%ebp
- addl %eax,%r13d
- xorl 4(%rsp),%r14d
- movl %r11d,%eax
- movl %ebp,0(%rsp)
- movl %r13d,%ecx
- xorl 12(%rsp),%r14d
- xorl %edi,%eax
- roll $5,%ecx
- xorl 36(%rsp),%r14d
- andl %esi,%eax
- leal 1518500249(%rbp,%r12,1),%r12d
- roll $30,%esi
- xorl %r11d,%eax
- addl %ecx,%r12d
- roll $1,%r14d
- addl %eax,%r12d
- xorl 8(%rsp),%edx
- movl %edi,%eax
- movl %r14d,4(%rsp)
- movl %r12d,%ecx
- xorl 16(%rsp),%edx
- xorl %esi,%eax
- roll $5,%ecx
- xorl 40(%rsp),%edx
- andl %r13d,%eax
- leal 1518500249(%r14,%r11,1),%r11d
- roll $30,%r13d
- xorl %edi,%eax
- addl %ecx,%r11d
- roll $1,%edx
- addl %eax,%r11d
- xorl 12(%rsp),%ebp
- movl %esi,%eax
- movl %edx,8(%rsp)
- movl %r11d,%ecx
- xorl 20(%rsp),%ebp
- xorl %r13d,%eax
- roll $5,%ecx
- xorl 44(%rsp),%ebp
- andl %r12d,%eax
- leal 1518500249(%rdx,%rdi,1),%edi
- roll $30,%r12d
- xorl %esi,%eax
- addl %ecx,%edi
- roll $1,%ebp
- addl %eax,%edi
- xorl 16(%rsp),%r14d
- movl %r13d,%eax
- movl %ebp,12(%rsp)
- movl %edi,%ecx
- xorl 24(%rsp),%r14d
- xorl %r12d,%eax
- roll $5,%ecx
- xorl 48(%rsp),%r14d
- andl %r11d,%eax
- leal 1518500249(%rbp,%rsi,1),%esi
- roll $30,%r11d
- xorl %r13d,%eax
- addl %ecx,%esi
- roll $1,%r14d
- addl %eax,%esi
- xorl 20(%rsp),%edx
- movl %edi,%eax
- movl %r14d,16(%rsp)
- movl %esi,%ecx
- xorl 28(%rsp),%edx
- xorl %r12d,%eax
- roll $5,%ecx
- xorl 52(%rsp),%edx
- leal 1859775393(%r14,%r13,1),%r13d
- xorl %r11d,%eax
- addl %ecx,%r13d
- roll $30,%edi
- addl %eax,%r13d
- roll $1,%edx
- xorl 24(%rsp),%ebp
- movl %esi,%eax
- movl %edx,20(%rsp)
- movl %r13d,%ecx
- xorl 32(%rsp),%ebp
- xorl %r11d,%eax
- roll $5,%ecx
- xorl 56(%rsp),%ebp
- leal 1859775393(%rdx,%r12,1),%r12d
- xorl %edi,%eax
- addl %ecx,%r12d
- roll $30,%esi
- addl %eax,%r12d
- roll $1,%ebp
- xorl 28(%rsp),%r14d
- movl %r13d,%eax
- movl %ebp,24(%rsp)
- movl %r12d,%ecx
- xorl 36(%rsp),%r14d
- xorl %edi,%eax
- roll $5,%ecx
- xorl 60(%rsp),%r14d
- leal 1859775393(%rbp,%r11,1),%r11d
- xorl %esi,%eax
- addl %ecx,%r11d
- roll $30,%r13d
- addl %eax,%r11d
- roll $1,%r14d
- xorl 32(%rsp),%edx
- movl %r12d,%eax
- movl %r14d,28(%rsp)
- movl %r11d,%ecx
- xorl 40(%rsp),%edx
- xorl %esi,%eax
- roll $5,%ecx
- xorl 0(%rsp),%edx
- leal 1859775393(%r14,%rdi,1),%edi
- xorl %r13d,%eax
- addl %ecx,%edi
- roll $30,%r12d
- addl %eax,%edi
- roll $1,%edx
- xorl 36(%rsp),%ebp
- movl %r11d,%eax
- movl %edx,32(%rsp)
- movl %edi,%ecx
- xorl 44(%rsp),%ebp
- xorl %r13d,%eax
- roll $5,%ecx
- xorl 4(%rsp),%ebp
- leal 1859775393(%rdx,%rsi,1),%esi
- xorl %r12d,%eax
- addl %ecx,%esi
- roll $30,%r11d
- addl %eax,%esi
- roll $1,%ebp
- xorl 40(%rsp),%r14d
- movl %edi,%eax
- movl %ebp,36(%rsp)
- movl %esi,%ecx
- xorl 48(%rsp),%r14d
- xorl %r12d,%eax
- roll $5,%ecx
- xorl 8(%rsp),%r14d
- leal 1859775393(%rbp,%r13,1),%r13d
- xorl %r11d,%eax
- addl %ecx,%r13d
- roll $30,%edi
- addl %eax,%r13d
- roll $1,%r14d
- xorl 44(%rsp),%edx
- movl %esi,%eax
- movl %r14d,40(%rsp)
- movl %r13d,%ecx
- xorl 52(%rsp),%edx
- xorl %r11d,%eax
- roll $5,%ecx
- xorl 12(%rsp),%edx
- leal 1859775393(%r14,%r12,1),%r12d
- xorl %edi,%eax
- addl %ecx,%r12d
- roll $30,%esi
- addl %eax,%r12d
- roll $1,%edx
- xorl 48(%rsp),%ebp
- movl %r13d,%eax
- movl %edx,44(%rsp)
- movl %r12d,%ecx
- xorl 56(%rsp),%ebp
- xorl %edi,%eax
- roll $5,%ecx
- xorl 16(%rsp),%ebp
- leal 1859775393(%rdx,%r11,1),%r11d
- xorl %esi,%eax
- addl %ecx,%r11d
- roll $30,%r13d
- addl %eax,%r11d
- roll $1,%ebp
- xorl 52(%rsp),%r14d
- movl %r12d,%eax
- movl %ebp,48(%rsp)
- movl %r11d,%ecx
- xorl 60(%rsp),%r14d
- xorl %esi,%eax
- roll $5,%ecx
- xorl 20(%rsp),%r14d
- leal 1859775393(%rbp,%rdi,1),%edi
- xorl %r13d,%eax
- addl %ecx,%edi
- roll $30,%r12d
- addl %eax,%edi
- roll $1,%r14d
- xorl 56(%rsp),%edx
- movl %r11d,%eax
- movl %r14d,52(%rsp)
- movl %edi,%ecx
- xorl 0(%rsp),%edx
- xorl %r13d,%eax
- roll $5,%ecx
- xorl 24(%rsp),%edx
- leal 1859775393(%r14,%rsi,1),%esi
- xorl %r12d,%eax
- addl %ecx,%esi
- roll $30,%r11d
- addl %eax,%esi
- roll $1,%edx
- xorl 60(%rsp),%ebp
- movl %edi,%eax
- movl %edx,56(%rsp)
- movl %esi,%ecx
- xorl 4(%rsp),%ebp
- xorl %r12d,%eax
- roll $5,%ecx
- xorl 28(%rsp),%ebp
- leal 1859775393(%rdx,%r13,1),%r13d
- xorl %r11d,%eax
- addl %ecx,%r13d
- roll $30,%edi
- addl %eax,%r13d
- roll $1,%ebp
- xorl 0(%rsp),%r14d
- movl %esi,%eax
- movl %ebp,60(%rsp)
- movl %r13d,%ecx
- xorl 8(%rsp),%r14d
- xorl %r11d,%eax
- roll $5,%ecx
- xorl 32(%rsp),%r14d
- leal 1859775393(%rbp,%r12,1),%r12d
- xorl %edi,%eax
- addl %ecx,%r12d
- roll $30,%esi
- addl %eax,%r12d
- roll $1,%r14d
- xorl 4(%rsp),%edx
- movl %r13d,%eax
- movl %r14d,0(%rsp)
- movl %r12d,%ecx
- xorl 12(%rsp),%edx
- xorl %edi,%eax
- roll $5,%ecx
- xorl 36(%rsp),%edx
- leal 1859775393(%r14,%r11,1),%r11d
- xorl %esi,%eax
- addl %ecx,%r11d
- roll $30,%r13d
- addl %eax,%r11d
- roll $1,%edx
- xorl 8(%rsp),%ebp
- movl %r12d,%eax
- movl %edx,4(%rsp)
- movl %r11d,%ecx
- xorl 16(%rsp),%ebp
- xorl %esi,%eax
- roll $5,%ecx
- xorl 40(%rsp),%ebp
- leal 1859775393(%rdx,%rdi,1),%edi
- xorl %r13d,%eax
- addl %ecx,%edi
- roll $30,%r12d
- addl %eax,%edi
- roll $1,%ebp
- xorl 12(%rsp),%r14d
- movl %r11d,%eax
- movl %ebp,8(%rsp)
- movl %edi,%ecx
- xorl 20(%rsp),%r14d
- xorl %r13d,%eax
- roll $5,%ecx
- xorl 44(%rsp),%r14d
- leal 1859775393(%rbp,%rsi,1),%esi
- xorl %r12d,%eax
- addl %ecx,%esi
- roll $30,%r11d
- addl %eax,%esi
- roll $1,%r14d
- xorl 16(%rsp),%edx
- movl %edi,%eax
- movl %r14d,12(%rsp)
- movl %esi,%ecx
- xorl 24(%rsp),%edx
- xorl %r12d,%eax
- roll $5,%ecx
- xorl 48(%rsp),%edx
- leal 1859775393(%r14,%r13,1),%r13d
- xorl %r11d,%eax
- addl %ecx,%r13d
- roll $30,%edi
- addl %eax,%r13d
- roll $1,%edx
- xorl 20(%rsp),%ebp
- movl %esi,%eax
- movl %edx,16(%rsp)
- movl %r13d,%ecx
- xorl 28(%rsp),%ebp
- xorl %r11d,%eax
- roll $5,%ecx
- xorl 52(%rsp),%ebp
- leal 1859775393(%rdx,%r12,1),%r12d
- xorl %edi,%eax
- addl %ecx,%r12d
- roll $30,%esi
- addl %eax,%r12d
- roll $1,%ebp
- xorl 24(%rsp),%r14d
- movl %r13d,%eax
- movl %ebp,20(%rsp)
- movl %r12d,%ecx
- xorl 32(%rsp),%r14d
- xorl %edi,%eax
- roll $5,%ecx
- xorl 56(%rsp),%r14d
- leal 1859775393(%rbp,%r11,1),%r11d
- xorl %esi,%eax
- addl %ecx,%r11d
- roll $30,%r13d
- addl %eax,%r11d
- roll $1,%r14d
- xorl 28(%rsp),%edx
- movl %r12d,%eax
- movl %r14d,24(%rsp)
- movl %r11d,%ecx
- xorl 36(%rsp),%edx
- xorl %esi,%eax
- roll $5,%ecx
- xorl 60(%rsp),%edx
- leal 1859775393(%r14,%rdi,1),%edi
- xorl %r13d,%eax
- addl %ecx,%edi
- roll $30,%r12d
- addl %eax,%edi
- roll $1,%edx
- xorl 32(%rsp),%ebp
- movl %r11d,%eax
- movl %edx,28(%rsp)
- movl %edi,%ecx
- xorl 40(%rsp),%ebp
- xorl %r13d,%eax
- roll $5,%ecx
- xorl 0(%rsp),%ebp
- leal 1859775393(%rdx,%rsi,1),%esi
- xorl %r12d,%eax
- addl %ecx,%esi
- roll $30,%r11d
- addl %eax,%esi
- roll $1,%ebp
- xorl 36(%rsp),%r14d
- movl %r12d,%eax
- movl %ebp,32(%rsp)
- movl %r12d,%ebx
- xorl 44(%rsp),%r14d
- andl %r11d,%eax
- movl %esi,%ecx
- xorl 4(%rsp),%r14d
- leal -1894007588(%rbp,%r13,1),%r13d
- xorl %r11d,%ebx
- roll $5,%ecx
- addl %eax,%r13d
- roll $1,%r14d
- andl %edi,%ebx
- addl %ecx,%r13d
- roll $30,%edi
- addl %ebx,%r13d
- xorl 40(%rsp),%edx
- movl %r11d,%eax
- movl %r14d,36(%rsp)
- movl %r11d,%ebx
- xorl 48(%rsp),%edx
- andl %edi,%eax
- movl %r13d,%ecx
- xorl 8(%rsp),%edx
- leal -1894007588(%r14,%r12,1),%r12d
- xorl %edi,%ebx
- roll $5,%ecx
- addl %eax,%r12d
- roll $1,%edx
- andl %esi,%ebx
- addl %ecx,%r12d
- roll $30,%esi
- addl %ebx,%r12d
- xorl 44(%rsp),%ebp
- movl %edi,%eax
- movl %edx,40(%rsp)
- movl %edi,%ebx
- xorl 52(%rsp),%ebp
- andl %esi,%eax
- movl %r12d,%ecx
- xorl 12(%rsp),%ebp
- leal -1894007588(%rdx,%r11,1),%r11d
- xorl %esi,%ebx
- roll $5,%ecx
- addl %eax,%r11d
- roll $1,%ebp
- andl %r13d,%ebx
- addl %ecx,%r11d
- roll $30,%r13d
- addl %ebx,%r11d
- xorl 48(%rsp),%r14d
- movl %esi,%eax
- movl %ebp,44(%rsp)
- movl %esi,%ebx
- xorl 56(%rsp),%r14d
- andl %r13d,%eax
- movl %r11d,%ecx
- xorl 16(%rsp),%r14d
- leal -1894007588(%rbp,%rdi,1),%edi
- xorl %r13d,%ebx
- roll $5,%ecx
- addl %eax,%edi
- roll $1,%r14d
- andl %r12d,%ebx
- addl %ecx,%edi
- roll $30,%r12d
- addl %ebx,%edi
- xorl 52(%rsp),%edx
- movl %r13d,%eax
- movl %r14d,48(%rsp)
- movl %r13d,%ebx
- xorl 60(%rsp),%edx
- andl %r12d,%eax
- movl %edi,%ecx
- xorl 20(%rsp),%edx
- leal -1894007588(%r14,%rsi,1),%esi
- xorl %r12d,%ebx
- roll $5,%ecx
- addl %eax,%esi
- roll $1,%edx
- andl %r11d,%ebx
- addl %ecx,%esi
- roll $30,%r11d
- addl %ebx,%esi
- xorl 56(%rsp),%ebp
- movl %r12d,%eax
- movl %edx,52(%rsp)
- movl %r12d,%ebx
- xorl 0(%rsp),%ebp
- andl %r11d,%eax
- movl %esi,%ecx
- xorl 24(%rsp),%ebp
- leal -1894007588(%rdx,%r13,1),%r13d
- xorl %r11d,%ebx
- roll $5,%ecx
- addl %eax,%r13d
- roll $1,%ebp
- andl %edi,%ebx
- addl %ecx,%r13d
- roll $30,%edi
- addl %ebx,%r13d
- xorl 60(%rsp),%r14d
- movl %r11d,%eax
- movl %ebp,56(%rsp)
- movl %r11d,%ebx
- xorl 4(%rsp),%r14d
- andl %edi,%eax
- movl %r13d,%ecx
- xorl 28(%rsp),%r14d
- leal -1894007588(%rbp,%r12,1),%r12d
- xorl %edi,%ebx
- roll $5,%ecx
- addl %eax,%r12d
- roll $1,%r14d
- andl %esi,%ebx
- addl %ecx,%r12d
- roll $30,%esi
- addl %ebx,%r12d
- xorl 0(%rsp),%edx
- movl %edi,%eax
- movl %r14d,60(%rsp)
- movl %edi,%ebx
- xorl 8(%rsp),%edx
- andl %esi,%eax
- movl %r12d,%ecx
- xorl 32(%rsp),%edx
- leal -1894007588(%r14,%r11,1),%r11d
- xorl %esi,%ebx
- roll $5,%ecx
- addl %eax,%r11d
- roll $1,%edx
- andl %r13d,%ebx
- addl %ecx,%r11d
- roll $30,%r13d
- addl %ebx,%r11d
- xorl 4(%rsp),%ebp
- movl %esi,%eax
- movl %edx,0(%rsp)
- movl %esi,%ebx
- xorl 12(%rsp),%ebp
- andl %r13d,%eax
- movl %r11d,%ecx
- xorl 36(%rsp),%ebp
- leal -1894007588(%rdx,%rdi,1),%edi
- xorl %r13d,%ebx
- roll $5,%ecx
- addl %eax,%edi
- roll $1,%ebp
- andl %r12d,%ebx
- addl %ecx,%edi
- roll $30,%r12d
- addl %ebx,%edi
- xorl 8(%rsp),%r14d
- movl %r13d,%eax
- movl %ebp,4(%rsp)
- movl %r13d,%ebx
- xorl 16(%rsp),%r14d
- andl %r12d,%eax
- movl %edi,%ecx
- xorl 40(%rsp),%r14d
- leal -1894007588(%rbp,%rsi,1),%esi
- xorl %r12d,%ebx
- roll $5,%ecx
- addl %eax,%esi
- roll $1,%r14d
- andl %r11d,%ebx
- addl %ecx,%esi
- roll $30,%r11d
- addl %ebx,%esi
- xorl 12(%rsp),%edx
- movl %r12d,%eax
- movl %r14d,8(%rsp)
- movl %r12d,%ebx
- xorl 20(%rsp),%edx
- andl %r11d,%eax
- movl %esi,%ecx
- xorl 44(%rsp),%edx
- leal -1894007588(%r14,%r13,1),%r13d
- xorl %r11d,%ebx
- roll $5,%ecx
- addl %eax,%r13d
- roll $1,%edx
- andl %edi,%ebx
- addl %ecx,%r13d
- roll $30,%edi
- addl %ebx,%r13d
- xorl 16(%rsp),%ebp
- movl %r11d,%eax
- movl %edx,12(%rsp)
- movl %r11d,%ebx
- xorl 24(%rsp),%ebp
- andl %edi,%eax
- movl %r13d,%ecx
- xorl 48(%rsp),%ebp
- leal -1894007588(%rdx,%r12,1),%r12d
- xorl %edi,%ebx
- roll $5,%ecx
- addl %eax,%r12d
- roll $1,%ebp
- andl %esi,%ebx
- addl %ecx,%r12d
- roll $30,%esi
- addl %ebx,%r12d
- xorl 20(%rsp),%r14d
- movl %edi,%eax
- movl %ebp,16(%rsp)
- movl %edi,%ebx
- xorl 28(%rsp),%r14d
- andl %esi,%eax
- movl %r12d,%ecx
- xorl 52(%rsp),%r14d
- leal -1894007588(%rbp,%r11,1),%r11d
- xorl %esi,%ebx
- roll $5,%ecx
- addl %eax,%r11d
- roll $1,%r14d
- andl %r13d,%ebx
- addl %ecx,%r11d
- roll $30,%r13d
- addl %ebx,%r11d
- xorl 24(%rsp),%edx
- movl %esi,%eax
- movl %r14d,20(%rsp)
- movl %esi,%ebx
- xorl 32(%rsp),%edx
- andl %r13d,%eax
- movl %r11d,%ecx
- xorl 56(%rsp),%edx
- leal -1894007588(%r14,%rdi,1),%edi
- xorl %r13d,%ebx
- roll $5,%ecx
- addl %eax,%edi
- roll $1,%edx
- andl %r12d,%ebx
- addl %ecx,%edi
- roll $30,%r12d
- addl %ebx,%edi
- xorl 28(%rsp),%ebp
- movl %r13d,%eax
- movl %edx,24(%rsp)
- movl %r13d,%ebx
- xorl 36(%rsp),%ebp
- andl %r12d,%eax
- movl %edi,%ecx
- xorl 60(%rsp),%ebp
- leal -1894007588(%rdx,%rsi,1),%esi
- xorl %r12d,%ebx
- roll $5,%ecx
- addl %eax,%esi
- roll $1,%ebp
- andl %r11d,%ebx
- addl %ecx,%esi
- roll $30,%r11d
- addl %ebx,%esi
- xorl 32(%rsp),%r14d
- movl %r12d,%eax
- movl %ebp,28(%rsp)
- movl %r12d,%ebx
- xorl 40(%rsp),%r14d
- andl %r11d,%eax
- movl %esi,%ecx
- xorl 0(%rsp),%r14d
- leal -1894007588(%rbp,%r13,1),%r13d
- xorl %r11d,%ebx
- roll $5,%ecx
- addl %eax,%r13d
- roll $1,%r14d
- andl %edi,%ebx
- addl %ecx,%r13d
- roll $30,%edi
- addl %ebx,%r13d
- xorl 36(%rsp),%edx
- movl %r11d,%eax
- movl %r14d,32(%rsp)
- movl %r11d,%ebx
- xorl 44(%rsp),%edx
- andl %edi,%eax
- movl %r13d,%ecx
- xorl 4(%rsp),%edx
- leal -1894007588(%r14,%r12,1),%r12d
- xorl %edi,%ebx
- roll $5,%ecx
- addl %eax,%r12d
- roll $1,%edx
- andl %esi,%ebx
- addl %ecx,%r12d
- roll $30,%esi
- addl %ebx,%r12d
- xorl 40(%rsp),%ebp
- movl %edi,%eax
- movl %edx,36(%rsp)
- movl %edi,%ebx
- xorl 48(%rsp),%ebp
- andl %esi,%eax
- movl %r12d,%ecx
- xorl 8(%rsp),%ebp
- leal -1894007588(%rdx,%r11,1),%r11d
- xorl %esi,%ebx
- roll $5,%ecx
- addl %eax,%r11d
- roll $1,%ebp
- andl %r13d,%ebx
- addl %ecx,%r11d
- roll $30,%r13d
- addl %ebx,%r11d
- xorl 44(%rsp),%r14d
- movl %esi,%eax
- movl %ebp,40(%rsp)
- movl %esi,%ebx
- xorl 52(%rsp),%r14d
- andl %r13d,%eax
- movl %r11d,%ecx
- xorl 12(%rsp),%r14d
- leal -1894007588(%rbp,%rdi,1),%edi
- xorl %r13d,%ebx
- roll $5,%ecx
- addl %eax,%edi
- roll $1,%r14d
- andl %r12d,%ebx
- addl %ecx,%edi
- roll $30,%r12d
- addl %ebx,%edi
- xorl 48(%rsp),%edx
- movl %r13d,%eax
- movl %r14d,44(%rsp)
- movl %r13d,%ebx
- xorl 56(%rsp),%edx
- andl %r12d,%eax
- movl %edi,%ecx
- xorl 16(%rsp),%edx
- leal -1894007588(%r14,%rsi,1),%esi
- xorl %r12d,%ebx
- roll $5,%ecx
- addl %eax,%esi
- roll $1,%edx
- andl %r11d,%ebx
- addl %ecx,%esi
- roll $30,%r11d
- addl %ebx,%esi
- xorl 52(%rsp),%ebp
- movl %edi,%eax
- movl %edx,48(%rsp)
- movl %esi,%ecx
- xorl 60(%rsp),%ebp
- xorl %r12d,%eax
- roll $5,%ecx
- xorl 20(%rsp),%ebp
- leal -899497514(%rdx,%r13,1),%r13d
- xorl %r11d,%eax
- addl %ecx,%r13d
- roll $30,%edi
- addl %eax,%r13d
- roll $1,%ebp
- xorl 56(%rsp),%r14d
- movl %esi,%eax
- movl %ebp,52(%rsp)
- movl %r13d,%ecx
- xorl 0(%rsp),%r14d
- xorl %r11d,%eax
- roll $5,%ecx
- xorl 24(%rsp),%r14d
- leal -899497514(%rbp,%r12,1),%r12d
- xorl %edi,%eax
- addl %ecx,%r12d
- roll $30,%esi
- addl %eax,%r12d
- roll $1,%r14d
- xorl 60(%rsp),%edx
- movl %r13d,%eax
- movl %r14d,56(%rsp)
- movl %r12d,%ecx
- xorl 4(%rsp),%edx
- xorl %edi,%eax
- roll $5,%ecx
- xorl 28(%rsp),%edx
- leal -899497514(%r14,%r11,1),%r11d
- xorl %esi,%eax
- addl %ecx,%r11d
- roll $30,%r13d
- addl %eax,%r11d
- roll $1,%edx
- xorl 0(%rsp),%ebp
- movl %r12d,%eax
- movl %edx,60(%rsp)
- movl %r11d,%ecx
- xorl 8(%rsp),%ebp
- xorl %esi,%eax
- roll $5,%ecx
- xorl 32(%rsp),%ebp
- leal -899497514(%rdx,%rdi,1),%edi
- xorl %r13d,%eax
- addl %ecx,%edi
- roll $30,%r12d
- addl %eax,%edi
- roll $1,%ebp
- xorl 4(%rsp),%r14d
- movl %r11d,%eax
- movl %ebp,0(%rsp)
- movl %edi,%ecx
- xorl 12(%rsp),%r14d
- xorl %r13d,%eax
- roll $5,%ecx
- xorl 36(%rsp),%r14d
- leal -899497514(%rbp,%rsi,1),%esi
- xorl %r12d,%eax
- addl %ecx,%esi
- roll $30,%r11d
- addl %eax,%esi
- roll $1,%r14d
- xorl 8(%rsp),%edx
- movl %edi,%eax
- movl %r14d,4(%rsp)
- movl %esi,%ecx
- xorl 16(%rsp),%edx
- xorl %r12d,%eax
- roll $5,%ecx
- xorl 40(%rsp),%edx
- leal -899497514(%r14,%r13,1),%r13d
- xorl %r11d,%eax
- addl %ecx,%r13d
- roll $30,%edi
- addl %eax,%r13d
- roll $1,%edx
- xorl 12(%rsp),%ebp
- movl %esi,%eax
- movl %edx,8(%rsp)
- movl %r13d,%ecx
- xorl 20(%rsp),%ebp
- xorl %r11d,%eax
- roll $5,%ecx
- xorl 44(%rsp),%ebp
- leal -899497514(%rdx,%r12,1),%r12d
- xorl %edi,%eax
- addl %ecx,%r12d
- roll $30,%esi
- addl %eax,%r12d
- roll $1,%ebp
- xorl 16(%rsp),%r14d
- movl %r13d,%eax
- movl %ebp,12(%rsp)
- movl %r12d,%ecx
- xorl 24(%rsp),%r14d
- xorl %edi,%eax
- roll $5,%ecx
- xorl 48(%rsp),%r14d
- leal -899497514(%rbp,%r11,1),%r11d
- xorl %esi,%eax
- addl %ecx,%r11d
- roll $30,%r13d
- addl %eax,%r11d
- roll $1,%r14d
- xorl 20(%rsp),%edx
- movl %r12d,%eax
- movl %r14d,16(%rsp)
- movl %r11d,%ecx
- xorl 28(%rsp),%edx
- xorl %esi,%eax
- roll $5,%ecx
- xorl 52(%rsp),%edx
- leal -899497514(%r14,%rdi,1),%edi
- xorl %r13d,%eax
- addl %ecx,%edi
- roll $30,%r12d
- addl %eax,%edi
- roll $1,%edx
- xorl 24(%rsp),%ebp
- movl %r11d,%eax
- movl %edx,20(%rsp)
- movl %edi,%ecx
- xorl 32(%rsp),%ebp
- xorl %r13d,%eax
- roll $5,%ecx
- xorl 56(%rsp),%ebp
- leal -899497514(%rdx,%rsi,1),%esi
- xorl %r12d,%eax
- addl %ecx,%esi
- roll $30,%r11d
- addl %eax,%esi
- roll $1,%ebp
- xorl 28(%rsp),%r14d
- movl %edi,%eax
- movl %ebp,24(%rsp)
- movl %esi,%ecx
- xorl 36(%rsp),%r14d
- xorl %r12d,%eax
- roll $5,%ecx
- xorl 60(%rsp),%r14d
- leal -899497514(%rbp,%r13,1),%r13d
- xorl %r11d,%eax
- addl %ecx,%r13d
- roll $30,%edi
- addl %eax,%r13d
- roll $1,%r14d
- xorl 32(%rsp),%edx
- movl %esi,%eax
- movl %r14d,28(%rsp)
- movl %r13d,%ecx
- xorl 40(%rsp),%edx
- xorl %r11d,%eax
- roll $5,%ecx
- xorl 0(%rsp),%edx
- leal -899497514(%r14,%r12,1),%r12d
- xorl %edi,%eax
- addl %ecx,%r12d
- roll $30,%esi
- addl %eax,%r12d
- roll $1,%edx
- xorl 36(%rsp),%ebp
- movl %r13d,%eax
-
- movl %r12d,%ecx
- xorl 44(%rsp),%ebp
- xorl %edi,%eax
- roll $5,%ecx
- xorl 4(%rsp),%ebp
- leal -899497514(%rdx,%r11,1),%r11d
- xorl %esi,%eax
- addl %ecx,%r11d
- roll $30,%r13d
- addl %eax,%r11d
- roll $1,%ebp
- xorl 40(%rsp),%r14d
- movl %r12d,%eax
-
- movl %r11d,%ecx
- xorl 48(%rsp),%r14d
- xorl %esi,%eax
- roll $5,%ecx
- xorl 8(%rsp),%r14d
- leal -899497514(%rbp,%rdi,1),%edi
- xorl %r13d,%eax
- addl %ecx,%edi
- roll $30,%r12d
- addl %eax,%edi
- roll $1,%r14d
- xorl 44(%rsp),%edx
- movl %r11d,%eax
-
- movl %edi,%ecx
- xorl 52(%rsp),%edx
- xorl %r13d,%eax
- roll $5,%ecx
- xorl 12(%rsp),%edx
- leal -899497514(%r14,%rsi,1),%esi
- xorl %r12d,%eax
- addl %ecx,%esi
- roll $30,%r11d
- addl %eax,%esi
- roll $1,%edx
- xorl 48(%rsp),%ebp
- movl %edi,%eax
-
- movl %esi,%ecx
- xorl 56(%rsp),%ebp
- xorl %r12d,%eax
- roll $5,%ecx
- xorl 16(%rsp),%ebp
- leal -899497514(%rdx,%r13,1),%r13d
- xorl %r11d,%eax
- addl %ecx,%r13d
- roll $30,%edi
- addl %eax,%r13d
- roll $1,%ebp
- xorl 52(%rsp),%r14d
- movl %esi,%eax
-
- movl %r13d,%ecx
- xorl 60(%rsp),%r14d
- xorl %r11d,%eax
- roll $5,%ecx
- xorl 20(%rsp),%r14d
- leal -899497514(%rbp,%r12,1),%r12d
- xorl %edi,%eax
- addl %ecx,%r12d
- roll $30,%esi
- addl %eax,%r12d
- roll $1,%r14d
- xorl 56(%rsp),%edx
- movl %r13d,%eax
-
- movl %r12d,%ecx
- xorl 0(%rsp),%edx
- xorl %edi,%eax
- roll $5,%ecx
- xorl 24(%rsp),%edx
- leal -899497514(%r14,%r11,1),%r11d
- xorl %esi,%eax
- addl %ecx,%r11d
- roll $30,%r13d
- addl %eax,%r11d
- roll $1,%edx
- xorl 60(%rsp),%ebp
- movl %r12d,%eax
-
- movl %r11d,%ecx
- xorl 4(%rsp),%ebp
- xorl %esi,%eax
- roll $5,%ecx
- xorl 28(%rsp),%ebp
- leal -899497514(%rdx,%rdi,1),%edi
- xorl %r13d,%eax
- addl %ecx,%edi
- roll $30,%r12d
- addl %eax,%edi
- roll $1,%ebp
- movl %r11d,%eax
- movl %edi,%ecx
- xorl %r13d,%eax
- leal -899497514(%rbp,%rsi,1),%esi
- roll $5,%ecx
- xorl %r12d,%eax
- addl %ecx,%esi
- roll $30,%r11d
- addl %eax,%esi
- addl 0(%r8),%esi
- addl 4(%r8),%edi
- addl 8(%r8),%r11d
- addl 12(%r8),%r12d
- addl 16(%r8),%r13d
- movl %esi,0(%r8)
- movl %edi,4(%r8)
- movl %r11d,8(%r8)
- movl %r12d,12(%r8)
- movl %r13d,16(%r8)
-
- subq $1,%r10
- leaq 64(%r9),%r9
- jnz .Lloop
-
- movq 64(%rsp),%rsi
-.cfi_def_cfa %rsi,8
- movq -40(%rsi),%r14
-.cfi_restore %r14
- movq -32(%rsi),%r13
-.cfi_restore %r13
- movq -24(%rsi),%r12
-.cfi_restore %r12
- movq -16(%rsi),%rbp
-.cfi_restore %rbp
- movq -8(%rsi),%rbx
-.cfi_restore %rbx
- leaq (%rsi),%rsp
-.cfi_def_cfa_register %rsp
-.Lepilogue:
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha1_block_data_order,.-sha1_block_data_order
-.type sha1_block_data_order_shaext,@function
-.align 32
-sha1_block_data_order_shaext:
-_shaext_shortcut:
-.cfi_startproc
- movdqu (%rdi),%xmm0
- movd 16(%rdi),%xmm1
- movdqa K_XX_XX+160(%rip),%xmm3
-
- movdqu (%rsi),%xmm4
- pshufd $27,%xmm0,%xmm0
- movdqu 16(%rsi),%xmm5
- pshufd $27,%xmm1,%xmm1
- movdqu 32(%rsi),%xmm6
-.byte 102,15,56,0,227
- movdqu 48(%rsi),%xmm7
-.byte 102,15,56,0,235
-.byte 102,15,56,0,243
- movdqa %xmm1,%xmm9
-.byte 102,15,56,0,251
- jmp .Loop_shaext
-
-.align 16
-.Loop_shaext:
- decq %rdx
- leaq 64(%rsi),%r8
- paddd %xmm4,%xmm1
- cmovneq %r8,%rsi
- movdqa %xmm0,%xmm8
-.byte 15,56,201,229
- movdqa %xmm0,%xmm2
-.byte 15,58,204,193,0
-.byte 15,56,200,213
- pxor %xmm6,%xmm4
-.byte 15,56,201,238
-.byte 15,56,202,231
-
- movdqa %xmm0,%xmm1
-.byte 15,58,204,194,0
-.byte 15,56,200,206
- pxor %xmm7,%xmm5
-.byte 15,56,202,236
-.byte 15,56,201,247
- movdqa %xmm0,%xmm2
-.byte 15,58,204,193,0
-.byte 15,56,200,215
- pxor %xmm4,%xmm6
-.byte 15,56,201,252
-.byte 15,56,202,245
-
- movdqa %xmm0,%xmm1
-.byte 15,58,204,194,0
-.byte 15,56,200,204
- pxor %xmm5,%xmm7
-.byte 15,56,202,254
-.byte 15,56,201,229
- movdqa %xmm0,%xmm2
-.byte 15,58,204,193,0
-.byte 15,56,200,213
- pxor %xmm6,%xmm4
-.byte 15,56,201,238
-.byte 15,56,202,231
-
- movdqa %xmm0,%xmm1
-.byte 15,58,204,194,1
-.byte 15,56,200,206
- pxor %xmm7,%xmm5
-.byte 15,56,202,236
-.byte 15,56,201,247
- movdqa %xmm0,%xmm2
-.byte 15,58,204,193,1
-.byte 15,56,200,215
- pxor %xmm4,%xmm6
-.byte 15,56,201,252
-.byte 15,56,202,245
-
- movdqa %xmm0,%xmm1
-.byte 15,58,204,194,1
-.byte 15,56,200,204
- pxor %xmm5,%xmm7
-.byte 15,56,202,254
-.byte 15,56,201,229
- movdqa %xmm0,%xmm2
-.byte 15,58,204,193,1
-.byte 15,56,200,213
- pxor %xmm6,%xmm4
-.byte 15,56,201,238
-.byte 15,56,202,231
-
- movdqa %xmm0,%xmm1
-.byte 15,58,204,194,1
-.byte 15,56,200,206
- pxor %xmm7,%xmm5
-.byte 15,56,202,236
-.byte 15,56,201,247
- movdqa %xmm0,%xmm2
-.byte 15,58,204,193,2
-.byte 15,56,200,215
- pxor %xmm4,%xmm6
-.byte 15,56,201,252
-.byte 15,56,202,245
-
- movdqa %xmm0,%xmm1
-.byte 15,58,204,194,2
-.byte 15,56,200,204
- pxor %xmm5,%xmm7
-.byte 15,56,202,254
-.byte 15,56,201,229
- movdqa %xmm0,%xmm2
-.byte 15,58,204,193,2
-.byte 15,56,200,213
- pxor %xmm6,%xmm4
-.byte 15,56,201,238
-.byte 15,56,202,231
-
- movdqa %xmm0,%xmm1
-.byte 15,58,204,194,2
-.byte 15,56,200,206
- pxor %xmm7,%xmm5
-.byte 15,56,202,236
-.byte 15,56,201,247
- movdqa %xmm0,%xmm2
-.byte 15,58,204,193,2
-.byte 15,56,200,215
- pxor %xmm4,%xmm6
-.byte 15,56,201,252
-.byte 15,56,202,245
-
- movdqa %xmm0,%xmm1
-.byte 15,58,204,194,3
-.byte 15,56,200,204
- pxor %xmm5,%xmm7
-.byte 15,56,202,254
- movdqu (%rsi),%xmm4
- movdqa %xmm0,%xmm2
-.byte 15,58,204,193,3
-.byte 15,56,200,213
- movdqu 16(%rsi),%xmm5
-.byte 102,15,56,0,227
-
- movdqa %xmm0,%xmm1
-.byte 15,58,204,194,3
-.byte 15,56,200,206
- movdqu 32(%rsi),%xmm6
-.byte 102,15,56,0,235
-
- movdqa %xmm0,%xmm2
-.byte 15,58,204,193,3
-.byte 15,56,200,215
- movdqu 48(%rsi),%xmm7
-.byte 102,15,56,0,243
-
- movdqa %xmm0,%xmm1
-.byte 15,58,204,194,3
-.byte 65,15,56,200,201
-.byte 102,15,56,0,251
-
- paddd %xmm8,%xmm0
- movdqa %xmm1,%xmm9
-
- jnz .Loop_shaext
-
- pshufd $27,%xmm0,%xmm0
- pshufd $27,%xmm1,%xmm1
- movdqu %xmm0,(%rdi)
- movd %xmm1,16(%rdi)
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha1_block_data_order_shaext,.-sha1_block_data_order_shaext
-.type sha1_block_data_order_ssse3,@function
-.align 16
-sha1_block_data_order_ssse3:
-_ssse3_shortcut:
-.cfi_startproc
- movq %rsp,%r11
-.cfi_def_cfa_register %r11
- pushq %rbx
-.cfi_offset %rbx,-16
- pushq %rbp
-.cfi_offset %rbp,-24
- pushq %r12
-.cfi_offset %r12,-32
- pushq %r13
-.cfi_offset %r13,-40
- pushq %r14
-.cfi_offset %r14,-48
- leaq -64(%rsp),%rsp
- andq $-64,%rsp
- movq %rdi,%r8
- movq %rsi,%r9
- movq %rdx,%r10
-
- shlq $6,%r10
- addq %r9,%r10
- leaq K_XX_XX+64(%rip),%r14
-
- movl 0(%r8),%eax
- movl 4(%r8),%ebx
- movl 8(%r8),%ecx
- movl 12(%r8),%edx
- movl %ebx,%esi
- movl 16(%r8),%ebp
- movl %ecx,%edi
- xorl %edx,%edi
- andl %edi,%esi
-
- movdqa 64(%r14),%xmm6
- movdqa -64(%r14),%xmm9
- movdqu 0(%r9),%xmm0
- movdqu 16(%r9),%xmm1
- movdqu 32(%r9),%xmm2
- movdqu 48(%r9),%xmm3
-.byte 102,15,56,0,198
-.byte 102,15,56,0,206
-.byte 102,15,56,0,214
- addq $64,%r9
- paddd %xmm9,%xmm0
-.byte 102,15,56,0,222
- paddd %xmm9,%xmm1
- paddd %xmm9,%xmm2
- movdqa %xmm0,0(%rsp)
- psubd %xmm9,%xmm0
- movdqa %xmm1,16(%rsp)
- psubd %xmm9,%xmm1
- movdqa %xmm2,32(%rsp)
- psubd %xmm9,%xmm2
- jmp .Loop_ssse3
-.align 16
-.Loop_ssse3:
- rorl $2,%ebx
- pshufd $238,%xmm0,%xmm4
- xorl %edx,%esi
- movdqa %xmm3,%xmm8
- paddd %xmm3,%xmm9
- movl %eax,%edi
- addl 0(%rsp),%ebp
- punpcklqdq %xmm1,%xmm4
- xorl %ecx,%ebx
- roll $5,%eax
- addl %esi,%ebp
- psrldq $4,%xmm8
- andl %ebx,%edi
- xorl %ecx,%ebx
- pxor %xmm0,%xmm4
- addl %eax,%ebp
- rorl $7,%eax
- pxor %xmm2,%xmm8
- xorl %ecx,%edi
- movl %ebp,%esi
- addl 4(%rsp),%edx
- pxor %xmm8,%xmm4
- xorl %ebx,%eax
- roll $5,%ebp
- movdqa %xmm9,48(%rsp)
- addl %edi,%edx
- andl %eax,%esi
- movdqa %xmm4,%xmm10
- xorl %ebx,%eax
- addl %ebp,%edx
- rorl $7,%ebp
- movdqa %xmm4,%xmm8
- xorl %ebx,%esi
- pslldq $12,%xmm10
- paddd %xmm4,%xmm4
- movl %edx,%edi
- addl 8(%rsp),%ecx
- psrld $31,%xmm8
- xorl %eax,%ebp
- roll $5,%edx
- addl %esi,%ecx
- movdqa %xmm10,%xmm9
- andl %ebp,%edi
- xorl %eax,%ebp
- psrld $30,%xmm10
- addl %edx,%ecx
- rorl $7,%edx
- por %xmm8,%xmm4
- xorl %eax,%edi
- movl %ecx,%esi
- addl 12(%rsp),%ebx
- pslld $2,%xmm9
- pxor %xmm10,%xmm4
- xorl %ebp,%edx
- movdqa -64(%r14),%xmm10
- roll $5,%ecx
- addl %edi,%ebx
- andl %edx,%esi
- pxor %xmm9,%xmm4
- xorl %ebp,%edx
- addl %ecx,%ebx
- rorl $7,%ecx
- pshufd $238,%xmm1,%xmm5
- xorl %ebp,%esi
- movdqa %xmm4,%xmm9
- paddd %xmm4,%xmm10
- movl %ebx,%edi
- addl 16(%rsp),%eax
- punpcklqdq %xmm2,%xmm5
- xorl %edx,%ecx
- roll $5,%ebx
- addl %esi,%eax
- psrldq $4,%xmm9
- andl %ecx,%edi
- xorl %edx,%ecx
- pxor %xmm1,%xmm5
- addl %ebx,%eax
- rorl $7,%ebx
- pxor %xmm3,%xmm9
- xorl %edx,%edi
- movl %eax,%esi
- addl 20(%rsp),%ebp
- pxor %xmm9,%xmm5
- xorl %ecx,%ebx
- roll $5,%eax
- movdqa %xmm10,0(%rsp)
- addl %edi,%ebp
- andl %ebx,%esi
- movdqa %xmm5,%xmm8
- xorl %ecx,%ebx
- addl %eax,%ebp
- rorl $7,%eax
- movdqa %xmm5,%xmm9
- xorl %ecx,%esi
- pslldq $12,%xmm8
- paddd %xmm5,%xmm5
- movl %ebp,%edi
- addl 24(%rsp),%edx
- psrld $31,%xmm9
- xorl %ebx,%eax
- roll $5,%ebp
- addl %esi,%edx
- movdqa %xmm8,%xmm10
- andl %eax,%edi
- xorl %ebx,%eax
- psrld $30,%xmm8
- addl %ebp,%edx
- rorl $7,%ebp
- por %xmm9,%xmm5
- xorl %ebx,%edi
- movl %edx,%esi
- addl 28(%rsp),%ecx
- pslld $2,%xmm10
- pxor %xmm8,%xmm5
- xorl %eax,%ebp
- movdqa -32(%r14),%xmm8
- roll $5,%edx
- addl %edi,%ecx
- andl %ebp,%esi
- pxor %xmm10,%xmm5
- xorl %eax,%ebp
- addl %edx,%ecx
- rorl $7,%edx
- pshufd $238,%xmm2,%xmm6
- xorl %eax,%esi
- movdqa %xmm5,%xmm10
- paddd %xmm5,%xmm8
- movl %ecx,%edi
- addl 32(%rsp),%ebx
- punpcklqdq %xmm3,%xmm6
- xorl %ebp,%edx
- roll $5,%ecx
- addl %esi,%ebx
- psrldq $4,%xmm10
- andl %edx,%edi
- xorl %ebp,%edx
- pxor %xmm2,%xmm6
- addl %ecx,%ebx
- rorl $7,%ecx
- pxor %xmm4,%xmm10
- xorl %ebp,%edi
- movl %ebx,%esi
- addl 36(%rsp),%eax
- pxor %xmm10,%xmm6
- xorl %edx,%ecx
- roll $5,%ebx
- movdqa %xmm8,16(%rsp)
- addl %edi,%eax
- andl %ecx,%esi
- movdqa %xmm6,%xmm9
- xorl %edx,%ecx
- addl %ebx,%eax
- rorl $7,%ebx
- movdqa %xmm6,%xmm10
- xorl %edx,%esi
- pslldq $12,%xmm9
- paddd %xmm6,%xmm6
- movl %eax,%edi
- addl 40(%rsp),%ebp
- psrld $31,%xmm10
- xorl %ecx,%ebx
- roll $5,%eax
- addl %esi,%ebp
- movdqa %xmm9,%xmm8
- andl %ebx,%edi
- xorl %ecx,%ebx
- psrld $30,%xmm9
- addl %eax,%ebp
- rorl $7,%eax
- por %xmm10,%xmm6
- xorl %ecx,%edi
- movl %ebp,%esi
- addl 44(%rsp),%edx
- pslld $2,%xmm8
- pxor %xmm9,%xmm6
- xorl %ebx,%eax
- movdqa -32(%r14),%xmm9
- roll $5,%ebp
- addl %edi,%edx
- andl %eax,%esi
- pxor %xmm8,%xmm6
- xorl %ebx,%eax
- addl %ebp,%edx
- rorl $7,%ebp
- pshufd $238,%xmm3,%xmm7
- xorl %ebx,%esi
- movdqa %xmm6,%xmm8
- paddd %xmm6,%xmm9
- movl %edx,%edi
- addl 48(%rsp),%ecx
- punpcklqdq %xmm4,%xmm7
- xorl %eax,%ebp
- roll $5,%edx
- addl %esi,%ecx
- psrldq $4,%xmm8
- andl %ebp,%edi
- xorl %eax,%ebp
- pxor %xmm3,%xmm7
- addl %edx,%ecx
- rorl $7,%edx
- pxor %xmm5,%xmm8
- xorl %eax,%edi
- movl %ecx,%esi
- addl 52(%rsp),%ebx
- pxor %xmm8,%xmm7
- xorl %ebp,%edx
- roll $5,%ecx
- movdqa %xmm9,32(%rsp)
- addl %edi,%ebx
- andl %edx,%esi
- movdqa %xmm7,%xmm10
- xorl %ebp,%edx
- addl %ecx,%ebx
- rorl $7,%ecx
- movdqa %xmm7,%xmm8
- xorl %ebp,%esi
- pslldq $12,%xmm10
- paddd %xmm7,%xmm7
- movl %ebx,%edi
- addl 56(%rsp),%eax
- psrld $31,%xmm8
- xorl %edx,%ecx
- roll $5,%ebx
- addl %esi,%eax
- movdqa %xmm10,%xmm9
- andl %ecx,%edi
- xorl %edx,%ecx
- psrld $30,%xmm10
- addl %ebx,%eax
- rorl $7,%ebx
- por %xmm8,%xmm7
- xorl %edx,%edi
- movl %eax,%esi
- addl 60(%rsp),%ebp
- pslld $2,%xmm9
- pxor %xmm10,%xmm7
- xorl %ecx,%ebx
- movdqa -32(%r14),%xmm10
- roll $5,%eax
- addl %edi,%ebp
- andl %ebx,%esi
- pxor %xmm9,%xmm7
- pshufd $238,%xmm6,%xmm9
- xorl %ecx,%ebx
- addl %eax,%ebp
- rorl $7,%eax
- pxor %xmm4,%xmm0
- xorl %ecx,%esi
- movl %ebp,%edi
- addl 0(%rsp),%edx
- punpcklqdq %xmm7,%xmm9
- xorl %ebx,%eax
- roll $5,%ebp
- pxor %xmm1,%xmm0
- addl %esi,%edx
- andl %eax,%edi
- movdqa %xmm10,%xmm8
- xorl %ebx,%eax
- paddd %xmm7,%xmm10
- addl %ebp,%edx
- pxor %xmm9,%xmm0
- rorl $7,%ebp
- xorl %ebx,%edi
- movl %edx,%esi
- addl 4(%rsp),%ecx
- movdqa %xmm0,%xmm9
- xorl %eax,%ebp
- roll $5,%edx
- movdqa %xmm10,48(%rsp)
- addl %edi,%ecx
- andl %ebp,%esi
- xorl %eax,%ebp
- pslld $2,%xmm0
- addl %edx,%ecx
- rorl $7,%edx
- psrld $30,%xmm9
- xorl %eax,%esi
- movl %ecx,%edi
- addl 8(%rsp),%ebx
- por %xmm9,%xmm0
- xorl %ebp,%edx
- roll $5,%ecx
- pshufd $238,%xmm7,%xmm10
- addl %esi,%ebx
- andl %edx,%edi
- xorl %ebp,%edx
- addl %ecx,%ebx
- addl 12(%rsp),%eax
- xorl %ebp,%edi
- movl %ebx,%esi
- roll $5,%ebx
- addl %edi,%eax
- xorl %edx,%esi
- rorl $7,%ecx
- addl %ebx,%eax
- pxor %xmm5,%xmm1
- addl 16(%rsp),%ebp
- xorl %ecx,%esi
- punpcklqdq %xmm0,%xmm10
- movl %eax,%edi
- roll $5,%eax
- pxor %xmm2,%xmm1
- addl %esi,%ebp
- xorl %ecx,%edi
- movdqa %xmm8,%xmm9
- rorl $7,%ebx
- paddd %xmm0,%xmm8
- addl %eax,%ebp
- pxor %xmm10,%xmm1
- addl 20(%rsp),%edx
- xorl %ebx,%edi
- movl %ebp,%esi
- roll $5,%ebp
- movdqa %xmm1,%xmm10
- addl %edi,%edx
- xorl %ebx,%esi
- movdqa %xmm8,0(%rsp)
- rorl $7,%eax
- addl %ebp,%edx
- addl 24(%rsp),%ecx
- pslld $2,%xmm1
- xorl %eax,%esi
- movl %edx,%edi
- psrld $30,%xmm10
- roll $5,%edx
- addl %esi,%ecx
- xorl %eax,%edi
- rorl $7,%ebp
- por %xmm10,%xmm1
- addl %edx,%ecx
- addl 28(%rsp),%ebx
- pshufd $238,%xmm0,%xmm8
- xorl %ebp,%edi
- movl %ecx,%esi
- roll $5,%ecx
- addl %edi,%ebx
- xorl %ebp,%esi
- rorl $7,%edx
- addl %ecx,%ebx
- pxor %xmm6,%xmm2
- addl 32(%rsp),%eax
- xorl %edx,%esi
- punpcklqdq %xmm1,%xmm8
- movl %ebx,%edi
- roll $5,%ebx
- pxor %xmm3,%xmm2
- addl %esi,%eax
- xorl %edx,%edi
- movdqa 0(%r14),%xmm10
- rorl $7,%ecx
- paddd %xmm1,%xmm9
- addl %ebx,%eax
- pxor %xmm8,%xmm2
- addl 36(%rsp),%ebp
- xorl %ecx,%edi
- movl %eax,%esi
- roll $5,%eax
- movdqa %xmm2,%xmm8
- addl %edi,%ebp
- xorl %ecx,%esi
- movdqa %xmm9,16(%rsp)
- rorl $7,%ebx
- addl %eax,%ebp
- addl 40(%rsp),%edx
- pslld $2,%xmm2
- xorl %ebx,%esi
- movl %ebp,%edi
- psrld $30,%xmm8
- roll $5,%ebp
- addl %esi,%edx
- xorl %ebx,%edi
- rorl $7,%eax
- por %xmm8,%xmm2
- addl %ebp,%edx
- addl 44(%rsp),%ecx
- pshufd $238,%xmm1,%xmm9
- xorl %eax,%edi
- movl %edx,%esi
- roll $5,%edx
- addl %edi,%ecx
- xorl %eax,%esi
- rorl $7,%ebp
- addl %edx,%ecx
- pxor %xmm7,%xmm3
- addl 48(%rsp),%ebx
- xorl %ebp,%esi
- punpcklqdq %xmm2,%xmm9
- movl %ecx,%edi
- roll $5,%ecx
- pxor %xmm4,%xmm3
- addl %esi,%ebx
- xorl %ebp,%edi
- movdqa %xmm10,%xmm8
- rorl $7,%edx
- paddd %xmm2,%xmm10
- addl %ecx,%ebx
- pxor %xmm9,%xmm3
- addl 52(%rsp),%eax
- xorl %edx,%edi
- movl %ebx,%esi
- roll $5,%ebx
- movdqa %xmm3,%xmm9
- addl %edi,%eax
- xorl %edx,%esi
- movdqa %xmm10,32(%rsp)
- rorl $7,%ecx
- addl %ebx,%eax
- addl 56(%rsp),%ebp
- pslld $2,%xmm3
- xorl %ecx,%esi
- movl %eax,%edi
- psrld $30,%xmm9
- roll $5,%eax
- addl %esi,%ebp
- xorl %ecx,%edi
- rorl $7,%ebx
- por %xmm9,%xmm3
- addl %eax,%ebp
- addl 60(%rsp),%edx
- pshufd $238,%xmm2,%xmm10
- xorl %ebx,%edi
- movl %ebp,%esi
- roll $5,%ebp
- addl %edi,%edx
- xorl %ebx,%esi
- rorl $7,%eax
- addl %ebp,%edx
- pxor %xmm0,%xmm4
- addl 0(%rsp),%ecx
- xorl %eax,%esi
- punpcklqdq %xmm3,%xmm10
- movl %edx,%edi
- roll $5,%edx
- pxor %xmm5,%xmm4
- addl %esi,%ecx
- xorl %eax,%edi
- movdqa %xmm8,%xmm9
- rorl $7,%ebp
- paddd %xmm3,%xmm8
- addl %edx,%ecx
- pxor %xmm10,%xmm4
- addl 4(%rsp),%ebx
- xorl %ebp,%edi
- movl %ecx,%esi
- roll $5,%ecx
- movdqa %xmm4,%xmm10
- addl %edi,%ebx
- xorl %ebp,%esi
- movdqa %xmm8,48(%rsp)
- rorl $7,%edx
- addl %ecx,%ebx
- addl 8(%rsp),%eax
- pslld $2,%xmm4
- xorl %edx,%esi
- movl %ebx,%edi
- psrld $30,%xmm10
- roll $5,%ebx
- addl %esi,%eax
- xorl %edx,%edi
- rorl $7,%ecx
- por %xmm10,%xmm4
- addl %ebx,%eax
- addl 12(%rsp),%ebp
- pshufd $238,%xmm3,%xmm8
- xorl %ecx,%edi
- movl %eax,%esi
- roll $5,%eax
- addl %edi,%ebp
- xorl %ecx,%esi
- rorl $7,%ebx
- addl %eax,%ebp
- pxor %xmm1,%xmm5
- addl 16(%rsp),%edx
- xorl %ebx,%esi
- punpcklqdq %xmm4,%xmm8
- movl %ebp,%edi
- roll $5,%ebp
- pxor %xmm6,%xmm5
- addl %esi,%edx
- xorl %ebx,%edi
- movdqa %xmm9,%xmm10
- rorl $7,%eax
- paddd %xmm4,%xmm9
- addl %ebp,%edx
- pxor %xmm8,%xmm5
- addl 20(%rsp),%ecx
- xorl %eax,%edi
- movl %edx,%esi
- roll $5,%edx
- movdqa %xmm5,%xmm8
- addl %edi,%ecx
- xorl %eax,%esi
- movdqa %xmm9,0(%rsp)
- rorl $7,%ebp
- addl %edx,%ecx
- addl 24(%rsp),%ebx
- pslld $2,%xmm5
- xorl %ebp,%esi
- movl %ecx,%edi
- psrld $30,%xmm8
- roll $5,%ecx
- addl %esi,%ebx
- xorl %ebp,%edi
- rorl $7,%edx
- por %xmm8,%xmm5
- addl %ecx,%ebx
- addl 28(%rsp),%eax
- pshufd $238,%xmm4,%xmm9
- rorl $7,%ecx
- movl %ebx,%esi
- xorl %edx,%edi
- roll $5,%ebx
- addl %edi,%eax
- xorl %ecx,%esi
- xorl %edx,%ecx
- addl %ebx,%eax
- pxor %xmm2,%xmm6
- addl 32(%rsp),%ebp
- andl %ecx,%esi
- xorl %edx,%ecx
- rorl $7,%ebx
- punpcklqdq %xmm5,%xmm9
- movl %eax,%edi
- xorl %ecx,%esi
- pxor %xmm7,%xmm6
- roll $5,%eax
- addl %esi,%ebp
- movdqa %xmm10,%xmm8
- xorl %ebx,%edi
- paddd %xmm5,%xmm10
- xorl %ecx,%ebx
- pxor %xmm9,%xmm6
- addl %eax,%ebp
- addl 36(%rsp),%edx
- andl %ebx,%edi
- xorl %ecx,%ebx
- rorl $7,%eax
- movdqa %xmm6,%xmm9
- movl %ebp,%esi
- xorl %ebx,%edi
- movdqa %xmm10,16(%rsp)
- roll $5,%ebp
- addl %edi,%edx
- xorl %eax,%esi
- pslld $2,%xmm6
- xorl %ebx,%eax
- addl %ebp,%edx
- psrld $30,%xmm9
- addl 40(%rsp),%ecx
- andl %eax,%esi
- xorl %ebx,%eax
- por %xmm9,%xmm6
- rorl $7,%ebp
- movl %edx,%edi
- xorl %eax,%esi
- roll $5,%edx
- pshufd $238,%xmm5,%xmm10
- addl %esi,%ecx
- xorl %ebp,%edi
- xorl %eax,%ebp
- addl %edx,%ecx
- addl 44(%rsp),%ebx
- andl %ebp,%edi
- xorl %eax,%ebp
- rorl $7,%edx
- movl %ecx,%esi
- xorl %ebp,%edi
- roll $5,%ecx
- addl %edi,%ebx
- xorl %edx,%esi
- xorl %ebp,%edx
- addl %ecx,%ebx
- pxor %xmm3,%xmm7
- addl 48(%rsp),%eax
- andl %edx,%esi
- xorl %ebp,%edx
- rorl $7,%ecx
- punpcklqdq %xmm6,%xmm10
- movl %ebx,%edi
- xorl %edx,%esi
- pxor %xmm0,%xmm7
- roll $5,%ebx
- addl %esi,%eax
- movdqa 32(%r14),%xmm9
- xorl %ecx,%edi
- paddd %xmm6,%xmm8
- xorl %edx,%ecx
- pxor %xmm10,%xmm7
- addl %ebx,%eax
- addl 52(%rsp),%ebp
- andl %ecx,%edi
- xorl %edx,%ecx
- rorl $7,%ebx
- movdqa %xmm7,%xmm10
- movl %eax,%esi
- xorl %ecx,%edi
- movdqa %xmm8,32(%rsp)
- roll $5,%eax
- addl %edi,%ebp
- xorl %ebx,%esi
- pslld $2,%xmm7
- xorl %ecx,%ebx
- addl %eax,%ebp
- psrld $30,%xmm10
- addl 56(%rsp),%edx
- andl %ebx,%esi
- xorl %ecx,%ebx
- por %xmm10,%xmm7
- rorl $7,%eax
- movl %ebp,%edi
- xorl %ebx,%esi
- roll $5,%ebp
- pshufd $238,%xmm6,%xmm8
- addl %esi,%edx
- xorl %eax,%edi
- xorl %ebx,%eax
- addl %ebp,%edx
- addl 60(%rsp),%ecx
- andl %eax,%edi
- xorl %ebx,%eax
- rorl $7,%ebp
- movl %edx,%esi
- xorl %eax,%edi
- roll $5,%edx
- addl %edi,%ecx
- xorl %ebp,%esi
- xorl %eax,%ebp
- addl %edx,%ecx
- pxor %xmm4,%xmm0
- addl 0(%rsp),%ebx
- andl %ebp,%esi
- xorl %eax,%ebp
- rorl $7,%edx
- punpcklqdq %xmm7,%xmm8
- movl %ecx,%edi
- xorl %ebp,%esi
- pxor %xmm1,%xmm0
- roll $5,%ecx
- addl %esi,%ebx
- movdqa %xmm9,%xmm10
- xorl %edx,%edi
- paddd %xmm7,%xmm9
- xorl %ebp,%edx
- pxor %xmm8,%xmm0
- addl %ecx,%ebx
- addl 4(%rsp),%eax
- andl %edx,%edi
- xorl %ebp,%edx
- rorl $7,%ecx
- movdqa %xmm0,%xmm8
- movl %ebx,%esi
- xorl %edx,%edi
- movdqa %xmm9,48(%rsp)
- roll $5,%ebx
- addl %edi,%eax
- xorl %ecx,%esi
- pslld $2,%xmm0
- xorl %edx,%ecx
- addl %ebx,%eax
- psrld $30,%xmm8
- addl 8(%rsp),%ebp
- andl %ecx,%esi
- xorl %edx,%ecx
- por %xmm8,%xmm0
- rorl $7,%ebx
- movl %eax,%edi
- xorl %ecx,%esi
- roll $5,%eax
- pshufd $238,%xmm7,%xmm9
- addl %esi,%ebp
- xorl %ebx,%edi
- xorl %ecx,%ebx
- addl %eax,%ebp
- addl 12(%rsp),%edx
- andl %ebx,%edi
- xorl %ecx,%ebx
- rorl $7,%eax
- movl %ebp,%esi
- xorl %ebx,%edi
- roll $5,%ebp
- addl %edi,%edx
- xorl %eax,%esi
- xorl %ebx,%eax
- addl %ebp,%edx
- pxor %xmm5,%xmm1
- addl 16(%rsp),%ecx
- andl %eax,%esi
- xorl %ebx,%eax
- rorl $7,%ebp
- punpcklqdq %xmm0,%xmm9
- movl %edx,%edi
- xorl %eax,%esi
- pxor %xmm2,%xmm1
- roll $5,%edx
- addl %esi,%ecx
- movdqa %xmm10,%xmm8
- xorl %ebp,%edi
- paddd %xmm0,%xmm10
- xorl %eax,%ebp
- pxor %xmm9,%xmm1
- addl %edx,%ecx
- addl 20(%rsp),%ebx
- andl %ebp,%edi
- xorl %eax,%ebp
- rorl $7,%edx
- movdqa %xmm1,%xmm9
- movl %ecx,%esi
- xorl %ebp,%edi
- movdqa %xmm10,0(%rsp)
- roll $5,%ecx
- addl %edi,%ebx
- xorl %edx,%esi
- pslld $2,%xmm1
- xorl %ebp,%edx
- addl %ecx,%ebx
- psrld $30,%xmm9
- addl 24(%rsp),%eax
- andl %edx,%esi
- xorl %ebp,%edx
- por %xmm9,%xmm1
- rorl $7,%ecx
- movl %ebx,%edi
- xorl %edx,%esi
- roll $5,%ebx
- pshufd $238,%xmm0,%xmm10
- addl %esi,%eax
- xorl %ecx,%edi
- xorl %edx,%ecx
- addl %ebx,%eax
- addl 28(%rsp),%ebp
- andl %ecx,%edi
- xorl %edx,%ecx
- rorl $7,%ebx
- movl %eax,%esi
- xorl %ecx,%edi
- roll $5,%eax
- addl %edi,%ebp
- xorl %ebx,%esi
- xorl %ecx,%ebx
- addl %eax,%ebp
- pxor %xmm6,%xmm2
- addl 32(%rsp),%edx
- andl %ebx,%esi
- xorl %ecx,%ebx
- rorl $7,%eax
- punpcklqdq %xmm1,%xmm10
- movl %ebp,%edi
- xorl %ebx,%esi
- pxor %xmm3,%xmm2
- roll $5,%ebp
- addl %esi,%edx
- movdqa %xmm8,%xmm9
- xorl %eax,%edi
- paddd %xmm1,%xmm8
- xorl %ebx,%eax
- pxor %xmm10,%xmm2
- addl %ebp,%edx
- addl 36(%rsp),%ecx
- andl %eax,%edi
- xorl %ebx,%eax
- rorl $7,%ebp
- movdqa %xmm2,%xmm10
- movl %edx,%esi
- xorl %eax,%edi
- movdqa %xmm8,16(%rsp)
- roll $5,%edx
- addl %edi,%ecx
- xorl %ebp,%esi
- pslld $2,%xmm2
- xorl %eax,%ebp
- addl %edx,%ecx
- psrld $30,%xmm10
- addl 40(%rsp),%ebx
- andl %ebp,%esi
- xorl %eax,%ebp
- por %xmm10,%xmm2
- rorl $7,%edx
- movl %ecx,%edi
- xorl %ebp,%esi
- roll $5,%ecx
- pshufd $238,%xmm1,%xmm8
- addl %esi,%ebx
- xorl %edx,%edi
- xorl %ebp,%edx
- addl %ecx,%ebx
- addl 44(%rsp),%eax
- andl %edx,%edi
- xorl %ebp,%edx
- rorl $7,%ecx
- movl %ebx,%esi
- xorl %edx,%edi
- roll $5,%ebx
- addl %edi,%eax
- xorl %edx,%esi
- addl %ebx,%eax
- pxor %xmm7,%xmm3
- addl 48(%rsp),%ebp
- xorl %ecx,%esi
- punpcklqdq %xmm2,%xmm8
- movl %eax,%edi
- roll $5,%eax
- pxor %xmm4,%xmm3
- addl %esi,%ebp
- xorl %ecx,%edi
- movdqa %xmm9,%xmm10
- rorl $7,%ebx
- paddd %xmm2,%xmm9
- addl %eax,%ebp
- pxor %xmm8,%xmm3
- addl 52(%rsp),%edx
- xorl %ebx,%edi
- movl %ebp,%esi
- roll $5,%ebp
- movdqa %xmm3,%xmm8
- addl %edi,%edx
- xorl %ebx,%esi
- movdqa %xmm9,32(%rsp)
- rorl $7,%eax
- addl %ebp,%edx
- addl 56(%rsp),%ecx
- pslld $2,%xmm3
- xorl %eax,%esi
- movl %edx,%edi
- psrld $30,%xmm8
- roll $5,%edx
- addl %esi,%ecx
- xorl %eax,%edi
- rorl $7,%ebp
- por %xmm8,%xmm3
- addl %edx,%ecx
- addl 60(%rsp),%ebx
- xorl %ebp,%edi
- movl %ecx,%esi
- roll $5,%ecx
- addl %edi,%ebx
- xorl %ebp,%esi
- rorl $7,%edx
- addl %ecx,%ebx
- addl 0(%rsp),%eax
- xorl %edx,%esi
- movl %ebx,%edi
- roll $5,%ebx
- paddd %xmm3,%xmm10
- addl %esi,%eax
- xorl %edx,%edi
- movdqa %xmm10,48(%rsp)
- rorl $7,%ecx
- addl %ebx,%eax
- addl 4(%rsp),%ebp
- xorl %ecx,%edi
- movl %eax,%esi
- roll $5,%eax
- addl %edi,%ebp
- xorl %ecx,%esi
- rorl $7,%ebx
- addl %eax,%ebp
- addl 8(%rsp),%edx
- xorl %ebx,%esi
- movl %ebp,%edi
- roll $5,%ebp
- addl %esi,%edx
- xorl %ebx,%edi
- rorl $7,%eax
- addl %ebp,%edx
- addl 12(%rsp),%ecx
- xorl %eax,%edi
- movl %edx,%esi
- roll $5,%edx
- addl %edi,%ecx
- xorl %eax,%esi
- rorl $7,%ebp
- addl %edx,%ecx
- cmpq %r10,%r9
- je .Ldone_ssse3
- movdqa 64(%r14),%xmm6
- movdqa -64(%r14),%xmm9
- movdqu 0(%r9),%xmm0
- movdqu 16(%r9),%xmm1
- movdqu 32(%r9),%xmm2
- movdqu 48(%r9),%xmm3
-.byte 102,15,56,0,198
- addq $64,%r9
- addl 16(%rsp),%ebx
- xorl %ebp,%esi
- movl %ecx,%edi
-.byte 102,15,56,0,206
- roll $5,%ecx
- addl %esi,%ebx
- xorl %ebp,%edi
- rorl $7,%edx
- paddd %xmm9,%xmm0
- addl %ecx,%ebx
- addl 20(%rsp),%eax
- xorl %edx,%edi
- movl %ebx,%esi
- movdqa %xmm0,0(%rsp)
- roll $5,%ebx
- addl %edi,%eax
- xorl %edx,%esi
- rorl $7,%ecx
- psubd %xmm9,%xmm0
- addl %ebx,%eax
- addl 24(%rsp),%ebp
- xorl %ecx,%esi
- movl %eax,%edi
- roll $5,%eax
- addl %esi,%ebp
- xorl %ecx,%edi
- rorl $7,%ebx
- addl %eax,%ebp
- addl 28(%rsp),%edx
- xorl %ebx,%edi
- movl %ebp,%esi
- roll $5,%ebp
- addl %edi,%edx
- xorl %ebx,%esi
- rorl $7,%eax
- addl %ebp,%edx
- addl 32(%rsp),%ecx
- xorl %eax,%esi
- movl %edx,%edi
-.byte 102,15,56,0,214
- roll $5,%edx
- addl %esi,%ecx
- xorl %eax,%edi
- rorl $7,%ebp
- paddd %xmm9,%xmm1
- addl %edx,%ecx
- addl 36(%rsp),%ebx
- xorl %ebp,%edi
- movl %ecx,%esi
- movdqa %xmm1,16(%rsp)
- roll $5,%ecx
- addl %edi,%ebx
- xorl %ebp,%esi
- rorl $7,%edx
- psubd %xmm9,%xmm1
- addl %ecx,%ebx
- addl 40(%rsp),%eax
- xorl %edx,%esi
- movl %ebx,%edi
- roll $5,%ebx
- addl %esi,%eax
- xorl %edx,%edi
- rorl $7,%ecx
- addl %ebx,%eax
- addl 44(%rsp),%ebp
- xorl %ecx,%edi
- movl %eax,%esi
- roll $5,%eax
- addl %edi,%ebp
- xorl %ecx,%esi
- rorl $7,%ebx
- addl %eax,%ebp
- addl 48(%rsp),%edx
- xorl %ebx,%esi
- movl %ebp,%edi
-.byte 102,15,56,0,222
- roll $5,%ebp
- addl %esi,%edx
- xorl %ebx,%edi
- rorl $7,%eax
- paddd %xmm9,%xmm2
- addl %ebp,%edx
- addl 52(%rsp),%ecx
- xorl %eax,%edi
- movl %edx,%esi
- movdqa %xmm2,32(%rsp)
- roll $5,%edx
- addl %edi,%ecx
- xorl %eax,%esi
- rorl $7,%ebp
- psubd %xmm9,%xmm2
- addl %edx,%ecx
- addl 56(%rsp),%ebx
- xorl %ebp,%esi
- movl %ecx,%edi
- roll $5,%ecx
- addl %esi,%ebx
- xorl %ebp,%edi
- rorl $7,%edx
- addl %ecx,%ebx
- addl 60(%rsp),%eax
- xorl %edx,%edi
- movl %ebx,%esi
- roll $5,%ebx
- addl %edi,%eax
- rorl $7,%ecx
- addl %ebx,%eax
- addl 0(%r8),%eax
- addl 4(%r8),%esi
- addl 8(%r8),%ecx
- addl 12(%r8),%edx
- movl %eax,0(%r8)
- addl 16(%r8),%ebp
- movl %esi,4(%r8)
- movl %esi,%ebx
- movl %ecx,8(%r8)
- movl %ecx,%edi
- movl %edx,12(%r8)
- xorl %edx,%edi
- movl %ebp,16(%r8)
- andl %edi,%esi
- jmp .Loop_ssse3
-
-.align 16
-.Ldone_ssse3:
- addl 16(%rsp),%ebx
- xorl %ebp,%esi
- movl %ecx,%edi
- roll $5,%ecx
- addl %esi,%ebx
- xorl %ebp,%edi
- rorl $7,%edx
- addl %ecx,%ebx
- addl 20(%rsp),%eax
- xorl %edx,%edi
- movl %ebx,%esi
- roll $5,%ebx
- addl %edi,%eax
- xorl %edx,%esi
- rorl $7,%ecx
- addl %ebx,%eax
- addl 24(%rsp),%ebp
- xorl %ecx,%esi
- movl %eax,%edi
- roll $5,%eax
- addl %esi,%ebp
- xorl %ecx,%edi
- rorl $7,%ebx
- addl %eax,%ebp
- addl 28(%rsp),%edx
- xorl %ebx,%edi
- movl %ebp,%esi
- roll $5,%ebp
- addl %edi,%edx
- xorl %ebx,%esi
- rorl $7,%eax
- addl %ebp,%edx
- addl 32(%rsp),%ecx
- xorl %eax,%esi
- movl %edx,%edi
- roll $5,%edx
- addl %esi,%ecx
- xorl %eax,%edi
- rorl $7,%ebp
- addl %edx,%ecx
- addl 36(%rsp),%ebx
- xorl %ebp,%edi
- movl %ecx,%esi
- roll $5,%ecx
- addl %edi,%ebx
- xorl %ebp,%esi
- rorl $7,%edx
- addl %ecx,%ebx
- addl 40(%rsp),%eax
- xorl %edx,%esi
- movl %ebx,%edi
- roll $5,%ebx
- addl %esi,%eax
- xorl %edx,%edi
- rorl $7,%ecx
- addl %ebx,%eax
- addl 44(%rsp),%ebp
- xorl %ecx,%edi
- movl %eax,%esi
- roll $5,%eax
- addl %edi,%ebp
- xorl %ecx,%esi
- rorl $7,%ebx
- addl %eax,%ebp
- addl 48(%rsp),%edx
- xorl %ebx,%esi
- movl %ebp,%edi
- roll $5,%ebp
- addl %esi,%edx
- xorl %ebx,%edi
- rorl $7,%eax
- addl %ebp,%edx
- addl 52(%rsp),%ecx
- xorl %eax,%edi
- movl %edx,%esi
- roll $5,%edx
- addl %edi,%ecx
- xorl %eax,%esi
- rorl $7,%ebp
- addl %edx,%ecx
- addl 56(%rsp),%ebx
- xorl %ebp,%esi
- movl %ecx,%edi
- roll $5,%ecx
- addl %esi,%ebx
- xorl %ebp,%edi
- rorl $7,%edx
- addl %ecx,%ebx
- addl 60(%rsp),%eax
- xorl %edx,%edi
- movl %ebx,%esi
- roll $5,%ebx
- addl %edi,%eax
- rorl $7,%ecx
- addl %ebx,%eax
- addl 0(%r8),%eax
- addl 4(%r8),%esi
- addl 8(%r8),%ecx
- movl %eax,0(%r8)
- addl 12(%r8),%edx
- movl %esi,4(%r8)
- addl 16(%r8),%ebp
- movl %ecx,8(%r8)
- movl %edx,12(%r8)
- movl %ebp,16(%r8)
- movq -40(%r11),%r14
-.cfi_restore %r14
- movq -32(%r11),%r13
-.cfi_restore %r13
- movq -24(%r11),%r12
-.cfi_restore %r12
- movq -16(%r11),%rbp
-.cfi_restore %rbp
- movq -8(%r11),%rbx
-.cfi_restore %rbx
- leaq (%r11),%rsp
-.cfi_def_cfa_register %rsp
-.Lepilogue_ssse3:
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha1_block_data_order_ssse3,.-sha1_block_data_order_ssse3
-.align 64
-K_XX_XX:
-.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999
-.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999
-.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1
-.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1
-.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc
-.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc
-.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6
-.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6
-.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
-.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
-.byte 0xf,0xe,0xd,0xc,0xb,0xa,0x9,0x8,0x7,0x6,0x5,0x4,0x3,0x2,0x1,0x0
-.byte 83,72,65,49,32,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
-.align 64
diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-mb-x86_64.S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-mb-x86_64.S
deleted file mode 100644
index 25dee488b8..0000000000
--- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-mb-x86_64.S
+++ /dev/null
@@ -1,3286 +0,0 @@
-# WARNING: do not edit!
-# Generated from openssl/crypto/sha/asm/sha256-mb-x86_64.pl
-#
-# Copyright 2013-2020 The OpenSSL Project Authors. All Rights Reserved.
-#
-# Licensed under the OpenSSL license (the "License"). You may not use
-# this file except in compliance with the License. You can obtain a copy
-# in the file LICENSE in the source distribution or at
-# https://www.openssl.org/source/license.html
-
-.text
-
-
-
-.globl sha256_multi_block
-.type sha256_multi_block,@function
-.align 32
-sha256_multi_block:
-.cfi_startproc
- movq OPENSSL_ia32cap_P+4(%rip),%rcx
- btq $61,%rcx
- jc _shaext_shortcut
- movq %rsp,%rax
-.cfi_def_cfa_register %rax
- pushq %rbx
-.cfi_offset %rbx,-16
- pushq %rbp
-.cfi_offset %rbp,-24
- subq $288,%rsp
- andq $-256,%rsp
- movq %rax,272(%rsp)
-.cfi_escape 0x0f,0x06,0x77,0x90,0x02,0x06,0x23,0x08
-.Lbody:
- leaq K256+128(%rip),%rbp
- leaq 256(%rsp),%rbx
- leaq 128(%rdi),%rdi
-
-.Loop_grande:
- movl %edx,280(%rsp)
- xorl %edx,%edx
- movq 0(%rsi),%r8
- movl 8(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,0(%rbx)
- cmovleq %rbp,%r8
- movq 16(%rsi),%r9
- movl 24(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,4(%rbx)
- cmovleq %rbp,%r9
- movq 32(%rsi),%r10
- movl 40(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,8(%rbx)
- cmovleq %rbp,%r10
- movq 48(%rsi),%r11
- movl 56(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,12(%rbx)
- cmovleq %rbp,%r11
- testl %edx,%edx
- jz .Ldone
-
- movdqu 0-128(%rdi),%xmm8
- leaq 128(%rsp),%rax
- movdqu 32-128(%rdi),%xmm9
- movdqu 64-128(%rdi),%xmm10
- movdqu 96-128(%rdi),%xmm11
- movdqu 128-128(%rdi),%xmm12
- movdqu 160-128(%rdi),%xmm13
- movdqu 192-128(%rdi),%xmm14
- movdqu 224-128(%rdi),%xmm15
- movdqu .Lpbswap(%rip),%xmm6
- jmp .Loop
-
-.align 32
-.Loop:
- movdqa %xmm10,%xmm4
- pxor %xmm9,%xmm4
- movd 0(%r8),%xmm5
- movd 0(%r9),%xmm0
- movd 0(%r10),%xmm1
- movd 0(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm12,%xmm7
-.byte 102,15,56,0,238
- movdqa %xmm12,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm12,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,0-128(%rax)
- paddd %xmm15,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -128(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm12,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm12,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm14,%xmm0
- pand %xmm13,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm8,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm8,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm9,%xmm3
- movdqa %xmm8,%xmm7
- pslld $10,%xmm2
- pxor %xmm8,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm9,%xmm15
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm15
- paddd %xmm5,%xmm11
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm15
- paddd %xmm7,%xmm15
- movd 4(%r8),%xmm5
- movd 4(%r9),%xmm0
- movd 4(%r10),%xmm1
- movd 4(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm11,%xmm7
-
- movdqa %xmm11,%xmm2
-.byte 102,15,56,0,238
- psrld $6,%xmm7
- movdqa %xmm11,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,16-128(%rax)
- paddd %xmm14,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -96(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm11,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm11,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm13,%xmm0
- pand %xmm12,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm15,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm15,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm4,%xmm0
- movdqa %xmm8,%xmm4
- movdqa %xmm15,%xmm7
- pslld $10,%xmm2
- pxor %xmm15,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm8,%xmm14
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm14
- paddd %xmm5,%xmm10
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm14
- paddd %xmm7,%xmm14
- movd 8(%r8),%xmm5
- movd 8(%r9),%xmm0
- movd 8(%r10),%xmm1
- movd 8(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm10,%xmm7
-.byte 102,15,56,0,238
- movdqa %xmm10,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm10,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,32-128(%rax)
- paddd %xmm13,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -64(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm10,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm10,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm12,%xmm0
- pand %xmm11,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm14,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm14,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm15,%xmm3
- movdqa %xmm14,%xmm7
- pslld $10,%xmm2
- pxor %xmm14,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm15,%xmm13
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm13
- paddd %xmm5,%xmm9
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm13
- paddd %xmm7,%xmm13
- movd 12(%r8),%xmm5
- movd 12(%r9),%xmm0
- movd 12(%r10),%xmm1
- movd 12(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm9,%xmm7
-
- movdqa %xmm9,%xmm2
-.byte 102,15,56,0,238
- psrld $6,%xmm7
- movdqa %xmm9,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,48-128(%rax)
- paddd %xmm12,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -32(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm9,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm9,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm11,%xmm0
- pand %xmm10,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm13,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm13,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm4,%xmm0
- movdqa %xmm14,%xmm4
- movdqa %xmm13,%xmm7
- pslld $10,%xmm2
- pxor %xmm13,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm14,%xmm12
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm12
- paddd %xmm5,%xmm8
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm12
- paddd %xmm7,%xmm12
- movd 16(%r8),%xmm5
- movd 16(%r9),%xmm0
- movd 16(%r10),%xmm1
- movd 16(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm8,%xmm7
-.byte 102,15,56,0,238
- movdqa %xmm8,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm8,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,64-128(%rax)
- paddd %xmm11,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 0(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm8,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm8,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm10,%xmm0
- pand %xmm9,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm12,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm12,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm13,%xmm3
- movdqa %xmm12,%xmm7
- pslld $10,%xmm2
- pxor %xmm12,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm13,%xmm11
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm11
- paddd %xmm5,%xmm15
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm11
- paddd %xmm7,%xmm11
- movd 20(%r8),%xmm5
- movd 20(%r9),%xmm0
- movd 20(%r10),%xmm1
- movd 20(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm15,%xmm7
-
- movdqa %xmm15,%xmm2
-.byte 102,15,56,0,238
- psrld $6,%xmm7
- movdqa %xmm15,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,80-128(%rax)
- paddd %xmm10,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 32(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm15,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm15,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm9,%xmm0
- pand %xmm8,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm11,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm11,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm4,%xmm0
- movdqa %xmm12,%xmm4
- movdqa %xmm11,%xmm7
- pslld $10,%xmm2
- pxor %xmm11,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm12,%xmm10
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm10
- paddd %xmm5,%xmm14
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm10
- paddd %xmm7,%xmm10
- movd 24(%r8),%xmm5
- movd 24(%r9),%xmm0
- movd 24(%r10),%xmm1
- movd 24(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm14,%xmm7
-.byte 102,15,56,0,238
- movdqa %xmm14,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm14,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,96-128(%rax)
- paddd %xmm9,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 64(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm14,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm14,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm8,%xmm0
- pand %xmm15,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm10,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm10,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm11,%xmm3
- movdqa %xmm10,%xmm7
- pslld $10,%xmm2
- pxor %xmm10,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm11,%xmm9
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm9
- paddd %xmm5,%xmm13
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm9
- paddd %xmm7,%xmm9
- movd 28(%r8),%xmm5
- movd 28(%r9),%xmm0
- movd 28(%r10),%xmm1
- movd 28(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm13,%xmm7
-
- movdqa %xmm13,%xmm2
-.byte 102,15,56,0,238
- psrld $6,%xmm7
- movdqa %xmm13,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,112-128(%rax)
- paddd %xmm8,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 96(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm13,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm13,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm15,%xmm0
- pand %xmm14,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm9,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm9,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm4,%xmm0
- movdqa %xmm10,%xmm4
- movdqa %xmm9,%xmm7
- pslld $10,%xmm2
- pxor %xmm9,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm10,%xmm8
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm8
- paddd %xmm5,%xmm12
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm8
- paddd %xmm7,%xmm8
- leaq 256(%rbp),%rbp
- movd 32(%r8),%xmm5
- movd 32(%r9),%xmm0
- movd 32(%r10),%xmm1
- movd 32(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm12,%xmm7
-.byte 102,15,56,0,238
- movdqa %xmm12,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm12,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,128-128(%rax)
- paddd %xmm15,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -128(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm12,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm12,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm14,%xmm0
- pand %xmm13,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm8,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm8,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm9,%xmm3
- movdqa %xmm8,%xmm7
- pslld $10,%xmm2
- pxor %xmm8,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm9,%xmm15
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm15
- paddd %xmm5,%xmm11
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm15
- paddd %xmm7,%xmm15
- movd 36(%r8),%xmm5
- movd 36(%r9),%xmm0
- movd 36(%r10),%xmm1
- movd 36(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm11,%xmm7
-
- movdqa %xmm11,%xmm2
-.byte 102,15,56,0,238
- psrld $6,%xmm7
- movdqa %xmm11,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,144-128(%rax)
- paddd %xmm14,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -96(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm11,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm11,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm13,%xmm0
- pand %xmm12,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm15,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm15,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm4,%xmm0
- movdqa %xmm8,%xmm4
- movdqa %xmm15,%xmm7
- pslld $10,%xmm2
- pxor %xmm15,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm8,%xmm14
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm14
- paddd %xmm5,%xmm10
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm14
- paddd %xmm7,%xmm14
- movd 40(%r8),%xmm5
- movd 40(%r9),%xmm0
- movd 40(%r10),%xmm1
- movd 40(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm10,%xmm7
-.byte 102,15,56,0,238
- movdqa %xmm10,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm10,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,160-128(%rax)
- paddd %xmm13,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -64(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm10,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm10,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm12,%xmm0
- pand %xmm11,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm14,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm14,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm15,%xmm3
- movdqa %xmm14,%xmm7
- pslld $10,%xmm2
- pxor %xmm14,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm15,%xmm13
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm13
- paddd %xmm5,%xmm9
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm13
- paddd %xmm7,%xmm13
- movd 44(%r8),%xmm5
- movd 44(%r9),%xmm0
- movd 44(%r10),%xmm1
- movd 44(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm9,%xmm7
-
- movdqa %xmm9,%xmm2
-.byte 102,15,56,0,238
- psrld $6,%xmm7
- movdqa %xmm9,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,176-128(%rax)
- paddd %xmm12,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -32(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm9,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm9,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm11,%xmm0
- pand %xmm10,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm13,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm13,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm4,%xmm0
- movdqa %xmm14,%xmm4
- movdqa %xmm13,%xmm7
- pslld $10,%xmm2
- pxor %xmm13,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm14,%xmm12
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm12
- paddd %xmm5,%xmm8
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm12
- paddd %xmm7,%xmm12
- movd 48(%r8),%xmm5
- movd 48(%r9),%xmm0
- movd 48(%r10),%xmm1
- movd 48(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm8,%xmm7
-.byte 102,15,56,0,238
- movdqa %xmm8,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm8,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,192-128(%rax)
- paddd %xmm11,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 0(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm8,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm8,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm10,%xmm0
- pand %xmm9,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm12,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm12,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm13,%xmm3
- movdqa %xmm12,%xmm7
- pslld $10,%xmm2
- pxor %xmm12,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm13,%xmm11
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm11
- paddd %xmm5,%xmm15
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm11
- paddd %xmm7,%xmm11
- movd 52(%r8),%xmm5
- movd 52(%r9),%xmm0
- movd 52(%r10),%xmm1
- movd 52(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm15,%xmm7
-
- movdqa %xmm15,%xmm2
-.byte 102,15,56,0,238
- psrld $6,%xmm7
- movdqa %xmm15,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,208-128(%rax)
- paddd %xmm10,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 32(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm15,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm15,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm9,%xmm0
- pand %xmm8,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm11,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm11,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm4,%xmm0
- movdqa %xmm12,%xmm4
- movdqa %xmm11,%xmm7
- pslld $10,%xmm2
- pxor %xmm11,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm12,%xmm10
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm10
- paddd %xmm5,%xmm14
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm10
- paddd %xmm7,%xmm10
- movd 56(%r8),%xmm5
- movd 56(%r9),%xmm0
- movd 56(%r10),%xmm1
- movd 56(%r11),%xmm2
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm14,%xmm7
-.byte 102,15,56,0,238
- movdqa %xmm14,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm14,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,224-128(%rax)
- paddd %xmm9,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 64(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm14,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm14,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm8,%xmm0
- pand %xmm15,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm10,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm10,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm11,%xmm3
- movdqa %xmm10,%xmm7
- pslld $10,%xmm2
- pxor %xmm10,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm11,%xmm9
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm9
- paddd %xmm5,%xmm13
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm9
- paddd %xmm7,%xmm9
- movd 60(%r8),%xmm5
- leaq 64(%r8),%r8
- movd 60(%r9),%xmm0
- leaq 64(%r9),%r9
- movd 60(%r10),%xmm1
- leaq 64(%r10),%r10
- movd 60(%r11),%xmm2
- leaq 64(%r11),%r11
- punpckldq %xmm1,%xmm5
- punpckldq %xmm2,%xmm0
- punpckldq %xmm0,%xmm5
- movdqa %xmm13,%xmm7
-
- movdqa %xmm13,%xmm2
-.byte 102,15,56,0,238
- psrld $6,%xmm7
- movdqa %xmm13,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,240-128(%rax)
- paddd %xmm8,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 96(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm13,%xmm0
- prefetcht0 63(%r8)
- pxor %xmm2,%xmm7
- movdqa %xmm13,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm15,%xmm0
- pand %xmm14,%xmm4
- pxor %xmm1,%xmm7
-
- prefetcht0 63(%r9)
- movdqa %xmm9,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm9,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm4,%xmm0
- movdqa %xmm10,%xmm4
- movdqa %xmm9,%xmm7
- pslld $10,%xmm2
- pxor %xmm9,%xmm4
-
- prefetcht0 63(%r10)
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
- prefetcht0 63(%r11)
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm10,%xmm8
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm8
- paddd %xmm5,%xmm12
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm8
- paddd %xmm7,%xmm8
- leaq 256(%rbp),%rbp
- movdqu 0-128(%rax),%xmm5
- movl $3,%ecx
- jmp .Loop_16_xx
-.align 32
-.Loop_16_xx:
- movdqa 16-128(%rax),%xmm6
- paddd 144-128(%rax),%xmm5
-
- movdqa %xmm6,%xmm7
- movdqa %xmm6,%xmm1
- psrld $3,%xmm7
- movdqa %xmm6,%xmm2
-
- psrld $7,%xmm1
- movdqa 224-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm3
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm3,%xmm1
-
- psrld $17,%xmm3
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- psrld $19-17,%xmm3
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm3,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm5
- movdqa %xmm12,%xmm7
-
- movdqa %xmm12,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm12,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,0-128(%rax)
- paddd %xmm15,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -128(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm12,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm12,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm14,%xmm0
- pand %xmm13,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm8,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm8,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm9,%xmm3
- movdqa %xmm8,%xmm7
- pslld $10,%xmm2
- pxor %xmm8,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm9,%xmm15
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm15
- paddd %xmm5,%xmm11
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm15
- paddd %xmm7,%xmm15
- movdqa 32-128(%rax),%xmm5
- paddd 160-128(%rax),%xmm6
-
- movdqa %xmm5,%xmm7
- movdqa %xmm5,%xmm1
- psrld $3,%xmm7
- movdqa %xmm5,%xmm2
-
- psrld $7,%xmm1
- movdqa 240-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm4
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm4,%xmm1
-
- psrld $17,%xmm4
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- psrld $19-17,%xmm4
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm4,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm6
- movdqa %xmm11,%xmm7
-
- movdqa %xmm11,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm11,%xmm1
- pslld $7,%xmm2
- movdqa %xmm6,16-128(%rax)
- paddd %xmm14,%xmm6
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -96(%rbp),%xmm6
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm11,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm11,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm13,%xmm0
- pand %xmm12,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm15,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm15,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- movdqa %xmm8,%xmm4
- movdqa %xmm15,%xmm7
- pslld $10,%xmm2
- pxor %xmm15,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm6
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm8,%xmm14
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm14
- paddd %xmm6,%xmm10
- pxor %xmm2,%xmm7
-
- paddd %xmm6,%xmm14
- paddd %xmm7,%xmm14
- movdqa 48-128(%rax),%xmm6
- paddd 176-128(%rax),%xmm5
-
- movdqa %xmm6,%xmm7
- movdqa %xmm6,%xmm1
- psrld $3,%xmm7
- movdqa %xmm6,%xmm2
-
- psrld $7,%xmm1
- movdqa 0-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm3
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm3,%xmm1
-
- psrld $17,%xmm3
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- psrld $19-17,%xmm3
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm3,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm5
- movdqa %xmm10,%xmm7
-
- movdqa %xmm10,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm10,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,32-128(%rax)
- paddd %xmm13,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -64(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm10,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm10,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm12,%xmm0
- pand %xmm11,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm14,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm14,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm15,%xmm3
- movdqa %xmm14,%xmm7
- pslld $10,%xmm2
- pxor %xmm14,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm15,%xmm13
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm13
- paddd %xmm5,%xmm9
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm13
- paddd %xmm7,%xmm13
- movdqa 64-128(%rax),%xmm5
- paddd 192-128(%rax),%xmm6
-
- movdqa %xmm5,%xmm7
- movdqa %xmm5,%xmm1
- psrld $3,%xmm7
- movdqa %xmm5,%xmm2
-
- psrld $7,%xmm1
- movdqa 16-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm4
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm4,%xmm1
-
- psrld $17,%xmm4
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- psrld $19-17,%xmm4
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm4,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm6
- movdqa %xmm9,%xmm7
-
- movdqa %xmm9,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm9,%xmm1
- pslld $7,%xmm2
- movdqa %xmm6,48-128(%rax)
- paddd %xmm12,%xmm6
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -32(%rbp),%xmm6
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm9,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm9,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm11,%xmm0
- pand %xmm10,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm13,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm13,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- movdqa %xmm14,%xmm4
- movdqa %xmm13,%xmm7
- pslld $10,%xmm2
- pxor %xmm13,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm6
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm14,%xmm12
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm12
- paddd %xmm6,%xmm8
- pxor %xmm2,%xmm7
-
- paddd %xmm6,%xmm12
- paddd %xmm7,%xmm12
- movdqa 80-128(%rax),%xmm6
- paddd 208-128(%rax),%xmm5
-
- movdqa %xmm6,%xmm7
- movdqa %xmm6,%xmm1
- psrld $3,%xmm7
- movdqa %xmm6,%xmm2
-
- psrld $7,%xmm1
- movdqa 32-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm3
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm3,%xmm1
-
- psrld $17,%xmm3
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- psrld $19-17,%xmm3
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm3,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm5
- movdqa %xmm8,%xmm7
-
- movdqa %xmm8,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm8,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,64-128(%rax)
- paddd %xmm11,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 0(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm8,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm8,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm10,%xmm0
- pand %xmm9,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm12,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm12,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm13,%xmm3
- movdqa %xmm12,%xmm7
- pslld $10,%xmm2
- pxor %xmm12,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm13,%xmm11
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm11
- paddd %xmm5,%xmm15
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm11
- paddd %xmm7,%xmm11
- movdqa 96-128(%rax),%xmm5
- paddd 224-128(%rax),%xmm6
-
- movdqa %xmm5,%xmm7
- movdqa %xmm5,%xmm1
- psrld $3,%xmm7
- movdqa %xmm5,%xmm2
-
- psrld $7,%xmm1
- movdqa 48-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm4
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm4,%xmm1
-
- psrld $17,%xmm4
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- psrld $19-17,%xmm4
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm4,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm6
- movdqa %xmm15,%xmm7
-
- movdqa %xmm15,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm15,%xmm1
- pslld $7,%xmm2
- movdqa %xmm6,80-128(%rax)
- paddd %xmm10,%xmm6
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 32(%rbp),%xmm6
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm15,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm15,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm9,%xmm0
- pand %xmm8,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm11,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm11,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- movdqa %xmm12,%xmm4
- movdqa %xmm11,%xmm7
- pslld $10,%xmm2
- pxor %xmm11,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm6
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm12,%xmm10
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm10
- paddd %xmm6,%xmm14
- pxor %xmm2,%xmm7
-
- paddd %xmm6,%xmm10
- paddd %xmm7,%xmm10
- movdqa 112-128(%rax),%xmm6
- paddd 240-128(%rax),%xmm5
-
- movdqa %xmm6,%xmm7
- movdqa %xmm6,%xmm1
- psrld $3,%xmm7
- movdqa %xmm6,%xmm2
-
- psrld $7,%xmm1
- movdqa 64-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm3
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm3,%xmm1
-
- psrld $17,%xmm3
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- psrld $19-17,%xmm3
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm3,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm5
- movdqa %xmm14,%xmm7
-
- movdqa %xmm14,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm14,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,96-128(%rax)
- paddd %xmm9,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 64(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm14,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm14,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm8,%xmm0
- pand %xmm15,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm10,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm10,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm11,%xmm3
- movdqa %xmm10,%xmm7
- pslld $10,%xmm2
- pxor %xmm10,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm11,%xmm9
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm9
- paddd %xmm5,%xmm13
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm9
- paddd %xmm7,%xmm9
- movdqa 128-128(%rax),%xmm5
- paddd 0-128(%rax),%xmm6
-
- movdqa %xmm5,%xmm7
- movdqa %xmm5,%xmm1
- psrld $3,%xmm7
- movdqa %xmm5,%xmm2
-
- psrld $7,%xmm1
- movdqa 80-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm4
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm4,%xmm1
-
- psrld $17,%xmm4
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- psrld $19-17,%xmm4
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm4,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm6
- movdqa %xmm13,%xmm7
-
- movdqa %xmm13,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm13,%xmm1
- pslld $7,%xmm2
- movdqa %xmm6,112-128(%rax)
- paddd %xmm8,%xmm6
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 96(%rbp),%xmm6
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm13,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm13,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm15,%xmm0
- pand %xmm14,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm9,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm9,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- movdqa %xmm10,%xmm4
- movdqa %xmm9,%xmm7
- pslld $10,%xmm2
- pxor %xmm9,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm6
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm10,%xmm8
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm8
- paddd %xmm6,%xmm12
- pxor %xmm2,%xmm7
-
- paddd %xmm6,%xmm8
- paddd %xmm7,%xmm8
- leaq 256(%rbp),%rbp
- movdqa 144-128(%rax),%xmm6
- paddd 16-128(%rax),%xmm5
-
- movdqa %xmm6,%xmm7
- movdqa %xmm6,%xmm1
- psrld $3,%xmm7
- movdqa %xmm6,%xmm2
-
- psrld $7,%xmm1
- movdqa 96-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm3
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm3,%xmm1
-
- psrld $17,%xmm3
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- psrld $19-17,%xmm3
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm3,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm5
- movdqa %xmm12,%xmm7
-
- movdqa %xmm12,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm12,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,128-128(%rax)
- paddd %xmm15,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -128(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm12,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm12,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm14,%xmm0
- pand %xmm13,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm8,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm8,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm9,%xmm3
- movdqa %xmm8,%xmm7
- pslld $10,%xmm2
- pxor %xmm8,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm9,%xmm15
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm15
- paddd %xmm5,%xmm11
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm15
- paddd %xmm7,%xmm15
- movdqa 160-128(%rax),%xmm5
- paddd 32-128(%rax),%xmm6
-
- movdqa %xmm5,%xmm7
- movdqa %xmm5,%xmm1
- psrld $3,%xmm7
- movdqa %xmm5,%xmm2
-
- psrld $7,%xmm1
- movdqa 112-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm4
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm4,%xmm1
-
- psrld $17,%xmm4
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- psrld $19-17,%xmm4
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm4,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm6
- movdqa %xmm11,%xmm7
-
- movdqa %xmm11,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm11,%xmm1
- pslld $7,%xmm2
- movdqa %xmm6,144-128(%rax)
- paddd %xmm14,%xmm6
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -96(%rbp),%xmm6
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm11,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm11,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm13,%xmm0
- pand %xmm12,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm15,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm15,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- movdqa %xmm8,%xmm4
- movdqa %xmm15,%xmm7
- pslld $10,%xmm2
- pxor %xmm15,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm6
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm8,%xmm14
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm14
- paddd %xmm6,%xmm10
- pxor %xmm2,%xmm7
-
- paddd %xmm6,%xmm14
- paddd %xmm7,%xmm14
- movdqa 176-128(%rax),%xmm6
- paddd 48-128(%rax),%xmm5
-
- movdqa %xmm6,%xmm7
- movdqa %xmm6,%xmm1
- psrld $3,%xmm7
- movdqa %xmm6,%xmm2
-
- psrld $7,%xmm1
- movdqa 128-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm3
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm3,%xmm1
-
- psrld $17,%xmm3
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- psrld $19-17,%xmm3
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm3,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm5
- movdqa %xmm10,%xmm7
-
- movdqa %xmm10,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm10,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,160-128(%rax)
- paddd %xmm13,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -64(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm10,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm10,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm12,%xmm0
- pand %xmm11,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm14,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm14,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm15,%xmm3
- movdqa %xmm14,%xmm7
- pslld $10,%xmm2
- pxor %xmm14,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm15,%xmm13
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm13
- paddd %xmm5,%xmm9
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm13
- paddd %xmm7,%xmm13
- movdqa 192-128(%rax),%xmm5
- paddd 64-128(%rax),%xmm6
-
- movdqa %xmm5,%xmm7
- movdqa %xmm5,%xmm1
- psrld $3,%xmm7
- movdqa %xmm5,%xmm2
-
- psrld $7,%xmm1
- movdqa 144-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm4
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm4,%xmm1
-
- psrld $17,%xmm4
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- psrld $19-17,%xmm4
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm4,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm6
- movdqa %xmm9,%xmm7
-
- movdqa %xmm9,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm9,%xmm1
- pslld $7,%xmm2
- movdqa %xmm6,176-128(%rax)
- paddd %xmm12,%xmm6
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd -32(%rbp),%xmm6
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm9,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm9,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm11,%xmm0
- pand %xmm10,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm13,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm13,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- movdqa %xmm14,%xmm4
- movdqa %xmm13,%xmm7
- pslld $10,%xmm2
- pxor %xmm13,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm6
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm14,%xmm12
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm12
- paddd %xmm6,%xmm8
- pxor %xmm2,%xmm7
-
- paddd %xmm6,%xmm12
- paddd %xmm7,%xmm12
- movdqa 208-128(%rax),%xmm6
- paddd 80-128(%rax),%xmm5
-
- movdqa %xmm6,%xmm7
- movdqa %xmm6,%xmm1
- psrld $3,%xmm7
- movdqa %xmm6,%xmm2
-
- psrld $7,%xmm1
- movdqa 160-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm3
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm3,%xmm1
-
- psrld $17,%xmm3
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- psrld $19-17,%xmm3
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm3,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm5
- movdqa %xmm8,%xmm7
-
- movdqa %xmm8,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm8,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,192-128(%rax)
- paddd %xmm11,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 0(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm8,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm8,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm10,%xmm0
- pand %xmm9,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm12,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm12,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm13,%xmm3
- movdqa %xmm12,%xmm7
- pslld $10,%xmm2
- pxor %xmm12,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm13,%xmm11
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm11
- paddd %xmm5,%xmm15
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm11
- paddd %xmm7,%xmm11
- movdqa 224-128(%rax),%xmm5
- paddd 96-128(%rax),%xmm6
-
- movdqa %xmm5,%xmm7
- movdqa %xmm5,%xmm1
- psrld $3,%xmm7
- movdqa %xmm5,%xmm2
-
- psrld $7,%xmm1
- movdqa 176-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm4
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm4,%xmm1
-
- psrld $17,%xmm4
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- psrld $19-17,%xmm4
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm4,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm6
- movdqa %xmm15,%xmm7
-
- movdqa %xmm15,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm15,%xmm1
- pslld $7,%xmm2
- movdqa %xmm6,208-128(%rax)
- paddd %xmm10,%xmm6
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 32(%rbp),%xmm6
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm15,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm15,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm9,%xmm0
- pand %xmm8,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm11,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm11,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- movdqa %xmm12,%xmm4
- movdqa %xmm11,%xmm7
- pslld $10,%xmm2
- pxor %xmm11,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm6
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm12,%xmm10
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm10
- paddd %xmm6,%xmm14
- pxor %xmm2,%xmm7
-
- paddd %xmm6,%xmm10
- paddd %xmm7,%xmm10
- movdqa 240-128(%rax),%xmm6
- paddd 112-128(%rax),%xmm5
-
- movdqa %xmm6,%xmm7
- movdqa %xmm6,%xmm1
- psrld $3,%xmm7
- movdqa %xmm6,%xmm2
-
- psrld $7,%xmm1
- movdqa 192-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm3
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm3,%xmm1
-
- psrld $17,%xmm3
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- psrld $19-17,%xmm3
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm3,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm5
- movdqa %xmm14,%xmm7
-
- movdqa %xmm14,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm14,%xmm1
- pslld $7,%xmm2
- movdqa %xmm5,224-128(%rax)
- paddd %xmm9,%xmm5
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 64(%rbp),%xmm5
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm14,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm14,%xmm3
- pslld $26-21,%xmm2
- pandn %xmm8,%xmm0
- pand %xmm15,%xmm3
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm10,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm10,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm5
- pxor %xmm3,%xmm0
- movdqa %xmm11,%xmm3
- movdqa %xmm10,%xmm7
- pslld $10,%xmm2
- pxor %xmm10,%xmm3
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm5
- pslld $19-10,%xmm2
- pand %xmm3,%xmm4
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm11,%xmm9
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm4,%xmm9
- paddd %xmm5,%xmm13
- pxor %xmm2,%xmm7
-
- paddd %xmm5,%xmm9
- paddd %xmm7,%xmm9
- movdqa 0-128(%rax),%xmm5
- paddd 128-128(%rax),%xmm6
-
- movdqa %xmm5,%xmm7
- movdqa %xmm5,%xmm1
- psrld $3,%xmm7
- movdqa %xmm5,%xmm2
-
- psrld $7,%xmm1
- movdqa 208-128(%rax),%xmm0
- pslld $14,%xmm2
- pxor %xmm1,%xmm7
- psrld $18-7,%xmm1
- movdqa %xmm0,%xmm4
- pxor %xmm2,%xmm7
- pslld $25-14,%xmm2
- pxor %xmm1,%xmm7
- psrld $10,%xmm0
- movdqa %xmm4,%xmm1
-
- psrld $17,%xmm4
- pxor %xmm2,%xmm7
- pslld $13,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- psrld $19-17,%xmm4
- pxor %xmm1,%xmm0
- pslld $15-13,%xmm1
- pxor %xmm4,%xmm0
- pxor %xmm1,%xmm0
- paddd %xmm0,%xmm6
- movdqa %xmm13,%xmm7
-
- movdqa %xmm13,%xmm2
-
- psrld $6,%xmm7
- movdqa %xmm13,%xmm1
- pslld $7,%xmm2
- movdqa %xmm6,240-128(%rax)
- paddd %xmm8,%xmm6
-
- psrld $11,%xmm1
- pxor %xmm2,%xmm7
- pslld $21-7,%xmm2
- paddd 96(%rbp),%xmm6
- pxor %xmm1,%xmm7
-
- psrld $25-11,%xmm1
- movdqa %xmm13,%xmm0
-
- pxor %xmm2,%xmm7
- movdqa %xmm13,%xmm4
- pslld $26-21,%xmm2
- pandn %xmm15,%xmm0
- pand %xmm14,%xmm4
- pxor %xmm1,%xmm7
-
-
- movdqa %xmm9,%xmm1
- pxor %xmm2,%xmm7
- movdqa %xmm9,%xmm2
- psrld $2,%xmm1
- paddd %xmm7,%xmm6
- pxor %xmm4,%xmm0
- movdqa %xmm10,%xmm4
- movdqa %xmm9,%xmm7
- pslld $10,%xmm2
- pxor %xmm9,%xmm4
-
-
- psrld $13,%xmm7
- pxor %xmm2,%xmm1
- paddd %xmm0,%xmm6
- pslld $19-10,%xmm2
- pand %xmm4,%xmm3
- pxor %xmm7,%xmm1
-
-
- psrld $22-13,%xmm7
- pxor %xmm2,%xmm1
- movdqa %xmm10,%xmm8
- pslld $30-19,%xmm2
- pxor %xmm1,%xmm7
- pxor %xmm3,%xmm8
- paddd %xmm6,%xmm12
- pxor %xmm2,%xmm7
-
- paddd %xmm6,%xmm8
- paddd %xmm7,%xmm8
- leaq 256(%rbp),%rbp
- decl %ecx
- jnz .Loop_16_xx
-
- movl $1,%ecx
- leaq K256+128(%rip),%rbp
-
- movdqa (%rbx),%xmm7
- cmpl 0(%rbx),%ecx
- pxor %xmm0,%xmm0
- cmovgeq %rbp,%r8
- cmpl 4(%rbx),%ecx
- movdqa %xmm7,%xmm6
- cmovgeq %rbp,%r9
- cmpl 8(%rbx),%ecx
- pcmpgtd %xmm0,%xmm6
- cmovgeq %rbp,%r10
- cmpl 12(%rbx),%ecx
- paddd %xmm6,%xmm7
- cmovgeq %rbp,%r11
-
- movdqu 0-128(%rdi),%xmm0
- pand %xmm6,%xmm8
- movdqu 32-128(%rdi),%xmm1
- pand %xmm6,%xmm9
- movdqu 64-128(%rdi),%xmm2
- pand %xmm6,%xmm10
- movdqu 96-128(%rdi),%xmm5
- pand %xmm6,%xmm11
- paddd %xmm0,%xmm8
- movdqu 128-128(%rdi),%xmm0
- pand %xmm6,%xmm12
- paddd %xmm1,%xmm9
- movdqu 160-128(%rdi),%xmm1
- pand %xmm6,%xmm13
- paddd %xmm2,%xmm10
- movdqu 192-128(%rdi),%xmm2
- pand %xmm6,%xmm14
- paddd %xmm5,%xmm11
- movdqu 224-128(%rdi),%xmm5
- pand %xmm6,%xmm15
- paddd %xmm0,%xmm12
- paddd %xmm1,%xmm13
- movdqu %xmm8,0-128(%rdi)
- paddd %xmm2,%xmm14
- movdqu %xmm9,32-128(%rdi)
- paddd %xmm5,%xmm15
- movdqu %xmm10,64-128(%rdi)
- movdqu %xmm11,96-128(%rdi)
- movdqu %xmm12,128-128(%rdi)
- movdqu %xmm13,160-128(%rdi)
- movdqu %xmm14,192-128(%rdi)
- movdqu %xmm15,224-128(%rdi)
-
- movdqa %xmm7,(%rbx)
- movdqa .Lpbswap(%rip),%xmm6
- decl %edx
- jnz .Loop
-
- movl 280(%rsp),%edx
- leaq 16(%rdi),%rdi
- leaq 64(%rsi),%rsi
- decl %edx
- jnz .Loop_grande
-
-.Ldone:
- movq 272(%rsp),%rax
-.cfi_def_cfa %rax,8
- movq -16(%rax),%rbp
-.cfi_restore %rbp
- movq -8(%rax),%rbx
-.cfi_restore %rbx
- leaq (%rax),%rsp
-.cfi_def_cfa_register %rsp
-.Lepilogue:
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha256_multi_block,.-sha256_multi_block
-.type sha256_multi_block_shaext,@function
-.align 32
-sha256_multi_block_shaext:
-.cfi_startproc
-_shaext_shortcut:
- movq %rsp,%rax
-.cfi_def_cfa_register %rax
- pushq %rbx
-.cfi_offset %rbx,-16
- pushq %rbp
-.cfi_offset %rbp,-24
- subq $288,%rsp
- shll $1,%edx
- andq $-256,%rsp
- leaq 128(%rdi),%rdi
- movq %rax,272(%rsp)
-.Lbody_shaext:
- leaq 256(%rsp),%rbx
- leaq K256_shaext+128(%rip),%rbp
-
-.Loop_grande_shaext:
- movl %edx,280(%rsp)
- xorl %edx,%edx
- movq 0(%rsi),%r8
- movl 8(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,0(%rbx)
- cmovleq %rsp,%r8
- movq 16(%rsi),%r9
- movl 24(%rsi),%ecx
- cmpl %edx,%ecx
- cmovgl %ecx,%edx
- testl %ecx,%ecx
- movl %ecx,4(%rbx)
- cmovleq %rsp,%r9
- testl %edx,%edx
- jz .Ldone_shaext
-
- movq 0-128(%rdi),%xmm12
- movq 32-128(%rdi),%xmm4
- movq 64-128(%rdi),%xmm13
- movq 96-128(%rdi),%xmm5
- movq 128-128(%rdi),%xmm8
- movq 160-128(%rdi),%xmm9
- movq 192-128(%rdi),%xmm10
- movq 224-128(%rdi),%xmm11
-
- punpckldq %xmm4,%xmm12
- punpckldq %xmm5,%xmm13
- punpckldq %xmm9,%xmm8
- punpckldq %xmm11,%xmm10
- movdqa K256_shaext-16(%rip),%xmm3
-
- movdqa %xmm12,%xmm14
- movdqa %xmm13,%xmm15
- punpcklqdq %xmm8,%xmm12
- punpcklqdq %xmm10,%xmm13
- punpckhqdq %xmm8,%xmm14
- punpckhqdq %xmm10,%xmm15
-
- pshufd $27,%xmm12,%xmm12
- pshufd $27,%xmm13,%xmm13
- pshufd $27,%xmm14,%xmm14
- pshufd $27,%xmm15,%xmm15
- jmp .Loop_shaext
-
-.align 32
-.Loop_shaext:
- movdqu 0(%r8),%xmm4
- movdqu 0(%r9),%xmm8
- movdqu 16(%r8),%xmm5
- movdqu 16(%r9),%xmm9
- movdqu 32(%r8),%xmm6
-.byte 102,15,56,0,227
- movdqu 32(%r9),%xmm10
-.byte 102,68,15,56,0,195
- movdqu 48(%r8),%xmm7
- leaq 64(%r8),%r8
- movdqu 48(%r9),%xmm11
- leaq 64(%r9),%r9
-
- movdqa 0-128(%rbp),%xmm0
-.byte 102,15,56,0,235
- paddd %xmm4,%xmm0
- pxor %xmm12,%xmm4
- movdqa %xmm0,%xmm1
- movdqa 0-128(%rbp),%xmm2
-.byte 102,68,15,56,0,203
- paddd %xmm8,%xmm2
- movdqa %xmm13,80(%rsp)
-.byte 69,15,56,203,236
- pxor %xmm14,%xmm8
- movdqa %xmm2,%xmm0
- movdqa %xmm15,112(%rsp)
-.byte 69,15,56,203,254
- pshufd $0x0e,%xmm1,%xmm0
- pxor %xmm12,%xmm4
- movdqa %xmm12,64(%rsp)
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- pxor %xmm14,%xmm8
- movdqa %xmm14,96(%rsp)
- movdqa 16-128(%rbp),%xmm1
- paddd %xmm5,%xmm1
-.byte 102,15,56,0,243
-.byte 69,15,56,203,247
-
- movdqa %xmm1,%xmm0
- movdqa 16-128(%rbp),%xmm2
- paddd %xmm9,%xmm2
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- prefetcht0 127(%r8)
-.byte 102,15,56,0,251
-.byte 102,68,15,56,0,211
- prefetcht0 127(%r9)
-.byte 69,15,56,203,254
- pshufd $0x0e,%xmm1,%xmm0
-.byte 102,68,15,56,0,219
-.byte 15,56,204,229
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 32-128(%rbp),%xmm1
- paddd %xmm6,%xmm1
-.byte 69,15,56,203,247
-
- movdqa %xmm1,%xmm0
- movdqa 32-128(%rbp),%xmm2
- paddd %xmm10,%xmm2
-.byte 69,15,56,203,236
-.byte 69,15,56,204,193
- movdqa %xmm2,%xmm0
- movdqa %xmm7,%xmm3
-.byte 69,15,56,203,254
- pshufd $0x0e,%xmm1,%xmm0
-.byte 102,15,58,15,222,4
- paddd %xmm3,%xmm4
- movdqa %xmm11,%xmm3
-.byte 102,65,15,58,15,218,4
-.byte 15,56,204,238
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 48-128(%rbp),%xmm1
- paddd %xmm7,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,202
-
- movdqa %xmm1,%xmm0
- movdqa 48-128(%rbp),%xmm2
- paddd %xmm3,%xmm8
- paddd %xmm11,%xmm2
-.byte 15,56,205,231
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm4,%xmm3
-.byte 102,15,58,15,223,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,195
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm5
- movdqa %xmm8,%xmm3
-.byte 102,65,15,58,15,219,4
-.byte 15,56,204,247
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 64-128(%rbp),%xmm1
- paddd %xmm4,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,211
- movdqa %xmm1,%xmm0
- movdqa 64-128(%rbp),%xmm2
- paddd %xmm3,%xmm9
- paddd %xmm8,%xmm2
-.byte 15,56,205,236
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm5,%xmm3
-.byte 102,15,58,15,220,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,200
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm6
- movdqa %xmm9,%xmm3
-.byte 102,65,15,58,15,216,4
-.byte 15,56,204,252
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 80-128(%rbp),%xmm1
- paddd %xmm5,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,216
- movdqa %xmm1,%xmm0
- movdqa 80-128(%rbp),%xmm2
- paddd %xmm3,%xmm10
- paddd %xmm9,%xmm2
-.byte 15,56,205,245
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm6,%xmm3
-.byte 102,15,58,15,221,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,209
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm7
- movdqa %xmm10,%xmm3
-.byte 102,65,15,58,15,217,4
-.byte 15,56,204,229
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 96-128(%rbp),%xmm1
- paddd %xmm6,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,193
- movdqa %xmm1,%xmm0
- movdqa 96-128(%rbp),%xmm2
- paddd %xmm3,%xmm11
- paddd %xmm10,%xmm2
-.byte 15,56,205,254
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm7,%xmm3
-.byte 102,15,58,15,222,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,218
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm4
- movdqa %xmm11,%xmm3
-.byte 102,65,15,58,15,218,4
-.byte 15,56,204,238
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 112-128(%rbp),%xmm1
- paddd %xmm7,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,202
- movdqa %xmm1,%xmm0
- movdqa 112-128(%rbp),%xmm2
- paddd %xmm3,%xmm8
- paddd %xmm11,%xmm2
-.byte 15,56,205,231
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm4,%xmm3
-.byte 102,15,58,15,223,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,195
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm5
- movdqa %xmm8,%xmm3
-.byte 102,65,15,58,15,219,4
-.byte 15,56,204,247
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 128-128(%rbp),%xmm1
- paddd %xmm4,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,211
- movdqa %xmm1,%xmm0
- movdqa 128-128(%rbp),%xmm2
- paddd %xmm3,%xmm9
- paddd %xmm8,%xmm2
-.byte 15,56,205,236
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm5,%xmm3
-.byte 102,15,58,15,220,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,200
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm6
- movdqa %xmm9,%xmm3
-.byte 102,65,15,58,15,216,4
-.byte 15,56,204,252
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 144-128(%rbp),%xmm1
- paddd %xmm5,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,216
- movdqa %xmm1,%xmm0
- movdqa 144-128(%rbp),%xmm2
- paddd %xmm3,%xmm10
- paddd %xmm9,%xmm2
-.byte 15,56,205,245
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm6,%xmm3
-.byte 102,15,58,15,221,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,209
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm7
- movdqa %xmm10,%xmm3
-.byte 102,65,15,58,15,217,4
-.byte 15,56,204,229
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 160-128(%rbp),%xmm1
- paddd %xmm6,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,193
- movdqa %xmm1,%xmm0
- movdqa 160-128(%rbp),%xmm2
- paddd %xmm3,%xmm11
- paddd %xmm10,%xmm2
-.byte 15,56,205,254
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm7,%xmm3
-.byte 102,15,58,15,222,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,218
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm4
- movdqa %xmm11,%xmm3
-.byte 102,65,15,58,15,218,4
-.byte 15,56,204,238
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 176-128(%rbp),%xmm1
- paddd %xmm7,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,202
- movdqa %xmm1,%xmm0
- movdqa 176-128(%rbp),%xmm2
- paddd %xmm3,%xmm8
- paddd %xmm11,%xmm2
-.byte 15,56,205,231
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm4,%xmm3
-.byte 102,15,58,15,223,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,195
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm5
- movdqa %xmm8,%xmm3
-.byte 102,65,15,58,15,219,4
-.byte 15,56,204,247
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 192-128(%rbp),%xmm1
- paddd %xmm4,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,211
- movdqa %xmm1,%xmm0
- movdqa 192-128(%rbp),%xmm2
- paddd %xmm3,%xmm9
- paddd %xmm8,%xmm2
-.byte 15,56,205,236
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm5,%xmm3
-.byte 102,15,58,15,220,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,200
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm6
- movdqa %xmm9,%xmm3
-.byte 102,65,15,58,15,216,4
-.byte 15,56,204,252
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 208-128(%rbp),%xmm1
- paddd %xmm5,%xmm1
-.byte 69,15,56,203,247
-.byte 69,15,56,204,216
- movdqa %xmm1,%xmm0
- movdqa 208-128(%rbp),%xmm2
- paddd %xmm3,%xmm10
- paddd %xmm9,%xmm2
-.byte 15,56,205,245
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movdqa %xmm6,%xmm3
-.byte 102,15,58,15,221,4
-.byte 69,15,56,203,254
-.byte 69,15,56,205,209
- pshufd $0x0e,%xmm1,%xmm0
- paddd %xmm3,%xmm7
- movdqa %xmm10,%xmm3
-.byte 102,65,15,58,15,217,4
- nop
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 224-128(%rbp),%xmm1
- paddd %xmm6,%xmm1
-.byte 69,15,56,203,247
-
- movdqa %xmm1,%xmm0
- movdqa 224-128(%rbp),%xmm2
- paddd %xmm3,%xmm11
- paddd %xmm10,%xmm2
-.byte 15,56,205,254
- nop
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- movl $1,%ecx
- pxor %xmm6,%xmm6
-.byte 69,15,56,203,254
-.byte 69,15,56,205,218
- pshufd $0x0e,%xmm1,%xmm0
- movdqa 240-128(%rbp),%xmm1
- paddd %xmm7,%xmm1
- movq (%rbx),%xmm7
- nop
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- movdqa 240-128(%rbp),%xmm2
- paddd %xmm11,%xmm2
-.byte 69,15,56,203,247
-
- movdqa %xmm1,%xmm0
- cmpl 0(%rbx),%ecx
- cmovgeq %rsp,%r8
- cmpl 4(%rbx),%ecx
- cmovgeq %rsp,%r9
- pshufd $0x00,%xmm7,%xmm9
-.byte 69,15,56,203,236
- movdqa %xmm2,%xmm0
- pshufd $0x55,%xmm7,%xmm10
- movdqa %xmm7,%xmm11
-.byte 69,15,56,203,254
- pshufd $0x0e,%xmm1,%xmm0
- pcmpgtd %xmm6,%xmm9
- pcmpgtd %xmm6,%xmm10
-.byte 69,15,56,203,229
- pshufd $0x0e,%xmm2,%xmm0
- pcmpgtd %xmm6,%xmm11
- movdqa K256_shaext-16(%rip),%xmm3
-.byte 69,15,56,203,247
-
- pand %xmm9,%xmm13
- pand %xmm10,%xmm15
- pand %xmm9,%xmm12
- pand %xmm10,%xmm14
- paddd %xmm7,%xmm11
-
- paddd 80(%rsp),%xmm13
- paddd 112(%rsp),%xmm15
- paddd 64(%rsp),%xmm12
- paddd 96(%rsp),%xmm14
-
- movq %xmm11,(%rbx)
- decl %edx
- jnz .Loop_shaext
-
- movl 280(%rsp),%edx
-
- pshufd $27,%xmm12,%xmm12
- pshufd $27,%xmm13,%xmm13
- pshufd $27,%xmm14,%xmm14
- pshufd $27,%xmm15,%xmm15
-
- movdqa %xmm12,%xmm5
- movdqa %xmm13,%xmm6
- punpckldq %xmm14,%xmm12
- punpckhdq %xmm14,%xmm5
- punpckldq %xmm15,%xmm13
- punpckhdq %xmm15,%xmm6
-
- movq %xmm12,0-128(%rdi)
- psrldq $8,%xmm12
- movq %xmm5,128-128(%rdi)
- psrldq $8,%xmm5
- movq %xmm12,32-128(%rdi)
- movq %xmm5,160-128(%rdi)
-
- movq %xmm13,64-128(%rdi)
- psrldq $8,%xmm13
- movq %xmm6,192-128(%rdi)
- psrldq $8,%xmm6
- movq %xmm13,96-128(%rdi)
- movq %xmm6,224-128(%rdi)
-
- leaq 8(%rdi),%rdi
- leaq 32(%rsi),%rsi
- decl %edx
- jnz .Loop_grande_shaext
-
-.Ldone_shaext:
-
- movq -16(%rax),%rbp
-.cfi_restore %rbp
- movq -8(%rax),%rbx
-.cfi_restore %rbx
- leaq (%rax),%rsp
-.cfi_def_cfa_register %rsp
-.Lepilogue_shaext:
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha256_multi_block_shaext,.-sha256_multi_block_shaext
-.align 256
-K256:
-.long 1116352408,1116352408,1116352408,1116352408
-.long 1116352408,1116352408,1116352408,1116352408
-.long 1899447441,1899447441,1899447441,1899447441
-.long 1899447441,1899447441,1899447441,1899447441
-.long 3049323471,3049323471,3049323471,3049323471
-.long 3049323471,3049323471,3049323471,3049323471
-.long 3921009573,3921009573,3921009573,3921009573
-.long 3921009573,3921009573,3921009573,3921009573
-.long 961987163,961987163,961987163,961987163
-.long 961987163,961987163,961987163,961987163
-.long 1508970993,1508970993,1508970993,1508970993
-.long 1508970993,1508970993,1508970993,1508970993
-.long 2453635748,2453635748,2453635748,2453635748
-.long 2453635748,2453635748,2453635748,2453635748
-.long 2870763221,2870763221,2870763221,2870763221
-.long 2870763221,2870763221,2870763221,2870763221
-.long 3624381080,3624381080,3624381080,3624381080
-.long 3624381080,3624381080,3624381080,3624381080
-.long 310598401,310598401,310598401,310598401
-.long 310598401,310598401,310598401,310598401
-.long 607225278,607225278,607225278,607225278
-.long 607225278,607225278,607225278,607225278
-.long 1426881987,1426881987,1426881987,1426881987
-.long 1426881987,1426881987,1426881987,1426881987
-.long 1925078388,1925078388,1925078388,1925078388
-.long 1925078388,1925078388,1925078388,1925078388
-.long 2162078206,2162078206,2162078206,2162078206
-.long 2162078206,2162078206,2162078206,2162078206
-.long 2614888103,2614888103,2614888103,2614888103
-.long 2614888103,2614888103,2614888103,2614888103
-.long 3248222580,3248222580,3248222580,3248222580
-.long 3248222580,3248222580,3248222580,3248222580
-.long 3835390401,3835390401,3835390401,3835390401
-.long 3835390401,3835390401,3835390401,3835390401
-.long 4022224774,4022224774,4022224774,4022224774
-.long 4022224774,4022224774,4022224774,4022224774
-.long 264347078,264347078,264347078,264347078
-.long 264347078,264347078,264347078,264347078
-.long 604807628,604807628,604807628,604807628
-.long 604807628,604807628,604807628,604807628
-.long 770255983,770255983,770255983,770255983
-.long 770255983,770255983,770255983,770255983
-.long 1249150122,1249150122,1249150122,1249150122
-.long 1249150122,1249150122,1249150122,1249150122
-.long 1555081692,1555081692,1555081692,1555081692
-.long 1555081692,1555081692,1555081692,1555081692
-.long 1996064986,1996064986,1996064986,1996064986
-.long 1996064986,1996064986,1996064986,1996064986
-.long 2554220882,2554220882,2554220882,2554220882
-.long 2554220882,2554220882,2554220882,2554220882
-.long 2821834349,2821834349,2821834349,2821834349
-.long 2821834349,2821834349,2821834349,2821834349
-.long 2952996808,2952996808,2952996808,2952996808
-.long 2952996808,2952996808,2952996808,2952996808
-.long 3210313671,3210313671,3210313671,3210313671
-.long 3210313671,3210313671,3210313671,3210313671
-.long 3336571891,3336571891,3336571891,3336571891
-.long 3336571891,3336571891,3336571891,3336571891
-.long 3584528711,3584528711,3584528711,3584528711
-.long 3584528711,3584528711,3584528711,3584528711
-.long 113926993,113926993,113926993,113926993
-.long 113926993,113926993,113926993,113926993
-.long 338241895,338241895,338241895,338241895
-.long 338241895,338241895,338241895,338241895
-.long 666307205,666307205,666307205,666307205
-.long 666307205,666307205,666307205,666307205
-.long 773529912,773529912,773529912,773529912
-.long 773529912,773529912,773529912,773529912
-.long 1294757372,1294757372,1294757372,1294757372
-.long 1294757372,1294757372,1294757372,1294757372
-.long 1396182291,1396182291,1396182291,1396182291
-.long 1396182291,1396182291,1396182291,1396182291
-.long 1695183700,1695183700,1695183700,1695183700
-.long 1695183700,1695183700,1695183700,1695183700
-.long 1986661051,1986661051,1986661051,1986661051
-.long 1986661051,1986661051,1986661051,1986661051
-.long 2177026350,2177026350,2177026350,2177026350
-.long 2177026350,2177026350,2177026350,2177026350
-.long 2456956037,2456956037,2456956037,2456956037
-.long 2456956037,2456956037,2456956037,2456956037
-.long 2730485921,2730485921,2730485921,2730485921
-.long 2730485921,2730485921,2730485921,2730485921
-.long 2820302411,2820302411,2820302411,2820302411
-.long 2820302411,2820302411,2820302411,2820302411
-.long 3259730800,3259730800,3259730800,3259730800
-.long 3259730800,3259730800,3259730800,3259730800
-.long 3345764771,3345764771,3345764771,3345764771
-.long 3345764771,3345764771,3345764771,3345764771
-.long 3516065817,3516065817,3516065817,3516065817
-.long 3516065817,3516065817,3516065817,3516065817
-.long 3600352804,3600352804,3600352804,3600352804
-.long 3600352804,3600352804,3600352804,3600352804
-.long 4094571909,4094571909,4094571909,4094571909
-.long 4094571909,4094571909,4094571909,4094571909
-.long 275423344,275423344,275423344,275423344
-.long 275423344,275423344,275423344,275423344
-.long 430227734,430227734,430227734,430227734
-.long 430227734,430227734,430227734,430227734
-.long 506948616,506948616,506948616,506948616
-.long 506948616,506948616,506948616,506948616
-.long 659060556,659060556,659060556,659060556
-.long 659060556,659060556,659060556,659060556
-.long 883997877,883997877,883997877,883997877
-.long 883997877,883997877,883997877,883997877
-.long 958139571,958139571,958139571,958139571
-.long 958139571,958139571,958139571,958139571
-.long 1322822218,1322822218,1322822218,1322822218
-.long 1322822218,1322822218,1322822218,1322822218
-.long 1537002063,1537002063,1537002063,1537002063
-.long 1537002063,1537002063,1537002063,1537002063
-.long 1747873779,1747873779,1747873779,1747873779
-.long 1747873779,1747873779,1747873779,1747873779
-.long 1955562222,1955562222,1955562222,1955562222
-.long 1955562222,1955562222,1955562222,1955562222
-.long 2024104815,2024104815,2024104815,2024104815
-.long 2024104815,2024104815,2024104815,2024104815
-.long 2227730452,2227730452,2227730452,2227730452
-.long 2227730452,2227730452,2227730452,2227730452
-.long 2361852424,2361852424,2361852424,2361852424
-.long 2361852424,2361852424,2361852424,2361852424
-.long 2428436474,2428436474,2428436474,2428436474
-.long 2428436474,2428436474,2428436474,2428436474
-.long 2756734187,2756734187,2756734187,2756734187
-.long 2756734187,2756734187,2756734187,2756734187
-.long 3204031479,3204031479,3204031479,3204031479
-.long 3204031479,3204031479,3204031479,3204031479
-.long 3329325298,3329325298,3329325298,3329325298
-.long 3329325298,3329325298,3329325298,3329325298
-.Lpbswap:
-.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
-.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
-K256_shaext:
-.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5
-.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5
-.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3
-.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174
-.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc
-.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da
-.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7
-.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967
-.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13
-.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85
-.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3
-.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070
-.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5
-.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3
-.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208
-.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2
-.byte 83,72,65,50,53,54,32,109,117,108,116,105,45,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-x86_64.S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-x86_64.S
deleted file mode 100644
index a5d3cf5068..0000000000
--- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-x86_64.S
+++ /dev/null
@@ -1,3097 +0,0 @@
-# WARNING: do not edit!
-# Generated from openssl/crypto/sha/asm/sha512-x86_64.pl
-#
-# Copyright 2005-2020 The OpenSSL Project Authors. All Rights Reserved.
-#
-# Licensed under the OpenSSL license (the "License"). You may not use
-# this file except in compliance with the License. You can obtain a copy
-# in the file LICENSE in the source distribution or at
-# https://www.openssl.org/source/license.html
-
-.text
-
-
-.globl sha256_block_data_order
-.type sha256_block_data_order,@function
-.align 16
-sha256_block_data_order:
-.cfi_startproc
- leaq OPENSSL_ia32cap_P(%rip),%r11
- movl 0(%r11),%r9d
- movl 4(%r11),%r10d
- movl 8(%r11),%r11d
- testl $536870912,%r11d
- jnz _shaext_shortcut
- testl $512,%r10d
- jnz .Lssse3_shortcut
- movq %rsp,%rax
-.cfi_def_cfa_register %rax
- pushq %rbx
-.cfi_offset %rbx,-16
- pushq %rbp
-.cfi_offset %rbp,-24
- pushq %r12
-.cfi_offset %r12,-32
- pushq %r13
-.cfi_offset %r13,-40
- pushq %r14
-.cfi_offset %r14,-48
- pushq %r15
-.cfi_offset %r15,-56
- shlq $4,%rdx
- subq $64+32,%rsp
- leaq (%rsi,%rdx,4),%rdx
- andq $-64,%rsp
- movq %rdi,64+0(%rsp)
- movq %rsi,64+8(%rsp)
- movq %rdx,64+16(%rsp)
- movq %rax,88(%rsp)
-.cfi_escape 0x0f,0x06,0x77,0xd8,0x00,0x06,0x23,0x08
-.Lprologue:
-
- movl 0(%rdi),%eax
- movl 4(%rdi),%ebx
- movl 8(%rdi),%ecx
- movl 12(%rdi),%edx
- movl 16(%rdi),%r8d
- movl 20(%rdi),%r9d
- movl 24(%rdi),%r10d
- movl 28(%rdi),%r11d
- jmp .Lloop
-
-.align 16
-.Lloop:
- movl %ebx,%edi
- leaq K256(%rip),%rbp
- xorl %ecx,%edi
- movl 0(%rsi),%r12d
- movl %r8d,%r13d
- movl %eax,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %r9d,%r15d
-
- xorl %r8d,%r13d
- rorl $9,%r14d
- xorl %r10d,%r15d
-
- movl %r12d,0(%rsp)
- xorl %eax,%r14d
- andl %r8d,%r15d
-
- rorl $5,%r13d
- addl %r11d,%r12d
- xorl %r10d,%r15d
-
- rorl $11,%r14d
- xorl %r8d,%r13d
- addl %r15d,%r12d
-
- movl %eax,%r15d
- addl (%rbp),%r12d
- xorl %eax,%r14d
-
- xorl %ebx,%r15d
- rorl $6,%r13d
- movl %ebx,%r11d
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%r11d
- addl %r12d,%edx
- addl %r12d,%r11d
-
- leaq 4(%rbp),%rbp
- addl %r14d,%r11d
- movl 4(%rsi),%r12d
- movl %edx,%r13d
- movl %r11d,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %r8d,%edi
-
- xorl %edx,%r13d
- rorl $9,%r14d
- xorl %r9d,%edi
-
- movl %r12d,4(%rsp)
- xorl %r11d,%r14d
- andl %edx,%edi
-
- rorl $5,%r13d
- addl %r10d,%r12d
- xorl %r9d,%edi
-
- rorl $11,%r14d
- xorl %edx,%r13d
- addl %edi,%r12d
-
- movl %r11d,%edi
- addl (%rbp),%r12d
- xorl %r11d,%r14d
-
- xorl %eax,%edi
- rorl $6,%r13d
- movl %eax,%r10d
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%r10d
- addl %r12d,%ecx
- addl %r12d,%r10d
-
- leaq 4(%rbp),%rbp
- addl %r14d,%r10d
- movl 8(%rsi),%r12d
- movl %ecx,%r13d
- movl %r10d,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %edx,%r15d
-
- xorl %ecx,%r13d
- rorl $9,%r14d
- xorl %r8d,%r15d
-
- movl %r12d,8(%rsp)
- xorl %r10d,%r14d
- andl %ecx,%r15d
-
- rorl $5,%r13d
- addl %r9d,%r12d
- xorl %r8d,%r15d
-
- rorl $11,%r14d
- xorl %ecx,%r13d
- addl %r15d,%r12d
-
- movl %r10d,%r15d
- addl (%rbp),%r12d
- xorl %r10d,%r14d
-
- xorl %r11d,%r15d
- rorl $6,%r13d
- movl %r11d,%r9d
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%r9d
- addl %r12d,%ebx
- addl %r12d,%r9d
-
- leaq 4(%rbp),%rbp
- addl %r14d,%r9d
- movl 12(%rsi),%r12d
- movl %ebx,%r13d
- movl %r9d,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %ecx,%edi
-
- xorl %ebx,%r13d
- rorl $9,%r14d
- xorl %edx,%edi
-
- movl %r12d,12(%rsp)
- xorl %r9d,%r14d
- andl %ebx,%edi
-
- rorl $5,%r13d
- addl %r8d,%r12d
- xorl %edx,%edi
-
- rorl $11,%r14d
- xorl %ebx,%r13d
- addl %edi,%r12d
-
- movl %r9d,%edi
- addl (%rbp),%r12d
- xorl %r9d,%r14d
-
- xorl %r10d,%edi
- rorl $6,%r13d
- movl %r10d,%r8d
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%r8d
- addl %r12d,%eax
- addl %r12d,%r8d
-
- leaq 20(%rbp),%rbp
- addl %r14d,%r8d
- movl 16(%rsi),%r12d
- movl %eax,%r13d
- movl %r8d,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %ebx,%r15d
-
- xorl %eax,%r13d
- rorl $9,%r14d
- xorl %ecx,%r15d
-
- movl %r12d,16(%rsp)
- xorl %r8d,%r14d
- andl %eax,%r15d
-
- rorl $5,%r13d
- addl %edx,%r12d
- xorl %ecx,%r15d
-
- rorl $11,%r14d
- xorl %eax,%r13d
- addl %r15d,%r12d
-
- movl %r8d,%r15d
- addl (%rbp),%r12d
- xorl %r8d,%r14d
-
- xorl %r9d,%r15d
- rorl $6,%r13d
- movl %r9d,%edx
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%edx
- addl %r12d,%r11d
- addl %r12d,%edx
-
- leaq 4(%rbp),%rbp
- addl %r14d,%edx
- movl 20(%rsi),%r12d
- movl %r11d,%r13d
- movl %edx,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %eax,%edi
-
- xorl %r11d,%r13d
- rorl $9,%r14d
- xorl %ebx,%edi
-
- movl %r12d,20(%rsp)
- xorl %edx,%r14d
- andl %r11d,%edi
-
- rorl $5,%r13d
- addl %ecx,%r12d
- xorl %ebx,%edi
-
- rorl $11,%r14d
- xorl %r11d,%r13d
- addl %edi,%r12d
-
- movl %edx,%edi
- addl (%rbp),%r12d
- xorl %edx,%r14d
-
- xorl %r8d,%edi
- rorl $6,%r13d
- movl %r8d,%ecx
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%ecx
- addl %r12d,%r10d
- addl %r12d,%ecx
-
- leaq 4(%rbp),%rbp
- addl %r14d,%ecx
- movl 24(%rsi),%r12d
- movl %r10d,%r13d
- movl %ecx,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %r11d,%r15d
-
- xorl %r10d,%r13d
- rorl $9,%r14d
- xorl %eax,%r15d
-
- movl %r12d,24(%rsp)
- xorl %ecx,%r14d
- andl %r10d,%r15d
-
- rorl $5,%r13d
- addl %ebx,%r12d
- xorl %eax,%r15d
-
- rorl $11,%r14d
- xorl %r10d,%r13d
- addl %r15d,%r12d
-
- movl %ecx,%r15d
- addl (%rbp),%r12d
- xorl %ecx,%r14d
-
- xorl %edx,%r15d
- rorl $6,%r13d
- movl %edx,%ebx
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%ebx
- addl %r12d,%r9d
- addl %r12d,%ebx
-
- leaq 4(%rbp),%rbp
- addl %r14d,%ebx
- movl 28(%rsi),%r12d
- movl %r9d,%r13d
- movl %ebx,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %r10d,%edi
-
- xorl %r9d,%r13d
- rorl $9,%r14d
- xorl %r11d,%edi
-
- movl %r12d,28(%rsp)
- xorl %ebx,%r14d
- andl %r9d,%edi
-
- rorl $5,%r13d
- addl %eax,%r12d
- xorl %r11d,%edi
-
- rorl $11,%r14d
- xorl %r9d,%r13d
- addl %edi,%r12d
-
- movl %ebx,%edi
- addl (%rbp),%r12d
- xorl %ebx,%r14d
-
- xorl %ecx,%edi
- rorl $6,%r13d
- movl %ecx,%eax
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%eax
- addl %r12d,%r8d
- addl %r12d,%eax
-
- leaq 20(%rbp),%rbp
- addl %r14d,%eax
- movl 32(%rsi),%r12d
- movl %r8d,%r13d
- movl %eax,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %r9d,%r15d
-
- xorl %r8d,%r13d
- rorl $9,%r14d
- xorl %r10d,%r15d
-
- movl %r12d,32(%rsp)
- xorl %eax,%r14d
- andl %r8d,%r15d
-
- rorl $5,%r13d
- addl %r11d,%r12d
- xorl %r10d,%r15d
-
- rorl $11,%r14d
- xorl %r8d,%r13d
- addl %r15d,%r12d
-
- movl %eax,%r15d
- addl (%rbp),%r12d
- xorl %eax,%r14d
-
- xorl %ebx,%r15d
- rorl $6,%r13d
- movl %ebx,%r11d
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%r11d
- addl %r12d,%edx
- addl %r12d,%r11d
-
- leaq 4(%rbp),%rbp
- addl %r14d,%r11d
- movl 36(%rsi),%r12d
- movl %edx,%r13d
- movl %r11d,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %r8d,%edi
-
- xorl %edx,%r13d
- rorl $9,%r14d
- xorl %r9d,%edi
-
- movl %r12d,36(%rsp)
- xorl %r11d,%r14d
- andl %edx,%edi
-
- rorl $5,%r13d
- addl %r10d,%r12d
- xorl %r9d,%edi
-
- rorl $11,%r14d
- xorl %edx,%r13d
- addl %edi,%r12d
-
- movl %r11d,%edi
- addl (%rbp),%r12d
- xorl %r11d,%r14d
-
- xorl %eax,%edi
- rorl $6,%r13d
- movl %eax,%r10d
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%r10d
- addl %r12d,%ecx
- addl %r12d,%r10d
-
- leaq 4(%rbp),%rbp
- addl %r14d,%r10d
- movl 40(%rsi),%r12d
- movl %ecx,%r13d
- movl %r10d,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %edx,%r15d
-
- xorl %ecx,%r13d
- rorl $9,%r14d
- xorl %r8d,%r15d
-
- movl %r12d,40(%rsp)
- xorl %r10d,%r14d
- andl %ecx,%r15d
-
- rorl $5,%r13d
- addl %r9d,%r12d
- xorl %r8d,%r15d
-
- rorl $11,%r14d
- xorl %ecx,%r13d
- addl %r15d,%r12d
-
- movl %r10d,%r15d
- addl (%rbp),%r12d
- xorl %r10d,%r14d
-
- xorl %r11d,%r15d
- rorl $6,%r13d
- movl %r11d,%r9d
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%r9d
- addl %r12d,%ebx
- addl %r12d,%r9d
-
- leaq 4(%rbp),%rbp
- addl %r14d,%r9d
- movl 44(%rsi),%r12d
- movl %ebx,%r13d
- movl %r9d,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %ecx,%edi
-
- xorl %ebx,%r13d
- rorl $9,%r14d
- xorl %edx,%edi
-
- movl %r12d,44(%rsp)
- xorl %r9d,%r14d
- andl %ebx,%edi
-
- rorl $5,%r13d
- addl %r8d,%r12d
- xorl %edx,%edi
-
- rorl $11,%r14d
- xorl %ebx,%r13d
- addl %edi,%r12d
-
- movl %r9d,%edi
- addl (%rbp),%r12d
- xorl %r9d,%r14d
-
- xorl %r10d,%edi
- rorl $6,%r13d
- movl %r10d,%r8d
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%r8d
- addl %r12d,%eax
- addl %r12d,%r8d
-
- leaq 20(%rbp),%rbp
- addl %r14d,%r8d
- movl 48(%rsi),%r12d
- movl %eax,%r13d
- movl %r8d,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %ebx,%r15d
-
- xorl %eax,%r13d
- rorl $9,%r14d
- xorl %ecx,%r15d
-
- movl %r12d,48(%rsp)
- xorl %r8d,%r14d
- andl %eax,%r15d
-
- rorl $5,%r13d
- addl %edx,%r12d
- xorl %ecx,%r15d
-
- rorl $11,%r14d
- xorl %eax,%r13d
- addl %r15d,%r12d
-
- movl %r8d,%r15d
- addl (%rbp),%r12d
- xorl %r8d,%r14d
-
- xorl %r9d,%r15d
- rorl $6,%r13d
- movl %r9d,%edx
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%edx
- addl %r12d,%r11d
- addl %r12d,%edx
-
- leaq 4(%rbp),%rbp
- addl %r14d,%edx
- movl 52(%rsi),%r12d
- movl %r11d,%r13d
- movl %edx,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %eax,%edi
-
- xorl %r11d,%r13d
- rorl $9,%r14d
- xorl %ebx,%edi
-
- movl %r12d,52(%rsp)
- xorl %edx,%r14d
- andl %r11d,%edi
-
- rorl $5,%r13d
- addl %ecx,%r12d
- xorl %ebx,%edi
-
- rorl $11,%r14d
- xorl %r11d,%r13d
- addl %edi,%r12d
-
- movl %edx,%edi
- addl (%rbp),%r12d
- xorl %edx,%r14d
-
- xorl %r8d,%edi
- rorl $6,%r13d
- movl %r8d,%ecx
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%ecx
- addl %r12d,%r10d
- addl %r12d,%ecx
-
- leaq 4(%rbp),%rbp
- addl %r14d,%ecx
- movl 56(%rsi),%r12d
- movl %r10d,%r13d
- movl %ecx,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %r11d,%r15d
-
- xorl %r10d,%r13d
- rorl $9,%r14d
- xorl %eax,%r15d
-
- movl %r12d,56(%rsp)
- xorl %ecx,%r14d
- andl %r10d,%r15d
-
- rorl $5,%r13d
- addl %ebx,%r12d
- xorl %eax,%r15d
-
- rorl $11,%r14d
- xorl %r10d,%r13d
- addl %r15d,%r12d
-
- movl %ecx,%r15d
- addl (%rbp),%r12d
- xorl %ecx,%r14d
-
- xorl %edx,%r15d
- rorl $6,%r13d
- movl %edx,%ebx
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%ebx
- addl %r12d,%r9d
- addl %r12d,%ebx
-
- leaq 4(%rbp),%rbp
- addl %r14d,%ebx
- movl 60(%rsi),%r12d
- movl %r9d,%r13d
- movl %ebx,%r14d
- bswapl %r12d
- rorl $14,%r13d
- movl %r10d,%edi
-
- xorl %r9d,%r13d
- rorl $9,%r14d
- xorl %r11d,%edi
-
- movl %r12d,60(%rsp)
- xorl %ebx,%r14d
- andl %r9d,%edi
-
- rorl $5,%r13d
- addl %eax,%r12d
- xorl %r11d,%edi
-
- rorl $11,%r14d
- xorl %r9d,%r13d
- addl %edi,%r12d
-
- movl %ebx,%edi
- addl (%rbp),%r12d
- xorl %ebx,%r14d
-
- xorl %ecx,%edi
- rorl $6,%r13d
- movl %ecx,%eax
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%eax
- addl %r12d,%r8d
- addl %r12d,%eax
-
- leaq 20(%rbp),%rbp
- jmp .Lrounds_16_xx
-.align 16
-.Lrounds_16_xx:
- movl 4(%rsp),%r13d
- movl 56(%rsp),%r15d
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%eax
- movl %r15d,%r14d
- rorl $2,%r15d
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%r15d
- shrl $10,%r14d
-
- rorl $17,%r15d
- xorl %r13d,%r12d
- xorl %r14d,%r15d
- addl 36(%rsp),%r12d
-
- addl 0(%rsp),%r12d
- movl %r8d,%r13d
- addl %r15d,%r12d
- movl %eax,%r14d
- rorl $14,%r13d
- movl %r9d,%r15d
-
- xorl %r8d,%r13d
- rorl $9,%r14d
- xorl %r10d,%r15d
-
- movl %r12d,0(%rsp)
- xorl %eax,%r14d
- andl %r8d,%r15d
-
- rorl $5,%r13d
- addl %r11d,%r12d
- xorl %r10d,%r15d
-
- rorl $11,%r14d
- xorl %r8d,%r13d
- addl %r15d,%r12d
-
- movl %eax,%r15d
- addl (%rbp),%r12d
- xorl %eax,%r14d
-
- xorl %ebx,%r15d
- rorl $6,%r13d
- movl %ebx,%r11d
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%r11d
- addl %r12d,%edx
- addl %r12d,%r11d
-
- leaq 4(%rbp),%rbp
- movl 8(%rsp),%r13d
- movl 60(%rsp),%edi
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%r11d
- movl %edi,%r14d
- rorl $2,%edi
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%edi
- shrl $10,%r14d
-
- rorl $17,%edi
- xorl %r13d,%r12d
- xorl %r14d,%edi
- addl 40(%rsp),%r12d
-
- addl 4(%rsp),%r12d
- movl %edx,%r13d
- addl %edi,%r12d
- movl %r11d,%r14d
- rorl $14,%r13d
- movl %r8d,%edi
-
- xorl %edx,%r13d
- rorl $9,%r14d
- xorl %r9d,%edi
-
- movl %r12d,4(%rsp)
- xorl %r11d,%r14d
- andl %edx,%edi
-
- rorl $5,%r13d
- addl %r10d,%r12d
- xorl %r9d,%edi
-
- rorl $11,%r14d
- xorl %edx,%r13d
- addl %edi,%r12d
-
- movl %r11d,%edi
- addl (%rbp),%r12d
- xorl %r11d,%r14d
-
- xorl %eax,%edi
- rorl $6,%r13d
- movl %eax,%r10d
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%r10d
- addl %r12d,%ecx
- addl %r12d,%r10d
-
- leaq 4(%rbp),%rbp
- movl 12(%rsp),%r13d
- movl 0(%rsp),%r15d
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%r10d
- movl %r15d,%r14d
- rorl $2,%r15d
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%r15d
- shrl $10,%r14d
-
- rorl $17,%r15d
- xorl %r13d,%r12d
- xorl %r14d,%r15d
- addl 44(%rsp),%r12d
-
- addl 8(%rsp),%r12d
- movl %ecx,%r13d
- addl %r15d,%r12d
- movl %r10d,%r14d
- rorl $14,%r13d
- movl %edx,%r15d
-
- xorl %ecx,%r13d
- rorl $9,%r14d
- xorl %r8d,%r15d
-
- movl %r12d,8(%rsp)
- xorl %r10d,%r14d
- andl %ecx,%r15d
-
- rorl $5,%r13d
- addl %r9d,%r12d
- xorl %r8d,%r15d
-
- rorl $11,%r14d
- xorl %ecx,%r13d
- addl %r15d,%r12d
-
- movl %r10d,%r15d
- addl (%rbp),%r12d
- xorl %r10d,%r14d
-
- xorl %r11d,%r15d
- rorl $6,%r13d
- movl %r11d,%r9d
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%r9d
- addl %r12d,%ebx
- addl %r12d,%r9d
-
- leaq 4(%rbp),%rbp
- movl 16(%rsp),%r13d
- movl 4(%rsp),%edi
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%r9d
- movl %edi,%r14d
- rorl $2,%edi
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%edi
- shrl $10,%r14d
-
- rorl $17,%edi
- xorl %r13d,%r12d
- xorl %r14d,%edi
- addl 48(%rsp),%r12d
-
- addl 12(%rsp),%r12d
- movl %ebx,%r13d
- addl %edi,%r12d
- movl %r9d,%r14d
- rorl $14,%r13d
- movl %ecx,%edi
-
- xorl %ebx,%r13d
- rorl $9,%r14d
- xorl %edx,%edi
-
- movl %r12d,12(%rsp)
- xorl %r9d,%r14d
- andl %ebx,%edi
-
- rorl $5,%r13d
- addl %r8d,%r12d
- xorl %edx,%edi
-
- rorl $11,%r14d
- xorl %ebx,%r13d
- addl %edi,%r12d
-
- movl %r9d,%edi
- addl (%rbp),%r12d
- xorl %r9d,%r14d
-
- xorl %r10d,%edi
- rorl $6,%r13d
- movl %r10d,%r8d
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%r8d
- addl %r12d,%eax
- addl %r12d,%r8d
-
- leaq 20(%rbp),%rbp
- movl 20(%rsp),%r13d
- movl 8(%rsp),%r15d
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%r8d
- movl %r15d,%r14d
- rorl $2,%r15d
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%r15d
- shrl $10,%r14d
-
- rorl $17,%r15d
- xorl %r13d,%r12d
- xorl %r14d,%r15d
- addl 52(%rsp),%r12d
-
- addl 16(%rsp),%r12d
- movl %eax,%r13d
- addl %r15d,%r12d
- movl %r8d,%r14d
- rorl $14,%r13d
- movl %ebx,%r15d
-
- xorl %eax,%r13d
- rorl $9,%r14d
- xorl %ecx,%r15d
-
- movl %r12d,16(%rsp)
- xorl %r8d,%r14d
- andl %eax,%r15d
-
- rorl $5,%r13d
- addl %edx,%r12d
- xorl %ecx,%r15d
-
- rorl $11,%r14d
- xorl %eax,%r13d
- addl %r15d,%r12d
-
- movl %r8d,%r15d
- addl (%rbp),%r12d
- xorl %r8d,%r14d
-
- xorl %r9d,%r15d
- rorl $6,%r13d
- movl %r9d,%edx
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%edx
- addl %r12d,%r11d
- addl %r12d,%edx
-
- leaq 4(%rbp),%rbp
- movl 24(%rsp),%r13d
- movl 12(%rsp),%edi
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%edx
- movl %edi,%r14d
- rorl $2,%edi
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%edi
- shrl $10,%r14d
-
- rorl $17,%edi
- xorl %r13d,%r12d
- xorl %r14d,%edi
- addl 56(%rsp),%r12d
-
- addl 20(%rsp),%r12d
- movl %r11d,%r13d
- addl %edi,%r12d
- movl %edx,%r14d
- rorl $14,%r13d
- movl %eax,%edi
-
- xorl %r11d,%r13d
- rorl $9,%r14d
- xorl %ebx,%edi
-
- movl %r12d,20(%rsp)
- xorl %edx,%r14d
- andl %r11d,%edi
-
- rorl $5,%r13d
- addl %ecx,%r12d
- xorl %ebx,%edi
-
- rorl $11,%r14d
- xorl %r11d,%r13d
- addl %edi,%r12d
-
- movl %edx,%edi
- addl (%rbp),%r12d
- xorl %edx,%r14d
-
- xorl %r8d,%edi
- rorl $6,%r13d
- movl %r8d,%ecx
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%ecx
- addl %r12d,%r10d
- addl %r12d,%ecx
-
- leaq 4(%rbp),%rbp
- movl 28(%rsp),%r13d
- movl 16(%rsp),%r15d
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%ecx
- movl %r15d,%r14d
- rorl $2,%r15d
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%r15d
- shrl $10,%r14d
-
- rorl $17,%r15d
- xorl %r13d,%r12d
- xorl %r14d,%r15d
- addl 60(%rsp),%r12d
-
- addl 24(%rsp),%r12d
- movl %r10d,%r13d
- addl %r15d,%r12d
- movl %ecx,%r14d
- rorl $14,%r13d
- movl %r11d,%r15d
-
- xorl %r10d,%r13d
- rorl $9,%r14d
- xorl %eax,%r15d
-
- movl %r12d,24(%rsp)
- xorl %ecx,%r14d
- andl %r10d,%r15d
-
- rorl $5,%r13d
- addl %ebx,%r12d
- xorl %eax,%r15d
-
- rorl $11,%r14d
- xorl %r10d,%r13d
- addl %r15d,%r12d
-
- movl %ecx,%r15d
- addl (%rbp),%r12d
- xorl %ecx,%r14d
-
- xorl %edx,%r15d
- rorl $6,%r13d
- movl %edx,%ebx
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%ebx
- addl %r12d,%r9d
- addl %r12d,%ebx
-
- leaq 4(%rbp),%rbp
- movl 32(%rsp),%r13d
- movl 20(%rsp),%edi
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%ebx
- movl %edi,%r14d
- rorl $2,%edi
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%edi
- shrl $10,%r14d
-
- rorl $17,%edi
- xorl %r13d,%r12d
- xorl %r14d,%edi
- addl 0(%rsp),%r12d
-
- addl 28(%rsp),%r12d
- movl %r9d,%r13d
- addl %edi,%r12d
- movl %ebx,%r14d
- rorl $14,%r13d
- movl %r10d,%edi
-
- xorl %r9d,%r13d
- rorl $9,%r14d
- xorl %r11d,%edi
-
- movl %r12d,28(%rsp)
- xorl %ebx,%r14d
- andl %r9d,%edi
-
- rorl $5,%r13d
- addl %eax,%r12d
- xorl %r11d,%edi
-
- rorl $11,%r14d
- xorl %r9d,%r13d
- addl %edi,%r12d
-
- movl %ebx,%edi
- addl (%rbp),%r12d
- xorl %ebx,%r14d
-
- xorl %ecx,%edi
- rorl $6,%r13d
- movl %ecx,%eax
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%eax
- addl %r12d,%r8d
- addl %r12d,%eax
-
- leaq 20(%rbp),%rbp
- movl 36(%rsp),%r13d
- movl 24(%rsp),%r15d
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%eax
- movl %r15d,%r14d
- rorl $2,%r15d
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%r15d
- shrl $10,%r14d
-
- rorl $17,%r15d
- xorl %r13d,%r12d
- xorl %r14d,%r15d
- addl 4(%rsp),%r12d
-
- addl 32(%rsp),%r12d
- movl %r8d,%r13d
- addl %r15d,%r12d
- movl %eax,%r14d
- rorl $14,%r13d
- movl %r9d,%r15d
-
- xorl %r8d,%r13d
- rorl $9,%r14d
- xorl %r10d,%r15d
-
- movl %r12d,32(%rsp)
- xorl %eax,%r14d
- andl %r8d,%r15d
-
- rorl $5,%r13d
- addl %r11d,%r12d
- xorl %r10d,%r15d
-
- rorl $11,%r14d
- xorl %r8d,%r13d
- addl %r15d,%r12d
-
- movl %eax,%r15d
- addl (%rbp),%r12d
- xorl %eax,%r14d
-
- xorl %ebx,%r15d
- rorl $6,%r13d
- movl %ebx,%r11d
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%r11d
- addl %r12d,%edx
- addl %r12d,%r11d
-
- leaq 4(%rbp),%rbp
- movl 40(%rsp),%r13d
- movl 28(%rsp),%edi
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%r11d
- movl %edi,%r14d
- rorl $2,%edi
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%edi
- shrl $10,%r14d
-
- rorl $17,%edi
- xorl %r13d,%r12d
- xorl %r14d,%edi
- addl 8(%rsp),%r12d
-
- addl 36(%rsp),%r12d
- movl %edx,%r13d
- addl %edi,%r12d
- movl %r11d,%r14d
- rorl $14,%r13d
- movl %r8d,%edi
-
- xorl %edx,%r13d
- rorl $9,%r14d
- xorl %r9d,%edi
-
- movl %r12d,36(%rsp)
- xorl %r11d,%r14d
- andl %edx,%edi
-
- rorl $5,%r13d
- addl %r10d,%r12d
- xorl %r9d,%edi
-
- rorl $11,%r14d
- xorl %edx,%r13d
- addl %edi,%r12d
-
- movl %r11d,%edi
- addl (%rbp),%r12d
- xorl %r11d,%r14d
-
- xorl %eax,%edi
- rorl $6,%r13d
- movl %eax,%r10d
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%r10d
- addl %r12d,%ecx
- addl %r12d,%r10d
-
- leaq 4(%rbp),%rbp
- movl 44(%rsp),%r13d
- movl 32(%rsp),%r15d
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%r10d
- movl %r15d,%r14d
- rorl $2,%r15d
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%r15d
- shrl $10,%r14d
-
- rorl $17,%r15d
- xorl %r13d,%r12d
- xorl %r14d,%r15d
- addl 12(%rsp),%r12d
-
- addl 40(%rsp),%r12d
- movl %ecx,%r13d
- addl %r15d,%r12d
- movl %r10d,%r14d
- rorl $14,%r13d
- movl %edx,%r15d
-
- xorl %ecx,%r13d
- rorl $9,%r14d
- xorl %r8d,%r15d
-
- movl %r12d,40(%rsp)
- xorl %r10d,%r14d
- andl %ecx,%r15d
-
- rorl $5,%r13d
- addl %r9d,%r12d
- xorl %r8d,%r15d
-
- rorl $11,%r14d
- xorl %ecx,%r13d
- addl %r15d,%r12d
-
- movl %r10d,%r15d
- addl (%rbp),%r12d
- xorl %r10d,%r14d
-
- xorl %r11d,%r15d
- rorl $6,%r13d
- movl %r11d,%r9d
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%r9d
- addl %r12d,%ebx
- addl %r12d,%r9d
-
- leaq 4(%rbp),%rbp
- movl 48(%rsp),%r13d
- movl 36(%rsp),%edi
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%r9d
- movl %edi,%r14d
- rorl $2,%edi
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%edi
- shrl $10,%r14d
-
- rorl $17,%edi
- xorl %r13d,%r12d
- xorl %r14d,%edi
- addl 16(%rsp),%r12d
-
- addl 44(%rsp),%r12d
- movl %ebx,%r13d
- addl %edi,%r12d
- movl %r9d,%r14d
- rorl $14,%r13d
- movl %ecx,%edi
-
- xorl %ebx,%r13d
- rorl $9,%r14d
- xorl %edx,%edi
-
- movl %r12d,44(%rsp)
- xorl %r9d,%r14d
- andl %ebx,%edi
-
- rorl $5,%r13d
- addl %r8d,%r12d
- xorl %edx,%edi
-
- rorl $11,%r14d
- xorl %ebx,%r13d
- addl %edi,%r12d
-
- movl %r9d,%edi
- addl (%rbp),%r12d
- xorl %r9d,%r14d
-
- xorl %r10d,%edi
- rorl $6,%r13d
- movl %r10d,%r8d
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%r8d
- addl %r12d,%eax
- addl %r12d,%r8d
-
- leaq 20(%rbp),%rbp
- movl 52(%rsp),%r13d
- movl 40(%rsp),%r15d
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%r8d
- movl %r15d,%r14d
- rorl $2,%r15d
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%r15d
- shrl $10,%r14d
-
- rorl $17,%r15d
- xorl %r13d,%r12d
- xorl %r14d,%r15d
- addl 20(%rsp),%r12d
-
- addl 48(%rsp),%r12d
- movl %eax,%r13d
- addl %r15d,%r12d
- movl %r8d,%r14d
- rorl $14,%r13d
- movl %ebx,%r15d
-
- xorl %eax,%r13d
- rorl $9,%r14d
- xorl %ecx,%r15d
-
- movl %r12d,48(%rsp)
- xorl %r8d,%r14d
- andl %eax,%r15d
-
- rorl $5,%r13d
- addl %edx,%r12d
- xorl %ecx,%r15d
-
- rorl $11,%r14d
- xorl %eax,%r13d
- addl %r15d,%r12d
-
- movl %r8d,%r15d
- addl (%rbp),%r12d
- xorl %r8d,%r14d
-
- xorl %r9d,%r15d
- rorl $6,%r13d
- movl %r9d,%edx
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%edx
- addl %r12d,%r11d
- addl %r12d,%edx
-
- leaq 4(%rbp),%rbp
- movl 56(%rsp),%r13d
- movl 44(%rsp),%edi
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%edx
- movl %edi,%r14d
- rorl $2,%edi
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%edi
- shrl $10,%r14d
-
- rorl $17,%edi
- xorl %r13d,%r12d
- xorl %r14d,%edi
- addl 24(%rsp),%r12d
-
- addl 52(%rsp),%r12d
- movl %r11d,%r13d
- addl %edi,%r12d
- movl %edx,%r14d
- rorl $14,%r13d
- movl %eax,%edi
-
- xorl %r11d,%r13d
- rorl $9,%r14d
- xorl %ebx,%edi
-
- movl %r12d,52(%rsp)
- xorl %edx,%r14d
- andl %r11d,%edi
-
- rorl $5,%r13d
- addl %ecx,%r12d
- xorl %ebx,%edi
-
- rorl $11,%r14d
- xorl %r11d,%r13d
- addl %edi,%r12d
-
- movl %edx,%edi
- addl (%rbp),%r12d
- xorl %edx,%r14d
-
- xorl %r8d,%edi
- rorl $6,%r13d
- movl %r8d,%ecx
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%ecx
- addl %r12d,%r10d
- addl %r12d,%ecx
-
- leaq 4(%rbp),%rbp
- movl 60(%rsp),%r13d
- movl 48(%rsp),%r15d
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%ecx
- movl %r15d,%r14d
- rorl $2,%r15d
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%r15d
- shrl $10,%r14d
-
- rorl $17,%r15d
- xorl %r13d,%r12d
- xorl %r14d,%r15d
- addl 28(%rsp),%r12d
-
- addl 56(%rsp),%r12d
- movl %r10d,%r13d
- addl %r15d,%r12d
- movl %ecx,%r14d
- rorl $14,%r13d
- movl %r11d,%r15d
-
- xorl %r10d,%r13d
- rorl $9,%r14d
- xorl %eax,%r15d
-
- movl %r12d,56(%rsp)
- xorl %ecx,%r14d
- andl %r10d,%r15d
-
- rorl $5,%r13d
- addl %ebx,%r12d
- xorl %eax,%r15d
-
- rorl $11,%r14d
- xorl %r10d,%r13d
- addl %r15d,%r12d
-
- movl %ecx,%r15d
- addl (%rbp),%r12d
- xorl %ecx,%r14d
-
- xorl %edx,%r15d
- rorl $6,%r13d
- movl %edx,%ebx
-
- andl %r15d,%edi
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %edi,%ebx
- addl %r12d,%r9d
- addl %r12d,%ebx
-
- leaq 4(%rbp),%rbp
- movl 0(%rsp),%r13d
- movl 52(%rsp),%edi
-
- movl %r13d,%r12d
- rorl $11,%r13d
- addl %r14d,%ebx
- movl %edi,%r14d
- rorl $2,%edi
-
- xorl %r12d,%r13d
- shrl $3,%r12d
- rorl $7,%r13d
- xorl %r14d,%edi
- shrl $10,%r14d
-
- rorl $17,%edi
- xorl %r13d,%r12d
- xorl %r14d,%edi
- addl 32(%rsp),%r12d
-
- addl 60(%rsp),%r12d
- movl %r9d,%r13d
- addl %edi,%r12d
- movl %ebx,%r14d
- rorl $14,%r13d
- movl %r10d,%edi
-
- xorl %r9d,%r13d
- rorl $9,%r14d
- xorl %r11d,%edi
-
- movl %r12d,60(%rsp)
- xorl %ebx,%r14d
- andl %r9d,%edi
-
- rorl $5,%r13d
- addl %eax,%r12d
- xorl %r11d,%edi
-
- rorl $11,%r14d
- xorl %r9d,%r13d
- addl %edi,%r12d
-
- movl %ebx,%edi
- addl (%rbp),%r12d
- xorl %ebx,%r14d
-
- xorl %ecx,%edi
- rorl $6,%r13d
- movl %ecx,%eax
-
- andl %edi,%r15d
- rorl $2,%r14d
- addl %r13d,%r12d
-
- xorl %r15d,%eax
- addl %r12d,%r8d
- addl %r12d,%eax
-
- leaq 20(%rbp),%rbp
- cmpb $0,3(%rbp)
- jnz .Lrounds_16_xx
-
- movq 64+0(%rsp),%rdi
- addl %r14d,%eax
- leaq 64(%rsi),%rsi
-
- addl 0(%rdi),%eax
- addl 4(%rdi),%ebx
- addl 8(%rdi),%ecx
- addl 12(%rdi),%edx
- addl 16(%rdi),%r8d
- addl 20(%rdi),%r9d
- addl 24(%rdi),%r10d
- addl 28(%rdi),%r11d
-
- cmpq 64+16(%rsp),%rsi
-
- movl %eax,0(%rdi)
- movl %ebx,4(%rdi)
- movl %ecx,8(%rdi)
- movl %edx,12(%rdi)
- movl %r8d,16(%rdi)
- movl %r9d,20(%rdi)
- movl %r10d,24(%rdi)
- movl %r11d,28(%rdi)
- jb .Lloop
-
- movq 88(%rsp),%rsi
-.cfi_def_cfa %rsi,8
- movq -48(%rsi),%r15
-.cfi_restore %r15
- movq -40(%rsi),%r14
-.cfi_restore %r14
- movq -32(%rsi),%r13
-.cfi_restore %r13
- movq -24(%rsi),%r12
-.cfi_restore %r12
- movq -16(%rsi),%rbp
-.cfi_restore %rbp
- movq -8(%rsi),%rbx
-.cfi_restore %rbx
- leaq (%rsi),%rsp
-.cfi_def_cfa_register %rsp
-.Lepilogue:
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha256_block_data_order,.-sha256_block_data_order
-.align 64
-.type K256,@object
-K256:
-.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5
-.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5
-.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5
-.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5
-.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3
-.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3
-.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174
-.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174
-.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc
-.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc
-.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da
-.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da
-.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7
-.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7
-.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967
-.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967
-.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13
-.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13
-.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85
-.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85
-.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3
-.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3
-.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070
-.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070
-.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5
-.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5
-.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3
-.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3
-.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208
-.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208
-.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2
-.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2
-
-.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
-.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
-.long 0x03020100,0x0b0a0908,0xffffffff,0xffffffff
-.long 0x03020100,0x0b0a0908,0xffffffff,0xffffffff
-.long 0xffffffff,0xffffffff,0x03020100,0x0b0a0908
-.long 0xffffffff,0xffffffff,0x03020100,0x0b0a0908
-.byte 83,72,65,50,53,54,32,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
-.type sha256_block_data_order_shaext,@function
-.align 64
-sha256_block_data_order_shaext:
-_shaext_shortcut:
-.cfi_startproc
- leaq K256+128(%rip),%rcx
- movdqu (%rdi),%xmm1
- movdqu 16(%rdi),%xmm2
- movdqa 512-128(%rcx),%xmm7
-
- pshufd $0x1b,%xmm1,%xmm0
- pshufd $0xb1,%xmm1,%xmm1
- pshufd $0x1b,%xmm2,%xmm2
- movdqa %xmm7,%xmm8
-.byte 102,15,58,15,202,8
- punpcklqdq %xmm0,%xmm2
- jmp .Loop_shaext
-
-.align 16
-.Loop_shaext:
- movdqu (%rsi),%xmm3
- movdqu 16(%rsi),%xmm4
- movdqu 32(%rsi),%xmm5
-.byte 102,15,56,0,223
- movdqu 48(%rsi),%xmm6
-
- movdqa 0-128(%rcx),%xmm0
- paddd %xmm3,%xmm0
-.byte 102,15,56,0,231
- movdqa %xmm2,%xmm10
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- nop
- movdqa %xmm1,%xmm9
-.byte 15,56,203,202
-
- movdqa 32-128(%rcx),%xmm0
- paddd %xmm4,%xmm0
-.byte 102,15,56,0,239
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- leaq 64(%rsi),%rsi
-.byte 15,56,204,220
-.byte 15,56,203,202
-
- movdqa 64-128(%rcx),%xmm0
- paddd %xmm5,%xmm0
-.byte 102,15,56,0,247
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm6,%xmm7
-.byte 102,15,58,15,253,4
- nop
- paddd %xmm7,%xmm3
-.byte 15,56,204,229
-.byte 15,56,203,202
-
- movdqa 96-128(%rcx),%xmm0
- paddd %xmm6,%xmm0
-.byte 15,56,205,222
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm3,%xmm7
-.byte 102,15,58,15,254,4
- nop
- paddd %xmm7,%xmm4
-.byte 15,56,204,238
-.byte 15,56,203,202
- movdqa 128-128(%rcx),%xmm0
- paddd %xmm3,%xmm0
-.byte 15,56,205,227
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm4,%xmm7
-.byte 102,15,58,15,251,4
- nop
- paddd %xmm7,%xmm5
-.byte 15,56,204,243
-.byte 15,56,203,202
- movdqa 160-128(%rcx),%xmm0
- paddd %xmm4,%xmm0
-.byte 15,56,205,236
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm5,%xmm7
-.byte 102,15,58,15,252,4
- nop
- paddd %xmm7,%xmm6
-.byte 15,56,204,220
-.byte 15,56,203,202
- movdqa 192-128(%rcx),%xmm0
- paddd %xmm5,%xmm0
-.byte 15,56,205,245
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm6,%xmm7
-.byte 102,15,58,15,253,4
- nop
- paddd %xmm7,%xmm3
-.byte 15,56,204,229
-.byte 15,56,203,202
- movdqa 224-128(%rcx),%xmm0
- paddd %xmm6,%xmm0
-.byte 15,56,205,222
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm3,%xmm7
-.byte 102,15,58,15,254,4
- nop
- paddd %xmm7,%xmm4
-.byte 15,56,204,238
-.byte 15,56,203,202
- movdqa 256-128(%rcx),%xmm0
- paddd %xmm3,%xmm0
-.byte 15,56,205,227
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm4,%xmm7
-.byte 102,15,58,15,251,4
- nop
- paddd %xmm7,%xmm5
-.byte 15,56,204,243
-.byte 15,56,203,202
- movdqa 288-128(%rcx),%xmm0
- paddd %xmm4,%xmm0
-.byte 15,56,205,236
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm5,%xmm7
-.byte 102,15,58,15,252,4
- nop
- paddd %xmm7,%xmm6
-.byte 15,56,204,220
-.byte 15,56,203,202
- movdqa 320-128(%rcx),%xmm0
- paddd %xmm5,%xmm0
-.byte 15,56,205,245
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm6,%xmm7
-.byte 102,15,58,15,253,4
- nop
- paddd %xmm7,%xmm3
-.byte 15,56,204,229
-.byte 15,56,203,202
- movdqa 352-128(%rcx),%xmm0
- paddd %xmm6,%xmm0
-.byte 15,56,205,222
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm3,%xmm7
-.byte 102,15,58,15,254,4
- nop
- paddd %xmm7,%xmm4
-.byte 15,56,204,238
-.byte 15,56,203,202
- movdqa 384-128(%rcx),%xmm0
- paddd %xmm3,%xmm0
-.byte 15,56,205,227
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm4,%xmm7
-.byte 102,15,58,15,251,4
- nop
- paddd %xmm7,%xmm5
-.byte 15,56,204,243
-.byte 15,56,203,202
- movdqa 416-128(%rcx),%xmm0
- paddd %xmm4,%xmm0
-.byte 15,56,205,236
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- movdqa %xmm5,%xmm7
-.byte 102,15,58,15,252,4
-.byte 15,56,203,202
- paddd %xmm7,%xmm6
-
- movdqa 448-128(%rcx),%xmm0
- paddd %xmm5,%xmm0
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
-.byte 15,56,205,245
- movdqa %xmm8,%xmm7
-.byte 15,56,203,202
-
- movdqa 480-128(%rcx),%xmm0
- paddd %xmm6,%xmm0
- nop
-.byte 15,56,203,209
- pshufd $0x0e,%xmm0,%xmm0
- decq %rdx
- nop
-.byte 15,56,203,202
-
- paddd %xmm10,%xmm2
- paddd %xmm9,%xmm1
- jnz .Loop_shaext
-
- pshufd $0xb1,%xmm2,%xmm2
- pshufd $0x1b,%xmm1,%xmm7
- pshufd $0xb1,%xmm1,%xmm1
- punpckhqdq %xmm2,%xmm1
-.byte 102,15,58,15,215,8
-
- movdqu %xmm1,(%rdi)
- movdqu %xmm2,16(%rdi)
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha256_block_data_order_shaext,.-sha256_block_data_order_shaext
-.type sha256_block_data_order_ssse3,@function
-.align 64
-sha256_block_data_order_ssse3:
-.cfi_startproc
-.Lssse3_shortcut:
- movq %rsp,%rax
-.cfi_def_cfa_register %rax
- pushq %rbx
-.cfi_offset %rbx,-16
- pushq %rbp
-.cfi_offset %rbp,-24
- pushq %r12
-.cfi_offset %r12,-32
- pushq %r13
-.cfi_offset %r13,-40
- pushq %r14
-.cfi_offset %r14,-48
- pushq %r15
-.cfi_offset %r15,-56
- shlq $4,%rdx
- subq $96,%rsp
- leaq (%rsi,%rdx,4),%rdx
- andq $-64,%rsp
- movq %rdi,64+0(%rsp)
- movq %rsi,64+8(%rsp)
- movq %rdx,64+16(%rsp)
- movq %rax,88(%rsp)
-.cfi_escape 0x0f,0x06,0x77,0xd8,0x00,0x06,0x23,0x08
-.Lprologue_ssse3:
-
- movl 0(%rdi),%eax
- movl 4(%rdi),%ebx
- movl 8(%rdi),%ecx
- movl 12(%rdi),%edx
- movl 16(%rdi),%r8d
- movl 20(%rdi),%r9d
- movl 24(%rdi),%r10d
- movl 28(%rdi),%r11d
-
-
- jmp .Lloop_ssse3
-.align 16
-.Lloop_ssse3:
- movdqa K256+512(%rip),%xmm7
- movdqu 0(%rsi),%xmm0
- movdqu 16(%rsi),%xmm1
- movdqu 32(%rsi),%xmm2
-.byte 102,15,56,0,199
- movdqu 48(%rsi),%xmm3
- leaq K256(%rip),%rbp
-.byte 102,15,56,0,207
- movdqa 0(%rbp),%xmm4
- movdqa 32(%rbp),%xmm5
-.byte 102,15,56,0,215
- paddd %xmm0,%xmm4
- movdqa 64(%rbp),%xmm6
-.byte 102,15,56,0,223
- movdqa 96(%rbp),%xmm7
- paddd %xmm1,%xmm5
- paddd %xmm2,%xmm6
- paddd %xmm3,%xmm7
- movdqa %xmm4,0(%rsp)
- movl %eax,%r14d
- movdqa %xmm5,16(%rsp)
- movl %ebx,%edi
- movdqa %xmm6,32(%rsp)
- xorl %ecx,%edi
- movdqa %xmm7,48(%rsp)
- movl %r8d,%r13d
- jmp .Lssse3_00_47
-
-.align 16
-.Lssse3_00_47:
- subq $-128,%rbp
- rorl $14,%r13d
- movdqa %xmm1,%xmm4
- movl %r14d,%eax
- movl %r9d,%r12d
- movdqa %xmm3,%xmm7
- rorl $9,%r14d
- xorl %r8d,%r13d
- xorl %r10d,%r12d
- rorl $5,%r13d
- xorl %eax,%r14d
-.byte 102,15,58,15,224,4
- andl %r8d,%r12d
- xorl %r8d,%r13d
-.byte 102,15,58,15,250,4
- addl 0(%rsp),%r11d
- movl %eax,%r15d
- xorl %r10d,%r12d
- rorl $11,%r14d
- movdqa %xmm4,%xmm5
- xorl %ebx,%r15d
- addl %r12d,%r11d
- movdqa %xmm4,%xmm6
- rorl $6,%r13d
- andl %r15d,%edi
- psrld $3,%xmm4
- xorl %eax,%r14d
- addl %r13d,%r11d
- xorl %ebx,%edi
- paddd %xmm7,%xmm0
- rorl $2,%r14d
- addl %r11d,%edx
- psrld $7,%xmm6
- addl %edi,%r11d
- movl %edx,%r13d
- pshufd $250,%xmm3,%xmm7
- addl %r11d,%r14d
- rorl $14,%r13d
- pslld $14,%xmm5
- movl %r14d,%r11d
- movl %r8d,%r12d
- pxor %xmm6,%xmm4
- rorl $9,%r14d
- xorl %edx,%r13d
- xorl %r9d,%r12d
- rorl $5,%r13d
- psrld $11,%xmm6
- xorl %r11d,%r14d
- pxor %xmm5,%xmm4
- andl %edx,%r12d
- xorl %edx,%r13d
- pslld $11,%xmm5
- addl 4(%rsp),%r10d
- movl %r11d,%edi
- pxor %xmm6,%xmm4
- xorl %r9d,%r12d
- rorl $11,%r14d
- movdqa %xmm7,%xmm6
- xorl %eax,%edi
- addl %r12d,%r10d
- pxor %xmm5,%xmm4
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %r11d,%r14d
- psrld $10,%xmm7
- addl %r13d,%r10d
- xorl %eax,%r15d
- paddd %xmm4,%xmm0
- rorl $2,%r14d
- addl %r10d,%ecx
- psrlq $17,%xmm6
- addl %r15d,%r10d
- movl %ecx,%r13d
- addl %r10d,%r14d
- pxor %xmm6,%xmm7
- rorl $14,%r13d
- movl %r14d,%r10d
- movl %edx,%r12d
- rorl $9,%r14d
- psrlq $2,%xmm6
- xorl %ecx,%r13d
- xorl %r8d,%r12d
- pxor %xmm6,%xmm7
- rorl $5,%r13d
- xorl %r10d,%r14d
- andl %ecx,%r12d
- pshufd $128,%xmm7,%xmm7
- xorl %ecx,%r13d
- addl 8(%rsp),%r9d
- movl %r10d,%r15d
- psrldq $8,%xmm7
- xorl %r8d,%r12d
- rorl $11,%r14d
- xorl %r11d,%r15d
- addl %r12d,%r9d
- rorl $6,%r13d
- paddd %xmm7,%xmm0
- andl %r15d,%edi
- xorl %r10d,%r14d
- addl %r13d,%r9d
- pshufd $80,%xmm0,%xmm7
- xorl %r11d,%edi
- rorl $2,%r14d
- addl %r9d,%ebx
- movdqa %xmm7,%xmm6
- addl %edi,%r9d
- movl %ebx,%r13d
- psrld $10,%xmm7
- addl %r9d,%r14d
- rorl $14,%r13d
- psrlq $17,%xmm6
- movl %r14d,%r9d
- movl %ecx,%r12d
- pxor %xmm6,%xmm7
- rorl $9,%r14d
- xorl %ebx,%r13d
- xorl %edx,%r12d
- rorl $5,%r13d
- xorl %r9d,%r14d
- psrlq $2,%xmm6
- andl %ebx,%r12d
- xorl %ebx,%r13d
- addl 12(%rsp),%r8d
- pxor %xmm6,%xmm7
- movl %r9d,%edi
- xorl %edx,%r12d
- rorl $11,%r14d
- pshufd $8,%xmm7,%xmm7
- xorl %r10d,%edi
- addl %r12d,%r8d
- movdqa 0(%rbp),%xmm6
- rorl $6,%r13d
- andl %edi,%r15d
- pslldq $8,%xmm7
- xorl %r9d,%r14d
- addl %r13d,%r8d
- xorl %r10d,%r15d
- paddd %xmm7,%xmm0
- rorl $2,%r14d
- addl %r8d,%eax
- addl %r15d,%r8d
- paddd %xmm0,%xmm6
- movl %eax,%r13d
- addl %r8d,%r14d
- movdqa %xmm6,0(%rsp)
- rorl $14,%r13d
- movdqa %xmm2,%xmm4
- movl %r14d,%r8d
- movl %ebx,%r12d
- movdqa %xmm0,%xmm7
- rorl $9,%r14d
- xorl %eax,%r13d
- xorl %ecx,%r12d
- rorl $5,%r13d
- xorl %r8d,%r14d
-.byte 102,15,58,15,225,4
- andl %eax,%r12d
- xorl %eax,%r13d
-.byte 102,15,58,15,251,4
- addl 16(%rsp),%edx
- movl %r8d,%r15d
- xorl %ecx,%r12d
- rorl $11,%r14d
- movdqa %xmm4,%xmm5
- xorl %r9d,%r15d
- addl %r12d,%edx
- movdqa %xmm4,%xmm6
- rorl $6,%r13d
- andl %r15d,%edi
- psrld $3,%xmm4
- xorl %r8d,%r14d
- addl %r13d,%edx
- xorl %r9d,%edi
- paddd %xmm7,%xmm1
- rorl $2,%r14d
- addl %edx,%r11d
- psrld $7,%xmm6
- addl %edi,%edx
- movl %r11d,%r13d
- pshufd $250,%xmm0,%xmm7
- addl %edx,%r14d
- rorl $14,%r13d
- pslld $14,%xmm5
- movl %r14d,%edx
- movl %eax,%r12d
- pxor %xmm6,%xmm4
- rorl $9,%r14d
- xorl %r11d,%r13d
- xorl %ebx,%r12d
- rorl $5,%r13d
- psrld $11,%xmm6
- xorl %edx,%r14d
- pxor %xmm5,%xmm4
- andl %r11d,%r12d
- xorl %r11d,%r13d
- pslld $11,%xmm5
- addl 20(%rsp),%ecx
- movl %edx,%edi
- pxor %xmm6,%xmm4
- xorl %ebx,%r12d
- rorl $11,%r14d
- movdqa %xmm7,%xmm6
- xorl %r8d,%edi
- addl %r12d,%ecx
- pxor %xmm5,%xmm4
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %edx,%r14d
- psrld $10,%xmm7
- addl %r13d,%ecx
- xorl %r8d,%r15d
- paddd %xmm4,%xmm1
- rorl $2,%r14d
- addl %ecx,%r10d
- psrlq $17,%xmm6
- addl %r15d,%ecx
- movl %r10d,%r13d
- addl %ecx,%r14d
- pxor %xmm6,%xmm7
- rorl $14,%r13d
- movl %r14d,%ecx
- movl %r11d,%r12d
- rorl $9,%r14d
- psrlq $2,%xmm6
- xorl %r10d,%r13d
- xorl %eax,%r12d
- pxor %xmm6,%xmm7
- rorl $5,%r13d
- xorl %ecx,%r14d
- andl %r10d,%r12d
- pshufd $128,%xmm7,%xmm7
- xorl %r10d,%r13d
- addl 24(%rsp),%ebx
- movl %ecx,%r15d
- psrldq $8,%xmm7
- xorl %eax,%r12d
- rorl $11,%r14d
- xorl %edx,%r15d
- addl %r12d,%ebx
- rorl $6,%r13d
- paddd %xmm7,%xmm1
- andl %r15d,%edi
- xorl %ecx,%r14d
- addl %r13d,%ebx
- pshufd $80,%xmm1,%xmm7
- xorl %edx,%edi
- rorl $2,%r14d
- addl %ebx,%r9d
- movdqa %xmm7,%xmm6
- addl %edi,%ebx
- movl %r9d,%r13d
- psrld $10,%xmm7
- addl %ebx,%r14d
- rorl $14,%r13d
- psrlq $17,%xmm6
- movl %r14d,%ebx
- movl %r10d,%r12d
- pxor %xmm6,%xmm7
- rorl $9,%r14d
- xorl %r9d,%r13d
- xorl %r11d,%r12d
- rorl $5,%r13d
- xorl %ebx,%r14d
- psrlq $2,%xmm6
- andl %r9d,%r12d
- xorl %r9d,%r13d
- addl 28(%rsp),%eax
- pxor %xmm6,%xmm7
- movl %ebx,%edi
- xorl %r11d,%r12d
- rorl $11,%r14d
- pshufd $8,%xmm7,%xmm7
- xorl %ecx,%edi
- addl %r12d,%eax
- movdqa 32(%rbp),%xmm6
- rorl $6,%r13d
- andl %edi,%r15d
- pslldq $8,%xmm7
- xorl %ebx,%r14d
- addl %r13d,%eax
- xorl %ecx,%r15d
- paddd %xmm7,%xmm1
- rorl $2,%r14d
- addl %eax,%r8d
- addl %r15d,%eax
- paddd %xmm1,%xmm6
- movl %r8d,%r13d
- addl %eax,%r14d
- movdqa %xmm6,16(%rsp)
- rorl $14,%r13d
- movdqa %xmm3,%xmm4
- movl %r14d,%eax
- movl %r9d,%r12d
- movdqa %xmm1,%xmm7
- rorl $9,%r14d
- xorl %r8d,%r13d
- xorl %r10d,%r12d
- rorl $5,%r13d
- xorl %eax,%r14d
-.byte 102,15,58,15,226,4
- andl %r8d,%r12d
- xorl %r8d,%r13d
-.byte 102,15,58,15,248,4
- addl 32(%rsp),%r11d
- movl %eax,%r15d
- xorl %r10d,%r12d
- rorl $11,%r14d
- movdqa %xmm4,%xmm5
- xorl %ebx,%r15d
- addl %r12d,%r11d
- movdqa %xmm4,%xmm6
- rorl $6,%r13d
- andl %r15d,%edi
- psrld $3,%xmm4
- xorl %eax,%r14d
- addl %r13d,%r11d
- xorl %ebx,%edi
- paddd %xmm7,%xmm2
- rorl $2,%r14d
- addl %r11d,%edx
- psrld $7,%xmm6
- addl %edi,%r11d
- movl %edx,%r13d
- pshufd $250,%xmm1,%xmm7
- addl %r11d,%r14d
- rorl $14,%r13d
- pslld $14,%xmm5
- movl %r14d,%r11d
- movl %r8d,%r12d
- pxor %xmm6,%xmm4
- rorl $9,%r14d
- xorl %edx,%r13d
- xorl %r9d,%r12d
- rorl $5,%r13d
- psrld $11,%xmm6
- xorl %r11d,%r14d
- pxor %xmm5,%xmm4
- andl %edx,%r12d
- xorl %edx,%r13d
- pslld $11,%xmm5
- addl 36(%rsp),%r10d
- movl %r11d,%edi
- pxor %xmm6,%xmm4
- xorl %r9d,%r12d
- rorl $11,%r14d
- movdqa %xmm7,%xmm6
- xorl %eax,%edi
- addl %r12d,%r10d
- pxor %xmm5,%xmm4
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %r11d,%r14d
- psrld $10,%xmm7
- addl %r13d,%r10d
- xorl %eax,%r15d
- paddd %xmm4,%xmm2
- rorl $2,%r14d
- addl %r10d,%ecx
- psrlq $17,%xmm6
- addl %r15d,%r10d
- movl %ecx,%r13d
- addl %r10d,%r14d
- pxor %xmm6,%xmm7
- rorl $14,%r13d
- movl %r14d,%r10d
- movl %edx,%r12d
- rorl $9,%r14d
- psrlq $2,%xmm6
- xorl %ecx,%r13d
- xorl %r8d,%r12d
- pxor %xmm6,%xmm7
- rorl $5,%r13d
- xorl %r10d,%r14d
- andl %ecx,%r12d
- pshufd $128,%xmm7,%xmm7
- xorl %ecx,%r13d
- addl 40(%rsp),%r9d
- movl %r10d,%r15d
- psrldq $8,%xmm7
- xorl %r8d,%r12d
- rorl $11,%r14d
- xorl %r11d,%r15d
- addl %r12d,%r9d
- rorl $6,%r13d
- paddd %xmm7,%xmm2
- andl %r15d,%edi
- xorl %r10d,%r14d
- addl %r13d,%r9d
- pshufd $80,%xmm2,%xmm7
- xorl %r11d,%edi
- rorl $2,%r14d
- addl %r9d,%ebx
- movdqa %xmm7,%xmm6
- addl %edi,%r9d
- movl %ebx,%r13d
- psrld $10,%xmm7
- addl %r9d,%r14d
- rorl $14,%r13d
- psrlq $17,%xmm6
- movl %r14d,%r9d
- movl %ecx,%r12d
- pxor %xmm6,%xmm7
- rorl $9,%r14d
- xorl %ebx,%r13d
- xorl %edx,%r12d
- rorl $5,%r13d
- xorl %r9d,%r14d
- psrlq $2,%xmm6
- andl %ebx,%r12d
- xorl %ebx,%r13d
- addl 44(%rsp),%r8d
- pxor %xmm6,%xmm7
- movl %r9d,%edi
- xorl %edx,%r12d
- rorl $11,%r14d
- pshufd $8,%xmm7,%xmm7
- xorl %r10d,%edi
- addl %r12d,%r8d
- movdqa 64(%rbp),%xmm6
- rorl $6,%r13d
- andl %edi,%r15d
- pslldq $8,%xmm7
- xorl %r9d,%r14d
- addl %r13d,%r8d
- xorl %r10d,%r15d
- paddd %xmm7,%xmm2
- rorl $2,%r14d
- addl %r8d,%eax
- addl %r15d,%r8d
- paddd %xmm2,%xmm6
- movl %eax,%r13d
- addl %r8d,%r14d
- movdqa %xmm6,32(%rsp)
- rorl $14,%r13d
- movdqa %xmm0,%xmm4
- movl %r14d,%r8d
- movl %ebx,%r12d
- movdqa %xmm2,%xmm7
- rorl $9,%r14d
- xorl %eax,%r13d
- xorl %ecx,%r12d
- rorl $5,%r13d
- xorl %r8d,%r14d
-.byte 102,15,58,15,227,4
- andl %eax,%r12d
- xorl %eax,%r13d
-.byte 102,15,58,15,249,4
- addl 48(%rsp),%edx
- movl %r8d,%r15d
- xorl %ecx,%r12d
- rorl $11,%r14d
- movdqa %xmm4,%xmm5
- xorl %r9d,%r15d
- addl %r12d,%edx
- movdqa %xmm4,%xmm6
- rorl $6,%r13d
- andl %r15d,%edi
- psrld $3,%xmm4
- xorl %r8d,%r14d
- addl %r13d,%edx
- xorl %r9d,%edi
- paddd %xmm7,%xmm3
- rorl $2,%r14d
- addl %edx,%r11d
- psrld $7,%xmm6
- addl %edi,%edx
- movl %r11d,%r13d
- pshufd $250,%xmm2,%xmm7
- addl %edx,%r14d
- rorl $14,%r13d
- pslld $14,%xmm5
- movl %r14d,%edx
- movl %eax,%r12d
- pxor %xmm6,%xmm4
- rorl $9,%r14d
- xorl %r11d,%r13d
- xorl %ebx,%r12d
- rorl $5,%r13d
- psrld $11,%xmm6
- xorl %edx,%r14d
- pxor %xmm5,%xmm4
- andl %r11d,%r12d
- xorl %r11d,%r13d
- pslld $11,%xmm5
- addl 52(%rsp),%ecx
- movl %edx,%edi
- pxor %xmm6,%xmm4
- xorl %ebx,%r12d
- rorl $11,%r14d
- movdqa %xmm7,%xmm6
- xorl %r8d,%edi
- addl %r12d,%ecx
- pxor %xmm5,%xmm4
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %edx,%r14d
- psrld $10,%xmm7
- addl %r13d,%ecx
- xorl %r8d,%r15d
- paddd %xmm4,%xmm3
- rorl $2,%r14d
- addl %ecx,%r10d
- psrlq $17,%xmm6
- addl %r15d,%ecx
- movl %r10d,%r13d
- addl %ecx,%r14d
- pxor %xmm6,%xmm7
- rorl $14,%r13d
- movl %r14d,%ecx
- movl %r11d,%r12d
- rorl $9,%r14d
- psrlq $2,%xmm6
- xorl %r10d,%r13d
- xorl %eax,%r12d
- pxor %xmm6,%xmm7
- rorl $5,%r13d
- xorl %ecx,%r14d
- andl %r10d,%r12d
- pshufd $128,%xmm7,%xmm7
- xorl %r10d,%r13d
- addl 56(%rsp),%ebx
- movl %ecx,%r15d
- psrldq $8,%xmm7
- xorl %eax,%r12d
- rorl $11,%r14d
- xorl %edx,%r15d
- addl %r12d,%ebx
- rorl $6,%r13d
- paddd %xmm7,%xmm3
- andl %r15d,%edi
- xorl %ecx,%r14d
- addl %r13d,%ebx
- pshufd $80,%xmm3,%xmm7
- xorl %edx,%edi
- rorl $2,%r14d
- addl %ebx,%r9d
- movdqa %xmm7,%xmm6
- addl %edi,%ebx
- movl %r9d,%r13d
- psrld $10,%xmm7
- addl %ebx,%r14d
- rorl $14,%r13d
- psrlq $17,%xmm6
- movl %r14d,%ebx
- movl %r10d,%r12d
- pxor %xmm6,%xmm7
- rorl $9,%r14d
- xorl %r9d,%r13d
- xorl %r11d,%r12d
- rorl $5,%r13d
- xorl %ebx,%r14d
- psrlq $2,%xmm6
- andl %r9d,%r12d
- xorl %r9d,%r13d
- addl 60(%rsp),%eax
- pxor %xmm6,%xmm7
- movl %ebx,%edi
- xorl %r11d,%r12d
- rorl $11,%r14d
- pshufd $8,%xmm7,%xmm7
- xorl %ecx,%edi
- addl %r12d,%eax
- movdqa 96(%rbp),%xmm6
- rorl $6,%r13d
- andl %edi,%r15d
- pslldq $8,%xmm7
- xorl %ebx,%r14d
- addl %r13d,%eax
- xorl %ecx,%r15d
- paddd %xmm7,%xmm3
- rorl $2,%r14d
- addl %eax,%r8d
- addl %r15d,%eax
- paddd %xmm3,%xmm6
- movl %r8d,%r13d
- addl %eax,%r14d
- movdqa %xmm6,48(%rsp)
- cmpb $0,131(%rbp)
- jne .Lssse3_00_47
- rorl $14,%r13d
- movl %r14d,%eax
- movl %r9d,%r12d
- rorl $9,%r14d
- xorl %r8d,%r13d
- xorl %r10d,%r12d
- rorl $5,%r13d
- xorl %eax,%r14d
- andl %r8d,%r12d
- xorl %r8d,%r13d
- addl 0(%rsp),%r11d
- movl %eax,%r15d
- xorl %r10d,%r12d
- rorl $11,%r14d
- xorl %ebx,%r15d
- addl %r12d,%r11d
- rorl $6,%r13d
- andl %r15d,%edi
- xorl %eax,%r14d
- addl %r13d,%r11d
- xorl %ebx,%edi
- rorl $2,%r14d
- addl %r11d,%edx
- addl %edi,%r11d
- movl %edx,%r13d
- addl %r11d,%r14d
- rorl $14,%r13d
- movl %r14d,%r11d
- movl %r8d,%r12d
- rorl $9,%r14d
- xorl %edx,%r13d
- xorl %r9d,%r12d
- rorl $5,%r13d
- xorl %r11d,%r14d
- andl %edx,%r12d
- xorl %edx,%r13d
- addl 4(%rsp),%r10d
- movl %r11d,%edi
- xorl %r9d,%r12d
- rorl $11,%r14d
- xorl %eax,%edi
- addl %r12d,%r10d
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %r11d,%r14d
- addl %r13d,%r10d
- xorl %eax,%r15d
- rorl $2,%r14d
- addl %r10d,%ecx
- addl %r15d,%r10d
- movl %ecx,%r13d
- addl %r10d,%r14d
- rorl $14,%r13d
- movl %r14d,%r10d
- movl %edx,%r12d
- rorl $9,%r14d
- xorl %ecx,%r13d
- xorl %r8d,%r12d
- rorl $5,%r13d
- xorl %r10d,%r14d
- andl %ecx,%r12d
- xorl %ecx,%r13d
- addl 8(%rsp),%r9d
- movl %r10d,%r15d
- xorl %r8d,%r12d
- rorl $11,%r14d
- xorl %r11d,%r15d
- addl %r12d,%r9d
- rorl $6,%r13d
- andl %r15d,%edi
- xorl %r10d,%r14d
- addl %r13d,%r9d
- xorl %r11d,%edi
- rorl $2,%r14d
- addl %r9d,%ebx
- addl %edi,%r9d
- movl %ebx,%r13d
- addl %r9d,%r14d
- rorl $14,%r13d
- movl %r14d,%r9d
- movl %ecx,%r12d
- rorl $9,%r14d
- xorl %ebx,%r13d
- xorl %edx,%r12d
- rorl $5,%r13d
- xorl %r9d,%r14d
- andl %ebx,%r12d
- xorl %ebx,%r13d
- addl 12(%rsp),%r8d
- movl %r9d,%edi
- xorl %edx,%r12d
- rorl $11,%r14d
- xorl %r10d,%edi
- addl %r12d,%r8d
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %r9d,%r14d
- addl %r13d,%r8d
- xorl %r10d,%r15d
- rorl $2,%r14d
- addl %r8d,%eax
- addl %r15d,%r8d
- movl %eax,%r13d
- addl %r8d,%r14d
- rorl $14,%r13d
- movl %r14d,%r8d
- movl %ebx,%r12d
- rorl $9,%r14d
- xorl %eax,%r13d
- xorl %ecx,%r12d
- rorl $5,%r13d
- xorl %r8d,%r14d
- andl %eax,%r12d
- xorl %eax,%r13d
- addl 16(%rsp),%edx
- movl %r8d,%r15d
- xorl %ecx,%r12d
- rorl $11,%r14d
- xorl %r9d,%r15d
- addl %r12d,%edx
- rorl $6,%r13d
- andl %r15d,%edi
- xorl %r8d,%r14d
- addl %r13d,%edx
- xorl %r9d,%edi
- rorl $2,%r14d
- addl %edx,%r11d
- addl %edi,%edx
- movl %r11d,%r13d
- addl %edx,%r14d
- rorl $14,%r13d
- movl %r14d,%edx
- movl %eax,%r12d
- rorl $9,%r14d
- xorl %r11d,%r13d
- xorl %ebx,%r12d
- rorl $5,%r13d
- xorl %edx,%r14d
- andl %r11d,%r12d
- xorl %r11d,%r13d
- addl 20(%rsp),%ecx
- movl %edx,%edi
- xorl %ebx,%r12d
- rorl $11,%r14d
- xorl %r8d,%edi
- addl %r12d,%ecx
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %edx,%r14d
- addl %r13d,%ecx
- xorl %r8d,%r15d
- rorl $2,%r14d
- addl %ecx,%r10d
- addl %r15d,%ecx
- movl %r10d,%r13d
- addl %ecx,%r14d
- rorl $14,%r13d
- movl %r14d,%ecx
- movl %r11d,%r12d
- rorl $9,%r14d
- xorl %r10d,%r13d
- xorl %eax,%r12d
- rorl $5,%r13d
- xorl %ecx,%r14d
- andl %r10d,%r12d
- xorl %r10d,%r13d
- addl 24(%rsp),%ebx
- movl %ecx,%r15d
- xorl %eax,%r12d
- rorl $11,%r14d
- xorl %edx,%r15d
- addl %r12d,%ebx
- rorl $6,%r13d
- andl %r15d,%edi
- xorl %ecx,%r14d
- addl %r13d,%ebx
- xorl %edx,%edi
- rorl $2,%r14d
- addl %ebx,%r9d
- addl %edi,%ebx
- movl %r9d,%r13d
- addl %ebx,%r14d
- rorl $14,%r13d
- movl %r14d,%ebx
- movl %r10d,%r12d
- rorl $9,%r14d
- xorl %r9d,%r13d
- xorl %r11d,%r12d
- rorl $5,%r13d
- xorl %ebx,%r14d
- andl %r9d,%r12d
- xorl %r9d,%r13d
- addl 28(%rsp),%eax
- movl %ebx,%edi
- xorl %r11d,%r12d
- rorl $11,%r14d
- xorl %ecx,%edi
- addl %r12d,%eax
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %ebx,%r14d
- addl %r13d,%eax
- xorl %ecx,%r15d
- rorl $2,%r14d
- addl %eax,%r8d
- addl %r15d,%eax
- movl %r8d,%r13d
- addl %eax,%r14d
- rorl $14,%r13d
- movl %r14d,%eax
- movl %r9d,%r12d
- rorl $9,%r14d
- xorl %r8d,%r13d
- xorl %r10d,%r12d
- rorl $5,%r13d
- xorl %eax,%r14d
- andl %r8d,%r12d
- xorl %r8d,%r13d
- addl 32(%rsp),%r11d
- movl %eax,%r15d
- xorl %r10d,%r12d
- rorl $11,%r14d
- xorl %ebx,%r15d
- addl %r12d,%r11d
- rorl $6,%r13d
- andl %r15d,%edi
- xorl %eax,%r14d
- addl %r13d,%r11d
- xorl %ebx,%edi
- rorl $2,%r14d
- addl %r11d,%edx
- addl %edi,%r11d
- movl %edx,%r13d
- addl %r11d,%r14d
- rorl $14,%r13d
- movl %r14d,%r11d
- movl %r8d,%r12d
- rorl $9,%r14d
- xorl %edx,%r13d
- xorl %r9d,%r12d
- rorl $5,%r13d
- xorl %r11d,%r14d
- andl %edx,%r12d
- xorl %edx,%r13d
- addl 36(%rsp),%r10d
- movl %r11d,%edi
- xorl %r9d,%r12d
- rorl $11,%r14d
- xorl %eax,%edi
- addl %r12d,%r10d
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %r11d,%r14d
- addl %r13d,%r10d
- xorl %eax,%r15d
- rorl $2,%r14d
- addl %r10d,%ecx
- addl %r15d,%r10d
- movl %ecx,%r13d
- addl %r10d,%r14d
- rorl $14,%r13d
- movl %r14d,%r10d
- movl %edx,%r12d
- rorl $9,%r14d
- xorl %ecx,%r13d
- xorl %r8d,%r12d
- rorl $5,%r13d
- xorl %r10d,%r14d
- andl %ecx,%r12d
- xorl %ecx,%r13d
- addl 40(%rsp),%r9d
- movl %r10d,%r15d
- xorl %r8d,%r12d
- rorl $11,%r14d
- xorl %r11d,%r15d
- addl %r12d,%r9d
- rorl $6,%r13d
- andl %r15d,%edi
- xorl %r10d,%r14d
- addl %r13d,%r9d
- xorl %r11d,%edi
- rorl $2,%r14d
- addl %r9d,%ebx
- addl %edi,%r9d
- movl %ebx,%r13d
- addl %r9d,%r14d
- rorl $14,%r13d
- movl %r14d,%r9d
- movl %ecx,%r12d
- rorl $9,%r14d
- xorl %ebx,%r13d
- xorl %edx,%r12d
- rorl $5,%r13d
- xorl %r9d,%r14d
- andl %ebx,%r12d
- xorl %ebx,%r13d
- addl 44(%rsp),%r8d
- movl %r9d,%edi
- xorl %edx,%r12d
- rorl $11,%r14d
- xorl %r10d,%edi
- addl %r12d,%r8d
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %r9d,%r14d
- addl %r13d,%r8d
- xorl %r10d,%r15d
- rorl $2,%r14d
- addl %r8d,%eax
- addl %r15d,%r8d
- movl %eax,%r13d
- addl %r8d,%r14d
- rorl $14,%r13d
- movl %r14d,%r8d
- movl %ebx,%r12d
- rorl $9,%r14d
- xorl %eax,%r13d
- xorl %ecx,%r12d
- rorl $5,%r13d
- xorl %r8d,%r14d
- andl %eax,%r12d
- xorl %eax,%r13d
- addl 48(%rsp),%edx
- movl %r8d,%r15d
- xorl %ecx,%r12d
- rorl $11,%r14d
- xorl %r9d,%r15d
- addl %r12d,%edx
- rorl $6,%r13d
- andl %r15d,%edi
- xorl %r8d,%r14d
- addl %r13d,%edx
- xorl %r9d,%edi
- rorl $2,%r14d
- addl %edx,%r11d
- addl %edi,%edx
- movl %r11d,%r13d
- addl %edx,%r14d
- rorl $14,%r13d
- movl %r14d,%edx
- movl %eax,%r12d
- rorl $9,%r14d
- xorl %r11d,%r13d
- xorl %ebx,%r12d
- rorl $5,%r13d
- xorl %edx,%r14d
- andl %r11d,%r12d
- xorl %r11d,%r13d
- addl 52(%rsp),%ecx
- movl %edx,%edi
- xorl %ebx,%r12d
- rorl $11,%r14d
- xorl %r8d,%edi
- addl %r12d,%ecx
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %edx,%r14d
- addl %r13d,%ecx
- xorl %r8d,%r15d
- rorl $2,%r14d
- addl %ecx,%r10d
- addl %r15d,%ecx
- movl %r10d,%r13d
- addl %ecx,%r14d
- rorl $14,%r13d
- movl %r14d,%ecx
- movl %r11d,%r12d
- rorl $9,%r14d
- xorl %r10d,%r13d
- xorl %eax,%r12d
- rorl $5,%r13d
- xorl %ecx,%r14d
- andl %r10d,%r12d
- xorl %r10d,%r13d
- addl 56(%rsp),%ebx
- movl %ecx,%r15d
- xorl %eax,%r12d
- rorl $11,%r14d
- xorl %edx,%r15d
- addl %r12d,%ebx
- rorl $6,%r13d
- andl %r15d,%edi
- xorl %ecx,%r14d
- addl %r13d,%ebx
- xorl %edx,%edi
- rorl $2,%r14d
- addl %ebx,%r9d
- addl %edi,%ebx
- movl %r9d,%r13d
- addl %ebx,%r14d
- rorl $14,%r13d
- movl %r14d,%ebx
- movl %r10d,%r12d
- rorl $9,%r14d
- xorl %r9d,%r13d
- xorl %r11d,%r12d
- rorl $5,%r13d
- xorl %ebx,%r14d
- andl %r9d,%r12d
- xorl %r9d,%r13d
- addl 60(%rsp),%eax
- movl %ebx,%edi
- xorl %r11d,%r12d
- rorl $11,%r14d
- xorl %ecx,%edi
- addl %r12d,%eax
- rorl $6,%r13d
- andl %edi,%r15d
- xorl %ebx,%r14d
- addl %r13d,%eax
- xorl %ecx,%r15d
- rorl $2,%r14d
- addl %eax,%r8d
- addl %r15d,%eax
- movl %r8d,%r13d
- addl %eax,%r14d
- movq 64+0(%rsp),%rdi
- movl %r14d,%eax
-
- addl 0(%rdi),%eax
- leaq 64(%rsi),%rsi
- addl 4(%rdi),%ebx
- addl 8(%rdi),%ecx
- addl 12(%rdi),%edx
- addl 16(%rdi),%r8d
- addl 20(%rdi),%r9d
- addl 24(%rdi),%r10d
- addl 28(%rdi),%r11d
-
- cmpq 64+16(%rsp),%rsi
-
- movl %eax,0(%rdi)
- movl %ebx,4(%rdi)
- movl %ecx,8(%rdi)
- movl %edx,12(%rdi)
- movl %r8d,16(%rdi)
- movl %r9d,20(%rdi)
- movl %r10d,24(%rdi)
- movl %r11d,28(%rdi)
- jb .Lloop_ssse3
-
- movq 88(%rsp),%rsi
-.cfi_def_cfa %rsi,8
- movq -48(%rsi),%r15
-.cfi_restore %r15
- movq -40(%rsi),%r14
-.cfi_restore %r14
- movq -32(%rsi),%r13
-.cfi_restore %r13
- movq -24(%rsi),%r12
-.cfi_restore %r12
- movq -16(%rsi),%rbp
-.cfi_restore %rbp
- movq -8(%rsi),%rbx
-.cfi_restore %rbx
- leaq (%rsi),%rsp
-.cfi_def_cfa_register %rsp
-.Lepilogue_ssse3:
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha256_block_data_order_ssse3,.-sha256_block_data_order_ssse3
diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha512-x86_64.S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha512-x86_64.S
deleted file mode 100644
index 11e67e5ba1..0000000000
--- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha512-x86_64.S
+++ /dev/null
@@ -1,1811 +0,0 @@
-# WARNING: do not edit!
-# Generated from openssl/crypto/sha/asm/sha512-x86_64.pl
-#
-# Copyright 2005-2020 The OpenSSL Project Authors. All Rights Reserved.
-#
-# Licensed under the OpenSSL license (the "License"). You may not use
-# this file except in compliance with the License. You can obtain a copy
-# in the file LICENSE in the source distribution or at
-# https://www.openssl.org/source/license.html
-
-.text
-
-
-.globl sha512_block_data_order
-.type sha512_block_data_order,@function
-.align 16
-sha512_block_data_order:
-.cfi_startproc
- movq %rsp,%rax
-.cfi_def_cfa_register %rax
- pushq %rbx
-.cfi_offset %rbx,-16
- pushq %rbp
-.cfi_offset %rbp,-24
- pushq %r12
-.cfi_offset %r12,-32
- pushq %r13
-.cfi_offset %r13,-40
- pushq %r14
-.cfi_offset %r14,-48
- pushq %r15
-.cfi_offset %r15,-56
- shlq $4,%rdx
- subq $128+32,%rsp
- leaq (%rsi,%rdx,8),%rdx
- andq $-64,%rsp
- movq %rdi,128+0(%rsp)
- movq %rsi,128+8(%rsp)
- movq %rdx,128+16(%rsp)
- movq %rax,152(%rsp)
-.cfi_escape 0x0f,0x06,0x77,0x98,0x01,0x06,0x23,0x08
-.Lprologue:
-
- movq 0(%rdi),%rax
- movq 8(%rdi),%rbx
- movq 16(%rdi),%rcx
- movq 24(%rdi),%rdx
- movq 32(%rdi),%r8
- movq 40(%rdi),%r9
- movq 48(%rdi),%r10
- movq 56(%rdi),%r11
- jmp .Lloop
-
-.align 16
-.Lloop:
- movq %rbx,%rdi
- leaq K512(%rip),%rbp
- xorq %rcx,%rdi
- movq 0(%rsi),%r12
- movq %r8,%r13
- movq %rax,%r14
- bswapq %r12
- rorq $23,%r13
- movq %r9,%r15
-
- xorq %r8,%r13
- rorq $5,%r14
- xorq %r10,%r15
-
- movq %r12,0(%rsp)
- xorq %rax,%r14
- andq %r8,%r15
-
- rorq $4,%r13
- addq %r11,%r12
- xorq %r10,%r15
-
- rorq $6,%r14
- xorq %r8,%r13
- addq %r15,%r12
-
- movq %rax,%r15
- addq (%rbp),%r12
- xorq %rax,%r14
-
- xorq %rbx,%r15
- rorq $14,%r13
- movq %rbx,%r11
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%r11
- addq %r12,%rdx
- addq %r12,%r11
-
- leaq 8(%rbp),%rbp
- addq %r14,%r11
- movq 8(%rsi),%r12
- movq %rdx,%r13
- movq %r11,%r14
- bswapq %r12
- rorq $23,%r13
- movq %r8,%rdi
-
- xorq %rdx,%r13
- rorq $5,%r14
- xorq %r9,%rdi
-
- movq %r12,8(%rsp)
- xorq %r11,%r14
- andq %rdx,%rdi
-
- rorq $4,%r13
- addq %r10,%r12
- xorq %r9,%rdi
-
- rorq $6,%r14
- xorq %rdx,%r13
- addq %rdi,%r12
-
- movq %r11,%rdi
- addq (%rbp),%r12
- xorq %r11,%r14
-
- xorq %rax,%rdi
- rorq $14,%r13
- movq %rax,%r10
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%r10
- addq %r12,%rcx
- addq %r12,%r10
-
- leaq 24(%rbp),%rbp
- addq %r14,%r10
- movq 16(%rsi),%r12
- movq %rcx,%r13
- movq %r10,%r14
- bswapq %r12
- rorq $23,%r13
- movq %rdx,%r15
-
- xorq %rcx,%r13
- rorq $5,%r14
- xorq %r8,%r15
-
- movq %r12,16(%rsp)
- xorq %r10,%r14
- andq %rcx,%r15
-
- rorq $4,%r13
- addq %r9,%r12
- xorq %r8,%r15
-
- rorq $6,%r14
- xorq %rcx,%r13
- addq %r15,%r12
-
- movq %r10,%r15
- addq (%rbp),%r12
- xorq %r10,%r14
-
- xorq %r11,%r15
- rorq $14,%r13
- movq %r11,%r9
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%r9
- addq %r12,%rbx
- addq %r12,%r9
-
- leaq 8(%rbp),%rbp
- addq %r14,%r9
- movq 24(%rsi),%r12
- movq %rbx,%r13
- movq %r9,%r14
- bswapq %r12
- rorq $23,%r13
- movq %rcx,%rdi
-
- xorq %rbx,%r13
- rorq $5,%r14
- xorq %rdx,%rdi
-
- movq %r12,24(%rsp)
- xorq %r9,%r14
- andq %rbx,%rdi
-
- rorq $4,%r13
- addq %r8,%r12
- xorq %rdx,%rdi
-
- rorq $6,%r14
- xorq %rbx,%r13
- addq %rdi,%r12
-
- movq %r9,%rdi
- addq (%rbp),%r12
- xorq %r9,%r14
-
- xorq %r10,%rdi
- rorq $14,%r13
- movq %r10,%r8
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%r8
- addq %r12,%rax
- addq %r12,%r8
-
- leaq 24(%rbp),%rbp
- addq %r14,%r8
- movq 32(%rsi),%r12
- movq %rax,%r13
- movq %r8,%r14
- bswapq %r12
- rorq $23,%r13
- movq %rbx,%r15
-
- xorq %rax,%r13
- rorq $5,%r14
- xorq %rcx,%r15
-
- movq %r12,32(%rsp)
- xorq %r8,%r14
- andq %rax,%r15
-
- rorq $4,%r13
- addq %rdx,%r12
- xorq %rcx,%r15
-
- rorq $6,%r14
- xorq %rax,%r13
- addq %r15,%r12
-
- movq %r8,%r15
- addq (%rbp),%r12
- xorq %r8,%r14
-
- xorq %r9,%r15
- rorq $14,%r13
- movq %r9,%rdx
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%rdx
- addq %r12,%r11
- addq %r12,%rdx
-
- leaq 8(%rbp),%rbp
- addq %r14,%rdx
- movq 40(%rsi),%r12
- movq %r11,%r13
- movq %rdx,%r14
- bswapq %r12
- rorq $23,%r13
- movq %rax,%rdi
-
- xorq %r11,%r13
- rorq $5,%r14
- xorq %rbx,%rdi
-
- movq %r12,40(%rsp)
- xorq %rdx,%r14
- andq %r11,%rdi
-
- rorq $4,%r13
- addq %rcx,%r12
- xorq %rbx,%rdi
-
- rorq $6,%r14
- xorq %r11,%r13
- addq %rdi,%r12
-
- movq %rdx,%rdi
- addq (%rbp),%r12
- xorq %rdx,%r14
-
- xorq %r8,%rdi
- rorq $14,%r13
- movq %r8,%rcx
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%rcx
- addq %r12,%r10
- addq %r12,%rcx
-
- leaq 24(%rbp),%rbp
- addq %r14,%rcx
- movq 48(%rsi),%r12
- movq %r10,%r13
- movq %rcx,%r14
- bswapq %r12
- rorq $23,%r13
- movq %r11,%r15
-
- xorq %r10,%r13
- rorq $5,%r14
- xorq %rax,%r15
-
- movq %r12,48(%rsp)
- xorq %rcx,%r14
- andq %r10,%r15
-
- rorq $4,%r13
- addq %rbx,%r12
- xorq %rax,%r15
-
- rorq $6,%r14
- xorq %r10,%r13
- addq %r15,%r12
-
- movq %rcx,%r15
- addq (%rbp),%r12
- xorq %rcx,%r14
-
- xorq %rdx,%r15
- rorq $14,%r13
- movq %rdx,%rbx
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%rbx
- addq %r12,%r9
- addq %r12,%rbx
-
- leaq 8(%rbp),%rbp
- addq %r14,%rbx
- movq 56(%rsi),%r12
- movq %r9,%r13
- movq %rbx,%r14
- bswapq %r12
- rorq $23,%r13
- movq %r10,%rdi
-
- xorq %r9,%r13
- rorq $5,%r14
- xorq %r11,%rdi
-
- movq %r12,56(%rsp)
- xorq %rbx,%r14
- andq %r9,%rdi
-
- rorq $4,%r13
- addq %rax,%r12
- xorq %r11,%rdi
-
- rorq $6,%r14
- xorq %r9,%r13
- addq %rdi,%r12
-
- movq %rbx,%rdi
- addq (%rbp),%r12
- xorq %rbx,%r14
-
- xorq %rcx,%rdi
- rorq $14,%r13
- movq %rcx,%rax
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%rax
- addq %r12,%r8
- addq %r12,%rax
-
- leaq 24(%rbp),%rbp
- addq %r14,%rax
- movq 64(%rsi),%r12
- movq %r8,%r13
- movq %rax,%r14
- bswapq %r12
- rorq $23,%r13
- movq %r9,%r15
-
- xorq %r8,%r13
- rorq $5,%r14
- xorq %r10,%r15
-
- movq %r12,64(%rsp)
- xorq %rax,%r14
- andq %r8,%r15
-
- rorq $4,%r13
- addq %r11,%r12
- xorq %r10,%r15
-
- rorq $6,%r14
- xorq %r8,%r13
- addq %r15,%r12
-
- movq %rax,%r15
- addq (%rbp),%r12
- xorq %rax,%r14
-
- xorq %rbx,%r15
- rorq $14,%r13
- movq %rbx,%r11
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%r11
- addq %r12,%rdx
- addq %r12,%r11
-
- leaq 8(%rbp),%rbp
- addq %r14,%r11
- movq 72(%rsi),%r12
- movq %rdx,%r13
- movq %r11,%r14
- bswapq %r12
- rorq $23,%r13
- movq %r8,%rdi
-
- xorq %rdx,%r13
- rorq $5,%r14
- xorq %r9,%rdi
-
- movq %r12,72(%rsp)
- xorq %r11,%r14
- andq %rdx,%rdi
-
- rorq $4,%r13
- addq %r10,%r12
- xorq %r9,%rdi
-
- rorq $6,%r14
- xorq %rdx,%r13
- addq %rdi,%r12
-
- movq %r11,%rdi
- addq (%rbp),%r12
- xorq %r11,%r14
-
- xorq %rax,%rdi
- rorq $14,%r13
- movq %rax,%r10
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%r10
- addq %r12,%rcx
- addq %r12,%r10
-
- leaq 24(%rbp),%rbp
- addq %r14,%r10
- movq 80(%rsi),%r12
- movq %rcx,%r13
- movq %r10,%r14
- bswapq %r12
- rorq $23,%r13
- movq %rdx,%r15
-
- xorq %rcx,%r13
- rorq $5,%r14
- xorq %r8,%r15
-
- movq %r12,80(%rsp)
- xorq %r10,%r14
- andq %rcx,%r15
-
- rorq $4,%r13
- addq %r9,%r12
- xorq %r8,%r15
-
- rorq $6,%r14
- xorq %rcx,%r13
- addq %r15,%r12
-
- movq %r10,%r15
- addq (%rbp),%r12
- xorq %r10,%r14
-
- xorq %r11,%r15
- rorq $14,%r13
- movq %r11,%r9
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%r9
- addq %r12,%rbx
- addq %r12,%r9
-
- leaq 8(%rbp),%rbp
- addq %r14,%r9
- movq 88(%rsi),%r12
- movq %rbx,%r13
- movq %r9,%r14
- bswapq %r12
- rorq $23,%r13
- movq %rcx,%rdi
-
- xorq %rbx,%r13
- rorq $5,%r14
- xorq %rdx,%rdi
-
- movq %r12,88(%rsp)
- xorq %r9,%r14
- andq %rbx,%rdi
-
- rorq $4,%r13
- addq %r8,%r12
- xorq %rdx,%rdi
-
- rorq $6,%r14
- xorq %rbx,%r13
- addq %rdi,%r12
-
- movq %r9,%rdi
- addq (%rbp),%r12
- xorq %r9,%r14
-
- xorq %r10,%rdi
- rorq $14,%r13
- movq %r10,%r8
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%r8
- addq %r12,%rax
- addq %r12,%r8
-
- leaq 24(%rbp),%rbp
- addq %r14,%r8
- movq 96(%rsi),%r12
- movq %rax,%r13
- movq %r8,%r14
- bswapq %r12
- rorq $23,%r13
- movq %rbx,%r15
-
- xorq %rax,%r13
- rorq $5,%r14
- xorq %rcx,%r15
-
- movq %r12,96(%rsp)
- xorq %r8,%r14
- andq %rax,%r15
-
- rorq $4,%r13
- addq %rdx,%r12
- xorq %rcx,%r15
-
- rorq $6,%r14
- xorq %rax,%r13
- addq %r15,%r12
-
- movq %r8,%r15
- addq (%rbp),%r12
- xorq %r8,%r14
-
- xorq %r9,%r15
- rorq $14,%r13
- movq %r9,%rdx
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%rdx
- addq %r12,%r11
- addq %r12,%rdx
-
- leaq 8(%rbp),%rbp
- addq %r14,%rdx
- movq 104(%rsi),%r12
- movq %r11,%r13
- movq %rdx,%r14
- bswapq %r12
- rorq $23,%r13
- movq %rax,%rdi
-
- xorq %r11,%r13
- rorq $5,%r14
- xorq %rbx,%rdi
-
- movq %r12,104(%rsp)
- xorq %rdx,%r14
- andq %r11,%rdi
-
- rorq $4,%r13
- addq %rcx,%r12
- xorq %rbx,%rdi
-
- rorq $6,%r14
- xorq %r11,%r13
- addq %rdi,%r12
-
- movq %rdx,%rdi
- addq (%rbp),%r12
- xorq %rdx,%r14
-
- xorq %r8,%rdi
- rorq $14,%r13
- movq %r8,%rcx
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%rcx
- addq %r12,%r10
- addq %r12,%rcx
-
- leaq 24(%rbp),%rbp
- addq %r14,%rcx
- movq 112(%rsi),%r12
- movq %r10,%r13
- movq %rcx,%r14
- bswapq %r12
- rorq $23,%r13
- movq %r11,%r15
-
- xorq %r10,%r13
- rorq $5,%r14
- xorq %rax,%r15
-
- movq %r12,112(%rsp)
- xorq %rcx,%r14
- andq %r10,%r15
-
- rorq $4,%r13
- addq %rbx,%r12
- xorq %rax,%r15
-
- rorq $6,%r14
- xorq %r10,%r13
- addq %r15,%r12
-
- movq %rcx,%r15
- addq (%rbp),%r12
- xorq %rcx,%r14
-
- xorq %rdx,%r15
- rorq $14,%r13
- movq %rdx,%rbx
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%rbx
- addq %r12,%r9
- addq %r12,%rbx
-
- leaq 8(%rbp),%rbp
- addq %r14,%rbx
- movq 120(%rsi),%r12
- movq %r9,%r13
- movq %rbx,%r14
- bswapq %r12
- rorq $23,%r13
- movq %r10,%rdi
-
- xorq %r9,%r13
- rorq $5,%r14
- xorq %r11,%rdi
-
- movq %r12,120(%rsp)
- xorq %rbx,%r14
- andq %r9,%rdi
-
- rorq $4,%r13
- addq %rax,%r12
- xorq %r11,%rdi
-
- rorq $6,%r14
- xorq %r9,%r13
- addq %rdi,%r12
-
- movq %rbx,%rdi
- addq (%rbp),%r12
- xorq %rbx,%r14
-
- xorq %rcx,%rdi
- rorq $14,%r13
- movq %rcx,%rax
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%rax
- addq %r12,%r8
- addq %r12,%rax
-
- leaq 24(%rbp),%rbp
- jmp .Lrounds_16_xx
-.align 16
-.Lrounds_16_xx:
- movq 8(%rsp),%r13
- movq 112(%rsp),%r15
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%rax
- movq %r15,%r14
- rorq $42,%r15
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%r15
- shrq $6,%r14
-
- rorq $19,%r15
- xorq %r13,%r12
- xorq %r14,%r15
- addq 72(%rsp),%r12
-
- addq 0(%rsp),%r12
- movq %r8,%r13
- addq %r15,%r12
- movq %rax,%r14
- rorq $23,%r13
- movq %r9,%r15
-
- xorq %r8,%r13
- rorq $5,%r14
- xorq %r10,%r15
-
- movq %r12,0(%rsp)
- xorq %rax,%r14
- andq %r8,%r15
-
- rorq $4,%r13
- addq %r11,%r12
- xorq %r10,%r15
-
- rorq $6,%r14
- xorq %r8,%r13
- addq %r15,%r12
-
- movq %rax,%r15
- addq (%rbp),%r12
- xorq %rax,%r14
-
- xorq %rbx,%r15
- rorq $14,%r13
- movq %rbx,%r11
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%r11
- addq %r12,%rdx
- addq %r12,%r11
-
- leaq 8(%rbp),%rbp
- movq 16(%rsp),%r13
- movq 120(%rsp),%rdi
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%r11
- movq %rdi,%r14
- rorq $42,%rdi
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%rdi
- shrq $6,%r14
-
- rorq $19,%rdi
- xorq %r13,%r12
- xorq %r14,%rdi
- addq 80(%rsp),%r12
-
- addq 8(%rsp),%r12
- movq %rdx,%r13
- addq %rdi,%r12
- movq %r11,%r14
- rorq $23,%r13
- movq %r8,%rdi
-
- xorq %rdx,%r13
- rorq $5,%r14
- xorq %r9,%rdi
-
- movq %r12,8(%rsp)
- xorq %r11,%r14
- andq %rdx,%rdi
-
- rorq $4,%r13
- addq %r10,%r12
- xorq %r9,%rdi
-
- rorq $6,%r14
- xorq %rdx,%r13
- addq %rdi,%r12
-
- movq %r11,%rdi
- addq (%rbp),%r12
- xorq %r11,%r14
-
- xorq %rax,%rdi
- rorq $14,%r13
- movq %rax,%r10
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%r10
- addq %r12,%rcx
- addq %r12,%r10
-
- leaq 24(%rbp),%rbp
- movq 24(%rsp),%r13
- movq 0(%rsp),%r15
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%r10
- movq %r15,%r14
- rorq $42,%r15
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%r15
- shrq $6,%r14
-
- rorq $19,%r15
- xorq %r13,%r12
- xorq %r14,%r15
- addq 88(%rsp),%r12
-
- addq 16(%rsp),%r12
- movq %rcx,%r13
- addq %r15,%r12
- movq %r10,%r14
- rorq $23,%r13
- movq %rdx,%r15
-
- xorq %rcx,%r13
- rorq $5,%r14
- xorq %r8,%r15
-
- movq %r12,16(%rsp)
- xorq %r10,%r14
- andq %rcx,%r15
-
- rorq $4,%r13
- addq %r9,%r12
- xorq %r8,%r15
-
- rorq $6,%r14
- xorq %rcx,%r13
- addq %r15,%r12
-
- movq %r10,%r15
- addq (%rbp),%r12
- xorq %r10,%r14
-
- xorq %r11,%r15
- rorq $14,%r13
- movq %r11,%r9
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%r9
- addq %r12,%rbx
- addq %r12,%r9
-
- leaq 8(%rbp),%rbp
- movq 32(%rsp),%r13
- movq 8(%rsp),%rdi
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%r9
- movq %rdi,%r14
- rorq $42,%rdi
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%rdi
- shrq $6,%r14
-
- rorq $19,%rdi
- xorq %r13,%r12
- xorq %r14,%rdi
- addq 96(%rsp),%r12
-
- addq 24(%rsp),%r12
- movq %rbx,%r13
- addq %rdi,%r12
- movq %r9,%r14
- rorq $23,%r13
- movq %rcx,%rdi
-
- xorq %rbx,%r13
- rorq $5,%r14
- xorq %rdx,%rdi
-
- movq %r12,24(%rsp)
- xorq %r9,%r14
- andq %rbx,%rdi
-
- rorq $4,%r13
- addq %r8,%r12
- xorq %rdx,%rdi
-
- rorq $6,%r14
- xorq %rbx,%r13
- addq %rdi,%r12
-
- movq %r9,%rdi
- addq (%rbp),%r12
- xorq %r9,%r14
-
- xorq %r10,%rdi
- rorq $14,%r13
- movq %r10,%r8
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%r8
- addq %r12,%rax
- addq %r12,%r8
-
- leaq 24(%rbp),%rbp
- movq 40(%rsp),%r13
- movq 16(%rsp),%r15
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%r8
- movq %r15,%r14
- rorq $42,%r15
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%r15
- shrq $6,%r14
-
- rorq $19,%r15
- xorq %r13,%r12
- xorq %r14,%r15
- addq 104(%rsp),%r12
-
- addq 32(%rsp),%r12
- movq %rax,%r13
- addq %r15,%r12
- movq %r8,%r14
- rorq $23,%r13
- movq %rbx,%r15
-
- xorq %rax,%r13
- rorq $5,%r14
- xorq %rcx,%r15
-
- movq %r12,32(%rsp)
- xorq %r8,%r14
- andq %rax,%r15
-
- rorq $4,%r13
- addq %rdx,%r12
- xorq %rcx,%r15
-
- rorq $6,%r14
- xorq %rax,%r13
- addq %r15,%r12
-
- movq %r8,%r15
- addq (%rbp),%r12
- xorq %r8,%r14
-
- xorq %r9,%r15
- rorq $14,%r13
- movq %r9,%rdx
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%rdx
- addq %r12,%r11
- addq %r12,%rdx
-
- leaq 8(%rbp),%rbp
- movq 48(%rsp),%r13
- movq 24(%rsp),%rdi
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%rdx
- movq %rdi,%r14
- rorq $42,%rdi
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%rdi
- shrq $6,%r14
-
- rorq $19,%rdi
- xorq %r13,%r12
- xorq %r14,%rdi
- addq 112(%rsp),%r12
-
- addq 40(%rsp),%r12
- movq %r11,%r13
- addq %rdi,%r12
- movq %rdx,%r14
- rorq $23,%r13
- movq %rax,%rdi
-
- xorq %r11,%r13
- rorq $5,%r14
- xorq %rbx,%rdi
-
- movq %r12,40(%rsp)
- xorq %rdx,%r14
- andq %r11,%rdi
-
- rorq $4,%r13
- addq %rcx,%r12
- xorq %rbx,%rdi
-
- rorq $6,%r14
- xorq %r11,%r13
- addq %rdi,%r12
-
- movq %rdx,%rdi
- addq (%rbp),%r12
- xorq %rdx,%r14
-
- xorq %r8,%rdi
- rorq $14,%r13
- movq %r8,%rcx
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%rcx
- addq %r12,%r10
- addq %r12,%rcx
-
- leaq 24(%rbp),%rbp
- movq 56(%rsp),%r13
- movq 32(%rsp),%r15
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%rcx
- movq %r15,%r14
- rorq $42,%r15
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%r15
- shrq $6,%r14
-
- rorq $19,%r15
- xorq %r13,%r12
- xorq %r14,%r15
- addq 120(%rsp),%r12
-
- addq 48(%rsp),%r12
- movq %r10,%r13
- addq %r15,%r12
- movq %rcx,%r14
- rorq $23,%r13
- movq %r11,%r15
-
- xorq %r10,%r13
- rorq $5,%r14
- xorq %rax,%r15
-
- movq %r12,48(%rsp)
- xorq %rcx,%r14
- andq %r10,%r15
-
- rorq $4,%r13
- addq %rbx,%r12
- xorq %rax,%r15
-
- rorq $6,%r14
- xorq %r10,%r13
- addq %r15,%r12
-
- movq %rcx,%r15
- addq (%rbp),%r12
- xorq %rcx,%r14
-
- xorq %rdx,%r15
- rorq $14,%r13
- movq %rdx,%rbx
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%rbx
- addq %r12,%r9
- addq %r12,%rbx
-
- leaq 8(%rbp),%rbp
- movq 64(%rsp),%r13
- movq 40(%rsp),%rdi
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%rbx
- movq %rdi,%r14
- rorq $42,%rdi
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%rdi
- shrq $6,%r14
-
- rorq $19,%rdi
- xorq %r13,%r12
- xorq %r14,%rdi
- addq 0(%rsp),%r12
-
- addq 56(%rsp),%r12
- movq %r9,%r13
- addq %rdi,%r12
- movq %rbx,%r14
- rorq $23,%r13
- movq %r10,%rdi
-
- xorq %r9,%r13
- rorq $5,%r14
- xorq %r11,%rdi
-
- movq %r12,56(%rsp)
- xorq %rbx,%r14
- andq %r9,%rdi
-
- rorq $4,%r13
- addq %rax,%r12
- xorq %r11,%rdi
-
- rorq $6,%r14
- xorq %r9,%r13
- addq %rdi,%r12
-
- movq %rbx,%rdi
- addq (%rbp),%r12
- xorq %rbx,%r14
-
- xorq %rcx,%rdi
- rorq $14,%r13
- movq %rcx,%rax
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%rax
- addq %r12,%r8
- addq %r12,%rax
-
- leaq 24(%rbp),%rbp
- movq 72(%rsp),%r13
- movq 48(%rsp),%r15
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%rax
- movq %r15,%r14
- rorq $42,%r15
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%r15
- shrq $6,%r14
-
- rorq $19,%r15
- xorq %r13,%r12
- xorq %r14,%r15
- addq 8(%rsp),%r12
-
- addq 64(%rsp),%r12
- movq %r8,%r13
- addq %r15,%r12
- movq %rax,%r14
- rorq $23,%r13
- movq %r9,%r15
-
- xorq %r8,%r13
- rorq $5,%r14
- xorq %r10,%r15
-
- movq %r12,64(%rsp)
- xorq %rax,%r14
- andq %r8,%r15
-
- rorq $4,%r13
- addq %r11,%r12
- xorq %r10,%r15
-
- rorq $6,%r14
- xorq %r8,%r13
- addq %r15,%r12
-
- movq %rax,%r15
- addq (%rbp),%r12
- xorq %rax,%r14
-
- xorq %rbx,%r15
- rorq $14,%r13
- movq %rbx,%r11
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%r11
- addq %r12,%rdx
- addq %r12,%r11
-
- leaq 8(%rbp),%rbp
- movq 80(%rsp),%r13
- movq 56(%rsp),%rdi
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%r11
- movq %rdi,%r14
- rorq $42,%rdi
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%rdi
- shrq $6,%r14
-
- rorq $19,%rdi
- xorq %r13,%r12
- xorq %r14,%rdi
- addq 16(%rsp),%r12
-
- addq 72(%rsp),%r12
- movq %rdx,%r13
- addq %rdi,%r12
- movq %r11,%r14
- rorq $23,%r13
- movq %r8,%rdi
-
- xorq %rdx,%r13
- rorq $5,%r14
- xorq %r9,%rdi
-
- movq %r12,72(%rsp)
- xorq %r11,%r14
- andq %rdx,%rdi
-
- rorq $4,%r13
- addq %r10,%r12
- xorq %r9,%rdi
-
- rorq $6,%r14
- xorq %rdx,%r13
- addq %rdi,%r12
-
- movq %r11,%rdi
- addq (%rbp),%r12
- xorq %r11,%r14
-
- xorq %rax,%rdi
- rorq $14,%r13
- movq %rax,%r10
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%r10
- addq %r12,%rcx
- addq %r12,%r10
-
- leaq 24(%rbp),%rbp
- movq 88(%rsp),%r13
- movq 64(%rsp),%r15
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%r10
- movq %r15,%r14
- rorq $42,%r15
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%r15
- shrq $6,%r14
-
- rorq $19,%r15
- xorq %r13,%r12
- xorq %r14,%r15
- addq 24(%rsp),%r12
-
- addq 80(%rsp),%r12
- movq %rcx,%r13
- addq %r15,%r12
- movq %r10,%r14
- rorq $23,%r13
- movq %rdx,%r15
-
- xorq %rcx,%r13
- rorq $5,%r14
- xorq %r8,%r15
-
- movq %r12,80(%rsp)
- xorq %r10,%r14
- andq %rcx,%r15
-
- rorq $4,%r13
- addq %r9,%r12
- xorq %r8,%r15
-
- rorq $6,%r14
- xorq %rcx,%r13
- addq %r15,%r12
-
- movq %r10,%r15
- addq (%rbp),%r12
- xorq %r10,%r14
-
- xorq %r11,%r15
- rorq $14,%r13
- movq %r11,%r9
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%r9
- addq %r12,%rbx
- addq %r12,%r9
-
- leaq 8(%rbp),%rbp
- movq 96(%rsp),%r13
- movq 72(%rsp),%rdi
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%r9
- movq %rdi,%r14
- rorq $42,%rdi
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%rdi
- shrq $6,%r14
-
- rorq $19,%rdi
- xorq %r13,%r12
- xorq %r14,%rdi
- addq 32(%rsp),%r12
-
- addq 88(%rsp),%r12
- movq %rbx,%r13
- addq %rdi,%r12
- movq %r9,%r14
- rorq $23,%r13
- movq %rcx,%rdi
-
- xorq %rbx,%r13
- rorq $5,%r14
- xorq %rdx,%rdi
-
- movq %r12,88(%rsp)
- xorq %r9,%r14
- andq %rbx,%rdi
-
- rorq $4,%r13
- addq %r8,%r12
- xorq %rdx,%rdi
-
- rorq $6,%r14
- xorq %rbx,%r13
- addq %rdi,%r12
-
- movq %r9,%rdi
- addq (%rbp),%r12
- xorq %r9,%r14
-
- xorq %r10,%rdi
- rorq $14,%r13
- movq %r10,%r8
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%r8
- addq %r12,%rax
- addq %r12,%r8
-
- leaq 24(%rbp),%rbp
- movq 104(%rsp),%r13
- movq 80(%rsp),%r15
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%r8
- movq %r15,%r14
- rorq $42,%r15
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%r15
- shrq $6,%r14
-
- rorq $19,%r15
- xorq %r13,%r12
- xorq %r14,%r15
- addq 40(%rsp),%r12
-
- addq 96(%rsp),%r12
- movq %rax,%r13
- addq %r15,%r12
- movq %r8,%r14
- rorq $23,%r13
- movq %rbx,%r15
-
- xorq %rax,%r13
- rorq $5,%r14
- xorq %rcx,%r15
-
- movq %r12,96(%rsp)
- xorq %r8,%r14
- andq %rax,%r15
-
- rorq $4,%r13
- addq %rdx,%r12
- xorq %rcx,%r15
-
- rorq $6,%r14
- xorq %rax,%r13
- addq %r15,%r12
-
- movq %r8,%r15
- addq (%rbp),%r12
- xorq %r8,%r14
-
- xorq %r9,%r15
- rorq $14,%r13
- movq %r9,%rdx
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%rdx
- addq %r12,%r11
- addq %r12,%rdx
-
- leaq 8(%rbp),%rbp
- movq 112(%rsp),%r13
- movq 88(%rsp),%rdi
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%rdx
- movq %rdi,%r14
- rorq $42,%rdi
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%rdi
- shrq $6,%r14
-
- rorq $19,%rdi
- xorq %r13,%r12
- xorq %r14,%rdi
- addq 48(%rsp),%r12
-
- addq 104(%rsp),%r12
- movq %r11,%r13
- addq %rdi,%r12
- movq %rdx,%r14
- rorq $23,%r13
- movq %rax,%rdi
-
- xorq %r11,%r13
- rorq $5,%r14
- xorq %rbx,%rdi
-
- movq %r12,104(%rsp)
- xorq %rdx,%r14
- andq %r11,%rdi
-
- rorq $4,%r13
- addq %rcx,%r12
- xorq %rbx,%rdi
-
- rorq $6,%r14
- xorq %r11,%r13
- addq %rdi,%r12
-
- movq %rdx,%rdi
- addq (%rbp),%r12
- xorq %rdx,%r14
-
- xorq %r8,%rdi
- rorq $14,%r13
- movq %r8,%rcx
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%rcx
- addq %r12,%r10
- addq %r12,%rcx
-
- leaq 24(%rbp),%rbp
- movq 120(%rsp),%r13
- movq 96(%rsp),%r15
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%rcx
- movq %r15,%r14
- rorq $42,%r15
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%r15
- shrq $6,%r14
-
- rorq $19,%r15
- xorq %r13,%r12
- xorq %r14,%r15
- addq 56(%rsp),%r12
-
- addq 112(%rsp),%r12
- movq %r10,%r13
- addq %r15,%r12
- movq %rcx,%r14
- rorq $23,%r13
- movq %r11,%r15
-
- xorq %r10,%r13
- rorq $5,%r14
- xorq %rax,%r15
-
- movq %r12,112(%rsp)
- xorq %rcx,%r14
- andq %r10,%r15
-
- rorq $4,%r13
- addq %rbx,%r12
- xorq %rax,%r15
-
- rorq $6,%r14
- xorq %r10,%r13
- addq %r15,%r12
-
- movq %rcx,%r15
- addq (%rbp),%r12
- xorq %rcx,%r14
-
- xorq %rdx,%r15
- rorq $14,%r13
- movq %rdx,%rbx
-
- andq %r15,%rdi
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %rdi,%rbx
- addq %r12,%r9
- addq %r12,%rbx
-
- leaq 8(%rbp),%rbp
- movq 0(%rsp),%r13
- movq 104(%rsp),%rdi
-
- movq %r13,%r12
- rorq $7,%r13
- addq %r14,%rbx
- movq %rdi,%r14
- rorq $42,%rdi
-
- xorq %r12,%r13
- shrq $7,%r12
- rorq $1,%r13
- xorq %r14,%rdi
- shrq $6,%r14
-
- rorq $19,%rdi
- xorq %r13,%r12
- xorq %r14,%rdi
- addq 64(%rsp),%r12
-
- addq 120(%rsp),%r12
- movq %r9,%r13
- addq %rdi,%r12
- movq %rbx,%r14
- rorq $23,%r13
- movq %r10,%rdi
-
- xorq %r9,%r13
- rorq $5,%r14
- xorq %r11,%rdi
-
- movq %r12,120(%rsp)
- xorq %rbx,%r14
- andq %r9,%rdi
-
- rorq $4,%r13
- addq %rax,%r12
- xorq %r11,%rdi
-
- rorq $6,%r14
- xorq %r9,%r13
- addq %rdi,%r12
-
- movq %rbx,%rdi
- addq (%rbp),%r12
- xorq %rbx,%r14
-
- xorq %rcx,%rdi
- rorq $14,%r13
- movq %rcx,%rax
-
- andq %rdi,%r15
- rorq $28,%r14
- addq %r13,%r12
-
- xorq %r15,%rax
- addq %r12,%r8
- addq %r12,%rax
-
- leaq 24(%rbp),%rbp
- cmpb $0,7(%rbp)
- jnz .Lrounds_16_xx
-
- movq 128+0(%rsp),%rdi
- addq %r14,%rax
- leaq 128(%rsi),%rsi
-
- addq 0(%rdi),%rax
- addq 8(%rdi),%rbx
- addq 16(%rdi),%rcx
- addq 24(%rdi),%rdx
- addq 32(%rdi),%r8
- addq 40(%rdi),%r9
- addq 48(%rdi),%r10
- addq 56(%rdi),%r11
-
- cmpq 128+16(%rsp),%rsi
-
- movq %rax,0(%rdi)
- movq %rbx,8(%rdi)
- movq %rcx,16(%rdi)
- movq %rdx,24(%rdi)
- movq %r8,32(%rdi)
- movq %r9,40(%rdi)
- movq %r10,48(%rdi)
- movq %r11,56(%rdi)
- jb .Lloop
-
- movq 152(%rsp),%rsi
-.cfi_def_cfa %rsi,8
- movq -48(%rsi),%r15
-.cfi_restore %r15
- movq -40(%rsi),%r14
-.cfi_restore %r14
- movq -32(%rsi),%r13
-.cfi_restore %r13
- movq -24(%rsi),%r12
-.cfi_restore %r12
- movq -16(%rsi),%rbp
-.cfi_restore %rbp
- movq -8(%rsi),%rbx
-.cfi_restore %rbx
- leaq (%rsi),%rsp
-.cfi_def_cfa_register %rsp
-.Lepilogue:
- .byte 0xf3,0xc3
-.cfi_endproc
-.size sha512_block_data_order,.-sha512_block_data_order
-.align 64
-.type K512,@object
-K512:
-.quad 0x428a2f98d728ae22,0x7137449123ef65cd
-.quad 0x428a2f98d728ae22,0x7137449123ef65cd
-.quad 0xb5c0fbcfec4d3b2f,0xe9b5dba58189dbbc
-.quad 0xb5c0fbcfec4d3b2f,0xe9b5dba58189dbbc
-.quad 0x3956c25bf348b538,0x59f111f1b605d019
-.quad 0x3956c25bf348b538,0x59f111f1b605d019
-.quad 0x923f82a4af194f9b,0xab1c5ed5da6d8118
-.quad 0x923f82a4af194f9b,0xab1c5ed5da6d8118
-.quad 0xd807aa98a3030242,0x12835b0145706fbe
-.quad 0xd807aa98a3030242,0x12835b0145706fbe
-.quad 0x243185be4ee4b28c,0x550c7dc3d5ffb4e2
-.quad 0x243185be4ee4b28c,0x550c7dc3d5ffb4e2
-.quad 0x72be5d74f27b896f,0x80deb1fe3b1696b1
-.quad 0x72be5d74f27b896f,0x80deb1fe3b1696b1
-.quad 0x9bdc06a725c71235,0xc19bf174cf692694
-.quad 0x9bdc06a725c71235,0xc19bf174cf692694
-.quad 0xe49b69c19ef14ad2,0xefbe4786384f25e3
-.quad 0xe49b69c19ef14ad2,0xefbe4786384f25e3
-.quad 0x0fc19dc68b8cd5b5,0x240ca1cc77ac9c65
-.quad 0x0fc19dc68b8cd5b5,0x240ca1cc77ac9c65
-.quad 0x2de92c6f592b0275,0x4a7484aa6ea6e483
-.quad 0x2de92c6f592b0275,0x4a7484aa6ea6e483
-.quad 0x5cb0a9dcbd41fbd4,0x76f988da831153b5
-.quad 0x5cb0a9dcbd41fbd4,0x76f988da831153b5
-.quad 0x983e5152ee66dfab,0xa831c66d2db43210
-.quad 0x983e5152ee66dfab,0xa831c66d2db43210
-.quad 0xb00327c898fb213f,0xbf597fc7beef0ee4
-.quad 0xb00327c898fb213f,0xbf597fc7beef0ee4
-.quad 0xc6e00bf33da88fc2,0xd5a79147930aa725
-.quad 0xc6e00bf33da88fc2,0xd5a79147930aa725
-.quad 0x06ca6351e003826f,0x142929670a0e6e70
-.quad 0x06ca6351e003826f,0x142929670a0e6e70
-.quad 0x27b70a8546d22ffc,0x2e1b21385c26c926
-.quad 0x27b70a8546d22ffc,0x2e1b21385c26c926
-.quad 0x4d2c6dfc5ac42aed,0x53380d139d95b3df
-.quad 0x4d2c6dfc5ac42aed,0x53380d139d95b3df
-.quad 0x650a73548baf63de,0x766a0abb3c77b2a8
-.quad 0x650a73548baf63de,0x766a0abb3c77b2a8
-.quad 0x81c2c92e47edaee6,0x92722c851482353b
-.quad 0x81c2c92e47edaee6,0x92722c851482353b
-.quad 0xa2bfe8a14cf10364,0xa81a664bbc423001
-.quad 0xa2bfe8a14cf10364,0xa81a664bbc423001
-.quad 0xc24b8b70d0f89791,0xc76c51a30654be30
-.quad 0xc24b8b70d0f89791,0xc76c51a30654be30
-.quad 0xd192e819d6ef5218,0xd69906245565a910
-.quad 0xd192e819d6ef5218,0xd69906245565a910
-.quad 0xf40e35855771202a,0x106aa07032bbd1b8
-.quad 0xf40e35855771202a,0x106aa07032bbd1b8
-.quad 0x19a4c116b8d2d0c8,0x1e376c085141ab53
-.quad 0x19a4c116b8d2d0c8,0x1e376c085141ab53
-.quad 0x2748774cdf8eeb99,0x34b0bcb5e19b48a8
-.quad 0x2748774cdf8eeb99,0x34b0bcb5e19b48a8
-.quad 0x391c0cb3c5c95a63,0x4ed8aa4ae3418acb
-.quad 0x391c0cb3c5c95a63,0x4ed8aa4ae3418acb
-.quad 0x5b9cca4f7763e373,0x682e6ff3d6b2b8a3
-.quad 0x5b9cca4f7763e373,0x682e6ff3d6b2b8a3
-.quad 0x748f82ee5defb2fc,0x78a5636f43172f60
-.quad 0x748f82ee5defb2fc,0x78a5636f43172f60
-.quad 0x84c87814a1f0ab72,0x8cc702081a6439ec
-.quad 0x84c87814a1f0ab72,0x8cc702081a6439ec
-.quad 0x90befffa23631e28,0xa4506cebde82bde9
-.quad 0x90befffa23631e28,0xa4506cebde82bde9
-.quad 0xbef9a3f7b2c67915,0xc67178f2e372532b
-.quad 0xbef9a3f7b2c67915,0xc67178f2e372532b
-.quad 0xca273eceea26619c,0xd186b8c721c0c207
-.quad 0xca273eceea26619c,0xd186b8c721c0c207
-.quad 0xeada7dd6cde0eb1e,0xf57d4f7fee6ed178
-.quad 0xeada7dd6cde0eb1e,0xf57d4f7fee6ed178
-.quad 0x06f067aa72176fba,0x0a637dc5a2c898a6
-.quad 0x06f067aa72176fba,0x0a637dc5a2c898a6
-.quad 0x113f9804bef90dae,0x1b710b35131c471b
-.quad 0x113f9804bef90dae,0x1b710b35131c471b
-.quad 0x28db77f523047d84,0x32caab7b40c72493
-.quad 0x28db77f523047d84,0x32caab7b40c72493
-.quad 0x3c9ebe0a15c9bebc,0x431d67c49c100d4c
-.quad 0x3c9ebe0a15c9bebc,0x431d67c49c100d4c
-.quad 0x4cc5d4becb3e42b6,0x597f299cfc657e2a
-.quad 0x4cc5d4becb3e42b6,0x597f299cfc657e2a
-.quad 0x5fcb6fab3ad6faec,0x6c44198c4a475817
-.quad 0x5fcb6fab3ad6faec,0x6c44198c4a475817
-
-.quad 0x0001020304050607,0x08090a0b0c0d0e0f
-.quad 0x0001020304050607,0x08090a0b0c0d0e0f
-.byte 83,72,65,53,49,50,32,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0