LCOV - code coverage report
Current view: top level - src/crypto - sha256_sse4.cpp (source / functions) Hit Total Coverage
Test: fuzz_coverage.info Lines: 0 3 0.0 %
Date: 2023-11-10 23:46:46 Functions: 0 1 0.0 %
Branches: 0 0 -

           Branch data     Line data    Source code
       1                 :            : // Copyright (c) 2017-2022 The Bitcoin Core developers
       2                 :            : // Distributed under the MIT software license, see the accompanying
       3                 :            : // file COPYING or http://www.opensource.org/licenses/mit-license.php.
       4                 :            : //
       5                 :            : // This is a translation to GCC extended asm syntax from YASM code by Intel
       6                 :            : // (available at the bottom of this file).
       7                 :            : 
       8                 :            : #include <cstdlib>
       9                 :            : #include <stdint.h>
      10                 :            : 
      11                 :            : #if defined(__x86_64__) || defined(__amd64__)
      12                 :            : 
      13                 :            : namespace sha256_sse4
      14                 :            : {
      15                 :          0 : void Transform(uint32_t* s, const unsigned char* chunk, size_t blocks)
      16                 :            : {
      17                 :            :     static const uint32_t K256 alignas(16) [] = {
      18                 :            :         0x428a2f98, 0x71374491, 0xb5c0fbcf, 0xe9b5dba5,
      19                 :            :         0x3956c25b, 0x59f111f1, 0x923f82a4, 0xab1c5ed5,
      20                 :            :         0xd807aa98, 0x12835b01, 0x243185be, 0x550c7dc3,
      21                 :            :         0x72be5d74, 0x80deb1fe, 0x9bdc06a7, 0xc19bf174,
      22                 :            :         0xe49b69c1, 0xefbe4786, 0x0fc19dc6, 0x240ca1cc,
      23                 :            :         0x2de92c6f, 0x4a7484aa, 0x5cb0a9dc, 0x76f988da,
      24                 :            :         0x983e5152, 0xa831c66d, 0xb00327c8, 0xbf597fc7,
      25                 :            :         0xc6e00bf3, 0xd5a79147, 0x06ca6351, 0x14292967,
      26                 :            :         0x27b70a85, 0x2e1b2138, 0x4d2c6dfc, 0x53380d13,
      27                 :            :         0x650a7354, 0x766a0abb, 0x81c2c92e, 0x92722c85,
      28                 :            :         0xa2bfe8a1, 0xa81a664b, 0xc24b8b70, 0xc76c51a3,
      29                 :            :         0xd192e819, 0xd6990624, 0xf40e3585, 0x106aa070,
      30                 :            :         0x19a4c116, 0x1e376c08, 0x2748774c, 0x34b0bcb5,
      31                 :            :         0x391c0cb3, 0x4ed8aa4a, 0x5b9cca4f, 0x682e6ff3,
      32                 :            :         0x748f82ee, 0x78a5636f, 0x84c87814, 0x8cc70208,
      33                 :            :         0x90befffa, 0xa4506ceb, 0xbef9a3f7, 0xc67178f2,
      34                 :            :     };
      35                 :            :     static const uint32_t FLIP_MASK alignas(16) [] = {0x00010203, 0x04050607, 0x08090a0b, 0x0c0d0e0f};
      36                 :            :     static const uint32_t SHUF_00BA alignas(16) [] = {0x03020100, 0x0b0a0908, 0xffffffff, 0xffffffff};
      37                 :            :     static const uint32_t SHUF_DC00 alignas(16) [] = {0xffffffff, 0xffffffff, 0x03020100, 0x0b0a0908};
      38                 :            :     uint32_t a, b, c, d, f, g, h, y0, y1, y2;
      39                 :            :     uint64_t tbl;
      40                 :            :     uint64_t inp_end, inp;
      41                 :            :     uint32_t xfer alignas(16) [4];
      42                 :            : 
      43                 :          0 :     __asm__ __volatile__(
      44                 :            :         "shl    $0x6,%2;"
      45                 :            :         "je     Ldone_hash_%=;"
      46                 :            :         "add    %1,%2;"
      47                 :            :         "mov    %2,%14;"
      48                 :            :         "mov    (%0),%3;"
      49                 :            :         "mov    0x4(%0),%4;"
      50                 :            :         "mov    0x8(%0),%5;"
      51                 :            :         "mov    0xc(%0),%6;"
      52                 :            :         "mov    0x10(%0),%k2;"
      53                 :            :         "mov    0x14(%0),%7;"
      54                 :            :         "mov    0x18(%0),%8;"
      55                 :            :         "mov    0x1c(%0),%9;"
      56                 :            :         "movdqa %18,%%xmm12;"
      57                 :            :         "movdqa %19,%%xmm10;"
      58                 :            :         "movdqa %20,%%xmm11;"
      59                 :            : 
      60                 :            :         "Lloop0_%=:"
      61                 :            :         "lea    %17,%13;"
      62                 :            :         "movdqu (%1),%%xmm4;"
      63                 :            :         "pshufb %%xmm12,%%xmm4;"
      64                 :            :         "movdqu 0x10(%1),%%xmm5;"
      65                 :            :         "pshufb %%xmm12,%%xmm5;"
      66                 :            :         "movdqu 0x20(%1),%%xmm6;"
      67                 :            :         "pshufb %%xmm12,%%xmm6;"
      68                 :            :         "movdqu 0x30(%1),%%xmm7;"
      69                 :            :         "pshufb %%xmm12,%%xmm7;"
      70                 :            :         "mov    %1,%15;"
      71                 :            :         "mov    $3,%1;"
      72                 :            : 
      73                 :            :         "Lloop1_%=:"
      74                 :            :         "movdqa 0x0(%13),%%xmm9;"
      75                 :            :         "paddd  %%xmm4,%%xmm9;"
      76                 :            :         "movdqa %%xmm9,%16;"
      77                 :            :         "movdqa %%xmm7,%%xmm0;"
      78                 :            :         "mov    %k2,%10;"
      79                 :            :         "ror    $0xe,%10;"
      80                 :            :         "mov    %3,%11;"
      81                 :            :         "palignr $0x4,%%xmm6,%%xmm0;"
      82                 :            :         "ror    $0x9,%11;"
      83                 :            :         "xor    %k2,%10;"
      84                 :            :         "mov    %7,%12;"
      85                 :            :         "ror    $0x5,%10;"
      86                 :            :         "movdqa %%xmm5,%%xmm1;"
      87                 :            :         "xor    %3,%11;"
      88                 :            :         "xor    %8,%12;"
      89                 :            :         "paddd  %%xmm4,%%xmm0;"
      90                 :            :         "xor    %k2,%10;"
      91                 :            :         "and    %k2,%12;"
      92                 :            :         "ror    $0xb,%11;"
      93                 :            :         "palignr $0x4,%%xmm4,%%xmm1;"
      94                 :            :         "xor    %3,%11;"
      95                 :            :         "ror    $0x6,%10;"
      96                 :            :         "xor    %8,%12;"
      97                 :            :         "movdqa %%xmm1,%%xmm2;"
      98                 :            :         "ror    $0x2,%11;"
      99                 :            :         "add    %10,%12;"
     100                 :            :         "add    %16,%12;"
     101                 :            :         "movdqa %%xmm1,%%xmm3;"
     102                 :            :         "mov    %3,%10;"
     103                 :            :         "add    %12,%9;"
     104                 :            :         "mov    %3,%12;"
     105                 :            :         "pslld  $0x19,%%xmm1;"
     106                 :            :         "or     %5,%10;"
     107                 :            :         "add    %9,%6;"
     108                 :            :         "and    %5,%12;"
     109                 :            :         "psrld  $0x7,%%xmm2;"
     110                 :            :         "and    %4,%10;"
     111                 :            :         "add    %11,%9;"
     112                 :            :         "por    %%xmm2,%%xmm1;"
     113                 :            :         "or     %12,%10;"
     114                 :            :         "add    %10,%9;"
     115                 :            :         "movdqa %%xmm3,%%xmm2;"
     116                 :            :         "mov    %6,%10;"
     117                 :            :         "mov    %9,%11;"
     118                 :            :         "movdqa %%xmm3,%%xmm8;"
     119                 :            :         "ror    $0xe,%10;"
     120                 :            :         "xor    %6,%10;"
     121                 :            :         "mov    %k2,%12;"
     122                 :            :         "ror    $0x9,%11;"
     123                 :            :         "pslld  $0xe,%%xmm3;"
     124                 :            :         "xor    %9,%11;"
     125                 :            :         "ror    $0x5,%10;"
     126                 :            :         "xor    %7,%12;"
     127                 :            :         "psrld  $0x12,%%xmm2;"
     128                 :            :         "ror    $0xb,%11;"
     129                 :            :         "xor    %6,%10;"
     130                 :            :         "and    %6,%12;"
     131                 :            :         "ror    $0x6,%10;"
     132                 :            :         "pxor   %%xmm3,%%xmm1;"
     133                 :            :         "xor    %9,%11;"
     134                 :            :         "xor    %7,%12;"
     135                 :            :         "psrld  $0x3,%%xmm8;"
     136                 :            :         "add    %10,%12;"
     137                 :            :         "add    4+%16,%12;"
     138                 :            :         "ror    $0x2,%11;"
     139                 :            :         "pxor   %%xmm2,%%xmm1;"
     140                 :            :         "mov    %9,%10;"
     141                 :            :         "add    %12,%8;"
     142                 :            :         "mov    %9,%12;"
     143                 :            :         "pxor   %%xmm8,%%xmm1;"
     144                 :            :         "or     %4,%10;"
     145                 :            :         "add    %8,%5;"
     146                 :            :         "and    %4,%12;"
     147                 :            :         "pshufd $0xfa,%%xmm7,%%xmm2;"
     148                 :            :         "and    %3,%10;"
     149                 :            :         "add    %11,%8;"
     150                 :            :         "paddd  %%xmm1,%%xmm0;"
     151                 :            :         "or     %12,%10;"
     152                 :            :         "add    %10,%8;"
     153                 :            :         "movdqa %%xmm2,%%xmm3;"
     154                 :            :         "mov    %5,%10;"
     155                 :            :         "mov    %8,%11;"
     156                 :            :         "ror    $0xe,%10;"
     157                 :            :         "movdqa %%xmm2,%%xmm8;"
     158                 :            :         "xor    %5,%10;"
     159                 :            :         "ror    $0x9,%11;"
     160                 :            :         "mov    %6,%12;"
     161                 :            :         "xor    %8,%11;"
     162                 :            :         "ror    $0x5,%10;"
     163                 :            :         "psrlq  $0x11,%%xmm2;"
     164                 :            :         "xor    %k2,%12;"
     165                 :            :         "psrlq  $0x13,%%xmm3;"
     166                 :            :         "xor    %5,%10;"
     167                 :            :         "and    %5,%12;"
     168                 :            :         "psrld  $0xa,%%xmm8;"
     169                 :            :         "ror    $0xb,%11;"
     170                 :            :         "xor    %8,%11;"
     171                 :            :         "xor    %k2,%12;"
     172                 :            :         "ror    $0x6,%10;"
     173                 :            :         "pxor   %%xmm3,%%xmm2;"
     174                 :            :         "add    %10,%12;"
     175                 :            :         "ror    $0x2,%11;"
     176                 :            :         "add    8+%16,%12;"
     177                 :            :         "pxor   %%xmm2,%%xmm8;"
     178                 :            :         "mov    %8,%10;"
     179                 :            :         "add    %12,%7;"
     180                 :            :         "mov    %8,%12;"
     181                 :            :         "pshufb %%xmm10,%%xmm8;"
     182                 :            :         "or     %3,%10;"
     183                 :            :         "add    %7,%4;"
     184                 :            :         "and    %3,%12;"
     185                 :            :         "paddd  %%xmm8,%%xmm0;"
     186                 :            :         "and    %9,%10;"
     187                 :            :         "add    %11,%7;"
     188                 :            :         "pshufd $0x50,%%xmm0,%%xmm2;"
     189                 :            :         "or     %12,%10;"
     190                 :            :         "add    %10,%7;"
     191                 :            :         "movdqa %%xmm2,%%xmm3;"
     192                 :            :         "mov    %4,%10;"
     193                 :            :         "ror    $0xe,%10;"
     194                 :            :         "mov    %7,%11;"
     195                 :            :         "movdqa %%xmm2,%%xmm4;"
     196                 :            :         "ror    $0x9,%11;"
     197                 :            :         "xor    %4,%10;"
     198                 :            :         "mov    %5,%12;"
     199                 :            :         "ror    $0x5,%10;"
     200                 :            :         "psrlq  $0x11,%%xmm2;"
     201                 :            :         "xor    %7,%11;"
     202                 :            :         "xor    %6,%12;"
     203                 :            :         "psrlq  $0x13,%%xmm3;"
     204                 :            :         "xor    %4,%10;"
     205                 :            :         "and    %4,%12;"
     206                 :            :         "ror    $0xb,%11;"
     207                 :            :         "psrld  $0xa,%%xmm4;"
     208                 :            :         "xor    %7,%11;"
     209                 :            :         "ror    $0x6,%10;"
     210                 :            :         "xor    %6,%12;"
     211                 :            :         "pxor   %%xmm3,%%xmm2;"
     212                 :            :         "ror    $0x2,%11;"
     213                 :            :         "add    %10,%12;"
     214                 :            :         "add    12+%16,%12;"
     215                 :            :         "pxor   %%xmm2,%%xmm4;"
     216                 :            :         "mov    %7,%10;"
     217                 :            :         "add    %12,%k2;"
     218                 :            :         "mov    %7,%12;"
     219                 :            :         "pshufb %%xmm11,%%xmm4;"
     220                 :            :         "or     %9,%10;"
     221                 :            :         "add    %k2,%3;"
     222                 :            :         "and    %9,%12;"
     223                 :            :         "paddd  %%xmm0,%%xmm4;"
     224                 :            :         "and    %8,%10;"
     225                 :            :         "add    %11,%k2;"
     226                 :            :         "or     %12,%10;"
     227                 :            :         "add    %10,%k2;"
     228                 :            :         "movdqa 0x10(%13),%%xmm9;"
     229                 :            :         "paddd  %%xmm5,%%xmm9;"
     230                 :            :         "movdqa %%xmm9,%16;"
     231                 :            :         "movdqa %%xmm4,%%xmm0;"
     232                 :            :         "mov    %3,%10;"
     233                 :            :         "ror    $0xe,%10;"
     234                 :            :         "mov    %k2,%11;"
     235                 :            :         "palignr $0x4,%%xmm7,%%xmm0;"
     236                 :            :         "ror    $0x9,%11;"
     237                 :            :         "xor    %3,%10;"
     238                 :            :         "mov    %4,%12;"
     239                 :            :         "ror    $0x5,%10;"
     240                 :            :         "movdqa %%xmm6,%%xmm1;"
     241                 :            :         "xor    %k2,%11;"
     242                 :            :         "xor    %5,%12;"
     243                 :            :         "paddd  %%xmm5,%%xmm0;"
     244                 :            :         "xor    %3,%10;"
     245                 :            :         "and    %3,%12;"
     246                 :            :         "ror    $0xb,%11;"
     247                 :            :         "palignr $0x4,%%xmm5,%%xmm1;"
     248                 :            :         "xor    %k2,%11;"
     249                 :            :         "ror    $0x6,%10;"
     250                 :            :         "xor    %5,%12;"
     251                 :            :         "movdqa %%xmm1,%%xmm2;"
     252                 :            :         "ror    $0x2,%11;"
     253                 :            :         "add    %10,%12;"
     254                 :            :         "add    %16,%12;"
     255                 :            :         "movdqa %%xmm1,%%xmm3;"
     256                 :            :         "mov    %k2,%10;"
     257                 :            :         "add    %12,%6;"
     258                 :            :         "mov    %k2,%12;"
     259                 :            :         "pslld  $0x19,%%xmm1;"
     260                 :            :         "or     %8,%10;"
     261                 :            :         "add    %6,%9;"
     262                 :            :         "and    %8,%12;"
     263                 :            :         "psrld  $0x7,%%xmm2;"
     264                 :            :         "and    %7,%10;"
     265                 :            :         "add    %11,%6;"
     266                 :            :         "por    %%xmm2,%%xmm1;"
     267                 :            :         "or     %12,%10;"
     268                 :            :         "add    %10,%6;"
     269                 :            :         "movdqa %%xmm3,%%xmm2;"
     270                 :            :         "mov    %9,%10;"
     271                 :            :         "mov    %6,%11;"
     272                 :            :         "movdqa %%xmm3,%%xmm8;"
     273                 :            :         "ror    $0xe,%10;"
     274                 :            :         "xor    %9,%10;"
     275                 :            :         "mov    %3,%12;"
     276                 :            :         "ror    $0x9,%11;"
     277                 :            :         "pslld  $0xe,%%xmm3;"
     278                 :            :         "xor    %6,%11;"
     279                 :            :         "ror    $0x5,%10;"
     280                 :            :         "xor    %4,%12;"
     281                 :            :         "psrld  $0x12,%%xmm2;"
     282                 :            :         "ror    $0xb,%11;"
     283                 :            :         "xor    %9,%10;"
     284                 :            :         "and    %9,%12;"
     285                 :            :         "ror    $0x6,%10;"
     286                 :            :         "pxor   %%xmm3,%%xmm1;"
     287                 :            :         "xor    %6,%11;"
     288                 :            :         "xor    %4,%12;"
     289                 :            :         "psrld  $0x3,%%xmm8;"
     290                 :            :         "add    %10,%12;"
     291                 :            :         "add    4+%16,%12;"
     292                 :            :         "ror    $0x2,%11;"
     293                 :            :         "pxor   %%xmm2,%%xmm1;"
     294                 :            :         "mov    %6,%10;"
     295                 :            :         "add    %12,%5;"
     296                 :            :         "mov    %6,%12;"
     297                 :            :         "pxor   %%xmm8,%%xmm1;"
     298                 :            :         "or     %7,%10;"
     299                 :            :         "add    %5,%8;"
     300                 :            :         "and    %7,%12;"
     301                 :            :         "pshufd $0xfa,%%xmm4,%%xmm2;"
     302                 :            :         "and    %k2,%10;"
     303                 :            :         "add    %11,%5;"
     304                 :            :         "paddd  %%xmm1,%%xmm0;"
     305                 :            :         "or     %12,%10;"
     306                 :            :         "add    %10,%5;"
     307                 :            :         "movdqa %%xmm2,%%xmm3;"
     308                 :            :         "mov    %8,%10;"
     309                 :            :         "mov    %5,%11;"
     310                 :            :         "ror    $0xe,%10;"
     311                 :            :         "movdqa %%xmm2,%%xmm8;"
     312                 :            :         "xor    %8,%10;"
     313                 :            :         "ror    $0x9,%11;"
     314                 :            :         "mov    %9,%12;"
     315                 :            :         "xor    %5,%11;"
     316                 :            :         "ror    $0x5,%10;"
     317                 :            :         "psrlq  $0x11,%%xmm2;"
     318                 :            :         "xor    %3,%12;"
     319                 :            :         "psrlq  $0x13,%%xmm3;"
     320                 :            :         "xor    %8,%10;"
     321                 :            :         "and    %8,%12;"
     322                 :            :         "psrld  $0xa,%%xmm8;"
     323                 :            :         "ror    $0xb,%11;"
     324                 :            :         "xor    %5,%11;"
     325                 :            :         "xor    %3,%12;"
     326                 :            :         "ror    $0x6,%10;"
     327                 :            :         "pxor   %%xmm3,%%xmm2;"
     328                 :            :         "add    %10,%12;"
     329                 :            :         "ror    $0x2,%11;"
     330                 :            :         "add    8+%16,%12;"
     331                 :            :         "pxor   %%xmm2,%%xmm8;"
     332                 :            :         "mov    %5,%10;"
     333                 :            :         "add    %12,%4;"
     334                 :            :         "mov    %5,%12;"
     335                 :            :         "pshufb %%xmm10,%%xmm8;"
     336                 :            :         "or     %k2,%10;"
     337                 :            :         "add    %4,%7;"
     338                 :            :         "and    %k2,%12;"
     339                 :            :         "paddd  %%xmm8,%%xmm0;"
     340                 :            :         "and    %6,%10;"
     341                 :            :         "add    %11,%4;"
     342                 :            :         "pshufd $0x50,%%xmm0,%%xmm2;"
     343                 :            :         "or     %12,%10;"
     344                 :            :         "add    %10,%4;"
     345                 :            :         "movdqa %%xmm2,%%xmm3;"
     346                 :            :         "mov    %7,%10;"
     347                 :            :         "ror    $0xe,%10;"
     348                 :            :         "mov    %4,%11;"
     349                 :            :         "movdqa %%xmm2,%%xmm5;"
     350                 :            :         "ror    $0x9,%11;"
     351                 :            :         "xor    %7,%10;"
     352                 :            :         "mov    %8,%12;"
     353                 :            :         "ror    $0x5,%10;"
     354                 :            :         "psrlq  $0x11,%%xmm2;"
     355                 :            :         "xor    %4,%11;"
     356                 :            :         "xor    %9,%12;"
     357                 :            :         "psrlq  $0x13,%%xmm3;"
     358                 :            :         "xor    %7,%10;"
     359                 :            :         "and    %7,%12;"
     360                 :            :         "ror    $0xb,%11;"
     361                 :            :         "psrld  $0xa,%%xmm5;"
     362                 :            :         "xor    %4,%11;"
     363                 :            :         "ror    $0x6,%10;"
     364                 :            :         "xor    %9,%12;"
     365                 :            :         "pxor   %%xmm3,%%xmm2;"
     366                 :            :         "ror    $0x2,%11;"
     367                 :            :         "add    %10,%12;"
     368                 :            :         "add    12+%16,%12;"
     369                 :            :         "pxor   %%xmm2,%%xmm5;"
     370                 :            :         "mov    %4,%10;"
     371                 :            :         "add    %12,%3;"
     372                 :            :         "mov    %4,%12;"
     373                 :            :         "pshufb %%xmm11,%%xmm5;"
     374                 :            :         "or     %6,%10;"
     375                 :            :         "add    %3,%k2;"
     376                 :            :         "and    %6,%12;"
     377                 :            :         "paddd  %%xmm0,%%xmm5;"
     378                 :            :         "and    %5,%10;"
     379                 :            :         "add    %11,%3;"
     380                 :            :         "or     %12,%10;"
     381                 :            :         "add    %10,%3;"
     382                 :            :         "movdqa 0x20(%13),%%xmm9;"
     383                 :            :         "paddd  %%xmm6,%%xmm9;"
     384                 :            :         "movdqa %%xmm9,%16;"
     385                 :            :         "movdqa %%xmm5,%%xmm0;"
     386                 :            :         "mov    %k2,%10;"
     387                 :            :         "ror    $0xe,%10;"
     388                 :            :         "mov    %3,%11;"
     389                 :            :         "palignr $0x4,%%xmm4,%%xmm0;"
     390                 :            :         "ror    $0x9,%11;"
     391                 :            :         "xor    %k2,%10;"
     392                 :            :         "mov    %7,%12;"
     393                 :            :         "ror    $0x5,%10;"
     394                 :            :         "movdqa %%xmm7,%%xmm1;"
     395                 :            :         "xor    %3,%11;"
     396                 :            :         "xor    %8,%12;"
     397                 :            :         "paddd  %%xmm6,%%xmm0;"
     398                 :            :         "xor    %k2,%10;"
     399                 :            :         "and    %k2,%12;"
     400                 :            :         "ror    $0xb,%11;"
     401                 :            :         "palignr $0x4,%%xmm6,%%xmm1;"
     402                 :            :         "xor    %3,%11;"
     403                 :            :         "ror    $0x6,%10;"
     404                 :            :         "xor    %8,%12;"
     405                 :            :         "movdqa %%xmm1,%%xmm2;"
     406                 :            :         "ror    $0x2,%11;"
     407                 :            :         "add    %10,%12;"
     408                 :            :         "add    %16,%12;"
     409                 :            :         "movdqa %%xmm1,%%xmm3;"
     410                 :            :         "mov    %3,%10;"
     411                 :            :         "add    %12,%9;"
     412                 :            :         "mov    %3,%12;"
     413                 :            :         "pslld  $0x19,%%xmm1;"
     414                 :            :         "or     %5,%10;"
     415                 :            :         "add    %9,%6;"
     416                 :            :         "and    %5,%12;"
     417                 :            :         "psrld  $0x7,%%xmm2;"
     418                 :            :         "and    %4,%10;"
     419                 :            :         "add    %11,%9;"
     420                 :            :         "por    %%xmm2,%%xmm1;"
     421                 :            :         "or     %12,%10;"
     422                 :            :         "add    %10,%9;"
     423                 :            :         "movdqa %%xmm3,%%xmm2;"
     424                 :            :         "mov    %6,%10;"
     425                 :            :         "mov    %9,%11;"
     426                 :            :         "movdqa %%xmm3,%%xmm8;"
     427                 :            :         "ror    $0xe,%10;"
     428                 :            :         "xor    %6,%10;"
     429                 :            :         "mov    %k2,%12;"
     430                 :            :         "ror    $0x9,%11;"
     431                 :            :         "pslld  $0xe,%%xmm3;"
     432                 :            :         "xor    %9,%11;"
     433                 :            :         "ror    $0x5,%10;"
     434                 :            :         "xor    %7,%12;"
     435                 :            :         "psrld  $0x12,%%xmm2;"
     436                 :            :         "ror    $0xb,%11;"
     437                 :            :         "xor    %6,%10;"
     438                 :            :         "and    %6,%12;"
     439                 :            :         "ror    $0x6,%10;"
     440                 :            :         "pxor   %%xmm3,%%xmm1;"
     441                 :            :         "xor    %9,%11;"
     442                 :            :         "xor    %7,%12;"
     443                 :            :         "psrld  $0x3,%%xmm8;"
     444                 :            :         "add    %10,%12;"
     445                 :            :         "add    4+%16,%12;"
     446                 :            :         "ror    $0x2,%11;"
     447                 :            :         "pxor   %%xmm2,%%xmm1;"
     448                 :            :         "mov    %9,%10;"
     449                 :            :         "add    %12,%8;"
     450                 :            :         "mov    %9,%12;"
     451                 :            :         "pxor   %%xmm8,%%xmm1;"
     452                 :            :         "or     %4,%10;"
     453                 :            :         "add    %8,%5;"
     454                 :            :         "and    %4,%12;"
     455                 :            :         "pshufd $0xfa,%%xmm5,%%xmm2;"
     456                 :            :         "and    %3,%10;"
     457                 :            :         "add    %11,%8;"
     458                 :            :         "paddd  %%xmm1,%%xmm0;"
     459                 :            :         "or     %12,%10;"
     460                 :            :         "add    %10,%8;"
     461                 :            :         "movdqa %%xmm2,%%xmm3;"
     462                 :            :         "mov    %5,%10;"
     463                 :            :         "mov    %8,%11;"
     464                 :            :         "ror    $0xe,%10;"
     465                 :            :         "movdqa %%xmm2,%%xmm8;"
     466                 :            :         "xor    %5,%10;"
     467                 :            :         "ror    $0x9,%11;"
     468                 :            :         "mov    %6,%12;"
     469                 :            :         "xor    %8,%11;"
     470                 :            :         "ror    $0x5,%10;"
     471                 :            :         "psrlq  $0x11,%%xmm2;"
     472                 :            :         "xor    %k2,%12;"
     473                 :            :         "psrlq  $0x13,%%xmm3;"
     474                 :            :         "xor    %5,%10;"
     475                 :            :         "and    %5,%12;"
     476                 :            :         "psrld  $0xa,%%xmm8;"
     477                 :            :         "ror    $0xb,%11;"
     478                 :            :         "xor    %8,%11;"
     479                 :            :         "xor    %k2,%12;"
     480                 :            :         "ror    $0x6,%10;"
     481                 :            :         "pxor   %%xmm3,%%xmm2;"
     482                 :            :         "add    %10,%12;"
     483                 :            :         "ror    $0x2,%11;"
     484                 :            :         "add    8+%16,%12;"
     485                 :            :         "pxor   %%xmm2,%%xmm8;"
     486                 :            :         "mov    %8,%10;"
     487                 :            :         "add    %12,%7;"
     488                 :            :         "mov    %8,%12;"
     489                 :            :         "pshufb %%xmm10,%%xmm8;"
     490                 :            :         "or     %3,%10;"
     491                 :            :         "add    %7,%4;"
     492                 :            :         "and    %3,%12;"
     493                 :            :         "paddd  %%xmm8,%%xmm0;"
     494                 :            :         "and    %9,%10;"
     495                 :            :         "add    %11,%7;"
     496                 :            :         "pshufd $0x50,%%xmm0,%%xmm2;"
     497                 :            :         "or     %12,%10;"
     498                 :            :         "add    %10,%7;"
     499                 :            :         "movdqa %%xmm2,%%xmm3;"
     500                 :            :         "mov    %4,%10;"
     501                 :            :         "ror    $0xe,%10;"
     502                 :            :         "mov    %7,%11;"
     503                 :            :         "movdqa %%xmm2,%%xmm6;"
     504                 :            :         "ror    $0x9,%11;"
     505                 :            :         "xor    %4,%10;"
     506                 :            :         "mov    %5,%12;"
     507                 :            :         "ror    $0x5,%10;"
     508                 :            :         "psrlq  $0x11,%%xmm2;"
     509                 :            :         "xor    %7,%11;"
     510                 :            :         "xor    %6,%12;"
     511                 :            :         "psrlq  $0x13,%%xmm3;"
     512                 :            :         "xor    %4,%10;"
     513                 :            :         "and    %4,%12;"
     514                 :            :         "ror    $0xb,%11;"
     515                 :            :         "psrld  $0xa,%%xmm6;"
     516                 :            :         "xor    %7,%11;"
     517                 :            :         "ror    $0x6,%10;"
     518                 :            :         "xor    %6,%12;"
     519                 :            :         "pxor   %%xmm3,%%xmm2;"
     520                 :            :         "ror    $0x2,%11;"
     521                 :            :         "add    %10,%12;"
     522                 :            :         "add    12+%16,%12;"
     523                 :            :         "pxor   %%xmm2,%%xmm6;"
     524                 :            :         "mov    %7,%10;"
     525                 :            :         "add    %12,%k2;"
     526                 :            :         "mov    %7,%12;"
     527                 :            :         "pshufb %%xmm11,%%xmm6;"
     528                 :            :         "or     %9,%10;"
     529                 :            :         "add    %k2,%3;"
     530                 :            :         "and    %9,%12;"
     531                 :            :         "paddd  %%xmm0,%%xmm6;"
     532                 :            :         "and    %8,%10;"
     533                 :            :         "add    %11,%k2;"
     534                 :            :         "or     %12,%10;"
     535                 :            :         "add    %10,%k2;"
     536                 :            :         "movdqa 0x30(%13),%%xmm9;"
     537                 :            :         "paddd  %%xmm7,%%xmm9;"
     538                 :            :         "movdqa %%xmm9,%16;"
     539                 :            :         "add    $0x40,%13;"
     540                 :            :         "movdqa %%xmm6,%%xmm0;"
     541                 :            :         "mov    %3,%10;"
     542                 :            :         "ror    $0xe,%10;"
     543                 :            :         "mov    %k2,%11;"
     544                 :            :         "palignr $0x4,%%xmm5,%%xmm0;"
     545                 :            :         "ror    $0x9,%11;"
     546                 :            :         "xor    %3,%10;"
     547                 :            :         "mov    %4,%12;"
     548                 :            :         "ror    $0x5,%10;"
     549                 :            :         "movdqa %%xmm4,%%xmm1;"
     550                 :            :         "xor    %k2,%11;"
     551                 :            :         "xor    %5,%12;"
     552                 :            :         "paddd  %%xmm7,%%xmm0;"
     553                 :            :         "xor    %3,%10;"
     554                 :            :         "and    %3,%12;"
     555                 :            :         "ror    $0xb,%11;"
     556                 :            :         "palignr $0x4,%%xmm7,%%xmm1;"
     557                 :            :         "xor    %k2,%11;"
     558                 :            :         "ror    $0x6,%10;"
     559                 :            :         "xor    %5,%12;"
     560                 :            :         "movdqa %%xmm1,%%xmm2;"
     561                 :            :         "ror    $0x2,%11;"
     562                 :            :         "add    %10,%12;"
     563                 :            :         "add    %16,%12;"
     564                 :            :         "movdqa %%xmm1,%%xmm3;"
     565                 :            :         "mov    %k2,%10;"
     566                 :            :         "add    %12,%6;"
     567                 :            :         "mov    %k2,%12;"
     568                 :            :         "pslld  $0x19,%%xmm1;"
     569                 :            :         "or     %8,%10;"
     570                 :            :         "add    %6,%9;"
     571                 :            :         "and    %8,%12;"
     572                 :            :         "psrld  $0x7,%%xmm2;"
     573                 :            :         "and    %7,%10;"
     574                 :            :         "add    %11,%6;"
     575                 :            :         "por    %%xmm2,%%xmm1;"
     576                 :            :         "or     %12,%10;"
     577                 :            :         "add    %10,%6;"
     578                 :            :         "movdqa %%xmm3,%%xmm2;"
     579                 :            :         "mov    %9,%10;"
     580                 :            :         "mov    %6,%11;"
     581                 :            :         "movdqa %%xmm3,%%xmm8;"
     582                 :            :         "ror    $0xe,%10;"
     583                 :            :         "xor    %9,%10;"
     584                 :            :         "mov    %3,%12;"
     585                 :            :         "ror    $0x9,%11;"
     586                 :            :         "pslld  $0xe,%%xmm3;"
     587                 :            :         "xor    %6,%11;"
     588                 :            :         "ror    $0x5,%10;"
     589                 :            :         "xor    %4,%12;"
     590                 :            :         "psrld  $0x12,%%xmm2;"
     591                 :            :         "ror    $0xb,%11;"
     592                 :            :         "xor    %9,%10;"
     593                 :            :         "and    %9,%12;"
     594                 :            :         "ror    $0x6,%10;"
     595                 :            :         "pxor   %%xmm3,%%xmm1;"
     596                 :            :         "xor    %6,%11;"
     597                 :            :         "xor    %4,%12;"
     598                 :            :         "psrld  $0x3,%%xmm8;"
     599                 :            :         "add    %10,%12;"
     600                 :            :         "add    4+%16,%12;"
     601                 :            :         "ror    $0x2,%11;"
     602                 :            :         "pxor   %%xmm2,%%xmm1;"
     603                 :            :         "mov    %6,%10;"
     604                 :            :         "add    %12,%5;"
     605                 :            :         "mov    %6,%12;"
     606                 :            :         "pxor   %%xmm8,%%xmm1;"
     607                 :            :         "or     %7,%10;"
     608                 :            :         "add    %5,%8;"
     609                 :            :         "and    %7,%12;"
     610                 :            :         "pshufd $0xfa,%%xmm6,%%xmm2;"
     611                 :            :         "and    %k2,%10;"
     612                 :            :         "add    %11,%5;"
     613                 :            :         "paddd  %%xmm1,%%xmm0;"
     614                 :            :         "or     %12,%10;"
     615                 :            :         "add    %10,%5;"
     616                 :            :         "movdqa %%xmm2,%%xmm3;"
     617                 :            :         "mov    %8,%10;"
     618                 :            :         "mov    %5,%11;"
     619                 :            :         "ror    $0xe,%10;"
     620                 :            :         "movdqa %%xmm2,%%xmm8;"
     621                 :            :         "xor    %8,%10;"
     622                 :            :         "ror    $0x9,%11;"
     623                 :            :         "mov    %9,%12;"
     624                 :            :         "xor    %5,%11;"
     625                 :            :         "ror    $0x5,%10;"
     626                 :            :         "psrlq  $0x11,%%xmm2;"
     627                 :            :         "xor    %3,%12;"
     628                 :            :         "psrlq  $0x13,%%xmm3;"
     629                 :            :         "xor    %8,%10;"
     630                 :            :         "and    %8,%12;"
     631                 :            :         "psrld  $0xa,%%xmm8;"
     632                 :            :         "ror    $0xb,%11;"
     633                 :            :         "xor    %5,%11;"
     634                 :            :         "xor    %3,%12;"
     635                 :            :         "ror    $0x6,%10;"
     636                 :            :         "pxor   %%xmm3,%%xmm2;"
     637                 :            :         "add    %10,%12;"
     638                 :            :         "ror    $0x2,%11;"
     639                 :            :         "add    8+%16,%12;"
     640                 :            :         "pxor   %%xmm2,%%xmm8;"
     641                 :            :         "mov    %5,%10;"
     642                 :            :         "add    %12,%4;"
     643                 :            :         "mov    %5,%12;"
     644                 :            :         "pshufb %%xmm10,%%xmm8;"
     645                 :            :         "or     %k2,%10;"
     646                 :            :         "add    %4,%7;"
     647                 :            :         "and    %k2,%12;"
     648                 :            :         "paddd  %%xmm8,%%xmm0;"
     649                 :            :         "and    %6,%10;"
     650                 :            :         "add    %11,%4;"
     651                 :            :         "pshufd $0x50,%%xmm0,%%xmm2;"
     652                 :            :         "or     %12,%10;"
     653                 :            :         "add    %10,%4;"
     654                 :            :         "movdqa %%xmm2,%%xmm3;"
     655                 :            :         "mov    %7,%10;"
     656                 :            :         "ror    $0xe,%10;"
     657                 :            :         "mov    %4,%11;"
     658                 :            :         "movdqa %%xmm2,%%xmm7;"
     659                 :            :         "ror    $0x9,%11;"
     660                 :            :         "xor    %7,%10;"
     661                 :            :         "mov    %8,%12;"
     662                 :            :         "ror    $0x5,%10;"
     663                 :            :         "psrlq  $0x11,%%xmm2;"
     664                 :            :         "xor    %4,%11;"
     665                 :            :         "xor    %9,%12;"
     666                 :            :         "psrlq  $0x13,%%xmm3;"
     667                 :            :         "xor    %7,%10;"
     668                 :            :         "and    %7,%12;"
     669                 :            :         "ror    $0xb,%11;"
     670                 :            :         "psrld  $0xa,%%xmm7;"
     671                 :            :         "xor    %4,%11;"
     672                 :            :         "ror    $0x6,%10;"
     673                 :            :         "xor    %9,%12;"
     674                 :            :         "pxor   %%xmm3,%%xmm2;"
     675                 :            :         "ror    $0x2,%11;"
     676                 :            :         "add    %10,%12;"
     677                 :            :         "add    12+%16,%12;"
     678                 :            :         "pxor   %%xmm2,%%xmm7;"
     679                 :            :         "mov    %4,%10;"
     680                 :            :         "add    %12,%3;"
     681                 :            :         "mov    %4,%12;"
     682                 :            :         "pshufb %%xmm11,%%xmm7;"
     683                 :            :         "or     %6,%10;"
     684                 :            :         "add    %3,%k2;"
     685                 :            :         "and    %6,%12;"
     686                 :            :         "paddd  %%xmm0,%%xmm7;"
     687                 :            :         "and    %5,%10;"
     688                 :            :         "add    %11,%3;"
     689                 :            :         "or     %12,%10;"
     690                 :            :         "add    %10,%3;"
     691                 :            :         "sub    $0x1,%1;"
     692                 :            :         "jne    Lloop1_%=;"
     693                 :            :         "mov    $0x2,%1;"
     694                 :            : 
     695                 :            :         "Lloop2_%=:"
     696                 :            :         "paddd  0x0(%13),%%xmm4;"
     697                 :            :         "movdqa %%xmm4,%16;"
     698                 :            :         "mov    %k2,%10;"
     699                 :            :         "ror    $0xe,%10;"
     700                 :            :         "mov    %3,%11;"
     701                 :            :         "xor    %k2,%10;"
     702                 :            :         "ror    $0x9,%11;"
     703                 :            :         "mov    %7,%12;"
     704                 :            :         "xor    %3,%11;"
     705                 :            :         "ror    $0x5,%10;"
     706                 :            :         "xor    %8,%12;"
     707                 :            :         "xor    %k2,%10;"
     708                 :            :         "ror    $0xb,%11;"
     709                 :            :         "and    %k2,%12;"
     710                 :            :         "xor    %3,%11;"
     711                 :            :         "ror    $0x6,%10;"
     712                 :            :         "xor    %8,%12;"
     713                 :            :         "add    %10,%12;"
     714                 :            :         "ror    $0x2,%11;"
     715                 :            :         "add    %16,%12;"
     716                 :            :         "mov    %3,%10;"
     717                 :            :         "add    %12,%9;"
     718                 :            :         "mov    %3,%12;"
     719                 :            :         "or     %5,%10;"
     720                 :            :         "add    %9,%6;"
     721                 :            :         "and    %5,%12;"
     722                 :            :         "and    %4,%10;"
     723                 :            :         "add    %11,%9;"
     724                 :            :         "or     %12,%10;"
     725                 :            :         "add    %10,%9;"
     726                 :            :         "mov    %6,%10;"
     727                 :            :         "ror    $0xe,%10;"
     728                 :            :         "mov    %9,%11;"
     729                 :            :         "xor    %6,%10;"
     730                 :            :         "ror    $0x9,%11;"
     731                 :            :         "mov    %k2,%12;"
     732                 :            :         "xor    %9,%11;"
     733                 :            :         "ror    $0x5,%10;"
     734                 :            :         "xor    %7,%12;"
     735                 :            :         "xor    %6,%10;"
     736                 :            :         "ror    $0xb,%11;"
     737                 :            :         "and    %6,%12;"
     738                 :            :         "xor    %9,%11;"
     739                 :            :         "ror    $0x6,%10;"
     740                 :            :         "xor    %7,%12;"
     741                 :            :         "add    %10,%12;"
     742                 :            :         "ror    $0x2,%11;"
     743                 :            :         "add    4+%16,%12;"
     744                 :            :         "mov    %9,%10;"
     745                 :            :         "add    %12,%8;"
     746                 :            :         "mov    %9,%12;"
     747                 :            :         "or     %4,%10;"
     748                 :            :         "add    %8,%5;"
     749                 :            :         "and    %4,%12;"
     750                 :            :         "and    %3,%10;"
     751                 :            :         "add    %11,%8;"
     752                 :            :         "or     %12,%10;"
     753                 :            :         "add    %10,%8;"
     754                 :            :         "mov    %5,%10;"
     755                 :            :         "ror    $0xe,%10;"
     756                 :            :         "mov    %8,%11;"
     757                 :            :         "xor    %5,%10;"
     758                 :            :         "ror    $0x9,%11;"
     759                 :            :         "mov    %6,%12;"
     760                 :            :         "xor    %8,%11;"
     761                 :            :         "ror    $0x5,%10;"
     762                 :            :         "xor    %k2,%12;"
     763                 :            :         "xor    %5,%10;"
     764                 :            :         "ror    $0xb,%11;"
     765                 :            :         "and    %5,%12;"
     766                 :            :         "xor    %8,%11;"
     767                 :            :         "ror    $0x6,%10;"
     768                 :            :         "xor    %k2,%12;"
     769                 :            :         "add    %10,%12;"
     770                 :            :         "ror    $0x2,%11;"
     771                 :            :         "add    8+%16,%12;"
     772                 :            :         "mov    %8,%10;"
     773                 :            :         "add    %12,%7;"
     774                 :            :         "mov    %8,%12;"
     775                 :            :         "or     %3,%10;"
     776                 :            :         "add    %7,%4;"
     777                 :            :         "and    %3,%12;"
     778                 :            :         "and    %9,%10;"
     779                 :            :         "add    %11,%7;"
     780                 :            :         "or     %12,%10;"
     781                 :            :         "add    %10,%7;"
     782                 :            :         "mov    %4,%10;"
     783                 :            :         "ror    $0xe,%10;"
     784                 :            :         "mov    %7,%11;"
     785                 :            :         "xor    %4,%10;"
     786                 :            :         "ror    $0x9,%11;"
     787                 :            :         "mov    %5,%12;"
     788                 :            :         "xor    %7,%11;"
     789                 :            :         "ror    $0x5,%10;"
     790                 :            :         "xor    %6,%12;"
     791                 :            :         "xor    %4,%10;"
     792                 :            :         "ror    $0xb,%11;"
     793                 :            :         "and    %4,%12;"
     794                 :            :         "xor    %7,%11;"
     795                 :            :         "ror    $0x6,%10;"
     796                 :            :         "xor    %6,%12;"
     797                 :            :         "add    %10,%12;"
     798                 :            :         "ror    $0x2,%11;"
     799                 :            :         "add    12+%16,%12;"
     800                 :            :         "mov    %7,%10;"
     801                 :            :         "add    %12,%k2;"
     802                 :            :         "mov    %7,%12;"
     803                 :            :         "or     %9,%10;"
     804                 :            :         "add    %k2,%3;"
     805                 :            :         "and    %9,%12;"
     806                 :            :         "and    %8,%10;"
     807                 :            :         "add    %11,%k2;"
     808                 :            :         "or     %12,%10;"
     809                 :            :         "add    %10,%k2;"
     810                 :            :         "paddd  0x10(%13),%%xmm5;"
     811                 :            :         "movdqa %%xmm5,%16;"
     812                 :            :         "add    $0x20,%13;"
     813                 :            :         "mov    %3,%10;"
     814                 :            :         "ror    $0xe,%10;"
     815                 :            :         "mov    %k2,%11;"
     816                 :            :         "xor    %3,%10;"
     817                 :            :         "ror    $0x9,%11;"
     818                 :            :         "mov    %4,%12;"
     819                 :            :         "xor    %k2,%11;"
     820                 :            :         "ror    $0x5,%10;"
     821                 :            :         "xor    %5,%12;"
     822                 :            :         "xor    %3,%10;"
     823                 :            :         "ror    $0xb,%11;"
     824                 :            :         "and    %3,%12;"
     825                 :            :         "xor    %k2,%11;"
     826                 :            :         "ror    $0x6,%10;"
     827                 :            :         "xor    %5,%12;"
     828                 :            :         "add    %10,%12;"
     829                 :            :         "ror    $0x2,%11;"
     830                 :            :         "add    %16,%12;"
     831                 :            :         "mov    %k2,%10;"
     832                 :            :         "add    %12,%6;"
     833                 :            :         "mov    %k2,%12;"
     834                 :            :         "or     %8,%10;"
     835                 :            :         "add    %6,%9;"
     836                 :            :         "and    %8,%12;"
     837                 :            :         "and    %7,%10;"
     838                 :            :         "add    %11,%6;"
     839                 :            :         "or     %12,%10;"
     840                 :            :         "add    %10,%6;"
     841                 :            :         "mov    %9,%10;"
     842                 :            :         "ror    $0xe,%10;"
     843                 :            :         "mov    %6,%11;"
     844                 :            :         "xor    %9,%10;"
     845                 :            :         "ror    $0x9,%11;"
     846                 :            :         "mov    %3,%12;"
     847                 :            :         "xor    %6,%11;"
     848                 :            :         "ror    $0x5,%10;"
     849                 :            :         "xor    %4,%12;"
     850                 :            :         "xor    %9,%10;"
     851                 :            :         "ror    $0xb,%11;"
     852                 :            :         "and    %9,%12;"
     853                 :            :         "xor    %6,%11;"
     854                 :            :         "ror    $0x6,%10;"
     855                 :            :         "xor    %4,%12;"
     856                 :            :         "add    %10,%12;"
     857                 :            :         "ror    $0x2,%11;"
     858                 :            :         "add    4+%16,%12;"
     859                 :            :         "mov    %6,%10;"
     860                 :            :         "add    %12,%5;"
     861                 :            :         "mov    %6,%12;"
     862                 :            :         "or     %7,%10;"
     863                 :            :         "add    %5,%8;"
     864                 :            :         "and    %7,%12;"
     865                 :            :         "and    %k2,%10;"
     866                 :            :         "add    %11,%5;"
     867                 :            :         "or     %12,%10;"
     868                 :            :         "add    %10,%5;"
     869                 :            :         "mov    %8,%10;"
     870                 :            :         "ror    $0xe,%10;"
     871                 :            :         "mov    %5,%11;"
     872                 :            :         "xor    %8,%10;"
     873                 :            :         "ror    $0x9,%11;"
     874                 :            :         "mov    %9,%12;"
     875                 :            :         "xor    %5,%11;"
     876                 :            :         "ror    $0x5,%10;"
     877                 :            :         "xor    %3,%12;"
     878                 :            :         "xor    %8,%10;"
     879                 :            :         "ror    $0xb,%11;"
     880                 :            :         "and    %8,%12;"
     881                 :            :         "xor    %5,%11;"
     882                 :            :         "ror    $0x6,%10;"
     883                 :            :         "xor    %3,%12;"
     884                 :            :         "add    %10,%12;"
     885                 :            :         "ror    $0x2,%11;"
     886                 :            :         "add    8+%16,%12;"
     887                 :            :         "mov    %5,%10;"
     888                 :            :         "add    %12,%4;"
     889                 :            :         "mov    %5,%12;"
     890                 :            :         "or     %k2,%10;"
     891                 :            :         "add    %4,%7;"
     892                 :            :         "and    %k2,%12;"
     893                 :            :         "and    %6,%10;"
     894                 :            :         "add    %11,%4;"
     895                 :            :         "or     %12,%10;"
     896                 :            :         "add    %10,%4;"
     897                 :            :         "mov    %7,%10;"
     898                 :            :         "ror    $0xe,%10;"
     899                 :            :         "mov    %4,%11;"
     900                 :            :         "xor    %7,%10;"
     901                 :            :         "ror    $0x9,%11;"
     902                 :            :         "mov    %8,%12;"
     903                 :            :         "xor    %4,%11;"
     904                 :            :         "ror    $0x5,%10;"
     905                 :            :         "xor    %9,%12;"
     906                 :            :         "xor    %7,%10;"
     907                 :            :         "ror    $0xb,%11;"
     908                 :            :         "and    %7,%12;"
     909                 :            :         "xor    %4,%11;"
     910                 :            :         "ror    $0x6,%10;"
     911                 :            :         "xor    %9,%12;"
     912                 :            :         "add    %10,%12;"
     913                 :            :         "ror    $0x2,%11;"
     914                 :            :         "add    12+%16,%12;"
     915                 :            :         "mov    %4,%10;"
     916                 :            :         "add    %12,%3;"
     917                 :            :         "mov    %4,%12;"
     918                 :            :         "or     %6,%10;"
     919                 :            :         "add    %3,%k2;"
     920                 :            :         "and    %6,%12;"
     921                 :            :         "and    %5,%10;"
     922                 :            :         "add    %11,%3;"
     923                 :            :         "or     %12,%10;"
     924                 :            :         "add    %10,%3;"
     925                 :            :         "movdqa %%xmm6,%%xmm4;"
     926                 :            :         "movdqa %%xmm7,%%xmm5;"
     927                 :            :         "sub    $0x1,%1;"
     928                 :            :         "jne    Lloop2_%=;"
     929                 :            :         "add    (%0),%3;"
     930                 :            :         "mov    %3,(%0);"
     931                 :            :         "add    0x4(%0),%4;"
     932                 :            :         "mov    %4,0x4(%0);"
     933                 :            :         "add    0x8(%0),%5;"
     934                 :            :         "mov    %5,0x8(%0);"
     935                 :            :         "add    0xc(%0),%6;"
     936                 :            :         "mov    %6,0xc(%0);"
     937                 :            :         "add    0x10(%0),%k2;"
     938                 :            :         "mov    %k2,0x10(%0);"
     939                 :            :         "add    0x14(%0),%7;"
     940                 :            :         "mov    %7,0x14(%0);"
     941                 :            :         "add    0x18(%0),%8;"
     942                 :            :         "mov    %8,0x18(%0);"
     943                 :            :         "add    0x1c(%0),%9;"
     944                 :            :         "mov    %9,0x1c(%0);"
     945                 :            :         "mov    %15,%1;"
     946                 :            :         "add    $0x40,%1;"
     947                 :            :         "cmp    %14,%1;"
     948                 :            :         "jne    Lloop0_%=;"
     949                 :            : 
     950                 :            :         "Ldone_hash_%=:"
     951                 :            : 
     952                 :            :         : "+r"(s), "+r"(chunk), "+r"(blocks), "=r"(a), "=r"(b), "=r"(c), "=r"(d), /* e = chunk */ "=r"(f), "=r"(g), "=r"(h), "=r"(y0), "=r"(y1), "=r"(y2), "=r"(tbl), "+m"(inp_end), "+m"(inp), "+m"(xfer)
     953                 :            :         : "m"(K256), "m"(FLIP_MASK), "m"(SHUF_00BA), "m"(SHUF_DC00)
     954                 :            :         : "cc", "memory", "xmm0", "xmm1", "xmm2", "xmm3", "xmm4", "xmm5", "xmm6", "xmm7", "xmm8", "xmm9", "xmm10", "xmm11", "xmm12"
     955                 :            :    );
     956                 :          0 : }
     957                 :            : }
     958                 :            : 
     959                 :            : /*
     960                 :            : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
     961                 :            : ; Copyright (c) 2012, Intel Corporation 
     962                 :            : ; 
     963                 :            : ; All rights reserved. 
     964                 :            : ; 
     965                 :            : ; Redistribution and use in source and binary forms, with or without
     966                 :            : ; modification, are permitted provided that the following conditions are
     967                 :            : ; met: 
     968                 :            : ; 
     969                 :            : ; * Redistributions of source code must retain the above copyright
     970                 :            : ;   notice, this list of conditions and the following disclaimer.  
     971                 :            : ; 
     972                 :            : ; * Redistributions in binary form must reproduce the above copyright
     973                 :            : ;   notice, this list of conditions and the following disclaimer in the
     974                 :            : ;   documentation and/or other materials provided with the
     975                 :            : ;   distribution. 
     976                 :            : ; 
     977                 :            : ; * Neither the name of the Intel Corporation nor the names of its
     978                 :            : ;   contributors may be used to endorse or promote products derived from
     979                 :            : ;   this software without specific prior written permission. 
     980                 :            : ; 
     981                 :            : ; 
     982                 :            : ; THIS SOFTWARE IS PROVIDED BY INTEL CORPORATION "AS IS" AND ANY
     983                 :            : ; EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
     984                 :            : ; IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
     985                 :            : ; PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL INTEL CORPORATION OR
     986                 :            : ; CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
     987                 :            : ; EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
     988                 :            : ; PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
     989                 :            : ; PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF
     990                 :            : ; LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING
     991                 :            : ; NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS
     992                 :            : ; SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
     993                 :            : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
     994                 :            : ;
     995                 :            : ; Example YASM command lines:
     996                 :            : ; Windows:  yasm -Xvc -f x64 -rnasm -pnasm -o sha256_sse4.obj -g cv8 sha256_sse4.asm
     997                 :            : ; Linux:    yasm -f x64 -f elf64 -X gnu -g dwarf2 -D LINUX -o sha256_sse4.o sha256_sse4.asm
     998                 :            : ;
     999                 :            : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
    1000                 :            : ;
    1001                 :            : ; This code is described in an Intel White-Paper:
    1002                 :            : ; "Fast SHA-256 Implementations on Intel Architecture Processors"
    1003                 :            : ;
    1004                 :            : ; To find it, surf to https://www.intel.com/p/en_US/embedded
    1005                 :            : ; and search for that title.
    1006                 :            : ; The paper is expected to be released roughly at the end of April, 2012
    1007                 :            : ;
    1008                 :            : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
    1009                 :            : ; This code schedules 1 blocks at a time, with 4 lanes per block
    1010                 :            : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
    1011                 :            : 
    1012                 :            : %define MOVDQ movdqu ;; assume buffers not aligned 
    1013                 :            : 
    1014                 :            : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; Define Macros
    1015                 :            : 
    1016                 :            : ; addm [mem], reg
    1017                 :            : ; Add reg to mem using reg-mem add and store
    1018                 :            : %macro addm 2
    1019                 :            :     add %2, %1
    1020                 :            :     mov %1, %2
    1021                 :            : %endm
    1022                 :            : 
    1023                 :            : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
    1024                 :            : 
    1025                 :            : ; COPY_XMM_AND_BSWAP xmm, [mem], byte_flip_mask
    1026                 :            : ; Load xmm with mem and byte swap each dword
    1027                 :            : %macro COPY_XMM_AND_BSWAP 3
    1028                 :            :     MOVDQ %1, %2
    1029                 :            :     pshufb %1, %3
    1030                 :            : %endmacro
    1031                 :            : 
    1032                 :            : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
    1033                 :            : 
    1034                 :            : %define X0 xmm4
    1035                 :            : %define X1 xmm5
    1036                 :            : %define X2 xmm6
    1037                 :            : %define X3 xmm7
    1038                 :            : 
    1039                 :            : %define XTMP0 xmm0
    1040                 :            : %define XTMP1 xmm1
    1041                 :            : %define XTMP2 xmm2
    1042                 :            : %define XTMP3 xmm3
    1043                 :            : %define XTMP4 xmm8
    1044                 :            : %define XFER  xmm9
    1045                 :            : 
    1046                 :            : %define SHUF_00BA       xmm10 ; shuffle xBxA -> 00BA
    1047                 :            : %define SHUF_DC00       xmm11 ; shuffle xDxC -> DC00
    1048                 :            : %define BYTE_FLIP_MASK  xmm12
    1049                 :            :     
    1050                 :            : %ifdef LINUX
    1051                 :            : %define NUM_BLKS rdx    ; 3rd arg
    1052                 :            : %define CTX     rsi     ; 2nd arg
    1053                 :            : %define INP     rdi     ; 1st arg
    1054                 :            : 
    1055                 :            : %define SRND    rdi     ; clobbers INP
    1056                 :            : %define c       ecx
    1057                 :            : %define d       r8d
    1058                 :            : %define e       edx
    1059                 :            : %else
    1060                 :            : %define NUM_BLKS r8     ; 3rd arg
    1061                 :            : %define CTX     rdx     ; 2nd arg
    1062                 :            : %define INP     rcx     ; 1st arg
    1063                 :            : 
    1064                 :            : %define SRND    rcx     ; clobbers INP
    1065                 :            : %define c       edi 
    1066                 :            : %define d       esi 
    1067                 :            : %define e       r8d
    1068                 :            :     
    1069                 :            : %endif
    1070                 :            : %define TBL     rbp
    1071                 :            : %define a eax
    1072                 :            : %define b ebx
    1073                 :            : 
    1074                 :            : %define f r9d
    1075                 :            : %define g r10d
    1076                 :            : %define h r11d
    1077                 :            : 
    1078                 :            : %define y0 r13d
    1079                 :            : %define y1 r14d
    1080                 :            : %define y2 r15d
    1081                 :            : 
    1082                 :            : 
    1083                 :            : 
    1084                 :            : _INP_END_SIZE   equ 8
    1085                 :            : _INP_SIZE       equ 8
    1086                 :            : _XFER_SIZE      equ 8
    1087                 :            : %ifdef LINUX
    1088                 :            : _XMM_SAVE_SIZE  equ 0
    1089                 :            : %else
    1090                 :            : _XMM_SAVE_SIZE  equ 7*16
    1091                 :            : %endif
    1092                 :            : ; STACK_SIZE plus pushes must be an odd multiple of 8
    1093                 :            : _ALIGN_SIZE     equ 8
    1094                 :            : 
    1095                 :            : _INP_END        equ 0
    1096                 :            : _INP            equ _INP_END  + _INP_END_SIZE
    1097                 :            : _XFER           equ _INP      + _INP_SIZE
    1098                 :            : _XMM_SAVE       equ _XFER     + _XFER_SIZE + _ALIGN_SIZE
    1099                 :            : STACK_SIZE      equ _XMM_SAVE + _XMM_SAVE_SIZE
    1100                 :            : 
    1101                 :            : ; rotate_Xs
    1102                 :            : ; Rotate values of symbols X0...X3
    1103                 :            : %macro rotate_Xs 0
    1104                 :            : %xdefine X_ X0
    1105                 :            : %xdefine X0 X1
    1106                 :            : %xdefine X1 X2
    1107                 :            : %xdefine X2 X3
    1108                 :            : %xdefine X3 X_
    1109                 :            : %endm
    1110                 :            : 
    1111                 :            : ; ROTATE_ARGS
    1112                 :            : ; Rotate values of symbols a...h
    1113                 :            : %macro ROTATE_ARGS 0
    1114                 :            : %xdefine TMP_ h
    1115                 :            : %xdefine h g
    1116                 :            : %xdefine g f
    1117                 :            : %xdefine f e
    1118                 :            : %xdefine e d
    1119                 :            : %xdefine d c
    1120                 :            : %xdefine c b
    1121                 :            : %xdefine b a
    1122                 :            : %xdefine a TMP_
    1123                 :            : %endm
    1124                 :            : 
    1125                 :            : %macro FOUR_ROUNDS_AND_SCHED 0
    1126                 :            :         ;; compute s0 four at a time and s1 two at a time
    1127                 :            :         ;; compute W[-16] + W[-7] 4 at a time
    1128                 :            :         movdqa  XTMP0, X3
    1129                 :            :     mov y0, e           ; y0 = e
    1130                 :            :     ror y0, (25-11)     ; y0 = e >> (25-11)
    1131                 :            :     mov y1, a           ; y1 = a
    1132                 :            :         palignr XTMP0, X2, 4    ; XTMP0 = W[-7]
    1133                 :            :     ror y1, (22-13)     ; y1 = a >> (22-13)
    1134                 :            :     xor y0, e           ; y0 = e ^ (e >> (25-11))
    1135                 :            :     mov y2, f           ; y2 = f
    1136                 :            :     ror y0, (11-6)      ; y0 = (e >> (11-6)) ^ (e >> (25-6))
    1137                 :            :         movdqa  XTMP1, X1
    1138                 :            :     xor y1, a           ; y1 = a ^ (a >> (22-13)
    1139                 :            :     xor y2, g           ; y2 = f^g
    1140                 :            :         paddd   XTMP0, X0       ; XTMP0 = W[-7] + W[-16]
    1141                 :            :     xor y0, e           ; y0 = e ^ (e >> (11-6)) ^ (e >> (25-6))
    1142                 :            :     and y2, e           ; y2 = (f^g)&e
    1143                 :            :     ror y1, (13-2)      ; y1 = (a >> (13-2)) ^ (a >> (22-2))
    1144                 :            :         ;; compute s0
    1145                 :            :         palignr XTMP1, X0, 4    ; XTMP1 = W[-15]
    1146                 :            :     xor y1, a           ; y1 = a ^ (a >> (13-2)) ^ (a >> (22-2))
    1147                 :            :     ror y0, 6           ; y0 = S1 = (e>>6) & (e>>11) ^ (e>>25)
    1148                 :            :     xor y2, g           ; y2 = CH = ((f^g)&e)^g
    1149                 :            :         movdqa  XTMP2, XTMP1    ; XTMP2 = W[-15]
    1150                 :            :     ror y1, 2           ; y1 = S0 = (a>>2) ^ (a>>13) ^ (a>>22)
    1151                 :            :     add y2, y0          ; y2 = S1 + CH
    1152                 :            :     add y2, [rsp + _XFER + 0*4] ; y2 = k + w + S1 + CH
    1153                 :            :         movdqa  XTMP3, XTMP1    ; XTMP3 = W[-15]
    1154                 :            :     mov y0, a           ; y0 = a
    1155                 :            :     add h, y2           ; h = h + S1 + CH + k + w
    1156                 :            :     mov y2, a           ; y2 = a
    1157                 :            :         pslld   XTMP1, (32-7)
    1158                 :            :     or  y0, c           ; y0 = a|c
    1159                 :            :     add d, h            ; d = d + h + S1 + CH + k + w
    1160                 :            :     and y2, c           ; y2 = a&c
    1161                 :            :         psrld   XTMP2, 7
    1162                 :            :     and y0, b           ; y0 = (a|c)&b
    1163                 :            :     add h, y1           ; h = h + S1 + CH + k + w + S0
    1164                 :            :         por     XTMP1, XTMP2    ; XTMP1 = W[-15] ror 7
    1165                 :            :     or  y0, y2          ; y0 = MAJ = (a|c)&b)|(a&c)
    1166                 :            :     add h, y0           ; h = h + S1 + CH + k + w + S0 + MAJ
    1167                 :            : 
    1168                 :            : ROTATE_ARGS
    1169                 :            :         movdqa  XTMP2, XTMP3    ; XTMP2 = W[-15]
    1170                 :            :     mov y0, e           ; y0 = e
    1171                 :            :     mov y1, a           ; y1 = a
    1172                 :            :         movdqa  XTMP4, XTMP3    ; XTMP4 = W[-15]
    1173                 :            :     ror y0, (25-11)     ; y0 = e >> (25-11)
    1174                 :            :     xor y0, e           ; y0 = e ^ (e >> (25-11))
    1175                 :            :     mov y2, f           ; y2 = f
    1176                 :            :     ror y1, (22-13)     ; y1 = a >> (22-13)
    1177                 :            :         pslld   XTMP3, (32-18)
    1178                 :            :     xor y1, a           ; y1 = a ^ (a >> (22-13)
    1179                 :            :     ror y0, (11-6)      ; y0 = (e >> (11-6)) ^ (e >> (25-6))
    1180                 :            :     xor y2, g           ; y2 = f^g
    1181                 :            :         psrld   XTMP2, 18
    1182                 :            :     ror y1, (13-2)      ; y1 = (a >> (13-2)) ^ (a >> (22-2))
    1183                 :            :     xor y0, e           ; y0 = e ^ (e >> (11-6)) ^ (e >> (25-6))
    1184                 :            :     and y2, e           ; y2 = (f^g)&e
    1185                 :            :     ror y0, 6           ; y0 = S1 = (e>>6) & (e>>11) ^ (e>>25)
    1186                 :            :         pxor    XTMP1, XTMP3
    1187                 :            :     xor y1, a           ; y1 = a ^ (a >> (13-2)) ^ (a >> (22-2))
    1188                 :            :     xor y2, g           ; y2 = CH = ((f^g)&e)^g
    1189                 :            :         psrld   XTMP4, 3        ; XTMP4 = W[-15] >> 3
    1190                 :            :     add y2, y0          ; y2 = S1 + CH
    1191                 :            :     add y2, [rsp + _XFER + 1*4] ; y2 = k + w + S1 + CH
    1192                 :            :     ror y1, 2           ; y1 = S0 = (a>>2) ^ (a>>13) ^ (a>>22)
    1193                 :            :         pxor    XTMP1, XTMP2    ; XTMP1 = W[-15] ror 7 ^ W[-15] ror 18
    1194                 :            :     mov y0, a           ; y0 = a
    1195                 :            :     add h, y2           ; h = h + S1 + CH + k + w
    1196                 :            :     mov y2, a           ; y2 = a
    1197                 :            :         pxor    XTMP1, XTMP4    ; XTMP1 = s0
    1198                 :            :     or  y0, c           ; y0 = a|c
    1199                 :            :     add d, h            ; d = d + h + S1 + CH + k + w
    1200                 :            :     and y2, c           ; y2 = a&c
    1201                 :            :         ;; compute low s1
    1202                 :            :         pshufd  XTMP2, X3, 11111010b    ; XTMP2 = W[-2] {BBAA}
    1203                 :            :     and y0, b           ; y0 = (a|c)&b
    1204                 :            :     add h, y1           ; h = h + S1 + CH + k + w + S0
    1205                 :            :         paddd   XTMP0, XTMP1    ; XTMP0 = W[-16] + W[-7] + s0
    1206                 :            :     or  y0, y2          ; y0 = MAJ = (a|c)&b)|(a&c)
    1207                 :            :     add h, y0           ; h = h + S1 + CH + k + w + S0 + MAJ
    1208                 :            : 
    1209                 :            : ROTATE_ARGS
    1210                 :            :         movdqa  XTMP3, XTMP2    ; XTMP3 = W[-2] {BBAA}
    1211                 :            :     mov y0, e           ; y0 = e
    1212                 :            :     mov y1, a           ; y1 = a
    1213                 :            :     ror y0, (25-11)     ; y0 = e >> (25-11)
    1214                 :            :         movdqa  XTMP4, XTMP2    ; XTMP4 = W[-2] {BBAA}
    1215                 :            :     xor y0, e           ; y0 = e ^ (e >> (25-11))
    1216                 :            :     ror y1, (22-13)     ; y1 = a >> (22-13)
    1217                 :            :     mov y2, f           ; y2 = f
    1218                 :            :     xor y1, a           ; y1 = a ^ (a >> (22-13)
    1219                 :            :     ror y0, (11-6)      ; y0 = (e >> (11-6)) ^ (e >> (25-6))
    1220                 :            :         psrlq   XTMP2, 17       ; XTMP2 = W[-2] ror 17 {xBxA}
    1221                 :            :     xor y2, g           ; y2 = f^g
    1222                 :            :         psrlq   XTMP3, 19       ; XTMP3 = W[-2] ror 19 {xBxA}
    1223                 :            :     xor y0, e           ; y0 = e ^ (e >> (11-6)) ^ (e >> (25-6))
    1224                 :            :     and y2, e           ; y2 = (f^g)&e
    1225                 :            :         psrld   XTMP4, 10       ; XTMP4 = W[-2] >> 10 {BBAA}
    1226                 :            :     ror y1, (13-2)      ; y1 = (a >> (13-2)) ^ (a >> (22-2))
    1227                 :            :     xor y1, a           ; y1 = a ^ (a >> (13-2)) ^ (a >> (22-2))
    1228                 :            :     xor y2, g           ; y2 = CH = ((f^g)&e)^g
    1229                 :            :     ror y0, 6           ; y0 = S1 = (e>>6) & (e>>11) ^ (e>>25)
    1230                 :            :         pxor    XTMP2, XTMP3
    1231                 :            :     add y2, y0          ; y2 = S1 + CH
    1232                 :            :     ror y1, 2           ; y1 = S0 = (a>>2) ^ (a>>13) ^ (a>>22)
    1233                 :            :     add y2, [rsp + _XFER + 2*4] ; y2 = k + w + S1 + CH
    1234                 :            :         pxor    XTMP4, XTMP2    ; XTMP4 = s1 {xBxA}
    1235                 :            :     mov y0, a           ; y0 = a
    1236                 :            :     add h, y2           ; h = h + S1 + CH + k + w
    1237                 :            :     mov y2, a           ; y2 = a
    1238                 :            :         pshufb  XTMP4, SHUF_00BA        ; XTMP4 = s1 {00BA}
    1239                 :            :     or  y0, c           ; y0 = a|c
    1240                 :            :     add d, h            ; d = d + h + S1 + CH + k + w
    1241                 :            :     and y2, c           ; y2 = a&c
    1242                 :            :         paddd   XTMP0, XTMP4    ; XTMP0 = {..., ..., W[1], W[0]}
    1243                 :            :     and y0, b           ; y0 = (a|c)&b
    1244                 :            :     add h, y1           ; h = h + S1 + CH + k + w + S0
    1245                 :            :         ;; compute high s1
    1246                 :            :         pshufd  XTMP2, XTMP0, 01010000b ; XTMP2 = W[-2] {DDCC}
    1247                 :            :     or  y0, y2          ; y0 = MAJ = (a|c)&b)|(a&c)
    1248                 :            :     add h, y0           ; h = h + S1 + CH + k + w + S0 + MAJ
    1249                 :            : 
    1250                 :            : ROTATE_ARGS
    1251                 :            :         movdqa  XTMP3, XTMP2    ; XTMP3 = W[-2] {DDCC}
    1252                 :            :     mov y0, e           ; y0 = e
    1253                 :            :     ror y0, (25-11)     ; y0 = e >> (25-11)
    1254                 :            :     mov y1, a           ; y1 = a
    1255                 :            :         movdqa  X0,    XTMP2    ; X0    = W[-2] {DDCC}
    1256                 :            :     ror y1, (22-13)     ; y1 = a >> (22-13)
    1257                 :            :     xor y0, e           ; y0 = e ^ (e >> (25-11))
    1258                 :            :     mov y2, f           ; y2 = f
    1259                 :            :     ror y0, (11-6)      ; y0 = (e >> (11-6)) ^ (e >> (25-6))
    1260                 :            :         psrlq   XTMP2, 17       ; XTMP2 = W[-2] ror 17 {xDxC}
    1261                 :            :     xor y1, a           ; y1 = a ^ (a >> (22-13)
    1262                 :            :     xor y2, g           ; y2 = f^g
    1263                 :            :         psrlq   XTMP3, 19       ; XTMP3 = W[-2] ror 19 {xDxC}
    1264                 :            :     xor y0, e           ; y0 = e ^ (e >> (11-6)) ^ (e >> (25-6))
    1265                 :            :     and y2, e           ; y2 = (f^g)&e
    1266                 :            :     ror y1, (13-2)      ; y1 = (a >> (13-2)) ^ (a >> (22-2))
    1267                 :            :         psrld   X0,    10       ; X0 = W[-2] >> 10 {DDCC}
    1268                 :            :     xor y1, a           ; y1 = a ^ (a >> (13-2)) ^ (a >> (22-2))
    1269                 :            :     ror y0, 6           ; y0 = S1 = (e>>6) & (e>>11) ^ (e>>25)
    1270                 :            :     xor y2, g           ; y2 = CH = ((f^g)&e)^g
    1271                 :            :         pxor    XTMP2, XTMP3
    1272                 :            :     ror y1, 2           ; y1 = S0 = (a>>2) ^ (a>>13) ^ (a>>22)
    1273                 :            :     add y2, y0          ; y2 = S1 + CH
    1274                 :            :     add y2, [rsp + _XFER + 3*4] ; y2 = k + w + S1 + CH
    1275                 :            :         pxor    X0, XTMP2       ; X0 = s1 {xDxC}
    1276                 :            :     mov y0, a           ; y0 = a
    1277                 :            :     add h, y2           ; h = h + S1 + CH + k + w
    1278                 :            :     mov y2, a           ; y2 = a
    1279                 :            :         pshufb  X0, SHUF_DC00   ; X0 = s1 {DC00}
    1280                 :            :     or  y0, c           ; y0 = a|c
    1281                 :            :     add d, h            ; d = d + h + S1 + CH + k + w
    1282                 :            :     and y2, c           ; y2 = a&c
    1283                 :            :         paddd   X0, XTMP0       ; X0 = {W[3], W[2], W[1], W[0]}
    1284                 :            :     and y0, b           ; y0 = (a|c)&b
    1285                 :            :     add h, y1           ; h = h + S1 + CH + k + w + S0
    1286                 :            :     or  y0, y2          ; y0 = MAJ = (a|c)&b)|(a&c)
    1287                 :            :     add h, y0           ; h = h + S1 + CH + k + w + S0 + MAJ
    1288                 :            : 
    1289                 :            : ROTATE_ARGS
    1290                 :            : rotate_Xs
    1291                 :            : %endm
    1292                 :            : 
    1293                 :            : ;; input is [rsp + _XFER + %1 * 4]
    1294                 :            : %macro DO_ROUND 1
    1295                 :            :     mov y0, e           ; y0 = e
    1296                 :            :     ror y0, (25-11)     ; y0 = e >> (25-11)
    1297                 :            :     mov y1, a           ; y1 = a
    1298                 :            :     xor y0, e           ; y0 = e ^ (e >> (25-11))
    1299                 :            :     ror y1, (22-13)     ; y1 = a >> (22-13)
    1300                 :            :     mov y2, f           ; y2 = f
    1301                 :            :     xor y1, a           ; y1 = a ^ (a >> (22-13)
    1302                 :            :     ror y0, (11-6)      ; y0 = (e >> (11-6)) ^ (e >> (25-6))
    1303                 :            :     xor y2, g           ; y2 = f^g
    1304                 :            :     xor y0, e           ; y0 = e ^ (e >> (11-6)) ^ (e >> (25-6))
    1305                 :            :     ror y1, (13-2)      ; y1 = (a >> (13-2)) ^ (a >> (22-2))
    1306                 :            :     and y2, e           ; y2 = (f^g)&e
    1307                 :            :     xor y1, a           ; y1 = a ^ (a >> (13-2)) ^ (a >> (22-2))
    1308                 :            :     ror y0, 6           ; y0 = S1 = (e>>6) & (e>>11) ^ (e>>25)
    1309                 :            :     xor y2, g           ; y2 = CH = ((f^g)&e)^g
    1310                 :            :     add y2, y0          ; y2 = S1 + CH
    1311                 :            :     ror y1, 2           ; y1 = S0 = (a>>2) ^ (a>>13) ^ (a>>22)
    1312                 :            :     add y2, [rsp + _XFER + %1 * 4]      ; y2 = k + w + S1 + CH
    1313                 :            :     mov y0, a           ; y0 = a
    1314                 :            :     add h, y2           ; h = h + S1 + CH + k + w
    1315                 :            :     mov y2, a           ; y2 = a
    1316                 :            :     or  y0, c           ; y0 = a|c
    1317                 :            :     add d, h            ; d = d + h + S1 + CH + k + w
    1318                 :            :     and y2, c           ; y2 = a&c
    1319                 :            :     and y0, b           ; y0 = (a|c)&b
    1320                 :            :     add h, y1           ; h = h + S1 + CH + k + w + S0
    1321                 :            :     or  y0, y2          ; y0 = MAJ = (a|c)&b)|(a&c)
    1322                 :            :     add h, y0           ; h = h + S1 + CH + k + w + S0 + MAJ
    1323                 :            :     ROTATE_ARGS
    1324                 :            : %endm
    1325                 :            : 
    1326                 :            : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
    1327                 :            : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
    1328                 :            : ;; void sha256_sse4(void *input_data, UINT32 digest[8], UINT64 num_blks)
    1329                 :            : ;; arg 1 : pointer to input data
    1330                 :            : ;; arg 2 : pointer to digest
    1331                 :            : ;; arg 3 : Num blocks
    1332                 :            : section .text
    1333                 :            : global sha256_sse4
    1334                 :            : align 32
    1335                 :            : sha256_sse4:
    1336                 :            :     push        rbx
    1337                 :            : %ifndef LINUX
    1338                 :            :     push        rsi
    1339                 :            :     push        rdi
    1340                 :            : %endif
    1341                 :            :     push        rbp
    1342                 :            :     push        r13
    1343                 :            :     push        r14
    1344                 :            :     push        r15
    1345                 :            : 
    1346                 :            :     sub rsp,STACK_SIZE
    1347                 :            : %ifndef LINUX
    1348                 :            :     movdqa      [rsp + _XMM_SAVE + 0*16],xmm6   
    1349                 :            :     movdqa      [rsp + _XMM_SAVE + 1*16],xmm7
    1350                 :            :     movdqa      [rsp + _XMM_SAVE + 2*16],xmm8   
    1351                 :            :     movdqa      [rsp + _XMM_SAVE + 3*16],xmm9   
    1352                 :            :     movdqa      [rsp + _XMM_SAVE + 4*16],xmm10
    1353                 :            :     movdqa      [rsp + _XMM_SAVE + 5*16],xmm11
    1354                 :            :     movdqa      [rsp + _XMM_SAVE + 6*16],xmm12
    1355                 :            : %endif
    1356                 :            : 
    1357                 :            :     shl NUM_BLKS, 6     ; convert to bytes
    1358                 :            :     jz  done_hash
    1359                 :            :     add NUM_BLKS, INP   ; pointer to end of data
    1360                 :            :     mov [rsp + _INP_END], NUM_BLKS
    1361                 :            : 
    1362                 :            :     ;; load initial digest
    1363                 :            :     mov a,[4*0 + CTX]
    1364                 :            :     mov b,[4*1 + CTX]
    1365                 :            :     mov c,[4*2 + CTX]
    1366                 :            :     mov d,[4*3 + CTX]
    1367                 :            :     mov e,[4*4 + CTX]
    1368                 :            :     mov f,[4*5 + CTX]
    1369                 :            :     mov g,[4*6 + CTX]
    1370                 :            :     mov h,[4*7 + CTX]
    1371                 :            : 
    1372                 :            :     movdqa      BYTE_FLIP_MASK, [PSHUFFLE_BYTE_FLIP_MASK wrt rip]
    1373                 :            :     movdqa      SHUF_00BA, [_SHUF_00BA wrt rip]
    1374                 :            :     movdqa      SHUF_DC00, [_SHUF_DC00 wrt rip]
    1375                 :            : 
    1376                 :            : loop0:
    1377                 :            :     lea TBL,[K256 wrt rip]
    1378                 :            : 
    1379                 :            :     ;; byte swap first 16 dwords
    1380                 :            :     COPY_XMM_AND_BSWAP  X0, [INP + 0*16], BYTE_FLIP_MASK
    1381                 :            :     COPY_XMM_AND_BSWAP  X1, [INP + 1*16], BYTE_FLIP_MASK
    1382                 :            :     COPY_XMM_AND_BSWAP  X2, [INP + 2*16], BYTE_FLIP_MASK
    1383                 :            :     COPY_XMM_AND_BSWAP  X3, [INP + 3*16], BYTE_FLIP_MASK
    1384                 :            :     
    1385                 :            :     mov [rsp + _INP], INP
    1386                 :            : 
    1387                 :            :     ;; schedule 48 input dwords, by doing 3 rounds of 16 each
    1388                 :            :     mov SRND, 3
    1389                 :            : align 16
    1390                 :            : loop1:
    1391                 :            :     movdqa      XFER, [TBL + 0*16]
    1392                 :            :     paddd       XFER, X0
    1393                 :            :     movdqa      [rsp + _XFER], XFER
    1394                 :            :     FOUR_ROUNDS_AND_SCHED
    1395                 :            : 
    1396                 :            :     movdqa      XFER, [TBL + 1*16]
    1397                 :            :     paddd       XFER, X0
    1398                 :            :     movdqa      [rsp + _XFER], XFER
    1399                 :            :     FOUR_ROUNDS_AND_SCHED
    1400                 :            : 
    1401                 :            :     movdqa      XFER, [TBL + 2*16]
    1402                 :            :     paddd       XFER, X0
    1403                 :            :     movdqa      [rsp + _XFER], XFER
    1404                 :            :     FOUR_ROUNDS_AND_SCHED
    1405                 :            : 
    1406                 :            :     movdqa      XFER, [TBL + 3*16]
    1407                 :            :     paddd       XFER, X0
    1408                 :            :     movdqa      [rsp + _XFER], XFER
    1409                 :            :     add TBL, 4*16
    1410                 :            :     FOUR_ROUNDS_AND_SCHED
    1411                 :            : 
    1412                 :            :     sub SRND, 1
    1413                 :            :     jne loop1
    1414                 :            : 
    1415                 :            :     mov SRND, 2
    1416                 :            : loop2:
    1417                 :            :     paddd       X0, [TBL + 0*16]
    1418                 :            :     movdqa      [rsp + _XFER], X0
    1419                 :            :     DO_ROUND    0
    1420                 :            :     DO_ROUND    1
    1421                 :            :     DO_ROUND    2
    1422                 :            :     DO_ROUND    3
    1423                 :            :     paddd       X1, [TBL + 1*16]
    1424                 :            :     movdqa      [rsp + _XFER], X1
    1425                 :            :     add TBL, 2*16
    1426                 :            :     DO_ROUND    0
    1427                 :            :     DO_ROUND    1
    1428                 :            :     DO_ROUND    2
    1429                 :            :     DO_ROUND    3
    1430                 :            : 
    1431                 :            :     movdqa      X0, X2
    1432                 :            :     movdqa      X1, X3
    1433                 :            : 
    1434                 :            :     sub SRND, 1
    1435                 :            :     jne loop2
    1436                 :            : 
    1437                 :            :     addm        [4*0 + CTX],a
    1438                 :            :     addm        [4*1 + CTX],b
    1439                 :            :     addm        [4*2 + CTX],c
    1440                 :            :     addm        [4*3 + CTX],d
    1441                 :            :     addm        [4*4 + CTX],e
    1442                 :            :     addm        [4*5 + CTX],f
    1443                 :            :     addm        [4*6 + CTX],g
    1444                 :            :     addm        [4*7 + CTX],h
    1445                 :            : 
    1446                 :            :     mov INP, [rsp + _INP]
    1447                 :            :     add INP, 64
    1448                 :            :     cmp INP, [rsp + _INP_END]
    1449                 :            :     jne loop0
    1450                 :            : 
    1451                 :            : done_hash:
    1452                 :            : %ifndef LINUX
    1453                 :            :     movdqa      xmm6,[rsp + _XMM_SAVE + 0*16]
    1454                 :            :     movdqa      xmm7,[rsp + _XMM_SAVE + 1*16]
    1455                 :            :     movdqa      xmm8,[rsp + _XMM_SAVE + 2*16]
    1456                 :            :     movdqa      xmm9,[rsp + _XMM_SAVE + 3*16]
    1457                 :            :     movdqa      xmm10,[rsp + _XMM_SAVE + 4*16]
    1458                 :            :     movdqa      xmm11,[rsp + _XMM_SAVE + 5*16]
    1459                 :            :     movdqa      xmm12,[rsp + _XMM_SAVE + 6*16]
    1460                 :            : %endif
    1461                 :            : 
    1462                 :            :     add rsp, STACK_SIZE
    1463                 :            : 
    1464                 :            :     pop r15
    1465                 :            :     pop r14
    1466                 :            :     pop r13
    1467                 :            :     pop rbp
    1468                 :            : %ifndef LINUX
    1469                 :            :     pop rdi
    1470                 :            :     pop rsi
    1471                 :            : %endif
    1472                 :            :     pop rbx
    1473                 :            : 
    1474                 :            :     ret 
    1475                 :            :     
    1476                 :            : 
    1477                 :            : section .data
    1478                 :            : align 64
    1479                 :            : K256:
    1480                 :            :     dd  0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5
    1481                 :            :     dd  0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5
    1482                 :            :     dd  0xd807aa98,0x12835b01,0x243185be,0x550c7dc3
    1483                 :            :     dd  0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174
    1484                 :            :     dd  0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc
    1485                 :            :     dd  0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da
    1486                 :            :     dd  0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7
    1487                 :            :     dd  0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967
    1488                 :            :     dd  0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13
    1489                 :            :     dd  0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85
    1490                 :            :     dd  0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3
    1491                 :            :     dd  0xd192e819,0xd6990624,0xf40e3585,0x106aa070
    1492                 :            :     dd  0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5
    1493                 :            :     dd  0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3
    1494                 :            :     dd  0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208
    1495                 :            :     dd  0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2
    1496                 :            : 
    1497                 :            : PSHUFFLE_BYTE_FLIP_MASK: ddq 0x0c0d0e0f08090a0b0405060700010203
    1498                 :            : 
    1499                 :            : ; shuffle xBxA -> 00BA
    1500                 :            : _SHUF_00BA:              ddq 0xFFFFFFFFFFFFFFFF0b0a090803020100
    1501                 :            : 
    1502                 :            : ; shuffle xDxC -> DC00
    1503                 :            : _SHUF_DC00:              ddq 0x0b0a090803020100FFFFFFFFFFFFFFFF
    1504                 :            : */
    1505                 :            : 
    1506                 :            : #endif

Generated by: LCOV version 1.14