Branch data Line data Source code
1 : : // Copyright (c) 2017-2022 The Bitcoin Core developers
2 : : // Distributed under the MIT software license, see the accompanying
3 : : // file COPYING or http://www.opensource.org/licenses/mit-license.php.
4 : : //
5 : : // This is a translation to GCC extended asm syntax from YASM code by Intel
6 : : // (available at the bottom of this file).
7 : :
8 : : #include <cstdlib>
9 : : #include <stdint.h>
10 : :
11 : : #if defined(__x86_64__) || defined(__amd64__)
12 : :
13 : : namespace sha256_sse4
14 : : {
15 : 0 : void Transform(uint32_t* s, const unsigned char* chunk, size_t blocks)
16 : : {
17 : : static const uint32_t K256 alignas(16) [] = {
18 : : 0x428a2f98, 0x71374491, 0xb5c0fbcf, 0xe9b5dba5,
19 : : 0x3956c25b, 0x59f111f1, 0x923f82a4, 0xab1c5ed5,
20 : : 0xd807aa98, 0x12835b01, 0x243185be, 0x550c7dc3,
21 : : 0x72be5d74, 0x80deb1fe, 0x9bdc06a7, 0xc19bf174,
22 : : 0xe49b69c1, 0xefbe4786, 0x0fc19dc6, 0x240ca1cc,
23 : : 0x2de92c6f, 0x4a7484aa, 0x5cb0a9dc, 0x76f988da,
24 : : 0x983e5152, 0xa831c66d, 0xb00327c8, 0xbf597fc7,
25 : : 0xc6e00bf3, 0xd5a79147, 0x06ca6351, 0x14292967,
26 : : 0x27b70a85, 0x2e1b2138, 0x4d2c6dfc, 0x53380d13,
27 : : 0x650a7354, 0x766a0abb, 0x81c2c92e, 0x92722c85,
28 : : 0xa2bfe8a1, 0xa81a664b, 0xc24b8b70, 0xc76c51a3,
29 : : 0xd192e819, 0xd6990624, 0xf40e3585, 0x106aa070,
30 : : 0x19a4c116, 0x1e376c08, 0x2748774c, 0x34b0bcb5,
31 : : 0x391c0cb3, 0x4ed8aa4a, 0x5b9cca4f, 0x682e6ff3,
32 : : 0x748f82ee, 0x78a5636f, 0x84c87814, 0x8cc70208,
33 : : 0x90befffa, 0xa4506ceb, 0xbef9a3f7, 0xc67178f2,
34 : : };
35 : : static const uint32_t FLIP_MASK alignas(16) [] = {0x00010203, 0x04050607, 0x08090a0b, 0x0c0d0e0f};
36 : : static const uint32_t SHUF_00BA alignas(16) [] = {0x03020100, 0x0b0a0908, 0xffffffff, 0xffffffff};
37 : : static const uint32_t SHUF_DC00 alignas(16) [] = {0xffffffff, 0xffffffff, 0x03020100, 0x0b0a0908};
38 : : uint32_t a, b, c, d, f, g, h, y0, y1, y2;
39 : : uint64_t tbl;
40 : : uint64_t inp_end, inp;
41 : : uint32_t xfer alignas(16) [4];
42 : :
43 : 0 : __asm__ __volatile__(
44 : : "shl $0x6,%2;"
45 : : "je Ldone_hash_%=;"
46 : : "add %1,%2;"
47 : : "mov %2,%14;"
48 : : "mov (%0),%3;"
49 : : "mov 0x4(%0),%4;"
50 : : "mov 0x8(%0),%5;"
51 : : "mov 0xc(%0),%6;"
52 : : "mov 0x10(%0),%k2;"
53 : : "mov 0x14(%0),%7;"
54 : : "mov 0x18(%0),%8;"
55 : : "mov 0x1c(%0),%9;"
56 : : "movdqa %18,%%xmm12;"
57 : : "movdqa %19,%%xmm10;"
58 : : "movdqa %20,%%xmm11;"
59 : :
60 : : "Lloop0_%=:"
61 : : "lea %17,%13;"
62 : : "movdqu (%1),%%xmm4;"
63 : : "pshufb %%xmm12,%%xmm4;"
64 : : "movdqu 0x10(%1),%%xmm5;"
65 : : "pshufb %%xmm12,%%xmm5;"
66 : : "movdqu 0x20(%1),%%xmm6;"
67 : : "pshufb %%xmm12,%%xmm6;"
68 : : "movdqu 0x30(%1),%%xmm7;"
69 : : "pshufb %%xmm12,%%xmm7;"
70 : : "mov %1,%15;"
71 : : "mov $3,%1;"
72 : :
73 : : "Lloop1_%=:"
74 : : "movdqa 0x0(%13),%%xmm9;"
75 : : "paddd %%xmm4,%%xmm9;"
76 : : "movdqa %%xmm9,%16;"
77 : : "movdqa %%xmm7,%%xmm0;"
78 : : "mov %k2,%10;"
79 : : "ror $0xe,%10;"
80 : : "mov %3,%11;"
81 : : "palignr $0x4,%%xmm6,%%xmm0;"
82 : : "ror $0x9,%11;"
83 : : "xor %k2,%10;"
84 : : "mov %7,%12;"
85 : : "ror $0x5,%10;"
86 : : "movdqa %%xmm5,%%xmm1;"
87 : : "xor %3,%11;"
88 : : "xor %8,%12;"
89 : : "paddd %%xmm4,%%xmm0;"
90 : : "xor %k2,%10;"
91 : : "and %k2,%12;"
92 : : "ror $0xb,%11;"
93 : : "palignr $0x4,%%xmm4,%%xmm1;"
94 : : "xor %3,%11;"
95 : : "ror $0x6,%10;"
96 : : "xor %8,%12;"
97 : : "movdqa %%xmm1,%%xmm2;"
98 : : "ror $0x2,%11;"
99 : : "add %10,%12;"
100 : : "add %16,%12;"
101 : : "movdqa %%xmm1,%%xmm3;"
102 : : "mov %3,%10;"
103 : : "add %12,%9;"
104 : : "mov %3,%12;"
105 : : "pslld $0x19,%%xmm1;"
106 : : "or %5,%10;"
107 : : "add %9,%6;"
108 : : "and %5,%12;"
109 : : "psrld $0x7,%%xmm2;"
110 : : "and %4,%10;"
111 : : "add %11,%9;"
112 : : "por %%xmm2,%%xmm1;"
113 : : "or %12,%10;"
114 : : "add %10,%9;"
115 : : "movdqa %%xmm3,%%xmm2;"
116 : : "mov %6,%10;"
117 : : "mov %9,%11;"
118 : : "movdqa %%xmm3,%%xmm8;"
119 : : "ror $0xe,%10;"
120 : : "xor %6,%10;"
121 : : "mov %k2,%12;"
122 : : "ror $0x9,%11;"
123 : : "pslld $0xe,%%xmm3;"
124 : : "xor %9,%11;"
125 : : "ror $0x5,%10;"
126 : : "xor %7,%12;"
127 : : "psrld $0x12,%%xmm2;"
128 : : "ror $0xb,%11;"
129 : : "xor %6,%10;"
130 : : "and %6,%12;"
131 : : "ror $0x6,%10;"
132 : : "pxor %%xmm3,%%xmm1;"
133 : : "xor %9,%11;"
134 : : "xor %7,%12;"
135 : : "psrld $0x3,%%xmm8;"
136 : : "add %10,%12;"
137 : : "add 4+%16,%12;"
138 : : "ror $0x2,%11;"
139 : : "pxor %%xmm2,%%xmm1;"
140 : : "mov %9,%10;"
141 : : "add %12,%8;"
142 : : "mov %9,%12;"
143 : : "pxor %%xmm8,%%xmm1;"
144 : : "or %4,%10;"
145 : : "add %8,%5;"
146 : : "and %4,%12;"
147 : : "pshufd $0xfa,%%xmm7,%%xmm2;"
148 : : "and %3,%10;"
149 : : "add %11,%8;"
150 : : "paddd %%xmm1,%%xmm0;"
151 : : "or %12,%10;"
152 : : "add %10,%8;"
153 : : "movdqa %%xmm2,%%xmm3;"
154 : : "mov %5,%10;"
155 : : "mov %8,%11;"
156 : : "ror $0xe,%10;"
157 : : "movdqa %%xmm2,%%xmm8;"
158 : : "xor %5,%10;"
159 : : "ror $0x9,%11;"
160 : : "mov %6,%12;"
161 : : "xor %8,%11;"
162 : : "ror $0x5,%10;"
163 : : "psrlq $0x11,%%xmm2;"
164 : : "xor %k2,%12;"
165 : : "psrlq $0x13,%%xmm3;"
166 : : "xor %5,%10;"
167 : : "and %5,%12;"
168 : : "psrld $0xa,%%xmm8;"
169 : : "ror $0xb,%11;"
170 : : "xor %8,%11;"
171 : : "xor %k2,%12;"
172 : : "ror $0x6,%10;"
173 : : "pxor %%xmm3,%%xmm2;"
174 : : "add %10,%12;"
175 : : "ror $0x2,%11;"
176 : : "add 8+%16,%12;"
177 : : "pxor %%xmm2,%%xmm8;"
178 : : "mov %8,%10;"
179 : : "add %12,%7;"
180 : : "mov %8,%12;"
181 : : "pshufb %%xmm10,%%xmm8;"
182 : : "or %3,%10;"
183 : : "add %7,%4;"
184 : : "and %3,%12;"
185 : : "paddd %%xmm8,%%xmm0;"
186 : : "and %9,%10;"
187 : : "add %11,%7;"
188 : : "pshufd $0x50,%%xmm0,%%xmm2;"
189 : : "or %12,%10;"
190 : : "add %10,%7;"
191 : : "movdqa %%xmm2,%%xmm3;"
192 : : "mov %4,%10;"
193 : : "ror $0xe,%10;"
194 : : "mov %7,%11;"
195 : : "movdqa %%xmm2,%%xmm4;"
196 : : "ror $0x9,%11;"
197 : : "xor %4,%10;"
198 : : "mov %5,%12;"
199 : : "ror $0x5,%10;"
200 : : "psrlq $0x11,%%xmm2;"
201 : : "xor %7,%11;"
202 : : "xor %6,%12;"
203 : : "psrlq $0x13,%%xmm3;"
204 : : "xor %4,%10;"
205 : : "and %4,%12;"
206 : : "ror $0xb,%11;"
207 : : "psrld $0xa,%%xmm4;"
208 : : "xor %7,%11;"
209 : : "ror $0x6,%10;"
210 : : "xor %6,%12;"
211 : : "pxor %%xmm3,%%xmm2;"
212 : : "ror $0x2,%11;"
213 : : "add %10,%12;"
214 : : "add 12+%16,%12;"
215 : : "pxor %%xmm2,%%xmm4;"
216 : : "mov %7,%10;"
217 : : "add %12,%k2;"
218 : : "mov %7,%12;"
219 : : "pshufb %%xmm11,%%xmm4;"
220 : : "or %9,%10;"
221 : : "add %k2,%3;"
222 : : "and %9,%12;"
223 : : "paddd %%xmm0,%%xmm4;"
224 : : "and %8,%10;"
225 : : "add %11,%k2;"
226 : : "or %12,%10;"
227 : : "add %10,%k2;"
228 : : "movdqa 0x10(%13),%%xmm9;"
229 : : "paddd %%xmm5,%%xmm9;"
230 : : "movdqa %%xmm9,%16;"
231 : : "movdqa %%xmm4,%%xmm0;"
232 : : "mov %3,%10;"
233 : : "ror $0xe,%10;"
234 : : "mov %k2,%11;"
235 : : "palignr $0x4,%%xmm7,%%xmm0;"
236 : : "ror $0x9,%11;"
237 : : "xor %3,%10;"
238 : : "mov %4,%12;"
239 : : "ror $0x5,%10;"
240 : : "movdqa %%xmm6,%%xmm1;"
241 : : "xor %k2,%11;"
242 : : "xor %5,%12;"
243 : : "paddd %%xmm5,%%xmm0;"
244 : : "xor %3,%10;"
245 : : "and %3,%12;"
246 : : "ror $0xb,%11;"
247 : : "palignr $0x4,%%xmm5,%%xmm1;"
248 : : "xor %k2,%11;"
249 : : "ror $0x6,%10;"
250 : : "xor %5,%12;"
251 : : "movdqa %%xmm1,%%xmm2;"
252 : : "ror $0x2,%11;"
253 : : "add %10,%12;"
254 : : "add %16,%12;"
255 : : "movdqa %%xmm1,%%xmm3;"
256 : : "mov %k2,%10;"
257 : : "add %12,%6;"
258 : : "mov %k2,%12;"
259 : : "pslld $0x19,%%xmm1;"
260 : : "or %8,%10;"
261 : : "add %6,%9;"
262 : : "and %8,%12;"
263 : : "psrld $0x7,%%xmm2;"
264 : : "and %7,%10;"
265 : : "add %11,%6;"
266 : : "por %%xmm2,%%xmm1;"
267 : : "or %12,%10;"
268 : : "add %10,%6;"
269 : : "movdqa %%xmm3,%%xmm2;"
270 : : "mov %9,%10;"
271 : : "mov %6,%11;"
272 : : "movdqa %%xmm3,%%xmm8;"
273 : : "ror $0xe,%10;"
274 : : "xor %9,%10;"
275 : : "mov %3,%12;"
276 : : "ror $0x9,%11;"
277 : : "pslld $0xe,%%xmm3;"
278 : : "xor %6,%11;"
279 : : "ror $0x5,%10;"
280 : : "xor %4,%12;"
281 : : "psrld $0x12,%%xmm2;"
282 : : "ror $0xb,%11;"
283 : : "xor %9,%10;"
284 : : "and %9,%12;"
285 : : "ror $0x6,%10;"
286 : : "pxor %%xmm3,%%xmm1;"
287 : : "xor %6,%11;"
288 : : "xor %4,%12;"
289 : : "psrld $0x3,%%xmm8;"
290 : : "add %10,%12;"
291 : : "add 4+%16,%12;"
292 : : "ror $0x2,%11;"
293 : : "pxor %%xmm2,%%xmm1;"
294 : : "mov %6,%10;"
295 : : "add %12,%5;"
296 : : "mov %6,%12;"
297 : : "pxor %%xmm8,%%xmm1;"
298 : : "or %7,%10;"
299 : : "add %5,%8;"
300 : : "and %7,%12;"
301 : : "pshufd $0xfa,%%xmm4,%%xmm2;"
302 : : "and %k2,%10;"
303 : : "add %11,%5;"
304 : : "paddd %%xmm1,%%xmm0;"
305 : : "or %12,%10;"
306 : : "add %10,%5;"
307 : : "movdqa %%xmm2,%%xmm3;"
308 : : "mov %8,%10;"
309 : : "mov %5,%11;"
310 : : "ror $0xe,%10;"
311 : : "movdqa %%xmm2,%%xmm8;"
312 : : "xor %8,%10;"
313 : : "ror $0x9,%11;"
314 : : "mov %9,%12;"
315 : : "xor %5,%11;"
316 : : "ror $0x5,%10;"
317 : : "psrlq $0x11,%%xmm2;"
318 : : "xor %3,%12;"
319 : : "psrlq $0x13,%%xmm3;"
320 : : "xor %8,%10;"
321 : : "and %8,%12;"
322 : : "psrld $0xa,%%xmm8;"
323 : : "ror $0xb,%11;"
324 : : "xor %5,%11;"
325 : : "xor %3,%12;"
326 : : "ror $0x6,%10;"
327 : : "pxor %%xmm3,%%xmm2;"
328 : : "add %10,%12;"
329 : : "ror $0x2,%11;"
330 : : "add 8+%16,%12;"
331 : : "pxor %%xmm2,%%xmm8;"
332 : : "mov %5,%10;"
333 : : "add %12,%4;"
334 : : "mov %5,%12;"
335 : : "pshufb %%xmm10,%%xmm8;"
336 : : "or %k2,%10;"
337 : : "add %4,%7;"
338 : : "and %k2,%12;"
339 : : "paddd %%xmm8,%%xmm0;"
340 : : "and %6,%10;"
341 : : "add %11,%4;"
342 : : "pshufd $0x50,%%xmm0,%%xmm2;"
343 : : "or %12,%10;"
344 : : "add %10,%4;"
345 : : "movdqa %%xmm2,%%xmm3;"
346 : : "mov %7,%10;"
347 : : "ror $0xe,%10;"
348 : : "mov %4,%11;"
349 : : "movdqa %%xmm2,%%xmm5;"
350 : : "ror $0x9,%11;"
351 : : "xor %7,%10;"
352 : : "mov %8,%12;"
353 : : "ror $0x5,%10;"
354 : : "psrlq $0x11,%%xmm2;"
355 : : "xor %4,%11;"
356 : : "xor %9,%12;"
357 : : "psrlq $0x13,%%xmm3;"
358 : : "xor %7,%10;"
359 : : "and %7,%12;"
360 : : "ror $0xb,%11;"
361 : : "psrld $0xa,%%xmm5;"
362 : : "xor %4,%11;"
363 : : "ror $0x6,%10;"
364 : : "xor %9,%12;"
365 : : "pxor %%xmm3,%%xmm2;"
366 : : "ror $0x2,%11;"
367 : : "add %10,%12;"
368 : : "add 12+%16,%12;"
369 : : "pxor %%xmm2,%%xmm5;"
370 : : "mov %4,%10;"
371 : : "add %12,%3;"
372 : : "mov %4,%12;"
373 : : "pshufb %%xmm11,%%xmm5;"
374 : : "or %6,%10;"
375 : : "add %3,%k2;"
376 : : "and %6,%12;"
377 : : "paddd %%xmm0,%%xmm5;"
378 : : "and %5,%10;"
379 : : "add %11,%3;"
380 : : "or %12,%10;"
381 : : "add %10,%3;"
382 : : "movdqa 0x20(%13),%%xmm9;"
383 : : "paddd %%xmm6,%%xmm9;"
384 : : "movdqa %%xmm9,%16;"
385 : : "movdqa %%xmm5,%%xmm0;"
386 : : "mov %k2,%10;"
387 : : "ror $0xe,%10;"
388 : : "mov %3,%11;"
389 : : "palignr $0x4,%%xmm4,%%xmm0;"
390 : : "ror $0x9,%11;"
391 : : "xor %k2,%10;"
392 : : "mov %7,%12;"
393 : : "ror $0x5,%10;"
394 : : "movdqa %%xmm7,%%xmm1;"
395 : : "xor %3,%11;"
396 : : "xor %8,%12;"
397 : : "paddd %%xmm6,%%xmm0;"
398 : : "xor %k2,%10;"
399 : : "and %k2,%12;"
400 : : "ror $0xb,%11;"
401 : : "palignr $0x4,%%xmm6,%%xmm1;"
402 : : "xor %3,%11;"
403 : : "ror $0x6,%10;"
404 : : "xor %8,%12;"
405 : : "movdqa %%xmm1,%%xmm2;"
406 : : "ror $0x2,%11;"
407 : : "add %10,%12;"
408 : : "add %16,%12;"
409 : : "movdqa %%xmm1,%%xmm3;"
410 : : "mov %3,%10;"
411 : : "add %12,%9;"
412 : : "mov %3,%12;"
413 : : "pslld $0x19,%%xmm1;"
414 : : "or %5,%10;"
415 : : "add %9,%6;"
416 : : "and %5,%12;"
417 : : "psrld $0x7,%%xmm2;"
418 : : "and %4,%10;"
419 : : "add %11,%9;"
420 : : "por %%xmm2,%%xmm1;"
421 : : "or %12,%10;"
422 : : "add %10,%9;"
423 : : "movdqa %%xmm3,%%xmm2;"
424 : : "mov %6,%10;"
425 : : "mov %9,%11;"
426 : : "movdqa %%xmm3,%%xmm8;"
427 : : "ror $0xe,%10;"
428 : : "xor %6,%10;"
429 : : "mov %k2,%12;"
430 : : "ror $0x9,%11;"
431 : : "pslld $0xe,%%xmm3;"
432 : : "xor %9,%11;"
433 : : "ror $0x5,%10;"
434 : : "xor %7,%12;"
435 : : "psrld $0x12,%%xmm2;"
436 : : "ror $0xb,%11;"
437 : : "xor %6,%10;"
438 : : "and %6,%12;"
439 : : "ror $0x6,%10;"
440 : : "pxor %%xmm3,%%xmm1;"
441 : : "xor %9,%11;"
442 : : "xor %7,%12;"
443 : : "psrld $0x3,%%xmm8;"
444 : : "add %10,%12;"
445 : : "add 4+%16,%12;"
446 : : "ror $0x2,%11;"
447 : : "pxor %%xmm2,%%xmm1;"
448 : : "mov %9,%10;"
449 : : "add %12,%8;"
450 : : "mov %9,%12;"
451 : : "pxor %%xmm8,%%xmm1;"
452 : : "or %4,%10;"
453 : : "add %8,%5;"
454 : : "and %4,%12;"
455 : : "pshufd $0xfa,%%xmm5,%%xmm2;"
456 : : "and %3,%10;"
457 : : "add %11,%8;"
458 : : "paddd %%xmm1,%%xmm0;"
459 : : "or %12,%10;"
460 : : "add %10,%8;"
461 : : "movdqa %%xmm2,%%xmm3;"
462 : : "mov %5,%10;"
463 : : "mov %8,%11;"
464 : : "ror $0xe,%10;"
465 : : "movdqa %%xmm2,%%xmm8;"
466 : : "xor %5,%10;"
467 : : "ror $0x9,%11;"
468 : : "mov %6,%12;"
469 : : "xor %8,%11;"
470 : : "ror $0x5,%10;"
471 : : "psrlq $0x11,%%xmm2;"
472 : : "xor %k2,%12;"
473 : : "psrlq $0x13,%%xmm3;"
474 : : "xor %5,%10;"
475 : : "and %5,%12;"
476 : : "psrld $0xa,%%xmm8;"
477 : : "ror $0xb,%11;"
478 : : "xor %8,%11;"
479 : : "xor %k2,%12;"
480 : : "ror $0x6,%10;"
481 : : "pxor %%xmm3,%%xmm2;"
482 : : "add %10,%12;"
483 : : "ror $0x2,%11;"
484 : : "add 8+%16,%12;"
485 : : "pxor %%xmm2,%%xmm8;"
486 : : "mov %8,%10;"
487 : : "add %12,%7;"
488 : : "mov %8,%12;"
489 : : "pshufb %%xmm10,%%xmm8;"
490 : : "or %3,%10;"
491 : : "add %7,%4;"
492 : : "and %3,%12;"
493 : : "paddd %%xmm8,%%xmm0;"
494 : : "and %9,%10;"
495 : : "add %11,%7;"
496 : : "pshufd $0x50,%%xmm0,%%xmm2;"
497 : : "or %12,%10;"
498 : : "add %10,%7;"
499 : : "movdqa %%xmm2,%%xmm3;"
500 : : "mov %4,%10;"
501 : : "ror $0xe,%10;"
502 : : "mov %7,%11;"
503 : : "movdqa %%xmm2,%%xmm6;"
504 : : "ror $0x9,%11;"
505 : : "xor %4,%10;"
506 : : "mov %5,%12;"
507 : : "ror $0x5,%10;"
508 : : "psrlq $0x11,%%xmm2;"
509 : : "xor %7,%11;"
510 : : "xor %6,%12;"
511 : : "psrlq $0x13,%%xmm3;"
512 : : "xor %4,%10;"
513 : : "and %4,%12;"
514 : : "ror $0xb,%11;"
515 : : "psrld $0xa,%%xmm6;"
516 : : "xor %7,%11;"
517 : : "ror $0x6,%10;"
518 : : "xor %6,%12;"
519 : : "pxor %%xmm3,%%xmm2;"
520 : : "ror $0x2,%11;"
521 : : "add %10,%12;"
522 : : "add 12+%16,%12;"
523 : : "pxor %%xmm2,%%xmm6;"
524 : : "mov %7,%10;"
525 : : "add %12,%k2;"
526 : : "mov %7,%12;"
527 : : "pshufb %%xmm11,%%xmm6;"
528 : : "or %9,%10;"
529 : : "add %k2,%3;"
530 : : "and %9,%12;"
531 : : "paddd %%xmm0,%%xmm6;"
532 : : "and %8,%10;"
533 : : "add %11,%k2;"
534 : : "or %12,%10;"
535 : : "add %10,%k2;"
536 : : "movdqa 0x30(%13),%%xmm9;"
537 : : "paddd %%xmm7,%%xmm9;"
538 : : "movdqa %%xmm9,%16;"
539 : : "add $0x40,%13;"
540 : : "movdqa %%xmm6,%%xmm0;"
541 : : "mov %3,%10;"
542 : : "ror $0xe,%10;"
543 : : "mov %k2,%11;"
544 : : "palignr $0x4,%%xmm5,%%xmm0;"
545 : : "ror $0x9,%11;"
546 : : "xor %3,%10;"
547 : : "mov %4,%12;"
548 : : "ror $0x5,%10;"
549 : : "movdqa %%xmm4,%%xmm1;"
550 : : "xor %k2,%11;"
551 : : "xor %5,%12;"
552 : : "paddd %%xmm7,%%xmm0;"
553 : : "xor %3,%10;"
554 : : "and %3,%12;"
555 : : "ror $0xb,%11;"
556 : : "palignr $0x4,%%xmm7,%%xmm1;"
557 : : "xor %k2,%11;"
558 : : "ror $0x6,%10;"
559 : : "xor %5,%12;"
560 : : "movdqa %%xmm1,%%xmm2;"
561 : : "ror $0x2,%11;"
562 : : "add %10,%12;"
563 : : "add %16,%12;"
564 : : "movdqa %%xmm1,%%xmm3;"
565 : : "mov %k2,%10;"
566 : : "add %12,%6;"
567 : : "mov %k2,%12;"
568 : : "pslld $0x19,%%xmm1;"
569 : : "or %8,%10;"
570 : : "add %6,%9;"
571 : : "and %8,%12;"
572 : : "psrld $0x7,%%xmm2;"
573 : : "and %7,%10;"
574 : : "add %11,%6;"
575 : : "por %%xmm2,%%xmm1;"
576 : : "or %12,%10;"
577 : : "add %10,%6;"
578 : : "movdqa %%xmm3,%%xmm2;"
579 : : "mov %9,%10;"
580 : : "mov %6,%11;"
581 : : "movdqa %%xmm3,%%xmm8;"
582 : : "ror $0xe,%10;"
583 : : "xor %9,%10;"
584 : : "mov %3,%12;"
585 : : "ror $0x9,%11;"
586 : : "pslld $0xe,%%xmm3;"
587 : : "xor %6,%11;"
588 : : "ror $0x5,%10;"
589 : : "xor %4,%12;"
590 : : "psrld $0x12,%%xmm2;"
591 : : "ror $0xb,%11;"
592 : : "xor %9,%10;"
593 : : "and %9,%12;"
594 : : "ror $0x6,%10;"
595 : : "pxor %%xmm3,%%xmm1;"
596 : : "xor %6,%11;"
597 : : "xor %4,%12;"
598 : : "psrld $0x3,%%xmm8;"
599 : : "add %10,%12;"
600 : : "add 4+%16,%12;"
601 : : "ror $0x2,%11;"
602 : : "pxor %%xmm2,%%xmm1;"
603 : : "mov %6,%10;"
604 : : "add %12,%5;"
605 : : "mov %6,%12;"
606 : : "pxor %%xmm8,%%xmm1;"
607 : : "or %7,%10;"
608 : : "add %5,%8;"
609 : : "and %7,%12;"
610 : : "pshufd $0xfa,%%xmm6,%%xmm2;"
611 : : "and %k2,%10;"
612 : : "add %11,%5;"
613 : : "paddd %%xmm1,%%xmm0;"
614 : : "or %12,%10;"
615 : : "add %10,%5;"
616 : : "movdqa %%xmm2,%%xmm3;"
617 : : "mov %8,%10;"
618 : : "mov %5,%11;"
619 : : "ror $0xe,%10;"
620 : : "movdqa %%xmm2,%%xmm8;"
621 : : "xor %8,%10;"
622 : : "ror $0x9,%11;"
623 : : "mov %9,%12;"
624 : : "xor %5,%11;"
625 : : "ror $0x5,%10;"
626 : : "psrlq $0x11,%%xmm2;"
627 : : "xor %3,%12;"
628 : : "psrlq $0x13,%%xmm3;"
629 : : "xor %8,%10;"
630 : : "and %8,%12;"
631 : : "psrld $0xa,%%xmm8;"
632 : : "ror $0xb,%11;"
633 : : "xor %5,%11;"
634 : : "xor %3,%12;"
635 : : "ror $0x6,%10;"
636 : : "pxor %%xmm3,%%xmm2;"
637 : : "add %10,%12;"
638 : : "ror $0x2,%11;"
639 : : "add 8+%16,%12;"
640 : : "pxor %%xmm2,%%xmm8;"
641 : : "mov %5,%10;"
642 : : "add %12,%4;"
643 : : "mov %5,%12;"
644 : : "pshufb %%xmm10,%%xmm8;"
645 : : "or %k2,%10;"
646 : : "add %4,%7;"
647 : : "and %k2,%12;"
648 : : "paddd %%xmm8,%%xmm0;"
649 : : "and %6,%10;"
650 : : "add %11,%4;"
651 : : "pshufd $0x50,%%xmm0,%%xmm2;"
652 : : "or %12,%10;"
653 : : "add %10,%4;"
654 : : "movdqa %%xmm2,%%xmm3;"
655 : : "mov %7,%10;"
656 : : "ror $0xe,%10;"
657 : : "mov %4,%11;"
658 : : "movdqa %%xmm2,%%xmm7;"
659 : : "ror $0x9,%11;"
660 : : "xor %7,%10;"
661 : : "mov %8,%12;"
662 : : "ror $0x5,%10;"
663 : : "psrlq $0x11,%%xmm2;"
664 : : "xor %4,%11;"
665 : : "xor %9,%12;"
666 : : "psrlq $0x13,%%xmm3;"
667 : : "xor %7,%10;"
668 : : "and %7,%12;"
669 : : "ror $0xb,%11;"
670 : : "psrld $0xa,%%xmm7;"
671 : : "xor %4,%11;"
672 : : "ror $0x6,%10;"
673 : : "xor %9,%12;"
674 : : "pxor %%xmm3,%%xmm2;"
675 : : "ror $0x2,%11;"
676 : : "add %10,%12;"
677 : : "add 12+%16,%12;"
678 : : "pxor %%xmm2,%%xmm7;"
679 : : "mov %4,%10;"
680 : : "add %12,%3;"
681 : : "mov %4,%12;"
682 : : "pshufb %%xmm11,%%xmm7;"
683 : : "or %6,%10;"
684 : : "add %3,%k2;"
685 : : "and %6,%12;"
686 : : "paddd %%xmm0,%%xmm7;"
687 : : "and %5,%10;"
688 : : "add %11,%3;"
689 : : "or %12,%10;"
690 : : "add %10,%3;"
691 : : "sub $0x1,%1;"
692 : : "jne Lloop1_%=;"
693 : : "mov $0x2,%1;"
694 : :
695 : : "Lloop2_%=:"
696 : : "paddd 0x0(%13),%%xmm4;"
697 : : "movdqa %%xmm4,%16;"
698 : : "mov %k2,%10;"
699 : : "ror $0xe,%10;"
700 : : "mov %3,%11;"
701 : : "xor %k2,%10;"
702 : : "ror $0x9,%11;"
703 : : "mov %7,%12;"
704 : : "xor %3,%11;"
705 : : "ror $0x5,%10;"
706 : : "xor %8,%12;"
707 : : "xor %k2,%10;"
708 : : "ror $0xb,%11;"
709 : : "and %k2,%12;"
710 : : "xor %3,%11;"
711 : : "ror $0x6,%10;"
712 : : "xor %8,%12;"
713 : : "add %10,%12;"
714 : : "ror $0x2,%11;"
715 : : "add %16,%12;"
716 : : "mov %3,%10;"
717 : : "add %12,%9;"
718 : : "mov %3,%12;"
719 : : "or %5,%10;"
720 : : "add %9,%6;"
721 : : "and %5,%12;"
722 : : "and %4,%10;"
723 : : "add %11,%9;"
724 : : "or %12,%10;"
725 : : "add %10,%9;"
726 : : "mov %6,%10;"
727 : : "ror $0xe,%10;"
728 : : "mov %9,%11;"
729 : : "xor %6,%10;"
730 : : "ror $0x9,%11;"
731 : : "mov %k2,%12;"
732 : : "xor %9,%11;"
733 : : "ror $0x5,%10;"
734 : : "xor %7,%12;"
735 : : "xor %6,%10;"
736 : : "ror $0xb,%11;"
737 : : "and %6,%12;"
738 : : "xor %9,%11;"
739 : : "ror $0x6,%10;"
740 : : "xor %7,%12;"
741 : : "add %10,%12;"
742 : : "ror $0x2,%11;"
743 : : "add 4+%16,%12;"
744 : : "mov %9,%10;"
745 : : "add %12,%8;"
746 : : "mov %9,%12;"
747 : : "or %4,%10;"
748 : : "add %8,%5;"
749 : : "and %4,%12;"
750 : : "and %3,%10;"
751 : : "add %11,%8;"
752 : : "or %12,%10;"
753 : : "add %10,%8;"
754 : : "mov %5,%10;"
755 : : "ror $0xe,%10;"
756 : : "mov %8,%11;"
757 : : "xor %5,%10;"
758 : : "ror $0x9,%11;"
759 : : "mov %6,%12;"
760 : : "xor %8,%11;"
761 : : "ror $0x5,%10;"
762 : : "xor %k2,%12;"
763 : : "xor %5,%10;"
764 : : "ror $0xb,%11;"
765 : : "and %5,%12;"
766 : : "xor %8,%11;"
767 : : "ror $0x6,%10;"
768 : : "xor %k2,%12;"
769 : : "add %10,%12;"
770 : : "ror $0x2,%11;"
771 : : "add 8+%16,%12;"
772 : : "mov %8,%10;"
773 : : "add %12,%7;"
774 : : "mov %8,%12;"
775 : : "or %3,%10;"
776 : : "add %7,%4;"
777 : : "and %3,%12;"
778 : : "and %9,%10;"
779 : : "add %11,%7;"
780 : : "or %12,%10;"
781 : : "add %10,%7;"
782 : : "mov %4,%10;"
783 : : "ror $0xe,%10;"
784 : : "mov %7,%11;"
785 : : "xor %4,%10;"
786 : : "ror $0x9,%11;"
787 : : "mov %5,%12;"
788 : : "xor %7,%11;"
789 : : "ror $0x5,%10;"
790 : : "xor %6,%12;"
791 : : "xor %4,%10;"
792 : : "ror $0xb,%11;"
793 : : "and %4,%12;"
794 : : "xor %7,%11;"
795 : : "ror $0x6,%10;"
796 : : "xor %6,%12;"
797 : : "add %10,%12;"
798 : : "ror $0x2,%11;"
799 : : "add 12+%16,%12;"
800 : : "mov %7,%10;"
801 : : "add %12,%k2;"
802 : : "mov %7,%12;"
803 : : "or %9,%10;"
804 : : "add %k2,%3;"
805 : : "and %9,%12;"
806 : : "and %8,%10;"
807 : : "add %11,%k2;"
808 : : "or %12,%10;"
809 : : "add %10,%k2;"
810 : : "paddd 0x10(%13),%%xmm5;"
811 : : "movdqa %%xmm5,%16;"
812 : : "add $0x20,%13;"
813 : : "mov %3,%10;"
814 : : "ror $0xe,%10;"
815 : : "mov %k2,%11;"
816 : : "xor %3,%10;"
817 : : "ror $0x9,%11;"
818 : : "mov %4,%12;"
819 : : "xor %k2,%11;"
820 : : "ror $0x5,%10;"
821 : : "xor %5,%12;"
822 : : "xor %3,%10;"
823 : : "ror $0xb,%11;"
824 : : "and %3,%12;"
825 : : "xor %k2,%11;"
826 : : "ror $0x6,%10;"
827 : : "xor %5,%12;"
828 : : "add %10,%12;"
829 : : "ror $0x2,%11;"
830 : : "add %16,%12;"
831 : : "mov %k2,%10;"
832 : : "add %12,%6;"
833 : : "mov %k2,%12;"
834 : : "or %8,%10;"
835 : : "add %6,%9;"
836 : : "and %8,%12;"
837 : : "and %7,%10;"
838 : : "add %11,%6;"
839 : : "or %12,%10;"
840 : : "add %10,%6;"
841 : : "mov %9,%10;"
842 : : "ror $0xe,%10;"
843 : : "mov %6,%11;"
844 : : "xor %9,%10;"
845 : : "ror $0x9,%11;"
846 : : "mov %3,%12;"
847 : : "xor %6,%11;"
848 : : "ror $0x5,%10;"
849 : : "xor %4,%12;"
850 : : "xor %9,%10;"
851 : : "ror $0xb,%11;"
852 : : "and %9,%12;"
853 : : "xor %6,%11;"
854 : : "ror $0x6,%10;"
855 : : "xor %4,%12;"
856 : : "add %10,%12;"
857 : : "ror $0x2,%11;"
858 : : "add 4+%16,%12;"
859 : : "mov %6,%10;"
860 : : "add %12,%5;"
861 : : "mov %6,%12;"
862 : : "or %7,%10;"
863 : : "add %5,%8;"
864 : : "and %7,%12;"
865 : : "and %k2,%10;"
866 : : "add %11,%5;"
867 : : "or %12,%10;"
868 : : "add %10,%5;"
869 : : "mov %8,%10;"
870 : : "ror $0xe,%10;"
871 : : "mov %5,%11;"
872 : : "xor %8,%10;"
873 : : "ror $0x9,%11;"
874 : : "mov %9,%12;"
875 : : "xor %5,%11;"
876 : : "ror $0x5,%10;"
877 : : "xor %3,%12;"
878 : : "xor %8,%10;"
879 : : "ror $0xb,%11;"
880 : : "and %8,%12;"
881 : : "xor %5,%11;"
882 : : "ror $0x6,%10;"
883 : : "xor %3,%12;"
884 : : "add %10,%12;"
885 : : "ror $0x2,%11;"
886 : : "add 8+%16,%12;"
887 : : "mov %5,%10;"
888 : : "add %12,%4;"
889 : : "mov %5,%12;"
890 : : "or %k2,%10;"
891 : : "add %4,%7;"
892 : : "and %k2,%12;"
893 : : "and %6,%10;"
894 : : "add %11,%4;"
895 : : "or %12,%10;"
896 : : "add %10,%4;"
897 : : "mov %7,%10;"
898 : : "ror $0xe,%10;"
899 : : "mov %4,%11;"
900 : : "xor %7,%10;"
901 : : "ror $0x9,%11;"
902 : : "mov %8,%12;"
903 : : "xor %4,%11;"
904 : : "ror $0x5,%10;"
905 : : "xor %9,%12;"
906 : : "xor %7,%10;"
907 : : "ror $0xb,%11;"
908 : : "and %7,%12;"
909 : : "xor %4,%11;"
910 : : "ror $0x6,%10;"
911 : : "xor %9,%12;"
912 : : "add %10,%12;"
913 : : "ror $0x2,%11;"
914 : : "add 12+%16,%12;"
915 : : "mov %4,%10;"
916 : : "add %12,%3;"
917 : : "mov %4,%12;"
918 : : "or %6,%10;"
919 : : "add %3,%k2;"
920 : : "and %6,%12;"
921 : : "and %5,%10;"
922 : : "add %11,%3;"
923 : : "or %12,%10;"
924 : : "add %10,%3;"
925 : : "movdqa %%xmm6,%%xmm4;"
926 : : "movdqa %%xmm7,%%xmm5;"
927 : : "sub $0x1,%1;"
928 : : "jne Lloop2_%=;"
929 : : "add (%0),%3;"
930 : : "mov %3,(%0);"
931 : : "add 0x4(%0),%4;"
932 : : "mov %4,0x4(%0);"
933 : : "add 0x8(%0),%5;"
934 : : "mov %5,0x8(%0);"
935 : : "add 0xc(%0),%6;"
936 : : "mov %6,0xc(%0);"
937 : : "add 0x10(%0),%k2;"
938 : : "mov %k2,0x10(%0);"
939 : : "add 0x14(%0),%7;"
940 : : "mov %7,0x14(%0);"
941 : : "add 0x18(%0),%8;"
942 : : "mov %8,0x18(%0);"
943 : : "add 0x1c(%0),%9;"
944 : : "mov %9,0x1c(%0);"
945 : : "mov %15,%1;"
946 : : "add $0x40,%1;"
947 : : "cmp %14,%1;"
948 : : "jne Lloop0_%=;"
949 : :
950 : : "Ldone_hash_%=:"
951 : :
952 : : : "+r"(s), "+r"(chunk), "+r"(blocks), "=r"(a), "=r"(b), "=r"(c), "=r"(d), /* e = chunk */ "=r"(f), "=r"(g), "=r"(h), "=r"(y0), "=r"(y1), "=r"(y2), "=r"(tbl), "+m"(inp_end), "+m"(inp), "+m"(xfer)
953 : : : "m"(K256), "m"(FLIP_MASK), "m"(SHUF_00BA), "m"(SHUF_DC00)
954 : : : "cc", "memory", "xmm0", "xmm1", "xmm2", "xmm3", "xmm4", "xmm5", "xmm6", "xmm7", "xmm8", "xmm9", "xmm10", "xmm11", "xmm12"
955 : : );
956 : 0 : }
957 : : }
958 : :
959 : : /*
960 : : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
961 : : ; Copyright (c) 2012, Intel Corporation
962 : : ;
963 : : ; All rights reserved.
964 : : ;
965 : : ; Redistribution and use in source and binary forms, with or without
966 : : ; modification, are permitted provided that the following conditions are
967 : : ; met:
968 : : ;
969 : : ; * Redistributions of source code must retain the above copyright
970 : : ; notice, this list of conditions and the following disclaimer.
971 : : ;
972 : : ; * Redistributions in binary form must reproduce the above copyright
973 : : ; notice, this list of conditions and the following disclaimer in the
974 : : ; documentation and/or other materials provided with the
975 : : ; distribution.
976 : : ;
977 : : ; * Neither the name of the Intel Corporation nor the names of its
978 : : ; contributors may be used to endorse or promote products derived from
979 : : ; this software without specific prior written permission.
980 : : ;
981 : : ;
982 : : ; THIS SOFTWARE IS PROVIDED BY INTEL CORPORATION "AS IS" AND ANY
983 : : ; EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
984 : : ; IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
985 : : ; PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL INTEL CORPORATION OR
986 : : ; CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
987 : : ; EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
988 : : ; PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
989 : : ; PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF
990 : : ; LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING
991 : : ; NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS
992 : : ; SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
993 : : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
994 : : ;
995 : : ; Example YASM command lines:
996 : : ; Windows: yasm -Xvc -f x64 -rnasm -pnasm -o sha256_sse4.obj -g cv8 sha256_sse4.asm
997 : : ; Linux: yasm -f x64 -f elf64 -X gnu -g dwarf2 -D LINUX -o sha256_sse4.o sha256_sse4.asm
998 : : ;
999 : : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
1000 : : ;
1001 : : ; This code is described in an Intel White-Paper:
1002 : : ; "Fast SHA-256 Implementations on Intel Architecture Processors"
1003 : : ;
1004 : : ; To find it, surf to https://www.intel.com/p/en_US/embedded
1005 : : ; and search for that title.
1006 : : ; The paper is expected to be released roughly at the end of April, 2012
1007 : : ;
1008 : : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
1009 : : ; This code schedules 1 blocks at a time, with 4 lanes per block
1010 : : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
1011 : :
1012 : : %define MOVDQ movdqu ;; assume buffers not aligned
1013 : :
1014 : : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; Define Macros
1015 : :
1016 : : ; addm [mem], reg
1017 : : ; Add reg to mem using reg-mem add and store
1018 : : %macro addm 2
1019 : : add %2, %1
1020 : : mov %1, %2
1021 : : %endm
1022 : :
1023 : : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
1024 : :
1025 : : ; COPY_XMM_AND_BSWAP xmm, [mem], byte_flip_mask
1026 : : ; Load xmm with mem and byte swap each dword
1027 : : %macro COPY_XMM_AND_BSWAP 3
1028 : : MOVDQ %1, %2
1029 : : pshufb %1, %3
1030 : : %endmacro
1031 : :
1032 : : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
1033 : :
1034 : : %define X0 xmm4
1035 : : %define X1 xmm5
1036 : : %define X2 xmm6
1037 : : %define X3 xmm7
1038 : :
1039 : : %define XTMP0 xmm0
1040 : : %define XTMP1 xmm1
1041 : : %define XTMP2 xmm2
1042 : : %define XTMP3 xmm3
1043 : : %define XTMP4 xmm8
1044 : : %define XFER xmm9
1045 : :
1046 : : %define SHUF_00BA xmm10 ; shuffle xBxA -> 00BA
1047 : : %define SHUF_DC00 xmm11 ; shuffle xDxC -> DC00
1048 : : %define BYTE_FLIP_MASK xmm12
1049 : :
1050 : : %ifdef LINUX
1051 : : %define NUM_BLKS rdx ; 3rd arg
1052 : : %define CTX rsi ; 2nd arg
1053 : : %define INP rdi ; 1st arg
1054 : :
1055 : : %define SRND rdi ; clobbers INP
1056 : : %define c ecx
1057 : : %define d r8d
1058 : : %define e edx
1059 : : %else
1060 : : %define NUM_BLKS r8 ; 3rd arg
1061 : : %define CTX rdx ; 2nd arg
1062 : : %define INP rcx ; 1st arg
1063 : :
1064 : : %define SRND rcx ; clobbers INP
1065 : : %define c edi
1066 : : %define d esi
1067 : : %define e r8d
1068 : :
1069 : : %endif
1070 : : %define TBL rbp
1071 : : %define a eax
1072 : : %define b ebx
1073 : :
1074 : : %define f r9d
1075 : : %define g r10d
1076 : : %define h r11d
1077 : :
1078 : : %define y0 r13d
1079 : : %define y1 r14d
1080 : : %define y2 r15d
1081 : :
1082 : :
1083 : :
1084 : : _INP_END_SIZE equ 8
1085 : : _INP_SIZE equ 8
1086 : : _XFER_SIZE equ 8
1087 : : %ifdef LINUX
1088 : : _XMM_SAVE_SIZE equ 0
1089 : : %else
1090 : : _XMM_SAVE_SIZE equ 7*16
1091 : : %endif
1092 : : ; STACK_SIZE plus pushes must be an odd multiple of 8
1093 : : _ALIGN_SIZE equ 8
1094 : :
1095 : : _INP_END equ 0
1096 : : _INP equ _INP_END + _INP_END_SIZE
1097 : : _XFER equ _INP + _INP_SIZE
1098 : : _XMM_SAVE equ _XFER + _XFER_SIZE + _ALIGN_SIZE
1099 : : STACK_SIZE equ _XMM_SAVE + _XMM_SAVE_SIZE
1100 : :
1101 : : ; rotate_Xs
1102 : : ; Rotate values of symbols X0...X3
1103 : : %macro rotate_Xs 0
1104 : : %xdefine X_ X0
1105 : : %xdefine X0 X1
1106 : : %xdefine X1 X2
1107 : : %xdefine X2 X3
1108 : : %xdefine X3 X_
1109 : : %endm
1110 : :
1111 : : ; ROTATE_ARGS
1112 : : ; Rotate values of symbols a...h
1113 : : %macro ROTATE_ARGS 0
1114 : : %xdefine TMP_ h
1115 : : %xdefine h g
1116 : : %xdefine g f
1117 : : %xdefine f e
1118 : : %xdefine e d
1119 : : %xdefine d c
1120 : : %xdefine c b
1121 : : %xdefine b a
1122 : : %xdefine a TMP_
1123 : : %endm
1124 : :
1125 : : %macro FOUR_ROUNDS_AND_SCHED 0
1126 : : ;; compute s0 four at a time and s1 two at a time
1127 : : ;; compute W[-16] + W[-7] 4 at a time
1128 : : movdqa XTMP0, X3
1129 : : mov y0, e ; y0 = e
1130 : : ror y0, (25-11) ; y0 = e >> (25-11)
1131 : : mov y1, a ; y1 = a
1132 : : palignr XTMP0, X2, 4 ; XTMP0 = W[-7]
1133 : : ror y1, (22-13) ; y1 = a >> (22-13)
1134 : : xor y0, e ; y0 = e ^ (e >> (25-11))
1135 : : mov y2, f ; y2 = f
1136 : : ror y0, (11-6) ; y0 = (e >> (11-6)) ^ (e >> (25-6))
1137 : : movdqa XTMP1, X1
1138 : : xor y1, a ; y1 = a ^ (a >> (22-13)
1139 : : xor y2, g ; y2 = f^g
1140 : : paddd XTMP0, X0 ; XTMP0 = W[-7] + W[-16]
1141 : : xor y0, e ; y0 = e ^ (e >> (11-6)) ^ (e >> (25-6))
1142 : : and y2, e ; y2 = (f^g)&e
1143 : : ror y1, (13-2) ; y1 = (a >> (13-2)) ^ (a >> (22-2))
1144 : : ;; compute s0
1145 : : palignr XTMP1, X0, 4 ; XTMP1 = W[-15]
1146 : : xor y1, a ; y1 = a ^ (a >> (13-2)) ^ (a >> (22-2))
1147 : : ror y0, 6 ; y0 = S1 = (e>>6) & (e>>11) ^ (e>>25)
1148 : : xor y2, g ; y2 = CH = ((f^g)&e)^g
1149 : : movdqa XTMP2, XTMP1 ; XTMP2 = W[-15]
1150 : : ror y1, 2 ; y1 = S0 = (a>>2) ^ (a>>13) ^ (a>>22)
1151 : : add y2, y0 ; y2 = S1 + CH
1152 : : add y2, [rsp + _XFER + 0*4] ; y2 = k + w + S1 + CH
1153 : : movdqa XTMP3, XTMP1 ; XTMP3 = W[-15]
1154 : : mov y0, a ; y0 = a
1155 : : add h, y2 ; h = h + S1 + CH + k + w
1156 : : mov y2, a ; y2 = a
1157 : : pslld XTMP1, (32-7)
1158 : : or y0, c ; y0 = a|c
1159 : : add d, h ; d = d + h + S1 + CH + k + w
1160 : : and y2, c ; y2 = a&c
1161 : : psrld XTMP2, 7
1162 : : and y0, b ; y0 = (a|c)&b
1163 : : add h, y1 ; h = h + S1 + CH + k + w + S0
1164 : : por XTMP1, XTMP2 ; XTMP1 = W[-15] ror 7
1165 : : or y0, y2 ; y0 = MAJ = (a|c)&b)|(a&c)
1166 : : add h, y0 ; h = h + S1 + CH + k + w + S0 + MAJ
1167 : :
1168 : : ROTATE_ARGS
1169 : : movdqa XTMP2, XTMP3 ; XTMP2 = W[-15]
1170 : : mov y0, e ; y0 = e
1171 : : mov y1, a ; y1 = a
1172 : : movdqa XTMP4, XTMP3 ; XTMP4 = W[-15]
1173 : : ror y0, (25-11) ; y0 = e >> (25-11)
1174 : : xor y0, e ; y0 = e ^ (e >> (25-11))
1175 : : mov y2, f ; y2 = f
1176 : : ror y1, (22-13) ; y1 = a >> (22-13)
1177 : : pslld XTMP3, (32-18)
1178 : : xor y1, a ; y1 = a ^ (a >> (22-13)
1179 : : ror y0, (11-6) ; y0 = (e >> (11-6)) ^ (e >> (25-6))
1180 : : xor y2, g ; y2 = f^g
1181 : : psrld XTMP2, 18
1182 : : ror y1, (13-2) ; y1 = (a >> (13-2)) ^ (a >> (22-2))
1183 : : xor y0, e ; y0 = e ^ (e >> (11-6)) ^ (e >> (25-6))
1184 : : and y2, e ; y2 = (f^g)&e
1185 : : ror y0, 6 ; y0 = S1 = (e>>6) & (e>>11) ^ (e>>25)
1186 : : pxor XTMP1, XTMP3
1187 : : xor y1, a ; y1 = a ^ (a >> (13-2)) ^ (a >> (22-2))
1188 : : xor y2, g ; y2 = CH = ((f^g)&e)^g
1189 : : psrld XTMP4, 3 ; XTMP4 = W[-15] >> 3
1190 : : add y2, y0 ; y2 = S1 + CH
1191 : : add y2, [rsp + _XFER + 1*4] ; y2 = k + w + S1 + CH
1192 : : ror y1, 2 ; y1 = S0 = (a>>2) ^ (a>>13) ^ (a>>22)
1193 : : pxor XTMP1, XTMP2 ; XTMP1 = W[-15] ror 7 ^ W[-15] ror 18
1194 : : mov y0, a ; y0 = a
1195 : : add h, y2 ; h = h + S1 + CH + k + w
1196 : : mov y2, a ; y2 = a
1197 : : pxor XTMP1, XTMP4 ; XTMP1 = s0
1198 : : or y0, c ; y0 = a|c
1199 : : add d, h ; d = d + h + S1 + CH + k + w
1200 : : and y2, c ; y2 = a&c
1201 : : ;; compute low s1
1202 : : pshufd XTMP2, X3, 11111010b ; XTMP2 = W[-2] {BBAA}
1203 : : and y0, b ; y0 = (a|c)&b
1204 : : add h, y1 ; h = h + S1 + CH + k + w + S0
1205 : : paddd XTMP0, XTMP1 ; XTMP0 = W[-16] + W[-7] + s0
1206 : : or y0, y2 ; y0 = MAJ = (a|c)&b)|(a&c)
1207 : : add h, y0 ; h = h + S1 + CH + k + w + S0 + MAJ
1208 : :
1209 : : ROTATE_ARGS
1210 : : movdqa XTMP3, XTMP2 ; XTMP3 = W[-2] {BBAA}
1211 : : mov y0, e ; y0 = e
1212 : : mov y1, a ; y1 = a
1213 : : ror y0, (25-11) ; y0 = e >> (25-11)
1214 : : movdqa XTMP4, XTMP2 ; XTMP4 = W[-2] {BBAA}
1215 : : xor y0, e ; y0 = e ^ (e >> (25-11))
1216 : : ror y1, (22-13) ; y1 = a >> (22-13)
1217 : : mov y2, f ; y2 = f
1218 : : xor y1, a ; y1 = a ^ (a >> (22-13)
1219 : : ror y0, (11-6) ; y0 = (e >> (11-6)) ^ (e >> (25-6))
1220 : : psrlq XTMP2, 17 ; XTMP2 = W[-2] ror 17 {xBxA}
1221 : : xor y2, g ; y2 = f^g
1222 : : psrlq XTMP3, 19 ; XTMP3 = W[-2] ror 19 {xBxA}
1223 : : xor y0, e ; y0 = e ^ (e >> (11-6)) ^ (e >> (25-6))
1224 : : and y2, e ; y2 = (f^g)&e
1225 : : psrld XTMP4, 10 ; XTMP4 = W[-2] >> 10 {BBAA}
1226 : : ror y1, (13-2) ; y1 = (a >> (13-2)) ^ (a >> (22-2))
1227 : : xor y1, a ; y1 = a ^ (a >> (13-2)) ^ (a >> (22-2))
1228 : : xor y2, g ; y2 = CH = ((f^g)&e)^g
1229 : : ror y0, 6 ; y0 = S1 = (e>>6) & (e>>11) ^ (e>>25)
1230 : : pxor XTMP2, XTMP3
1231 : : add y2, y0 ; y2 = S1 + CH
1232 : : ror y1, 2 ; y1 = S0 = (a>>2) ^ (a>>13) ^ (a>>22)
1233 : : add y2, [rsp + _XFER + 2*4] ; y2 = k + w + S1 + CH
1234 : : pxor XTMP4, XTMP2 ; XTMP4 = s1 {xBxA}
1235 : : mov y0, a ; y0 = a
1236 : : add h, y2 ; h = h + S1 + CH + k + w
1237 : : mov y2, a ; y2 = a
1238 : : pshufb XTMP4, SHUF_00BA ; XTMP4 = s1 {00BA}
1239 : : or y0, c ; y0 = a|c
1240 : : add d, h ; d = d + h + S1 + CH + k + w
1241 : : and y2, c ; y2 = a&c
1242 : : paddd XTMP0, XTMP4 ; XTMP0 = {..., ..., W[1], W[0]}
1243 : : and y0, b ; y0 = (a|c)&b
1244 : : add h, y1 ; h = h + S1 + CH + k + w + S0
1245 : : ;; compute high s1
1246 : : pshufd XTMP2, XTMP0, 01010000b ; XTMP2 = W[-2] {DDCC}
1247 : : or y0, y2 ; y0 = MAJ = (a|c)&b)|(a&c)
1248 : : add h, y0 ; h = h + S1 + CH + k + w + S0 + MAJ
1249 : :
1250 : : ROTATE_ARGS
1251 : : movdqa XTMP3, XTMP2 ; XTMP3 = W[-2] {DDCC}
1252 : : mov y0, e ; y0 = e
1253 : : ror y0, (25-11) ; y0 = e >> (25-11)
1254 : : mov y1, a ; y1 = a
1255 : : movdqa X0, XTMP2 ; X0 = W[-2] {DDCC}
1256 : : ror y1, (22-13) ; y1 = a >> (22-13)
1257 : : xor y0, e ; y0 = e ^ (e >> (25-11))
1258 : : mov y2, f ; y2 = f
1259 : : ror y0, (11-6) ; y0 = (e >> (11-6)) ^ (e >> (25-6))
1260 : : psrlq XTMP2, 17 ; XTMP2 = W[-2] ror 17 {xDxC}
1261 : : xor y1, a ; y1 = a ^ (a >> (22-13)
1262 : : xor y2, g ; y2 = f^g
1263 : : psrlq XTMP3, 19 ; XTMP3 = W[-2] ror 19 {xDxC}
1264 : : xor y0, e ; y0 = e ^ (e >> (11-6)) ^ (e >> (25-6))
1265 : : and y2, e ; y2 = (f^g)&e
1266 : : ror y1, (13-2) ; y1 = (a >> (13-2)) ^ (a >> (22-2))
1267 : : psrld X0, 10 ; X0 = W[-2] >> 10 {DDCC}
1268 : : xor y1, a ; y1 = a ^ (a >> (13-2)) ^ (a >> (22-2))
1269 : : ror y0, 6 ; y0 = S1 = (e>>6) & (e>>11) ^ (e>>25)
1270 : : xor y2, g ; y2 = CH = ((f^g)&e)^g
1271 : : pxor XTMP2, XTMP3
1272 : : ror y1, 2 ; y1 = S0 = (a>>2) ^ (a>>13) ^ (a>>22)
1273 : : add y2, y0 ; y2 = S1 + CH
1274 : : add y2, [rsp + _XFER + 3*4] ; y2 = k + w + S1 + CH
1275 : : pxor X0, XTMP2 ; X0 = s1 {xDxC}
1276 : : mov y0, a ; y0 = a
1277 : : add h, y2 ; h = h + S1 + CH + k + w
1278 : : mov y2, a ; y2 = a
1279 : : pshufb X0, SHUF_DC00 ; X0 = s1 {DC00}
1280 : : or y0, c ; y0 = a|c
1281 : : add d, h ; d = d + h + S1 + CH + k + w
1282 : : and y2, c ; y2 = a&c
1283 : : paddd X0, XTMP0 ; X0 = {W[3], W[2], W[1], W[0]}
1284 : : and y0, b ; y0 = (a|c)&b
1285 : : add h, y1 ; h = h + S1 + CH + k + w + S0
1286 : : or y0, y2 ; y0 = MAJ = (a|c)&b)|(a&c)
1287 : : add h, y0 ; h = h + S1 + CH + k + w + S0 + MAJ
1288 : :
1289 : : ROTATE_ARGS
1290 : : rotate_Xs
1291 : : %endm
1292 : :
1293 : : ;; input is [rsp + _XFER + %1 * 4]
1294 : : %macro DO_ROUND 1
1295 : : mov y0, e ; y0 = e
1296 : : ror y0, (25-11) ; y0 = e >> (25-11)
1297 : : mov y1, a ; y1 = a
1298 : : xor y0, e ; y0 = e ^ (e >> (25-11))
1299 : : ror y1, (22-13) ; y1 = a >> (22-13)
1300 : : mov y2, f ; y2 = f
1301 : : xor y1, a ; y1 = a ^ (a >> (22-13)
1302 : : ror y0, (11-6) ; y0 = (e >> (11-6)) ^ (e >> (25-6))
1303 : : xor y2, g ; y2 = f^g
1304 : : xor y0, e ; y0 = e ^ (e >> (11-6)) ^ (e >> (25-6))
1305 : : ror y1, (13-2) ; y1 = (a >> (13-2)) ^ (a >> (22-2))
1306 : : and y2, e ; y2 = (f^g)&e
1307 : : xor y1, a ; y1 = a ^ (a >> (13-2)) ^ (a >> (22-2))
1308 : : ror y0, 6 ; y0 = S1 = (e>>6) & (e>>11) ^ (e>>25)
1309 : : xor y2, g ; y2 = CH = ((f^g)&e)^g
1310 : : add y2, y0 ; y2 = S1 + CH
1311 : : ror y1, 2 ; y1 = S0 = (a>>2) ^ (a>>13) ^ (a>>22)
1312 : : add y2, [rsp + _XFER + %1 * 4] ; y2 = k + w + S1 + CH
1313 : : mov y0, a ; y0 = a
1314 : : add h, y2 ; h = h + S1 + CH + k + w
1315 : : mov y2, a ; y2 = a
1316 : : or y0, c ; y0 = a|c
1317 : : add d, h ; d = d + h + S1 + CH + k + w
1318 : : and y2, c ; y2 = a&c
1319 : : and y0, b ; y0 = (a|c)&b
1320 : : add h, y1 ; h = h + S1 + CH + k + w + S0
1321 : : or y0, y2 ; y0 = MAJ = (a|c)&b)|(a&c)
1322 : : add h, y0 ; h = h + S1 + CH + k + w + S0 + MAJ
1323 : : ROTATE_ARGS
1324 : : %endm
1325 : :
1326 : : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
1327 : : ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
1328 : : ;; void sha256_sse4(void *input_data, UINT32 digest[8], UINT64 num_blks)
1329 : : ;; arg 1 : pointer to input data
1330 : : ;; arg 2 : pointer to digest
1331 : : ;; arg 3 : Num blocks
1332 : : section .text
1333 : : global sha256_sse4
1334 : : align 32
1335 : : sha256_sse4:
1336 : : push rbx
1337 : : %ifndef LINUX
1338 : : push rsi
1339 : : push rdi
1340 : : %endif
1341 : : push rbp
1342 : : push r13
1343 : : push r14
1344 : : push r15
1345 : :
1346 : : sub rsp,STACK_SIZE
1347 : : %ifndef LINUX
1348 : : movdqa [rsp + _XMM_SAVE + 0*16],xmm6
1349 : : movdqa [rsp + _XMM_SAVE + 1*16],xmm7
1350 : : movdqa [rsp + _XMM_SAVE + 2*16],xmm8
1351 : : movdqa [rsp + _XMM_SAVE + 3*16],xmm9
1352 : : movdqa [rsp + _XMM_SAVE + 4*16],xmm10
1353 : : movdqa [rsp + _XMM_SAVE + 5*16],xmm11
1354 : : movdqa [rsp + _XMM_SAVE + 6*16],xmm12
1355 : : %endif
1356 : :
1357 : : shl NUM_BLKS, 6 ; convert to bytes
1358 : : jz done_hash
1359 : : add NUM_BLKS, INP ; pointer to end of data
1360 : : mov [rsp + _INP_END], NUM_BLKS
1361 : :
1362 : : ;; load initial digest
1363 : : mov a,[4*0 + CTX]
1364 : : mov b,[4*1 + CTX]
1365 : : mov c,[4*2 + CTX]
1366 : : mov d,[4*3 + CTX]
1367 : : mov e,[4*4 + CTX]
1368 : : mov f,[4*5 + CTX]
1369 : : mov g,[4*6 + CTX]
1370 : : mov h,[4*7 + CTX]
1371 : :
1372 : : movdqa BYTE_FLIP_MASK, [PSHUFFLE_BYTE_FLIP_MASK wrt rip]
1373 : : movdqa SHUF_00BA, [_SHUF_00BA wrt rip]
1374 : : movdqa SHUF_DC00, [_SHUF_DC00 wrt rip]
1375 : :
1376 : : loop0:
1377 : : lea TBL,[K256 wrt rip]
1378 : :
1379 : : ;; byte swap first 16 dwords
1380 : : COPY_XMM_AND_BSWAP X0, [INP + 0*16], BYTE_FLIP_MASK
1381 : : COPY_XMM_AND_BSWAP X1, [INP + 1*16], BYTE_FLIP_MASK
1382 : : COPY_XMM_AND_BSWAP X2, [INP + 2*16], BYTE_FLIP_MASK
1383 : : COPY_XMM_AND_BSWAP X3, [INP + 3*16], BYTE_FLIP_MASK
1384 : :
1385 : : mov [rsp + _INP], INP
1386 : :
1387 : : ;; schedule 48 input dwords, by doing 3 rounds of 16 each
1388 : : mov SRND, 3
1389 : : align 16
1390 : : loop1:
1391 : : movdqa XFER, [TBL + 0*16]
1392 : : paddd XFER, X0
1393 : : movdqa [rsp + _XFER], XFER
1394 : : FOUR_ROUNDS_AND_SCHED
1395 : :
1396 : : movdqa XFER, [TBL + 1*16]
1397 : : paddd XFER, X0
1398 : : movdqa [rsp + _XFER], XFER
1399 : : FOUR_ROUNDS_AND_SCHED
1400 : :
1401 : : movdqa XFER, [TBL + 2*16]
1402 : : paddd XFER, X0
1403 : : movdqa [rsp + _XFER], XFER
1404 : : FOUR_ROUNDS_AND_SCHED
1405 : :
1406 : : movdqa XFER, [TBL + 3*16]
1407 : : paddd XFER, X0
1408 : : movdqa [rsp + _XFER], XFER
1409 : : add TBL, 4*16
1410 : : FOUR_ROUNDS_AND_SCHED
1411 : :
1412 : : sub SRND, 1
1413 : : jne loop1
1414 : :
1415 : : mov SRND, 2
1416 : : loop2:
1417 : : paddd X0, [TBL + 0*16]
1418 : : movdqa [rsp + _XFER], X0
1419 : : DO_ROUND 0
1420 : : DO_ROUND 1
1421 : : DO_ROUND 2
1422 : : DO_ROUND 3
1423 : : paddd X1, [TBL + 1*16]
1424 : : movdqa [rsp + _XFER], X1
1425 : : add TBL, 2*16
1426 : : DO_ROUND 0
1427 : : DO_ROUND 1
1428 : : DO_ROUND 2
1429 : : DO_ROUND 3
1430 : :
1431 : : movdqa X0, X2
1432 : : movdqa X1, X3
1433 : :
1434 : : sub SRND, 1
1435 : : jne loop2
1436 : :
1437 : : addm [4*0 + CTX],a
1438 : : addm [4*1 + CTX],b
1439 : : addm [4*2 + CTX],c
1440 : : addm [4*3 + CTX],d
1441 : : addm [4*4 + CTX],e
1442 : : addm [4*5 + CTX],f
1443 : : addm [4*6 + CTX],g
1444 : : addm [4*7 + CTX],h
1445 : :
1446 : : mov INP, [rsp + _INP]
1447 : : add INP, 64
1448 : : cmp INP, [rsp + _INP_END]
1449 : : jne loop0
1450 : :
1451 : : done_hash:
1452 : : %ifndef LINUX
1453 : : movdqa xmm6,[rsp + _XMM_SAVE + 0*16]
1454 : : movdqa xmm7,[rsp + _XMM_SAVE + 1*16]
1455 : : movdqa xmm8,[rsp + _XMM_SAVE + 2*16]
1456 : : movdqa xmm9,[rsp + _XMM_SAVE + 3*16]
1457 : : movdqa xmm10,[rsp + _XMM_SAVE + 4*16]
1458 : : movdqa xmm11,[rsp + _XMM_SAVE + 5*16]
1459 : : movdqa xmm12,[rsp + _XMM_SAVE + 6*16]
1460 : : %endif
1461 : :
1462 : : add rsp, STACK_SIZE
1463 : :
1464 : : pop r15
1465 : : pop r14
1466 : : pop r13
1467 : : pop rbp
1468 : : %ifndef LINUX
1469 : : pop rdi
1470 : : pop rsi
1471 : : %endif
1472 : : pop rbx
1473 : :
1474 : : ret
1475 : :
1476 : :
1477 : : section .data
1478 : : align 64
1479 : : K256:
1480 : : dd 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5
1481 : : dd 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5
1482 : : dd 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3
1483 : : dd 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174
1484 : : dd 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc
1485 : : dd 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da
1486 : : dd 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7
1487 : : dd 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967
1488 : : dd 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13
1489 : : dd 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85
1490 : : dd 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3
1491 : : dd 0xd192e819,0xd6990624,0xf40e3585,0x106aa070
1492 : : dd 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5
1493 : : dd 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3
1494 : : dd 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208
1495 : : dd 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2
1496 : :
1497 : : PSHUFFLE_BYTE_FLIP_MASK: ddq 0x0c0d0e0f08090a0b0405060700010203
1498 : :
1499 : : ; shuffle xBxA -> 00BA
1500 : : _SHUF_00BA: ddq 0xFFFFFFFFFFFFFFFF0b0a090803020100
1501 : :
1502 : : ; shuffle xDxC -> DC00
1503 : : _SHUF_DC00: ddq 0x0b0a090803020100FFFFFFFFFFFFFFFF
1504 : : */
1505 : :
1506 : : #endif
|