25 #error "Never use <avx512vlbwintrin.h> directly; include <immintrin.h> instead."
28 #ifndef __AVX512VLBWINTRIN_H
29 #define __AVX512VLBWINTRIN_H
32 #define __DEFAULT_FN_ATTRS __attribute__((__always_inline__, __nodebug__, __target__("avx512vl,avx512bw")))
36 return (__m128i)(__v8hi){ 0, 0, 0, 0, 0, 0, 0, 0 };
43 return (
__mmask16)__builtin_ia32_pcmpeqb128_mask((__v16qi)__a, (__v16qi)__b,
49 return (
__mmask16)__builtin_ia32_pcmpeqb128_mask((__v16qi)__a, (__v16qi)__b,
55 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 0,
61 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 0,
67 return (
__mmask32)__builtin_ia32_pcmpeqb256_mask((__v32qi)__a, (__v32qi)__b,
73 return (
__mmask32)__builtin_ia32_pcmpeqb256_mask((__v32qi)__a, (__v32qi)__b,
79 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 0,
85 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 0,
91 return (
__mmask8)__builtin_ia32_pcmpeqw128_mask((__v8hi)__a, (__v8hi)__b,
97 return (
__mmask8)__builtin_ia32_pcmpeqw128_mask((__v8hi)__a, (__v8hi)__b,
103 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 0,
109 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 0,
115 return (
__mmask16)__builtin_ia32_pcmpeqw256_mask((__v16hi)__a, (__v16hi)__b,
121 return (
__mmask16)__builtin_ia32_pcmpeqw256_mask((__v16hi)__a, (__v16hi)__b,
127 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 0,
133 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 0,
139 return (
__mmask16)__builtin_ia32_cmpb128_mask((__v16qi)__a, (__v16qi)__b, 5,
145 return (
__mmask16)__builtin_ia32_cmpb128_mask((__v16qi)__a, (__v16qi)__b, 5,
151 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 5,
157 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 5,
163 return (
__mmask32)__builtin_ia32_cmpb256_mask((__v32qi)__a, (__v32qi)__b, 5,
169 return (
__mmask32)__builtin_ia32_cmpb256_mask((__v32qi)__a, (__v32qi)__b, 5,
175 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 5,
181 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 5,
187 return (
__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)__a, (__v8hi)__b, 5,
193 return (
__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)__a, (__v8hi)__b, 5,
199 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 5,
205 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 5,
211 return (
__mmask16)__builtin_ia32_cmpw256_mask((__v16hi)__a, (__v16hi)__b, 5,
217 return (
__mmask16)__builtin_ia32_cmpw256_mask((__v16hi)__a, (__v16hi)__b, 5,
223 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 5,
229 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 5,
235 return (
__mmask16)__builtin_ia32_pcmpgtb128_mask((__v16qi)__a, (__v16qi)__b,
241 return (
__mmask16)__builtin_ia32_pcmpgtb128_mask((__v16qi)__a, (__v16qi)__b,
247 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 6,
253 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 6,
259 return (
__mmask32)__builtin_ia32_pcmpgtb256_mask((__v32qi)__a, (__v32qi)__b,
265 return (
__mmask32)__builtin_ia32_pcmpgtb256_mask((__v32qi)__a, (__v32qi)__b,
271 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 6,
277 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 6,
283 return (
__mmask8)__builtin_ia32_pcmpgtw128_mask((__v8hi)__a, (__v8hi)__b,
289 return (
__mmask8)__builtin_ia32_pcmpgtw128_mask((__v8hi)__a, (__v8hi)__b,
295 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 6,
301 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 6,
307 return (
__mmask16)__builtin_ia32_pcmpgtw256_mask((__v16hi)__a, (__v16hi)__b,
313 return (
__mmask16)__builtin_ia32_pcmpgtw256_mask((__v16hi)__a, (__v16hi)__b,
319 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 6,
325 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 6,
331 return (
__mmask16)__builtin_ia32_cmpb128_mask((__v16qi)__a, (__v16qi)__b, 2,
337 return (
__mmask16)__builtin_ia32_cmpb128_mask((__v16qi)__a, (__v16qi)__b, 2,
343 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 2,
349 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 2,
355 return (
__mmask32)__builtin_ia32_cmpb256_mask((__v32qi)__a, (__v32qi)__b, 2,
361 return (
__mmask32)__builtin_ia32_cmpb256_mask((__v32qi)__a, (__v32qi)__b, 2,
367 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 2,
373 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 2,
379 return (
__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)__a, (__v8hi)__b, 2,
385 return (
__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)__a, (__v8hi)__b, 2,
391 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 2,
397 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 2,
403 return (
__mmask16)__builtin_ia32_cmpw256_mask((__v16hi)__a, (__v16hi)__b, 2,
409 return (
__mmask16)__builtin_ia32_cmpw256_mask((__v16hi)__a, (__v16hi)__b, 2,
415 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 2,
421 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 2,
427 return (
__mmask16)__builtin_ia32_cmpb128_mask((__v16qi)__a, (__v16qi)__b, 1,
433 return (
__mmask16)__builtin_ia32_cmpb128_mask((__v16qi)__a, (__v16qi)__b, 1,
439 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 1,
445 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 1,
451 return (
__mmask32)__builtin_ia32_cmpb256_mask((__v32qi)__a, (__v32qi)__b, 1,
457 return (
__mmask32)__builtin_ia32_cmpb256_mask((__v32qi)__a, (__v32qi)__b, 1,
463 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 1,
469 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 1,
475 return (
__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)__a, (__v8hi)__b, 1,
481 return (
__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)__a, (__v8hi)__b, 1,
487 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 1,
493 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 1,
499 return (
__mmask16)__builtin_ia32_cmpw256_mask((__v16hi)__a, (__v16hi)__b, 1,
505 return (
__mmask16)__builtin_ia32_cmpw256_mask((__v16hi)__a, (__v16hi)__b, 1,
511 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 1,
517 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 1,
523 return (
__mmask16)__builtin_ia32_cmpb128_mask((__v16qi)__a, (__v16qi)__b, 4,
529 return (
__mmask16)__builtin_ia32_cmpb128_mask((__v16qi)__a, (__v16qi)__b, 4,
535 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 4,
541 return (
__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)__a, (__v16qi)__b, 4,
547 return (
__mmask32)__builtin_ia32_cmpb256_mask((__v32qi)__a, (__v32qi)__b, 4,
553 return (
__mmask32)__builtin_ia32_cmpb256_mask((__v32qi)__a, (__v32qi)__b, 4,
559 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 4,
565 return (
__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)__a, (__v32qi)__b, 4,
571 return (
__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)__a, (__v8hi)__b, 4,
577 return (
__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)__a, (__v8hi)__b, 4,
583 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 4,
589 return (
__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)__a, (__v8hi)__b, 4,
595 return (
__mmask16)__builtin_ia32_cmpw256_mask((__v16hi)__a, (__v16hi)__b, 4,
601 return (
__mmask16)__builtin_ia32_cmpw256_mask((__v16hi)__a, (__v16hi)__b, 4,
607 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 4,
613 return (
__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)__a, (__v16hi)__b, 4,
619 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
626 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
633 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
640 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
647 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
654 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
661 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
668 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
675 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
682 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
689 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
696 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
703 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
710 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
717 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
724 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
731 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
738 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
745 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
752 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
760 return (__m128i) __builtin_ia32_selectb_128 ((
__mmask16) __U,
768 return (__m256i) __builtin_ia32_selectb_256 ((
__mmask32) __U,
776 return (__m128i) __builtin_ia32_selectw_128 ((
__mmask8) __U,
784 return (__m256i) __builtin_ia32_selectw_256 ((
__mmask16) __U,
792 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
800 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
808 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
816 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
824 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
832 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
840 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
848 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
855 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
863 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
871 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
879 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
887 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
895 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
903 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
911 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
919 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
927 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
935 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
943 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
951 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
959 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
967 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
975 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
983 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
991 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
999 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1007 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1015 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1023 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1031 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1039 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1047 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1055 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1063 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1071 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1079 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1087 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1095 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1103 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1111 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1119 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1127 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1135 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1143 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1151 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1159 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1167 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1175 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
1183 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
1191 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
1199 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
1207 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
1215 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
1223 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
1231 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
1239 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
1247 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
1255 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
1263 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
1271 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
1279 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
1287 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
1295 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
1303 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
1311 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
1319 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
1327 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
1335 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
1343 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
1351 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
1359 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
1367 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
1375 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__M,
1383 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
1391 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__M,
1399 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
1407 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__M,
1415 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
1423 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__M,
1431 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1439 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1447 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1455 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1463 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1471 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1479 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1487 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1495 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1503 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1511 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1519 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1527 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1535 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1543 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1551 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1559 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1567 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1575 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1583 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1592 return (__m128i) __builtin_ia32_vpermi2varhi128_mask ((__v8hi) __A,
1602 return (__m256i) __builtin_ia32_vpermi2varhi256_mask ((__v16hi) __A,
1611 return (__m128i) __builtin_ia32_vpermt2varhi128_mask ((__v8hi) __I,
1621 return (__m128i) __builtin_ia32_vpermt2varhi128_mask ((__v8hi) __I,
1631 return (__m128i) __builtin_ia32_vpermt2varhi128_maskz ((__v8hi) __I,
1640 return (__m256i) __builtin_ia32_vpermt2varhi256_mask ((__v16hi) __I,
1648 __m256i __I, __m256i __B)
1650 return (__m256i) __builtin_ia32_vpermt2varhi256_mask ((__v16hi) __I,
1658 __m256i __I, __m256i __B)
1660 return (__m256i) __builtin_ia32_vpermt2varhi256_maskz ((__v16hi) __I,
1668 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1675 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1683 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1690 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1697 return (__m128i)__builtin_ia32_selectd_128((
__mmask8)__U,
1704 return (__m128i)__builtin_ia32_selectd_128((
__mmask8)__U,
1711 return (__m256i)__builtin_ia32_selectd_256((
__mmask8)__U,
1718 return (__m256i)__builtin_ia32_selectd_256((
__mmask8)__U,
1725 return (__m128i) __builtin_ia32_pmovswb128_mask ((__v8hi) __A,
1732 return (__m128i) __builtin_ia32_pmovswb128_mask ((__v8hi) __A,
1739 return (__m128i) __builtin_ia32_pmovswb128_mask ((__v8hi) __A,
1746 return (__m128i) __builtin_ia32_pmovswb256_mask ((__v16hi) __A,
1753 return (__m128i) __builtin_ia32_pmovswb256_mask ((__v16hi) __A,
1760 return (__m128i) __builtin_ia32_pmovswb256_mask ((__v16hi) __A,
1767 return (__m128i) __builtin_ia32_pmovuswb128_mask ((__v8hi) __A,
1774 return (__m128i) __builtin_ia32_pmovuswb128_mask ((__v8hi) __A,
1781 return (__m128i) __builtin_ia32_pmovuswb128_mask ((__v8hi) __A,
1788 return (__m128i) __builtin_ia32_pmovuswb256_mask ((__v16hi) __A,
1795 return (__m128i) __builtin_ia32_pmovuswb256_mask ((__v16hi) __A,
1802 return (__m128i) __builtin_ia32_pmovuswb256_mask ((__v16hi) __A,
1810 return (__m128i) __builtin_ia32_pmovwb128_mask ((__v8hi) __A,
1817 return (__m128i) __builtin_ia32_pmovwb128_mask ((__v8hi) __A,
1824 return (__m128i) __builtin_ia32_pmovwb128_mask ((__v8hi) __A,
1832 __builtin_ia32_pmovwb128mem_mask ((__v16qi *) __P, (__v8hi) __A, __M);
1839 __builtin_ia32_pmovswb128mem_mask ((__v16qi *) __P, (__v8hi) __A, __M);
1845 __builtin_ia32_pmovuswb128mem_mask ((__v16qi *) __P, (__v8hi) __A, __M);
1850 return (__m128i) __builtin_ia32_pmovwb256_mask ((__v16hi) __A,
1857 return (__m128i) __builtin_ia32_pmovwb256_mask ((__v16hi) __A,
1864 return (__m128i) __builtin_ia32_pmovwb256_mask ((__v16hi) __A,
1872 __builtin_ia32_pmovwb256mem_mask ((__v16qi *) __P, (__v16hi) __A, __M);
1878 __builtin_ia32_pmovswb256mem_mask ((__v16qi *) __P, (__v16hi) __A, __M);
1884 __builtin_ia32_pmovuswb256mem_mask ((__v16qi*) __P, (__v16hi) __A, __M);
1889 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1896 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1903 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1910 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1917 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1924 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1931 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1938 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1945 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1952 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
1959 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1966 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
1973 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1980 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
1987 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
1994 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
2001 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2008 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2015 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2022 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2029 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
2036 return (__m128i)__builtin_ia32_selectb_128((
__mmask16)__U,
2043 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
2050 return (__m256i)__builtin_ia32_selectb_256((
__mmask32)__U,
2057 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2064 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2071 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2078 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2086 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2094 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2102 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2110 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2119 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2127 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2135 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2143 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2149 #define _mm_cmp_epi8_mask(a, b, p) __extension__ ({ \
2150 (__mmask16)__builtin_ia32_cmpb128_mask((__v16qi)(__m128i)(a), \
2151 (__v16qi)(__m128i)(b), (int)(p), \
2154 #define _mm_mask_cmp_epi8_mask(m, a, b, p) __extension__ ({ \
2155 (__mmask16)__builtin_ia32_cmpb128_mask((__v16qi)(__m128i)(a), \
2156 (__v16qi)(__m128i)(b), (int)(p), \
2159 #define _mm_cmp_epu8_mask(a, b, p) __extension__ ({ \
2160 (__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)(__m128i)(a), \
2161 (__v16qi)(__m128i)(b), (int)(p), \
2164 #define _mm_mask_cmp_epu8_mask(m, a, b, p) __extension__ ({ \
2165 (__mmask16)__builtin_ia32_ucmpb128_mask((__v16qi)(__m128i)(a), \
2166 (__v16qi)(__m128i)(b), (int)(p), \
2169 #define _mm256_cmp_epi8_mask(a, b, p) __extension__ ({ \
2170 (__mmask32)__builtin_ia32_cmpb256_mask((__v32qi)(__m256i)(a), \
2171 (__v32qi)(__m256i)(b), (int)(p), \
2174 #define _mm256_mask_cmp_epi8_mask(m, a, b, p) __extension__ ({ \
2175 (__mmask32)__builtin_ia32_cmpb256_mask((__v32qi)(__m256i)(a), \
2176 (__v32qi)(__m256i)(b), (int)(p), \
2179 #define _mm256_cmp_epu8_mask(a, b, p) __extension__ ({ \
2180 (__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)(__m256i)(a), \
2181 (__v32qi)(__m256i)(b), (int)(p), \
2184 #define _mm256_mask_cmp_epu8_mask(m, a, b, p) __extension__ ({ \
2185 (__mmask32)__builtin_ia32_ucmpb256_mask((__v32qi)(__m256i)(a), \
2186 (__v32qi)(__m256i)(b), (int)(p), \
2189 #define _mm_cmp_epi16_mask(a, b, p) __extension__ ({ \
2190 (__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)(__m128i)(a), \
2191 (__v8hi)(__m128i)(b), (int)(p), \
2194 #define _mm_mask_cmp_epi16_mask(m, a, b, p) __extension__ ({ \
2195 (__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)(__m128i)(a), \
2196 (__v8hi)(__m128i)(b), (int)(p), \
2199 #define _mm_cmp_epu16_mask(a, b, p) __extension__ ({ \
2200 (__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)(__m128i)(a), \
2201 (__v8hi)(__m128i)(b), (int)(p), \
2204 #define _mm_mask_cmp_epu16_mask(m, a, b, p) __extension__ ({ \
2205 (__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)(__m128i)(a), \
2206 (__v8hi)(__m128i)(b), (int)(p), \
2209 #define _mm256_cmp_epi16_mask(a, b, p) __extension__ ({ \
2210 (__mmask16)__builtin_ia32_cmpw256_mask((__v16hi)(__m256i)(a), \
2211 (__v16hi)(__m256i)(b), (int)(p), \
2214 #define _mm256_mask_cmp_epi16_mask(m, a, b, p) __extension__ ({ \
2215 (__mmask16)__builtin_ia32_cmpw256_mask((__v16hi)(__m256i)(a), \
2216 (__v16hi)(__m256i)(b), (int)(p), \
2219 #define _mm256_cmp_epu16_mask(a, b, p) __extension__ ({ \
2220 (__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)(__m256i)(a), \
2221 (__v16hi)(__m256i)(b), (int)(p), \
2224 #define _mm256_mask_cmp_epu16_mask(m, a, b, p) __extension__ ({ \
2225 (__mmask16)__builtin_ia32_ucmpw256_mask((__v16hi)(__m256i)(a), \
2226 (__v16hi)(__m256i)(b), (int)(p), \
2229 #define _mm_mask_shufflehi_epi16(W, U, A, imm) __extension__ ({ \
2230 (__m128i)__builtin_ia32_selectw_128((__mmask8)(U), \
2231 (__v8hi)_mm_shufflehi_epi16((A), (imm)), \
2232 (__v8hi)(__m128i)(W)); })
2234 #define _mm_maskz_shufflehi_epi16(U, A, imm) __extension__ ({ \
2235 (__m128i)__builtin_ia32_selectw_128((__mmask8)(U), \
2236 (__v8hi)_mm_shufflehi_epi16((A), (imm)), \
2237 (__v8hi)_mm_setzero_hi()); })
2239 #define _mm256_mask_shufflehi_epi16(W, U, A, imm) __extension__ ({ \
2240 (__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
2241 (__v16hi)_mm256_shufflehi_epi16((A), (imm)), \
2242 (__v16hi)(__m256i)(W)); })
2244 #define _mm256_maskz_shufflehi_epi16(U, A, imm) __extension__ ({ \
2245 (__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
2246 (__v16hi)_mm256_shufflehi_epi16((A), (imm)), \
2247 (__v16hi)_mm256_setzero_si256()); })
2249 #define _mm_mask_shufflelo_epi16(W, U, A, imm) __extension__ ({ \
2250 (__m128i)__builtin_ia32_selectw_128((__mmask8)(U), \
2251 (__v8hi)_mm_shufflelo_epi16((A), (imm)), \
2252 (__v8hi)(__m128i)(W)); })
2254 #define _mm_maskz_shufflelo_epi16(U, A, imm) __extension__ ({ \
2255 (__m128i)__builtin_ia32_selectw_128((__mmask8)(U), \
2256 (__v8hi)_mm_shufflelo_epi16((A), (imm)), \
2257 (__v8hi)_mm_setzero_hi()); })
2259 #define _mm256_mask_shufflelo_epi16(W, U, A, imm) __extension__ ({ \
2260 (__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
2261 (__v16hi)_mm256_shufflelo_epi16((A), \
2263 (__v16hi)(__m256i)(W)); })
2265 #define _mm256_maskz_shufflelo_epi16(U, A, imm) __extension__ ({ \
2266 (__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
2267 (__v16hi)_mm256_shufflelo_epi16((A), \
2269 (__v16hi)_mm256_setzero_si256()); })
2274 return (__m256i)__builtin_ia32_psllv16hi((__v16hi)__A, (__v16hi)__B);
2280 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2288 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2296 return (__m128i)__builtin_ia32_psllv8hi((__v8hi)__A, (__v8hi)__B);
2302 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2310 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2318 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2326 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2334 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2342 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2350 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2358 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2366 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2374 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2382 return (__m256i)__builtin_ia32_psrlv16hi((__v16hi)__A, (__v16hi)__B);
2388 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2396 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2404 return (__m128i)__builtin_ia32_psrlv8hi((__v8hi)__A, (__v8hi)__B);
2410 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2418 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2426 return (__m256i)__builtin_ia32_psrav16hi((__v16hi)__A, (__v16hi)__B);
2432 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2440 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2448 return (__m128i)__builtin_ia32_psrav8hi((__v8hi)__A, (__v8hi)__B);
2454 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2462 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2470 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2478 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2486 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2494 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2502 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2510 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2518 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2526 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2534 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2542 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2550 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2558 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2566 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2574 return (__m128i)__builtin_ia32_selectw_128((
__mmask8)__U,
2582 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2590 return (__m256i)__builtin_ia32_selectw_256((
__mmask16)__U,
2598 return (__m128i) __builtin_ia32_selectw_128 ((
__mmask8) __U,
2606 return (__m128i) __builtin_ia32_selectw_128 ((
__mmask8) __U,
2614 return (__m256i) __builtin_ia32_selectw_256 ((
__mmask16) __U,
2622 return (__m256i) __builtin_ia32_selectw_256 ((
__mmask16) __U,
2630 return (__m128i) __builtin_ia32_selectb_128 ((
__mmask16) __U,
2638 return (__m128i) __builtin_ia32_selectb_128 ((
__mmask16) __U,
2646 return (__m256i) __builtin_ia32_selectb_256 ((
__mmask32) __U,
2654 return (__m256i) __builtin_ia32_selectb_256 ((
__mmask32) __U,
2663 return (__m128i) __builtin_ia32_pbroadcastb128_gpr_mask (__A,
2671 return (__m128i) __builtin_ia32_pbroadcastb128_gpr_mask (__A,
2680 return (__m256i) __builtin_ia32_pbroadcastb256_gpr_mask (__A,
2688 return (__m256i) __builtin_ia32_pbroadcastb256_gpr_mask (__A,
2697 return (__m128i) __builtin_ia32_loaddquhi128_mask ((__v8hi *) __P,
2705 return (__m128i) __builtin_ia32_loaddquhi128_mask ((__v8hi *) __P,
2714 return (__m256i) __builtin_ia32_loaddquhi256_mask ((__v16hi *) __P,
2722 return (__m256i) __builtin_ia32_loaddquhi256_mask ((__v16hi *) __P,
2731 return (__m128i) __builtin_ia32_loaddquqi128_mask ((__v16qi *) __P,
2739 return (__m128i) __builtin_ia32_loaddquqi128_mask ((__v16qi *) __P,
2748 return (__m256i) __builtin_ia32_loaddquqi256_mask ((__v32qi *) __P,
2756 return (__m256i) __builtin_ia32_loaddquqi256_mask ((__v32qi *) __P,
2764 __builtin_ia32_storedquhi128_mask ((__v8hi *) __P,
2772 __builtin_ia32_storedquhi256_mask ((__v16hi *) __P,
2780 __builtin_ia32_storedquqi128_mask ((__v16qi *) __P,
2788 __builtin_ia32_storedquqi256_mask ((__v32qi *) __P,
2796 return (
__mmask16) __builtin_ia32_ptestmb128 ((__v16qi) __A,
2804 return (
__mmask16) __builtin_ia32_ptestmb128 ((__v16qi) __A,
2805 (__v16qi) __B, __U);
2811 return (
__mmask32) __builtin_ia32_ptestmb256 ((__v32qi) __A,
2819 return (
__mmask32) __builtin_ia32_ptestmb256 ((__v32qi) __A,
2820 (__v32qi) __B, __U);
2826 return (
__mmask8) __builtin_ia32_ptestmw128 ((__v8hi) __A,
2834 return (
__mmask8) __builtin_ia32_ptestmw128 ((__v8hi) __A,
2841 return (
__mmask16) __builtin_ia32_ptestmw256 ((__v16hi) __A,
2849 return (
__mmask16) __builtin_ia32_ptestmw256 ((__v16hi) __A,
2850 (__v16hi) __B, __U);
2856 return (
__mmask16) __builtin_ia32_ptestnmb128 ((__v16qi) __A,
2864 return (
__mmask16) __builtin_ia32_ptestnmb128 ((__v16qi) __A,
2865 (__v16qi) __B, __U);
2871 return (
__mmask32) __builtin_ia32_ptestnmb256 ((__v32qi) __A,
2879 return (
__mmask32) __builtin_ia32_ptestnmb256 ((__v32qi) __A,
2880 (__v32qi) __B, __U);
2886 return (
__mmask8) __builtin_ia32_ptestnmw128 ((__v8hi) __A,
2894 return (
__mmask8) __builtin_ia32_ptestnmw128 ((__v8hi) __A,
2901 return (
__mmask16) __builtin_ia32_ptestnmw256 ((__v16hi) __A,
2909 return (
__mmask16) __builtin_ia32_ptestnmw256 ((__v16hi) __A,
2910 (__v16hi) __B, __U);
2916 return (
__mmask16) __builtin_ia32_cvtb2mask128 ((__v16qi) __A);
2922 return (
__mmask32) __builtin_ia32_cvtb2mask256 ((__v32qi) __A);
2928 return (
__mmask8) __builtin_ia32_cvtw2mask128 ((__v8hi) __A);
2934 return (
__mmask16) __builtin_ia32_cvtw2mask256 ((__v16hi) __A);
2940 return (__m128i) __builtin_ia32_cvtmask2b128 (__A);
2946 return (__m256i) __builtin_ia32_cvtmask2b256 (__A);
2952 return (__m128i) __builtin_ia32_cvtmask2w128 (__A);
2958 return (__m256i) __builtin_ia32_cvtmask2w256 (__A);
2964 return (__m128i)__builtin_ia32_selectb_128(__M,
2972 return (__m128i)__builtin_ia32_selectb_128(__M,
2980 return (__m256i)__builtin_ia32_selectb_256(__M,
2988 return (__m256i)__builtin_ia32_selectb_256(__M,
2996 return (__m128i)__builtin_ia32_selectw_128(__M,
3004 return (__m128i)__builtin_ia32_selectw_128(__M,
3012 return (__m256i)__builtin_ia32_selectw_256(__M,
3020 return (__m256i)__builtin_ia32_selectw_256(__M,
3028 return (__m256i) __builtin_ia32_pbroadcastw256_gpr_mask (__A,
3036 return (__m256i) __builtin_ia32_pbroadcastw256_gpr_mask (__A,
3044 return (__m128i) __builtin_ia32_pbroadcastw128_gpr_mask (__A,
3052 return (__m128i) __builtin_ia32_pbroadcastw128_gpr_mask (__A,
3060 return (__m128i) __builtin_ia32_permvarhi128_mask ((__v8hi) __B,
3069 return (__m128i) __builtin_ia32_permvarhi128_mask ((__v8hi) __B,
3079 return (__m128i) __builtin_ia32_permvarhi128_mask ((__v8hi) __B,
3088 return (__m256i) __builtin_ia32_permvarhi256_mask ((__v16hi) __B,
3098 return (__m256i) __builtin_ia32_permvarhi256_mask ((__v16hi) __B,
3108 return (__m256i) __builtin_ia32_permvarhi256_mask ((__v16hi) __B,
3114 #define _mm_mask_alignr_epi8(W, U, A, B, N) __extension__ ({ \
3115 (__m128i)__builtin_ia32_selectb_128((__mmask16)(U), \
3116 (__v16qi)_mm_alignr_epi8((A), (B), (int)(N)), \
3117 (__v16qi)(__m128i)(W)); })
3119 #define _mm_maskz_alignr_epi8(U, A, B, N) __extension__ ({ \
3120 (__m128i)__builtin_ia32_selectb_128((__mmask16)(U), \
3121 (__v16qi)_mm_alignr_epi8((A), (B), (int)(N)), \
3122 (__v16qi)_mm_setzero_si128()); })
3124 #define _mm256_mask_alignr_epi8(W, U, A, B, N) __extension__ ({ \
3125 (__m256i)__builtin_ia32_selectb_256((__mmask32)(U), \
3126 (__v32qi)_mm256_alignr_epi8((A), (B), (int)(N)), \
3127 (__v32qi)(__m256i)(W)); })
3129 #define _mm256_maskz_alignr_epi8(U, A, B, N) __extension__ ({ \
3130 (__m256i)__builtin_ia32_selectb_256((__mmask32)(U), \
3131 (__v32qi)_mm256_alignr_epi8((A), (B), (int)(N)), \
3132 (__v32qi)_mm256_setzero_si256()); })
3134 #define _mm_dbsad_epu8(A, B, imm) __extension__ ({ \
3135 (__m128i)__builtin_ia32_dbpsadbw128_mask((__v16qi)(__m128i)(A), \
3136 (__v16qi)(__m128i)(B), (int)(imm), \
3137 (__v8hi)_mm_setzero_hi(), \
3140 #define _mm_mask_dbsad_epu8(W, U, A, B, imm) __extension__ ({ \
3141 (__m128i)__builtin_ia32_dbpsadbw128_mask((__v16qi)(__m128i)(A), \
3142 (__v16qi)(__m128i)(B), (int)(imm), \
3143 (__v8hi)(__m128i)(W), \
3146 #define _mm_maskz_dbsad_epu8(U, A, B, imm) __extension__ ({ \
3147 (__m128i)__builtin_ia32_dbpsadbw128_mask((__v16qi)(__m128i)(A), \
3148 (__v16qi)(__m128i)(B), (int)(imm), \
3149 (__v8hi)_mm_setzero_si128(), \
3152 #define _mm256_dbsad_epu8(A, B, imm) __extension__ ({ \
3153 (__m256i)__builtin_ia32_dbpsadbw256_mask((__v32qi)(__m256i)(A), \
3154 (__v32qi)(__m256i)(B), (int)(imm), \
3155 (__v16hi)_mm256_setzero_si256(), \
3158 #define _mm256_mask_dbsad_epu8(W, U, A, B, imm) __extension__ ({ \
3159 (__m256i)__builtin_ia32_dbpsadbw256_mask((__v32qi)(__m256i)(A), \
3160 (__v32qi)(__m256i)(B), (int)(imm), \
3161 (__v16hi)(__m256i)(W), \
3164 #define _mm256_maskz_dbsad_epu8(U, A, B, imm) __extension__ ({ \
3165 (__m256i)__builtin_ia32_dbpsadbw256_mask((__v32qi)(__m256i)(A), \
3166 (__v32qi)(__m256i)(B), (int)(imm), \
3167 (__v16hi)_mm256_setzero_si256(), \
3170 #undef __DEFAULT_FN_ATTRS
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_sub_epi8(__m128i __W, __mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_unpackhi_epi8(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_sll_epi16(__m256i __a, __m128i __count)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_set1_epi16(__mmask16 __M, short __A)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmpge_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_srli_epi16(__m128i __a, int __count)
Right-shifts each of 16-bit values in the 128-bit integer vector operand by the specified number of b...
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_test_epi16_mask(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_min_epu16(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_min_epu8(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmpeq_epi8_mask(__m128i __a, __m128i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmpge_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask2_permutex2var_epi16(__m256i __A, __m256i __I, __mmask16 __U, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_abs_epi16(__m256i __a)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_mov_epi16(__m128i __W, __mmask8 __U, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvtusepi16_epi8(__mmask8 __M, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_mullo_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_permutexvar_epi16(__m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_srli_epi16(__m256i __a, int __count)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_unpacklo_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvtsepi16_epi8(__m128i __O, __mmask8 __M, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_permutexvar_epi16(__mmask8 __M, __m128i __A, __m128i __B)
static __inline__ void __DEFAULT_FN_ATTRS _mm256_mask_cvtepi16_storeu_epi8(void *__P, __mmask16 __M, __m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_min_epu8(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvtepu8_epi16(__mmask8 __U, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_srl_epi16(__mmask16 __U, __m256i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_subs_epu8(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_srai_epi16(__m128i __a, int __count)
Right-shifts each 16-bit value in the 128-bit integer vector operand by the specified number of bits...
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmpge_epi8_mask(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_sub_epi8(__m256i __W, __mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_unpacklo_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_mulhrs_epi16(__mmask8 __U, __m128i __X, __m128i __Y)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_packus_epi32(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_adds_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm256_mask_cvtsepi16_epi8(__m128i __O, __mmask16 __M, __m256i __A)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmpgt_epi8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_permutex2var_epi16(__m128i __A, __mmask8 __U, __m128i __I, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_max_epu8(__mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_mulhi_epu16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_packs_epi32(__m128i __a, __m128i __b)
Converts 32-bit signed integers from both 128-bit integer vector operands into 16-bit signed integers...
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmpge_epu16_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_slli_epi16(__mmask8 __U, __m128i __A, int __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_srav_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_min_epu8(__mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_broadcastb_epi8(__mmask16 __M, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_max_epi8(__mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmplt_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_subs_epu8(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_srai_epi16(__m128i __W, __mmask8 __U, __m128i __A, int __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_loadu_epi16(__mmask8 __U, void const *__P)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_abs_epi8(__mmask32 __U, __m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm256_maskz_cvtusepi16_epi8(__mmask16 __M, __m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_avg_epu16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_adds_epu16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_subs_epi8(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_test_epi8_mask(__m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_slli_epi16(__m128i __W, __mmask8 __U, __m128i __A, int __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmpgt_epi8_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_avg_epu8(__m256i __W, __mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmplt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_srli_epi16(__mmask8 __U, __m128i __A, int __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_broadcastb_epi8(__mmask32 __M, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_slli_epi16(__m128i __a, int __count)
Left-shifts each 16-bit value in the 128-bit integer vector operand by the specified number of bits...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_adds_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_sub_epi16(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_min_epi8(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_adds_epi8(__m256i __a, __m256i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_shuffle_epi8(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_min_epi8(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_mulhi_epu16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_blend_epi16(__mmask16 __U, __m256i __A, __m256i __W)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_packus_epi32(__m128i __V1, __m128i __V2)
Converts 32-bit signed integers from both 128-bit integer vector operands into 16-bit unsigned intege...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_subs_epu16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_abs_epi8(__m256i __W, __mmask32 __U, __m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_min_epi8(__mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_mulhrs_epi16(__m256i __W, __mmask16 __U, __m256i __X, __m256i __Y)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_shuffle_epi8(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_loadu_epi8(__mmask16 __U, void const *__P)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_abs_epi16(__m128i __W, __mmask8 __U, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_sub_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_max_epu8(__m256i __a, __m256i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmple_epi8_mask(__m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_sub_epi8(__m128i __a, __m128i __b)
Subtracts the corresponding 8-bit integer values in the operands.
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmpeq_epu8_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_abs_epi8(__m256i __a)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_subs_epu16(__m256i __a, __m256i __b)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmpneq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_srai_epi16(__m256i __a, int __count)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_max_epu16(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_adds_epu8(__m256i __W, __mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_min_epi8(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_set1_epi8(__m128i __O, __mmask16 __M, char __A)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmpneq_epu8_mask(__m128i __a, __m128i __b)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmpneq_epu16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_adds_epu8(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvtsepi16_epi8(__m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_sllv_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_broadcastb_epi8(__m256i __O, __mmask32 __M, __m128i __A)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmplt_epi8_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_add_epi8(__m256i __W, __mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_subs_epi16(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_subs_epu16(__m128i __a, __m128i __b)
Subtracts corresponding 16-bit unsigned integer values in the input and returns the differences in th...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_unpacklo_epi8(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_adds_epi16(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm256_maskz_cvtepi16_epi8(__mmask16 __M, __m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_packs_epi32(__m256i __W, __mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvtsepi16_epi8(__mmask8 __M, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_maddubs_epi16(__m256i __W, __mmask16 __U, __m256i __X, __m256i __Y)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_set1_epi16(__m256i __O, __mmask16 __M, short __A)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmpgt_epu8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_movm_epi8(__mmask16 __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maddubs_epi16(__m128i __a, __m128i __b)
Multiplies corresponding pairs of packed 8-bit unsigned integer values contained in the first source ...
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmplt_epi16_mask(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_madd_epi16(__mmask8 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_min_epi8(__m128i __V1, __m128i __V2)
Compares the corresponding elements of two 128-bit vectors of [16 x i8] and returns a 128-bit vector ...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm256_maskz_cvtsepi16_epi8(__mmask16 __M, __m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_shuffle_epi8(__m128i __W, __mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_packs_epi32(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_test_epi8_mask(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maddubs_epi16(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_avg_epu8(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmpneq_epu16_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_min_epi8(__mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_slli_epi16(__m256i __W, __mmask16 __U, __m256i __A, int __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvtusepi16_epi8(__m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_max_epi16(__mmask8 __M, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_mulhrs_epi16(__m128i __W, __mmask8 __U, __m128i __X, __m128i __Y)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_unpackhi_epi8(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_movepi8_mask(__m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvtepi8_epi16(__mmask8 __U, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_permutex2var_epi16(__m256i __A, __m256i __I, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_packus_epi16(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_abs_epi16(__mmask8 __U, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_cvtepi8_epi16(__m128i __V)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_madd_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_srav_epi16(__m256i __A, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_testn_epi8_mask(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_movm_epi16(__mmask8 __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_permutex2var_epi16(__m256i __A, __mmask16 __U, __m256i __I, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmpneq_epu16_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_subs_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_srl_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_unpackhi_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_cvtepu8_epi16(__mmask16 __U, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_mulhi_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_add_epi16(__m256i __a, __m256i __b)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_testn_epi8_mask(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_avg_epu16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_subs_epu8(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_max_epu16(__m128i __W, __mmask8 __M, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_loadu_epi16(__m128i __W, __mmask8 __U, void const *__P)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmplt_epi16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_undefined_si256(void)
Create a 256-bit integer vector with undefined values.
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_mov_epi16(__mmask16 __U, __m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_unpacklo_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_permutexvar_epi16(__m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_unpackhi_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvtusepi16_epi8(__m128i __O, __mmask8 __M, __m128i __A)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_testn_epi16_mask(__m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mulhi_epu16(__m256i __a, __m256i __b)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmpge_epu8_mask(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_sub_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmpgt_epu8_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_abs_epi16(__m256i __W, __mmask16 __U, __m256i __A)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmpneq_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_mov_epi16(__m256i __W, __mmask16 __U, __m256i __A)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmple_epi8_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_subs_epu16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_movepi8_mask(__m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_sra_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_srai_epi16(__m256i __W, __mmask16 __U, __m256i __A, int __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_max_epi8(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_unpacklo_epi8(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm256_mask_cvtusepi16_epi8(__m128i __O, __mmask16 __M, __m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_adds_epu16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_subs_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ void __DEFAULT_FN_ATTRS _mm256_mask_storeu_epi16(void *__P, __mmask16 __U, __m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_adds_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmpge_epi8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_broadcastb_epi8(__m128i __X)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_add_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm256_mask_cvtepi16_epi8(__m128i __O, __mmask16 __M, __m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_packs_epi16(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvtepi16_epi8(__mmask8 __M, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_shuffle_epi8(__m256i __W, __mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmplt_epu8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_adds_epu8(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_movepi16_mask(__m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_sll_epi16(__mmask16 __U, __m256i __A, __m128i __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_test_epi16_mask(__m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_adds_epi16(__m128i __a, __m128i __b)
Adds, with saturation, the corresponding elements of two 128-bit signed [8 x i16] vectors...
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmpeq_epu8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_srli_epi16(__mmask16 __U, __m256i __A, int __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_max_epi16(__m256i __W, __mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_packs_epi16(__m128i __a, __m128i __b)
Converts 16-bit signed integers from both 128-bit integer vector operands into 8-bit signed integers...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_unpackhi_epi8(__m256i __a, __m256i __b)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmpneq_epu8_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_min_epu16(__mmask8 __M, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_avg_epu16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_mulhi_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_permutexvar_epi16(__m128i __W, __mmask8 __M, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_packus_epi16(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_mov_epi16(__mmask8 __U, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_broadcastw_epi16(__m128i __X)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmpge_epu16_mask(__m128i __a, __m128i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmple_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvtepu8_epi16(__m128i __V)
Zero-extends each of the lower eight 8-bit integer elements of a 128-bit vector of [16 x i8] to 16-bi...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_cvtepu8_epi16(__m256i __W, __mmask16 __U, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_mulhi_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmple_epu16_mask(__m128i __a, __m128i __b)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmpgt_epu16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_sub_epi8(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmpgt_epu16_mask(__m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask2_permutex2var_epi16(__m128i __A, __m128i __I, __mmask8 __U, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_adds_epi8(__m256i __W, __mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmpeq_epi8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_min_epu16(__m128i __V1, __m128i __V2)
Compares the corresponding elements of two 128-bit vectors of [8 x u16] and returns a 128-bit vector ...
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_avg_epu8(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_srli_epi16(__m128i __W, __mmask8 __U, __m128i __A, int __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmpgt_epu16_mask(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_srl_epi16(__m256i __a, __m128i __count)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_unpacklo_epi8(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mulhrs_epi16(__m128i __a, __m128i __b)
Multiplies packed 16-bit signed integer values, truncates the 32-bit products to the 18 most signific...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_max_epu16(__m128i __V1, __m128i __V2)
Compares the corresponding elements of two 128-bit vectors of [8 x u16] and returns a 128-bit vector ...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_movm_epi8(__mmask32 __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_broadcastb_epi8(__m128i __O, __mmask16 __M, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm256_cvtsepi16_epi8(__m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_maddubs_epi16(__mmask16 __U, __m256i __X, __m256i __Y)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_srlv_epi16(__m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_srl_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_min_epu8(__mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_srlv_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_set1_epi16(__mmask8 __M, short __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_sra_epi16(__mmask16 __U, __m256i __A, __m128i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmpgt_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_unpackhi_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_min_epi16(__m128i __a, __m128i __b)
Compares corresponding elements of two 128-bit signed [8 x i16] vectors, saving the smaller value fro...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_srlv_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_sllv_epi16(__m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_sra_epi16(__m256i __a, __m128i __count)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_avg_epu16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_sra_epi16(__m128i __a, __m128i __count)
Right-shifts each 16-bit value in the 128-bit integer vector operand by the specified number of bits...
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_testn_epi8_mask(__m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_adds_epu8(__m128i __W, __mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_unpacklo_epi16(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_subs_epu8(__m256i __W, __mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_cvtepu8_epi16(__m128i __V)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_subs_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ void __DEFAULT_FN_ATTRS _mm_mask_cvtsepi16_storeu_epi8(void *__P, __mmask8 __M, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_add_epi8(__m128i __a, __m128i __b)
Adds the corresponding elements of two 128-bit vectors of [16 x i8], saving the lower 8 bits of each ...
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmpge_epi16_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_adds_epi8(__m128i __a, __m128i __b)
Adds, with saturation, the corresponding elements of two 128-bit signed [16 x i8] vectors...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_avg_epu16(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_sllv_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ vector float vector float __b
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_add_epi8(__m128i __W, __mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_unpackhi_epi8(__m128i __W, __mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_mulhi_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmpgt_epi8_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_abs_epi8(__m128i __a)
Computes the absolute value of each of the packed 8-bit signed integers in the source operand and sto...
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmpeq_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_mulhrs_epi16(__mmask16 __U, __m256i __X, __m256i __Y)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvtepi16_epi8(__m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_packus_epi16(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_max_epi8(__mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_permutex2var_epi16(__mmask8 __U, __m128i __A, __m128i __I, __m128i __B)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmpgt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_max_epi8(__m128i __V1, __m128i __V2)
Compares the corresponding elements of two 128-bit vectors of [16 x i8] and returns a 128-bit vector ...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_add_epi16(__m128i __a, __m128i __b)
Adds the corresponding elements of two 128-bit vectors of [8 x i16], saving the lower 16 bits of each...
static __inline__ void __DEFAULT_FN_ATTRS _mm_mask_storeu_epi16(void *__P, __mmask8 __U, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_subs_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_add_epi8(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_min_epi16(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_packus_epi32(__mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_sub_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_min_epu8(__m128i __a, __m128i __b)
Compares corresponding elements of two 128-bit unsigned [16 x i8] vectors, saving the smaller value f...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_max_epi16(__m256i __a, __m256i __b)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmpneq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_blend_epi16(__mmask8 __U, __m128i __A, __m128i __W)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_sub_epi8(__m256i __a, __m256i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmplt_epi8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_max_epu16(__mmask8 __M, __m128i __A, __m128i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmpneq_epi8_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_packs_epi32(__m256i __a, __m256i __b)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmple_epi16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_max_epi8(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_add_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmpneq_epi8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_maddubs_epi16(__m128i __W, __mmask8 __U, __m128i __X, __m128i __Y)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmpge_epu8_mask(__m128i __a, __m128i __b)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmpneq_epi16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_broadcastw_epi16(__mmask16 __M, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mullo_epi16(__m128i __a, __m128i __b)
Multiplies the corresponding elements of two signed [8 x i16] vectors, saving the lower 16 bits of ea...
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmpneq_epi8_mask(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_abs_epi16(__mmask16 __U, __m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_min_epi16(__m256i __W, __mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmple_epu16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_movepi16_mask(__m256i __A)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmpneq_epu8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_test_epi8_mask(__mmask32 __U, __m256i __A, __m256i __B)
static __inline __m128i __DEFAULT_FN_ATTRS _mm_setzero_hi(void)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_max_epu8(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmpgt_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_srav_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_test_epi8_mask(__m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_broadcastb_epi8(__m128i __X)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmplt_epi8_mask(__m256i __a, __m256i __b)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmpeq_epu16_mask(__m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_sll_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm256_cvtusepi16_epi8(__m256i __A)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmple_epi16_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvtepi8_epi16(__m128i __W, __mmask8 __U, __m128i __A)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmpge_epi8_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_cvtepi8_epi16(__m256i __W, __mmask16 __U, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_abs_epi8(__m128i __W, __mmask16 __U, __m128i __A)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmpgt_epi16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmpeq_epu16_mask(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_set1_epi8(__mmask32 __M, char __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_mov_epi8(__m256i __W, __mmask32 __U, __m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_permutexvar_epi16(__m256i __W, __mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmpge_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_blend_epi8(__mmask16 __U, __m128i __A, __m128i __W)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_max_epi16(__m128i __a, __m128i __b)
Compares corresponding elements of two 128-bit signed [8 x i16] vectors, saving the greater value fro...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_max_epu8(__m128i __a, __m128i __b)
Compares corresponding elements of two 128-bit unsigned [16 x i8] vectors, saving the greater value f...
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmplt_epu8_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_max_epu8(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_testn_epi8_mask(__m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_add_epi8(__m256i __a, __m256i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmplt_epu8_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_sub_epi8(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_adds_epu16(__m128i __a, __m128i __b)
Adds, with saturation, the corresponding elements of two 128-bit unsigned [8 x i16] vectors...
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmpneq_epi16_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_add_epi8(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_adds_epu16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_sll_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_unpacklo_epi8(__m128i __a, __m128i __b)
Unpacks the low-order (index 0-7) values from two 128-bit vectors of [16 x i8] and interleaves them i...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_loadu_epi8(__mmask32 __U, void const *__P)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_packus_epi32(__mmask8 __M, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_abs_epi8(__mmask16 __U, __m128i __A)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmplt_epu16_mask(__m128i __a, __m128i __b)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmpge_epu16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_setzero_si128(void)
Creates a 128-bit integer vector initialized to zero.
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmple_epu8_mask(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_mullo_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmpeq_epi16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_max_epi8(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_mulhi_epu16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ void __DEFAULT_FN_ATTRS _mm256_mask_cvtsepi16_storeu_epi8(void *__P, __mmask16 __M, __m256i __A)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmplt_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_madd_epi16(__m128i __a, __m128i __b)
Multiplies the corresponding elements of two 128-bit signed [8 x i16] vectors, producing eight interm...
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmpeq_epi16_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_broadcastw_epi16(__m128i __X)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmple_epu16_mask(__m256i __a, __m256i __b)
static __inline__ void __DEFAULT_FN_ATTRS _mm256_mask_storeu_epi8(void *__P, __mmask32 __U, __m256i __A)
static __inline__ void __DEFAULT_FN_ATTRS _mm_mask_storeu_epi8(void *__P, __mmask16 __U, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_unpacklo_epi16(__m128i __a, __m128i __b)
Unpacks the low-order (index 0-3) values from each of the two 128-bit vectors of [8 x i16] and interl...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_slli_epi16(__mmask16 __U, __m256i __A, int __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmpgt_epi16_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_set1_epi8(__m256i __O, __mmask32 __M, char __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_sra_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_cvtepi8_epi16(__mmask16 __U, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_srli_epi16(__m256i __W, __mmask16 __U, __m256i __A, int __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_test_epi16_mask(__m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_subs_epi16(__m128i __a, __m128i __b)
Subtracts corresponding 16-bit signed integer values in the input and returns the differences in the ...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mulhi_epi16(__m128i __a, __m128i __b)
Multiplies the corresponding elements of two signed [8 x i16] vectors, saving the upper 16 bits of ea...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_shuffle_epi8(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_adds_epi8(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_subs_epu16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_adds_epu16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_adds_epu16(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_permutex2var_epi16(__m128i __A, __m128i __I, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_set1_epi8(__mmask16 __M, char __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_mov_epi8(__m128i __W, __mmask16 __U, __m128i __A)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmple_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_subs_epi8(__m128i __W, __mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_mov_epi8(__mmask32 __U, __m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_packus_epi16(__m128i __a, __m128i __b)
Converts 16-bit signed integers from both 128-bit integer vector operands into 8-bit unsigned integer...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_packs_epi16(__mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_max_epi16(__mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmplt_epi16_mask(__m128i __a, __m128i __b)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_subs_epu8(__m128i __a, __m128i __b)
Subtracts corresponding 8-bit unsigned integer values in the input and returns the differences in the...
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmpgt_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_adds_epu8(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_packus_epi16(__mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_avg_epu8(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_undefined_si128(void)
Generates a 128-bit vector of [4 x i32] with unspecified content.
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_min_epu16(__m128i __W, __mmask8 __M, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_subs_epu8(__m128i __W, __mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_min_epu16(__mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_min_epi16(__m128i __W, __mmask8 __M, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_srai_epi16(__mmask16 __U, __m256i __A, int __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_loadu_epi16(__mmask16 __U, void const *__P)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_unpacklo_epi8(__m256i __W, __mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_packs_epi16(__mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mulhi_epu16(__m128i __a, __m128i __b)
Multiplies the corresponding elements of two unsigned [8 x i16] vectors, saving the upper 16 bits of ...
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmplt_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_testn_epi16_mask(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_sll_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_unpackhi_epi8(__m128i __a, __m128i __b)
Unpacks the high-order (index 8-15) values from two 128-bit vectors of [16 x i8] and interleaves them...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_permutex2var_epi16(__mmask16 __U, __m256i __A, __m256i __I, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_madd_epi16(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_shuffle_epi8(__m128i __a, __m128i __b)
Copies the 8-bit integers from a 128-bit integer vector to the destination or clears 8-bit values in ...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_adds_epi8(__m128i __W, __mmask16 __U, __m128i __A, __m128i __B)
static __inline__ void __DEFAULT_FN_ATTRS _mm256_mask_cvtusepi16_storeu_epi8(void *__P, __mmask8 __M, __m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_avg_epu8(__m128i __W, __mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_srlv_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_slli_epi16(__m256i __a, int __count)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_avg_epu16(__m128i __a, __m128i __b)
Computes the rounded avarages of corresponding elements of two 128-bit unsigned [8 x i16] vectors...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_srav_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_mov_epi8(__mmask16 __U, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_adds_epi8(__mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_subs_epi8(__mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvtepu8_epi16(__m128i __W, __mmask8 __U, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_movm_epi16(__mmask16 __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_srl_epi16(__m128i __a, __m128i __count)
Right-shifts each of 16-bit values in the 128-bit integer vector operand by the specified number of b...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_srai_epi16(__mmask8 __U, __m128i __A, int __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_unpacklo_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_broadcastw_epi16(__m256i __O, __mmask16 __M, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_sll_epi16(__m128i __a, __m128i __count)
Left-shifts each 16-bit value in the 128-bit integer vector operand by the specified number of bits...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_permutexvar_epi16(__mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mulhi_epi16(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_loadu_epi8(__m128i __W, __mmask16 __U, void const *__P)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_subs_epi8(__m256i __W, __mmask32 __U, __m256i __A, __m256i __B)
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_cmpgt_epu8_mask(__m256i __a, __m256i __b)
static __inline__ void __DEFAULT_FN_ATTRS _mm_mask_cvtepi16_storeu_epi8(void *__P, __mmask8 __M, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_srlv_epi16(__m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_packs_epi32(__mmask8 __M, __m128i __A, __m128i __B)
static __inline __m256i __DEFAULT_FN_ATTRS _mm256_setzero_si256(void)
Constructs a 256-bit integer vector initialized to zero.
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_sub_epi16(__m128i __a, __m128i __b)
Subtracts the corresponding 16-bit integer values in the operands.
static __inline__ __mmask32 __DEFAULT_FN_ATTRS _mm256_mask_cmple_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmplt_epu16_mask(__m256i __a, __m256i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_testn_epi16_mask(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_min_epi16(__mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_packus_epi16(__mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmpge_epi16_mask(__m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_unpacklo_epi8(__m128i __W, __mmask16 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_min_epu16(__m256i __W, __mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_mullo_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmple_epu8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_sra_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_max_epu16(__m256i __W, __mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_subs_epi8(__m128i __a, __m128i __b)
Subtracts corresponding 8-bit signed integer values in the input and returns the differences in the c...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_madd_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_unpackhi_epi16(__m256i __a, __m256i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmple_epi8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_max_epu8(__mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_packs_epi16(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_abs_epi16(__m128i __a)
Computes the absolute value of each of the packed 16-bit signed integers in the source operand and st...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_sub_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmpneq_epi16_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_max_epu16(__mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_loadu_epi8(__m256i __W, __mmask32 __U, void const *__P)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_subs_epu16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmple_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmpneq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_packs_epi32(__mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_mulhi_epu16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_unpackhi_epi8(__m256i __W, __mmask32 __U, __m256i __A, __m256i __B)
static __inline__ void __DEFAULT_FN_ATTRS _mm_mask_cvtusepi16_storeu_epi8(void *__P, __mmask8 __M, __m128i __A)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmpge_epi16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_cmpgt_epi16_mask(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_packs_epi16(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_packus_epi32(__m256i __W, __mmask16 __M, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mullo_epi16(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_sllv_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_cmple_epu8_mask(__m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvtepi8_epi16(__m128i __V)
Sign-extends each of the lower eight 8-bit integer elements of a 128-bit vector of [16 x i8] to 16-bi...
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmplt_epu16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_madd_epi16(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_sllv_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_min_epi16(__mmask8 __M, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_avg_epu8(__m128i __a, __m128i __b)
Computes the rounded avarages of corresponding elements of two 128-bit unsigned [16 x i8] vectors...
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_test_epi16_mask(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_broadcastw_epi16(__m128i __O, __mmask8 __M, __m128i __A)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_testn_epi16_mask(__m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_adds_epu8(__m128i __a, __m128i __b)
Adds, with saturation, the corresponding elements of two 128-bit unsigned [16 x i8] vectors...
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_add_epi16(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mulhrs_epi16(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_broadcastw_epi16(__mmask8 __M, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_maddubs_epi16(__mmask8 __U, __m128i __X, __m128i __Y)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_packus_epi32(__m256i __V1, __m256i __V2)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_srl_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_unpackhi_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_adds_epi16(__m256i __W, __mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_subs_epi8(__m256i __a, __m256i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_mullo_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
#define __DEFAULT_FN_ATTRS
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_blend_epi8(__mmask32 __U, __m256i __A, __m256i __W)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm256_mask_cmpge_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_srav_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __mmask16 __DEFAULT_FN_ATTRS _mm_mask_cmpge_epu8_mask(__mmask16 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_srav_epi16(__m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvtepi16_epi8(__m128i __O, __mmask8 __M, __m128i __A)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_mask_cmpeq_epu16_mask(__mmask8 __u, __m128i __a, __m128i __b)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_unpackhi_epi16(__m128i __a, __m128i __b)
Unpacks the high-order (index 4-7) values from two 128-bit vectors of [8 x i16] and interleaves them ...
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_sllv_epi16(__m256i __A, __m256i __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_loadu_epi16(__m256i __W, __mmask16 __U, void const *__P)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_cmple_epi16_mask(__m128i __a, __m128i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_min_epu8(__m256i __a, __m256i __b)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_add_epi16(__mmask16 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_srlv_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_set1_epi16(__m128i __O, __mmask8 __M, short __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_max_epi16(__m128i __W, __mmask8 __M, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm256_cvtepi16_epi8(__m256i __A)