Lines Matching refs:vs2

24 vuint8mf8_t test_vbrev8_v_u8mf8_tu(vuint8mf8_t maskedoff, vuint8mf8_t vs2, size_t vl) {
25 return __riscv_vbrev8_v_u8mf8_tu(maskedoff, vs2, vl);
34 vuint8mf4_t test_vbrev8_v_u8mf4_tu(vuint8mf4_t maskedoff, vuint8mf4_t vs2, size_t vl) {
35 return __riscv_vbrev8_v_u8mf4_tu(maskedoff, vs2, vl);
44 vuint8mf2_t test_vbrev8_v_u8mf2_tu(vuint8mf2_t maskedoff, vuint8mf2_t vs2, size_t vl) {
45 return __riscv_vbrev8_v_u8mf2_tu(maskedoff, vs2, vl);
54 vuint8m1_t test_vbrev8_v_u8m1_tu(vuint8m1_t maskedoff, vuint8m1_t vs2, size_t vl) {
55 return __riscv_vbrev8_v_u8m1_tu(maskedoff, vs2, vl);
64 vuint8m2_t test_vbrev8_v_u8m2_tu(vuint8m2_t maskedoff, vuint8m2_t vs2, size_t vl) {
65 return __riscv_vbrev8_v_u8m2_tu(maskedoff, vs2, vl);
74 vuint8m4_t test_vbrev8_v_u8m4_tu(vuint8m4_t maskedoff, vuint8m4_t vs2, size_t vl) {
75 return __riscv_vbrev8_v_u8m4_tu(maskedoff, vs2, vl);
84 vuint8m8_t test_vbrev8_v_u8m8_tu(vuint8m8_t maskedoff, vuint8m8_t vs2, size_t vl) {
85 return __riscv_vbrev8_v_u8m8_tu(maskedoff, vs2, vl);
94 vuint16mf4_t test_vbrev8_v_u16mf4_tu(vuint16mf4_t maskedoff, vuint16mf4_t vs2, size_t vl) {
95 return __riscv_vbrev8_v_u16mf4_tu(maskedoff, vs2, vl);
104 vuint16mf2_t test_vbrev8_v_u16mf2_tu(vuint16mf2_t maskedoff, vuint16mf2_t vs2, size_t vl) {
105 return __riscv_vbrev8_v_u16mf2_tu(maskedoff, vs2, vl);
114 vuint16m1_t test_vbrev8_v_u16m1_tu(vuint16m1_t maskedoff, vuint16m1_t vs2, size_t vl) {
115 return __riscv_vbrev8_v_u16m1_tu(maskedoff, vs2, vl);
124 vuint16m2_t test_vbrev8_v_u16m2_tu(vuint16m2_t maskedoff, vuint16m2_t vs2, size_t vl) {
125 return __riscv_vbrev8_v_u16m2_tu(maskedoff, vs2, vl);
134 vuint16m4_t test_vbrev8_v_u16m4_tu(vuint16m4_t maskedoff, vuint16m4_t vs2, size_t vl) {
135 return __riscv_vbrev8_v_u16m4_tu(maskedoff, vs2, vl);
144 vuint16m8_t test_vbrev8_v_u16m8_tu(vuint16m8_t maskedoff, vuint16m8_t vs2, size_t vl) {
145 return __riscv_vbrev8_v_u16m8_tu(maskedoff, vs2, vl);
154 vuint32mf2_t test_vbrev8_v_u32mf2_tu(vuint32mf2_t maskedoff, vuint32mf2_t vs2, size_t vl) {
155 return __riscv_vbrev8_v_u32mf2_tu(maskedoff, vs2, vl);
164 vuint32m1_t test_vbrev8_v_u32m1_tu(vuint32m1_t maskedoff, vuint32m1_t vs2, size_t vl) {
165 return __riscv_vbrev8_v_u32m1_tu(maskedoff, vs2, vl);
174 vuint32m2_t test_vbrev8_v_u32m2_tu(vuint32m2_t maskedoff, vuint32m2_t vs2, size_t vl) {
175 return __riscv_vbrev8_v_u32m2_tu(maskedoff, vs2, vl);
184 vuint32m4_t test_vbrev8_v_u32m4_tu(vuint32m4_t maskedoff, vuint32m4_t vs2, size_t vl) {
185 return __riscv_vbrev8_v_u32m4_tu(maskedoff, vs2, vl);
194 vuint32m8_t test_vbrev8_v_u32m8_tu(vuint32m8_t maskedoff, vuint32m8_t vs2, size_t vl) {
195 return __riscv_vbrev8_v_u32m8_tu(maskedoff, vs2, vl);
204 vuint64m1_t test_vbrev8_v_u64m1_tu(vuint64m1_t maskedoff, vuint64m1_t vs2, size_t vl) {
205 return __riscv_vbrev8_v_u64m1_tu(maskedoff, vs2, vl);
214 vuint64m2_t test_vbrev8_v_u64m2_tu(vuint64m2_t maskedoff, vuint64m2_t vs2, size_t vl) {
215 return __riscv_vbrev8_v_u64m2_tu(maskedoff, vs2, vl);
224 vuint64m4_t test_vbrev8_v_u64m4_tu(vuint64m4_t maskedoff, vuint64m4_t vs2, size_t vl) {
225 return __riscv_vbrev8_v_u64m4_tu(maskedoff, vs2, vl);
234 vuint64m8_t test_vbrev8_v_u64m8_tu(vuint64m8_t maskedoff, vuint64m8_t vs2, size_t vl) {
235 return __riscv_vbrev8_v_u64m8_tu(maskedoff, vs2, vl);
244 vuint8mf8_t test_vbrev8_v_u8mf8_tum(vbool64_t mask, vuint8mf8_t maskedoff, vuint8mf8_t vs2, size_t vl) {
245 return __riscv_vbrev8_v_u8mf8_tum(mask, maskedoff, vs2, vl);
254 vuint8mf4_t test_vbrev8_v_u8mf4_tum(vbool32_t mask, vuint8mf4_t maskedoff, vuint8mf4_t vs2, size_t vl) {
255 return __riscv_vbrev8_v_u8mf4_tum(mask, maskedoff, vs2, vl);
264 vuint8mf2_t test_vbrev8_v_u8mf2_tum(vbool16_t mask, vuint8mf2_t maskedoff, vuint8mf2_t vs2, size_t vl) {
265 return __riscv_vbrev8_v_u8mf2_tum(mask, maskedoff, vs2, vl);
274 vuint8m1_t test_vbrev8_v_u8m1_tum(vbool8_t mask, vuint8m1_t maskedoff, vuint8m1_t vs2, size_t vl) {
275 return __riscv_vbrev8_v_u8m1_tum(mask, maskedoff, vs2, vl);
284 vuint8m2_t test_vbrev8_v_u8m2_tum(vbool4_t mask, vuint8m2_t maskedoff, vuint8m2_t vs2, size_t vl) {
285 return __riscv_vbrev8_v_u8m2_tum(mask, maskedoff, vs2, vl);
294 vuint8m4_t test_vbrev8_v_u8m4_tum(vbool2_t mask, vuint8m4_t maskedoff, vuint8m4_t vs2, size_t vl) {
295 return __riscv_vbrev8_v_u8m4_tum(mask, maskedoff, vs2, vl);
304 vuint8m8_t test_vbrev8_v_u8m8_tum(vbool1_t mask, vuint8m8_t maskedoff, vuint8m8_t vs2, size_t vl) {
305 return __riscv_vbrev8_v_u8m8_tum(mask, maskedoff, vs2, vl);
314 vuint16mf4_t test_vbrev8_v_u16mf4_tum(vbool64_t mask, vuint16mf4_t maskedoff, vuint16mf4_t vs2, size_t vl) {
315 return __riscv_vbrev8_v_u16mf4_tum(mask, maskedoff, vs2, vl);
324 vuint16mf2_t test_vbrev8_v_u16mf2_tum(vbool32_t mask, vuint16mf2_t maskedoff, vuint16mf2_t vs2, size_t vl) {
325 return __riscv_vbrev8_v_u16mf2_tum(mask, maskedoff, vs2, vl);
334 vuint16m1_t test_vbrev8_v_u16m1_tum(vbool16_t mask, vuint16m1_t maskedoff, vuint16m1_t vs2, size_t vl) {
335 return __riscv_vbrev8_v_u16m1_tum(mask, maskedoff, vs2, vl);
344 vuint16m2_t test_vbrev8_v_u16m2_tum(vbool8_t mask, vuint16m2_t maskedoff, vuint16m2_t vs2, size_t vl) {
345 return __riscv_vbrev8_v_u16m2_tum(mask, maskedoff, vs2, vl);
354 vuint16m4_t test_vbrev8_v_u16m4_tum(vbool4_t mask, vuint16m4_t maskedoff, vuint16m4_t vs2, size_t vl) {
355 return __riscv_vbrev8_v_u16m4_tum(mask, maskedoff, vs2, vl);
364 vuint16m8_t test_vbrev8_v_u16m8_tum(vbool2_t mask, vuint16m8_t maskedoff, vuint16m8_t vs2, size_t vl) {
365 return __riscv_vbrev8_v_u16m8_tum(mask, maskedoff, vs2, vl);
374 vuint32mf2_t test_vbrev8_v_u32mf2_tum(vbool64_t mask, vuint32mf2_t maskedoff, vuint32mf2_t vs2, size_t vl) {
375 return __riscv_vbrev8_v_u32mf2_tum(mask, maskedoff, vs2, vl);
384 vuint32m1_t test_vbrev8_v_u32m1_tum(vbool32_t mask, vuint32m1_t maskedoff, vuint32m1_t vs2, size_t vl) {
385 return __riscv_vbrev8_v_u32m1_tum(mask, maskedoff, vs2, vl);
394 vuint32m2_t test_vbrev8_v_u32m2_tum(vbool16_t mask, vuint32m2_t maskedoff, vuint32m2_t vs2, size_t vl) {
395 return __riscv_vbrev8_v_u32m2_tum(mask, maskedoff, vs2, vl);
404 vuint32m4_t test_vbrev8_v_u32m4_tum(vbool8_t mask, vuint32m4_t maskedoff, vuint32m4_t vs2, size_t vl) {
405 return __riscv_vbrev8_v_u32m4_tum(mask, maskedoff, vs2, vl);
414 vuint32m8_t test_vbrev8_v_u32m8_tum(vbool4_t mask, vuint32m8_t maskedoff, vuint32m8_t vs2, size_t vl) {
415 return __riscv_vbrev8_v_u32m8_tum(mask, maskedoff, vs2, vl);
424 vuint64m1_t test_vbrev8_v_u64m1_tum(vbool64_t mask, vuint64m1_t maskedoff, vuint64m1_t vs2, size_t vl) {
425 return __riscv_vbrev8_v_u64m1_tum(mask, maskedoff, vs2, vl);
434 vuint64m2_t test_vbrev8_v_u64m2_tum(vbool32_t mask, vuint64m2_t maskedoff, vuint64m2_t vs2, size_t vl) {
435 return __riscv_vbrev8_v_u64m2_tum(mask, maskedoff, vs2, vl);
444 vuint64m4_t test_vbrev8_v_u64m4_tum(vbool16_t mask, vuint64m4_t maskedoff, vuint64m4_t vs2, size_t vl) {
445 return __riscv_vbrev8_v_u64m4_tum(mask, maskedoff, vs2, vl);
454 vuint64m8_t test_vbrev8_v_u64m8_tum(vbool8_t mask, vuint64m8_t maskedoff, vuint64m8_t vs2, size_t vl) {
455 return __riscv_vbrev8_v_u64m8_tum(mask, maskedoff, vs2, vl);
464 vuint8mf8_t test_vbrev8_v_u8mf8_tumu(vbool64_t mask, vuint8mf8_t maskedoff, vuint8mf8_t vs2, size_t vl) {
465 return __riscv_vbrev8_v_u8mf8_tumu(mask, maskedoff, vs2, vl);
474 vuint8mf4_t test_vbrev8_v_u8mf4_tumu(vbool32_t mask, vuint8mf4_t maskedoff, vuint8mf4_t vs2, size_t vl) {
475 return __riscv_vbrev8_v_u8mf4_tumu(mask, maskedoff, vs2, vl);
484 vuint8mf2_t test_vbrev8_v_u8mf2_tumu(vbool16_t mask, vuint8mf2_t maskedoff, vuint8mf2_t vs2, size_t vl) {
485 return __riscv_vbrev8_v_u8mf2_tumu(mask, maskedoff, vs2, vl);
494 vuint8m1_t test_vbrev8_v_u8m1_tumu(vbool8_t mask, vuint8m1_t maskedoff, vuint8m1_t vs2, size_t vl) {
495 return __riscv_vbrev8_v_u8m1_tumu(mask, maskedoff, vs2, vl);
504 vuint8m2_t test_vbrev8_v_u8m2_tumu(vbool4_t mask, vuint8m2_t maskedoff, vuint8m2_t vs2, size_t vl) {
505 return __riscv_vbrev8_v_u8m2_tumu(mask, maskedoff, vs2, vl);
514 vuint8m4_t test_vbrev8_v_u8m4_tumu(vbool2_t mask, vuint8m4_t maskedoff, vuint8m4_t vs2, size_t vl) {
515 return __riscv_vbrev8_v_u8m4_tumu(mask, maskedoff, vs2, vl);
524 vuint8m8_t test_vbrev8_v_u8m8_tumu(vbool1_t mask, vuint8m8_t maskedoff, vuint8m8_t vs2, size_t vl) {
525 return __riscv_vbrev8_v_u8m8_tumu(mask, maskedoff, vs2, vl);
534 vuint16mf4_t test_vbrev8_v_u16mf4_tumu(vbool64_t mask, vuint16mf4_t maskedoff, vuint16mf4_t vs2, size_t vl) {
535 return __riscv_vbrev8_v_u16mf4_tumu(mask, maskedoff, vs2, vl);
544 vuint16mf2_t test_vbrev8_v_u16mf2_tumu(vbool32_t mask, vuint16mf2_t maskedoff, vuint16mf2_t vs2, size_t vl) {
545 return __riscv_vbrev8_v_u16mf2_tumu(mask, maskedoff, vs2, vl);
554 vuint16m1_t test_vbrev8_v_u16m1_tumu(vbool16_t mask, vuint16m1_t maskedoff, vuint16m1_t vs2, size_t vl) {
555 return __riscv_vbrev8_v_u16m1_tumu(mask, maskedoff, vs2, vl);
564 vuint16m2_t test_vbrev8_v_u16m2_tumu(vbool8_t mask, vuint16m2_t maskedoff, vuint16m2_t vs2, size_t vl) {
565 return __riscv_vbrev8_v_u16m2_tumu(mask, maskedoff, vs2, vl);
574 vuint16m4_t test_vbrev8_v_u16m4_tumu(vbool4_t mask, vuint16m4_t maskedoff, vuint16m4_t vs2, size_t vl) {
575 return __riscv_vbrev8_v_u16m4_tumu(mask, maskedoff, vs2, vl);
584 vuint16m8_t test_vbrev8_v_u16m8_tumu(vbool2_t mask, vuint16m8_t maskedoff, vuint16m8_t vs2, size_t vl) {
585 return __riscv_vbrev8_v_u16m8_tumu(mask, maskedoff, vs2, vl);
594 vuint32mf2_t test_vbrev8_v_u32mf2_tumu(vbool64_t mask, vuint32mf2_t maskedoff, vuint32mf2_t vs2, size_t vl) {
595 return __riscv_vbrev8_v_u32mf2_tumu(mask, maskedoff, vs2, vl);
604 vuint32m1_t test_vbrev8_v_u32m1_tumu(vbool32_t mask, vuint32m1_t maskedoff, vuint32m1_t vs2, size_t vl) {
605 return __riscv_vbrev8_v_u32m1_tumu(mask, maskedoff, vs2, vl);
614 vuint32m2_t test_vbrev8_v_u32m2_tumu(vbool16_t mask, vuint32m2_t maskedoff, vuint32m2_t vs2, size_t vl) {
615 return __riscv_vbrev8_v_u32m2_tumu(mask, maskedoff, vs2, vl);
624 vuint32m4_t test_vbrev8_v_u32m4_tumu(vbool8_t mask, vuint32m4_t maskedoff, vuint32m4_t vs2, size_t vl) {
625 return __riscv_vbrev8_v_u32m4_tumu(mask, maskedoff, vs2, vl);
634 vuint32m8_t test_vbrev8_v_u32m8_tumu(vbool4_t mask, vuint32m8_t maskedoff, vuint32m8_t vs2, size_t vl) {
635 return __riscv_vbrev8_v_u32m8_tumu(mask, maskedoff, vs2, vl);
644 vuint64m1_t test_vbrev8_v_u64m1_tumu(vbool64_t mask, vuint64m1_t maskedoff, vuint64m1_t vs2, size_t vl) {
645 return __riscv_vbrev8_v_u64m1_tumu(mask, maskedoff, vs2, vl);
654 vuint64m2_t test_vbrev8_v_u64m2_tumu(vbool32_t mask, vuint64m2_t maskedoff, vuint64m2_t vs2, size_t vl) {
655 return __riscv_vbrev8_v_u64m2_tumu(mask, maskedoff, vs2, vl);
664 vuint64m4_t test_vbrev8_v_u64m4_tumu(vbool16_t mask, vuint64m4_t maskedoff, vuint64m4_t vs2, size_t vl) {
665 return __riscv_vbrev8_v_u64m4_tumu(mask, maskedoff, vs2, vl);
674 vuint64m8_t test_vbrev8_v_u64m8_tumu(vbool8_t mask, vuint64m8_t maskedoff, vuint64m8_t vs2, size_t vl) {
675 return __riscv_vbrev8_v_u64m8_tumu(mask, maskedoff, vs2, vl);
684 vuint8mf8_t test_vbrev8_v_u8mf8_mu(vbool64_t mask, vuint8mf8_t maskedoff, vuint8mf8_t vs2, size_t vl) {
685 return __riscv_vbrev8_v_u8mf8_mu(mask, maskedoff, vs2, vl);
694 vuint8mf4_t test_vbrev8_v_u8mf4_mu(vbool32_t mask, vuint8mf4_t maskedoff, vuint8mf4_t vs2, size_t vl) {
695 return __riscv_vbrev8_v_u8mf4_mu(mask, maskedoff, vs2, vl);
704 vuint8mf2_t test_vbrev8_v_u8mf2_mu(vbool16_t mask, vuint8mf2_t maskedoff, vuint8mf2_t vs2, size_t vl) {
705 return __riscv_vbrev8_v_u8mf2_mu(mask, maskedoff, vs2, vl);
714 vuint8m1_t test_vbrev8_v_u8m1_mu(vbool8_t mask, vuint8m1_t maskedoff, vuint8m1_t vs2, size_t vl) {
715 return __riscv_vbrev8_v_u8m1_mu(mask, maskedoff, vs2, vl);
724 vuint8m2_t test_vbrev8_v_u8m2_mu(vbool4_t mask, vuint8m2_t maskedoff, vuint8m2_t vs2, size_t vl) {
725 return __riscv_vbrev8_v_u8m2_mu(mask, maskedoff, vs2, vl);
734 vuint8m4_t test_vbrev8_v_u8m4_mu(vbool2_t mask, vuint8m4_t maskedoff, vuint8m4_t vs2, size_t vl) {
735 return __riscv_vbrev8_v_u8m4_mu(mask, maskedoff, vs2, vl);
744 vuint8m8_t test_vbrev8_v_u8m8_mu(vbool1_t mask, vuint8m8_t maskedoff, vuint8m8_t vs2, size_t vl) {
745 return __riscv_vbrev8_v_u8m8_mu(mask, maskedoff, vs2, vl);
754 vuint16mf4_t test_vbrev8_v_u16mf4_mu(vbool64_t mask, vuint16mf4_t maskedoff, vuint16mf4_t vs2, size_t vl) {
755 return __riscv_vbrev8_v_u16mf4_mu(mask, maskedoff, vs2, vl);
764 vuint16mf2_t test_vbrev8_v_u16mf2_mu(vbool32_t mask, vuint16mf2_t maskedoff, vuint16mf2_t vs2, size_t vl) {
765 return __riscv_vbrev8_v_u16mf2_mu(mask, maskedoff, vs2, vl);
774 vuint16m1_t test_vbrev8_v_u16m1_mu(vbool16_t mask, vuint16m1_t maskedoff, vuint16m1_t vs2, size_t vl) {
775 return __riscv_vbrev8_v_u16m1_mu(mask, maskedoff, vs2, vl);
784 vuint16m2_t test_vbrev8_v_u16m2_mu(vbool8_t mask, vuint16m2_t maskedoff, vuint16m2_t vs2, size_t vl) {
785 return __riscv_vbrev8_v_u16m2_mu(mask, maskedoff, vs2, vl);
794 vuint16m4_t test_vbrev8_v_u16m4_mu(vbool4_t mask, vuint16m4_t maskedoff, vuint16m4_t vs2, size_t vl) {
795 return __riscv_vbrev8_v_u16m4_mu(mask, maskedoff, vs2, vl);
804 vuint16m8_t test_vbrev8_v_u16m8_mu(vbool2_t mask, vuint16m8_t maskedoff, vuint16m8_t vs2, size_t vl) {
805 return __riscv_vbrev8_v_u16m8_mu(mask, maskedoff, vs2, vl);
814 vuint32mf2_t test_vbrev8_v_u32mf2_mu(vbool64_t mask, vuint32mf2_t maskedoff, vuint32mf2_t vs2, size_t vl) {
815 return __riscv_vbrev8_v_u32mf2_mu(mask, maskedoff, vs2, vl);
824 vuint32m1_t test_vbrev8_v_u32m1_mu(vbool32_t mask, vuint32m1_t maskedoff, vuint32m1_t vs2, size_t vl) {
825 return __riscv_vbrev8_v_u32m1_mu(mask, maskedoff, vs2, vl);
834 vuint32m2_t test_vbrev8_v_u32m2_mu(vbool16_t mask, vuint32m2_t maskedoff, vuint32m2_t vs2, size_t vl) {
835 return __riscv_vbrev8_v_u32m2_mu(mask, maskedoff, vs2, vl);
844 vuint32m4_t test_vbrev8_v_u32m4_mu(vbool8_t mask, vuint32m4_t maskedoff, vuint32m4_t vs2, size_t vl) {
845 return __riscv_vbrev8_v_u32m4_mu(mask, maskedoff, vs2, vl);
854 vuint32m8_t test_vbrev8_v_u32m8_mu(vbool4_t mask, vuint32m8_t maskedoff, vuint32m8_t vs2, size_t vl) {
855 return __riscv_vbrev8_v_u32m8_mu(mask, maskedoff, vs2, vl);
864 vuint64m1_t test_vbrev8_v_u64m1_mu(vbool64_t mask, vuint64m1_t maskedoff, vuint64m1_t vs2, size_t vl) {
865 return __riscv_vbrev8_v_u64m1_mu(mask, maskedoff, vs2, vl);
874 vuint64m2_t test_vbrev8_v_u64m2_mu(vbool32_t mask, vuint64m2_t maskedoff, vuint64m2_t vs2, size_t vl) {
875 return __riscv_vbrev8_v_u64m2_mu(mask, maskedoff, vs2, vl);
884 vuint64m4_t test_vbrev8_v_u64m4_mu(vbool16_t mask, vuint64m4_t maskedoff, vuint64m4_t vs2, size_t vl) {
885 return __riscv_vbrev8_v_u64m4_mu(mask, maskedoff, vs2, vl);
894 vuint64m8_t test_vbrev8_v_u64m8_mu(vbool8_t mask, vuint64m8_t maskedoff, vuint64m8_t vs2, size_t vl) {
895 return __riscv_vbrev8_v_u64m8_mu(mask, maskedoff, vs2, vl);