Lines Matching defs:vs2
24 vuint8mf8_t test_vandn_vv_u8mf8(vuint8mf8_t vs2, vuint8mf8_t vs1, size_t vl) {
25 return __riscv_vandn_vv_u8mf8(vs2, vs1, vl);
34 vuint8mf8_t test_vandn_vx_u8mf8(vuint8mf8_t vs2, uint8_t rs1, size_t vl) {
35 return __riscv_vandn_vx_u8mf8(vs2, rs1, vl);
44 vuint8mf4_t test_vandn_vv_u8mf4(vuint8mf4_t vs2, vuint8mf4_t vs1, size_t vl) {
45 return __riscv_vandn_vv_u8mf4(vs2, vs1, vl);
54 vuint8mf4_t test_vandn_vx_u8mf4(vuint8mf4_t vs2, uint8_t rs1, size_t vl) {
55 return __riscv_vandn_vx_u8mf4(vs2, rs1, vl);
64 vuint8mf2_t test_vandn_vv_u8mf2(vuint8mf2_t vs2, vuint8mf2_t vs1, size_t vl) {
65 return __riscv_vandn_vv_u8mf2(vs2, vs1, vl);
74 vuint8mf2_t test_vandn_vx_u8mf2(vuint8mf2_t vs2, uint8_t rs1, size_t vl) {
75 return __riscv_vandn_vx_u8mf2(vs2, rs1, vl);
84 vuint8m1_t test_vandn_vv_u8m1(vuint8m1_t vs2, vuint8m1_t vs1, size_t vl) {
85 return __riscv_vandn_vv_u8m1(vs2, vs1, vl);
94 vuint8m1_t test_vandn_vx_u8m1(vuint8m1_t vs2, uint8_t rs1, size_t vl) {
95 return __riscv_vandn_vx_u8m1(vs2, rs1, vl);
104 vuint8m2_t test_vandn_vv_u8m2(vuint8m2_t vs2, vuint8m2_t vs1, size_t vl) {
105 return __riscv_vandn_vv_u8m2(vs2, vs1, vl);
114 vuint8m2_t test_vandn_vx_u8m2(vuint8m2_t vs2, uint8_t rs1, size_t vl) {
115 return __riscv_vandn_vx_u8m2(vs2, rs1, vl);
124 vuint8m4_t test_vandn_vv_u8m4(vuint8m4_t vs2, vuint8m4_t vs1, size_t vl) {
125 return __riscv_vandn_vv_u8m4(vs2, vs1, vl);
134 vuint8m4_t test_vandn_vx_u8m4(vuint8m4_t vs2, uint8_t rs1, size_t vl) {
135 return __riscv_vandn_vx_u8m4(vs2, rs1, vl);
144 vuint8m8_t test_vandn_vv_u8m8(vuint8m8_t vs2, vuint8m8_t vs1, size_t vl) {
145 return __riscv_vandn_vv_u8m8(vs2, vs1, vl);
154 vuint8m8_t test_vandn_vx_u8m8(vuint8m8_t vs2, uint8_t rs1, size_t vl) {
155 return __riscv_vandn_vx_u8m8(vs2, rs1, vl);
164 vuint16mf4_t test_vandn_vv_u16mf4(vuint16mf4_t vs2, vuint16mf4_t vs1, size_t vl) {
165 return __riscv_vandn_vv_u16mf4(vs2, vs1, vl);
174 vuint16mf4_t test_vandn_vx_u16mf4(vuint16mf4_t vs2, uint16_t rs1, size_t vl) {
175 return __riscv_vandn_vx_u16mf4(vs2, rs1, vl);
184 vuint16mf2_t test_vandn_vv_u16mf2(vuint16mf2_t vs2, vuint16mf2_t vs1, size_t vl) {
185 return __riscv_vandn_vv_u16mf2(vs2, vs1, vl);
194 vuint16mf2_t test_vandn_vx_u16mf2(vuint16mf2_t vs2, uint16_t rs1, size_t vl) {
195 return __riscv_vandn_vx_u16mf2(vs2, rs1, vl);
204 vuint16m1_t test_vandn_vv_u16m1(vuint16m1_t vs2, vuint16m1_t vs1, size_t vl) {
205 return __riscv_vandn_vv_u16m1(vs2, vs1, vl);
214 vuint16m1_t test_vandn_vx_u16m1(vuint16m1_t vs2, uint16_t rs1, size_t vl) {
215 return __riscv_vandn_vx_u16m1(vs2, rs1, vl);
224 vuint16m2_t test_vandn_vv_u16m2(vuint16m2_t vs2, vuint16m2_t vs1, size_t vl) {
225 return __riscv_vandn_vv_u16m2(vs2, vs1, vl);
234 vuint16m2_t test_vandn_vx_u16m2(vuint16m2_t vs2, uint16_t rs1, size_t vl) {
235 return __riscv_vandn_vx_u16m2(vs2, rs1, vl);
244 vuint16m4_t test_vandn_vv_u16m4(vuint16m4_t vs2, vuint16m4_t vs1, size_t vl) {
245 return __riscv_vandn_vv_u16m4(vs2, vs1, vl);
254 vuint16m4_t test_vandn_vx_u16m4(vuint16m4_t vs2, uint16_t rs1, size_t vl) {
255 return __riscv_vandn_vx_u16m4(vs2, rs1, vl);
264 vuint16m8_t test_vandn_vv_u16m8(vuint16m8_t vs2, vuint16m8_t vs1, size_t vl) {
265 return __riscv_vandn_vv_u16m8(vs2, vs1, vl);
274 vuint16m8_t test_vandn_vx_u16m8(vuint16m8_t vs2, uint16_t rs1, size_t vl) {
275 return __riscv_vandn_vx_u16m8(vs2, rs1, vl);
284 vuint32mf2_t test_vandn_vv_u32mf2(vuint32mf2_t vs2, vuint32mf2_t vs1, size_t vl) {
285 return __riscv_vandn_vv_u32mf2(vs2, vs1, vl);
294 vuint32mf2_t test_vandn_vx_u32mf2(vuint32mf2_t vs2, uint32_t rs1, size_t vl) {
295 return __riscv_vandn_vx_u32mf2(vs2, rs1, vl);
304 vuint32m1_t test_vandn_vv_u32m1(vuint32m1_t vs2, vuint32m1_t vs1, size_t vl) {
305 return __riscv_vandn_vv_u32m1(vs2, vs1, vl);
314 vuint32m1_t test_vandn_vx_u32m1(vuint32m1_t vs2, uint32_t rs1, size_t vl) {
315 return __riscv_vandn_vx_u32m1(vs2, rs1, vl);
324 vuint32m2_t test_vandn_vv_u32m2(vuint32m2_t vs2, vuint32m2_t vs1, size_t vl) {
325 return __riscv_vandn_vv_u32m2(vs2, vs1, vl);
334 vuint32m2_t test_vandn_vx_u32m2(vuint32m2_t vs2, uint32_t rs1, size_t vl) {
335 return __riscv_vandn_vx_u32m2(vs2, rs1, vl);
344 vuint32m4_t test_vandn_vv_u32m4(vuint32m4_t vs2, vuint32m4_t vs1, size_t vl) {
345 return __riscv_vandn_vv_u32m4(vs2, vs1, vl);
354 vuint32m4_t test_vandn_vx_u32m4(vuint32m4_t vs2, uint32_t rs1, size_t vl) {
355 return __riscv_vandn_vx_u32m4(vs2, rs1, vl);
364 vuint32m8_t test_vandn_vv_u32m8(vuint32m8_t vs2, vuint32m8_t vs1, size_t vl) {
365 return __riscv_vandn_vv_u32m8(vs2, vs1, vl);
374 vuint32m8_t test_vandn_vx_u32m8(vuint32m8_t vs2, uint32_t rs1, size_t vl) {
375 return __riscv_vandn_vx_u32m8(vs2, rs1, vl);
384 vuint64m1_t test_vandn_vv_u64m1(vuint64m1_t vs2, vuint64m1_t vs1, size_t vl) {
385 return __riscv_vandn_vv_u64m1(vs2, vs1, vl);
394 vuint64m1_t test_vandn_vx_u64m1(vuint64m1_t vs2, uint64_t rs1, size_t vl) {
395 return __riscv_vandn_vx_u64m1(vs2, rs1, vl);
404 vuint64m2_t test_vandn_vv_u64m2(vuint64m2_t vs2, vuint64m2_t vs1, size_t vl) {
405 return __riscv_vandn_vv_u64m2(vs2, vs1, vl);
414 vuint64m2_t test_vandn_vx_u64m2(vuint64m2_t vs2, uint64_t rs1, size_t vl) {
415 return __riscv_vandn_vx_u64m2(vs2, rs1, vl);
424 vuint64m4_t test_vandn_vv_u64m4(vuint64m4_t vs2, vuint64m4_t vs1, size_t vl) {
425 return __riscv_vandn_vv_u64m4(vs2, vs1, vl);
434 vuint64m4_t test_vandn_vx_u64m4(vuint64m4_t vs2, uint64_t rs1, size_t vl) {
435 return __riscv_vandn_vx_u64m4(vs2, rs1, vl);
444 vuint64m8_t test_vandn_vv_u64m8(vuint64m8_t vs2, vuint64m8_t vs1, size_t vl) {
445 return __riscv_vandn_vv_u64m8(vs2, vs1, vl);
454 vuint64m8_t test_vandn_vx_u64m8(vuint64m8_t vs2, uint64_t rs1, size_t vl) {
455 return __riscv_vandn_vx_u64m8(vs2, rs1, vl);
464 vuint8mf8_t test_vandn_vv_u8mf8_m(vbool64_t mask, vuint8mf8_t vs2, vuint8mf8_t vs1, size_t vl) {
465 return __riscv_vandn_vv_u8mf8_m(mask, vs2, vs1, vl);
474 vuint8mf8_t test_vandn_vx_u8mf8_m(vbool64_t mask, vuint8mf8_t vs2, uint8_t rs1, size_t vl) {
475 return __riscv_vandn_vx_u8mf8_m(mask, vs2, rs1, vl);
484 vuint8mf4_t test_vandn_vv_u8mf4_m(vbool32_t mask, vuint8mf4_t vs2, vuint8mf4_t vs1, size_t vl) {
485 return __riscv_vandn_vv_u8mf4_m(mask, vs2, vs1, vl);
494 vuint8mf4_t test_vandn_vx_u8mf4_m(vbool32_t mask, vuint8mf4_t vs2, uint8_t rs1, size_t vl) {
495 return __riscv_vandn_vx_u8mf4_m(mask, vs2, rs1, vl);
504 vuint8mf2_t test_vandn_vv_u8mf2_m(vbool16_t mask, vuint8mf2_t vs2, vuint8mf2_t vs1, size_t vl) {
505 return __riscv_vandn_vv_u8mf2_m(mask, vs2, vs1, vl);
514 vuint8mf2_t test_vandn_vx_u8mf2_m(vbool16_t mask, vuint8mf2_t vs2, uint8_t rs1, size_t vl) {
515 return __riscv_vandn_vx_u8mf2_m(mask, vs2, rs1, vl);
524 vuint8m1_t test_vandn_vv_u8m1_m(vbool8_t mask, vuint8m1_t vs2, vuint8m1_t vs1, size_t vl) {
525 return __riscv_vandn_vv_u8m1_m(mask, vs2, vs1, vl);
534 vuint8m1_t test_vandn_vx_u8m1_m(vbool8_t mask, vuint8m1_t vs2, uint8_t rs1, size_t vl) {
535 return __riscv_vandn_vx_u8m1_m(mask, vs2, rs1, vl);
544 vuint8m2_t test_vandn_vv_u8m2_m(vbool4_t mask, vuint8m2_t vs2, vuint8m2_t vs1, size_t vl) {
545 return __riscv_vandn_vv_u8m2_m(mask, vs2, vs1, vl);
554 vuint8m2_t test_vandn_vx_u8m2_m(vbool4_t mask, vuint8m2_t vs2, uint8_t rs1, size_t vl) {
555 return __riscv_vandn_vx_u8m2_m(mask, vs2, rs1, vl);
564 vuint8m4_t test_vandn_vv_u8m4_m(vbool2_t mask, vuint8m4_t vs2, vuint8m4_t vs1, size_t vl) {
565 return __riscv_vandn_vv_u8m4_m(mask, vs2, vs1, vl);
574 vuint8m4_t test_vandn_vx_u8m4_m(vbool2_t mask, vuint8m4_t vs2, uint8_t rs1, size_t vl) {
575 return __riscv_vandn_vx_u8m4_m(mask, vs2, rs1, vl);
584 vuint8m8_t test_vandn_vv_u8m8_m(vbool1_t mask, vuint8m8_t vs2, vuint8m8_t vs1, size_t vl) {
585 return __riscv_vandn_vv_u8m8_m(mask, vs2, vs1, vl);
594 vuint8m8_t test_vandn_vx_u8m8_m(vbool1_t mask, vuint8m8_t vs2, uint8_t rs1, size_t vl) {
595 return __riscv_vandn_vx_u8m8_m(mask, vs2, rs1, vl);
604 vuint16mf4_t test_vandn_vv_u16mf4_m(vbool64_t mask, vuint16mf4_t vs2, vuint16mf4_t vs1, size_t vl) {
605 return __riscv_vandn_vv_u16mf4_m(mask, vs2, vs1, vl);
614 vuint16mf4_t test_vandn_vx_u16mf4_m(vbool64_t mask, vuint16mf4_t vs2, uint16_t rs1, size_t vl) {
615 return __riscv_vandn_vx_u16mf4_m(mask, vs2, rs1, vl);
624 vuint16mf2_t test_vandn_vv_u16mf2_m(vbool32_t mask, vuint16mf2_t vs2, vuint16mf2_t vs1, size_t vl) {
625 return __riscv_vandn_vv_u16mf2_m(mask, vs2, vs1, vl);
634 vuint16mf2_t test_vandn_vx_u16mf2_m(vbool32_t mask, vuint16mf2_t vs2, uint16_t rs1, size_t vl) {
635 return __riscv_vandn_vx_u16mf2_m(mask, vs2, rs1, vl);
644 vuint16m1_t test_vandn_vv_u16m1_m(vbool16_t mask, vuint16m1_t vs2, vuint16m1_t vs1, size_t vl) {
645 return __riscv_vandn_vv_u16m1_m(mask, vs2, vs1, vl);
654 vuint16m1_t test_vandn_vx_u16m1_m(vbool16_t mask, vuint16m1_t vs2, uint16_t rs1, size_t vl) {
655 return __riscv_vandn_vx_u16m1_m(mask, vs2, rs1, vl);
664 vuint16m2_t test_vandn_vv_u16m2_m(vbool8_t mask, vuint16m2_t vs2, vuint16m2_t vs1, size_t vl) {
665 return __riscv_vandn_vv_u16m2_m(mask, vs2, vs1, vl);
674 vuint16m2_t test_vandn_vx_u16m2_m(vbool8_t mask, vuint16m2_t vs2, uint16_t rs1, size_t vl) {
675 return __riscv_vandn_vx_u16m2_m(mask, vs2, rs1, vl);
684 vuint16m4_t test_vandn_vv_u16m4_m(vbool4_t mask, vuint16m4_t vs2, vuint16m4_t vs1, size_t vl) {
685 return __riscv_vandn_vv_u16m4_m(mask, vs2, vs1, vl);
694 vuint16m4_t test_vandn_vx_u16m4_m(vbool4_t mask, vuint16m4_t vs2, uint16_t rs1, size_t vl) {
695 return __riscv_vandn_vx_u16m4_m(mask, vs2, rs1, vl);
704 vuint16m8_t test_vandn_vv_u16m8_m(vbool2_t mask, vuint16m8_t vs2, vuint16m8_t vs1, size_t vl) {
705 return __riscv_vandn_vv_u16m8_m(mask, vs2, vs1, vl);
714 vuint16m8_t test_vandn_vx_u16m8_m(vbool2_t mask, vuint16m8_t vs2, uint16_t rs1, size_t vl) {
715 return __riscv_vandn_vx_u16m8_m(mask, vs2, rs1, vl);
724 vuint32mf2_t test_vandn_vv_u32mf2_m(vbool64_t mask, vuint32mf2_t vs2, vuint32mf2_t vs1, size_t vl) {
725 return __riscv_vandn_vv_u32mf2_m(mask, vs2, vs1, vl);
734 vuint32mf2_t test_vandn_vx_u32mf2_m(vbool64_t mask, vuint32mf2_t vs2, uint32_t rs1, size_t vl) {
735 return __riscv_vandn_vx_u32mf2_m(mask, vs2, rs1, vl);
744 vuint32m1_t test_vandn_vv_u32m1_m(vbool32_t mask, vuint32m1_t vs2, vuint32m1_t vs1, size_t vl) {
745 return __riscv_vandn_vv_u32m1_m(mask, vs2, vs1, vl);
754 vuint32m1_t test_vandn_vx_u32m1_m(vbool32_t mask, vuint32m1_t vs2, uint32_t rs1, size_t vl) {
755 return __riscv_vandn_vx_u32m1_m(mask, vs2, rs1, vl);
764 vuint32m2_t test_vandn_vv_u32m2_m(vbool16_t mask, vuint32m2_t vs2, vuint32m2_t vs1, size_t vl) {
765 return __riscv_vandn_vv_u32m2_m(mask, vs2, vs1, vl);
774 vuint32m2_t test_vandn_vx_u32m2_m(vbool16_t mask, vuint32m2_t vs2, uint32_t rs1, size_t vl) {
775 return __riscv_vandn_vx_u32m2_m(mask, vs2, rs1, vl);
784 vuint32m4_t test_vandn_vv_u32m4_m(vbool8_t mask, vuint32m4_t vs2, vuint32m4_t vs1, size_t vl) {
785 return __riscv_vandn_vv_u32m4_m(mask, vs2, vs1, vl);
794 vuint32m4_t test_vandn_vx_u32m4_m(vbool8_t mask, vuint32m4_t vs2, uint32_t rs1, size_t vl) {
795 return __riscv_vandn_vx_u32m4_m(mask, vs2, rs1, vl);
804 vuint32m8_t test_vandn_vv_u32m8_m(vbool4_t mask, vuint32m8_t vs2, vuint32m8_t vs1, size_t vl) {
805 return __riscv_vandn_vv_u32m8_m(mask, vs2, vs1, vl);
814 vuint32m8_t test_vandn_vx_u32m8_m(vbool4_t mask, vuint32m8_t vs2, uint32_t rs1, size_t vl) {
815 return __riscv_vandn_vx_u32m8_m(mask, vs2, rs1, vl);
824 vuint64m1_t test_vandn_vv_u64m1_m(vbool64_t mask, vuint64m1_t vs2, vuint64m1_t vs1, size_t vl) {
825 return __riscv_vandn_vv_u64m1_m(mask, vs2, vs1, vl);
834 vuint64m1_t test_vandn_vx_u64m1_m(vbool64_t mask, vuint64m1_t vs2, uint64_t rs1, size_t vl) {
835 return __riscv_vandn_vx_u64m1_m(mask, vs2, rs1, vl);
844 vuint64m2_t test_vandn_vv_u64m2_m(vbool32_t mask, vuint64m2_t vs2, vuint64m2_t vs1, size_t vl) {
845 return __riscv_vandn_vv_u64m2_m(mask, vs2, vs1, vl);
854 vuint64m2_t test_vandn_vx_u64m2_m(vbool32_t mask, vuint64m2_t vs2, uint64_t rs1, size_t vl) {
855 return __riscv_vandn_vx_u64m2_m(mask, vs2, rs1, vl);
864 vuint64m4_t test_vandn_vv_u64m4_m(vbool16_t mask, vuint64m4_t vs2, vuint64m4_t vs1, size_t vl) {
865 return __riscv_vandn_vv_u64m4_m(mask, vs2, vs1, vl);
874 vuint64m4_t test_vandn_vx_u64m4_m(vbool16_t mask, vuint64m4_t vs2, uint64_t rs1, size_t vl) {
875 return __riscv_vandn_vx_u64m4_m(mask, vs2, rs1, vl);
884 vuint64m8_t test_vandn_vv_u64m8_m(vbool8_t mask, vuint64m8_t vs2, vuint64m8_t vs1, size_t vl) {
885 return __riscv_vandn_vv_u64m8_m(mask, vs2, vs1, vl);
894 vuint64m8_t test_vandn_vx_u64m8_m(vbool8_t mask, vuint64m8_t vs2, uint64_t rs1, size_t vl) {
895 return __riscv_vandn_vx_u64m8_m(mask, vs2, rs1, vl);