Lines Matching refs:vs1
24 vuint8mf8_t test_vror_vv_u8mf8(vuint8mf8_t vs2, vuint8mf8_t vs1, size_t vl) {
25 return __riscv_vror(vs2, vs1, vl);
44 vuint8mf4_t test_vror_vv_u8mf4(vuint8mf4_t vs2, vuint8mf4_t vs1, size_t vl) {
45 return __riscv_vror(vs2, vs1, vl);
64 vuint8mf2_t test_vror_vv_u8mf2(vuint8mf2_t vs2, vuint8mf2_t vs1, size_t vl) {
65 return __riscv_vror(vs2, vs1, vl);
84 vuint8m1_t test_vror_vv_u8m1(vuint8m1_t vs2, vuint8m1_t vs1, size_t vl) {
85 return __riscv_vror(vs2, vs1, vl);
104 vuint8m2_t test_vror_vv_u8m2(vuint8m2_t vs2, vuint8m2_t vs1, size_t vl) {
105 return __riscv_vror(vs2, vs1, vl);
124 vuint8m4_t test_vror_vv_u8m4(vuint8m4_t vs2, vuint8m4_t vs1, size_t vl) {
125 return __riscv_vror(vs2, vs1, vl);
144 vuint8m8_t test_vror_vv_u8m8(vuint8m8_t vs2, vuint8m8_t vs1, size_t vl) {
145 return __riscv_vror(vs2, vs1, vl);
164 vuint16mf4_t test_vror_vv_u16mf4(vuint16mf4_t vs2, vuint16mf4_t vs1, size_t vl) {
165 return __riscv_vror(vs2, vs1, vl);
184 vuint16mf2_t test_vror_vv_u16mf2(vuint16mf2_t vs2, vuint16mf2_t vs1, size_t vl) {
185 return __riscv_vror(vs2, vs1, vl);
204 vuint16m1_t test_vror_vv_u16m1(vuint16m1_t vs2, vuint16m1_t vs1, size_t vl) {
205 return __riscv_vror(vs2, vs1, vl);
224 vuint16m2_t test_vror_vv_u16m2(vuint16m2_t vs2, vuint16m2_t vs1, size_t vl) {
225 return __riscv_vror(vs2, vs1, vl);
244 vuint16m4_t test_vror_vv_u16m4(vuint16m4_t vs2, vuint16m4_t vs1, size_t vl) {
245 return __riscv_vror(vs2, vs1, vl);
264 vuint16m8_t test_vror_vv_u16m8(vuint16m8_t vs2, vuint16m8_t vs1, size_t vl) {
265 return __riscv_vror(vs2, vs1, vl);
284 vuint32mf2_t test_vror_vv_u32mf2(vuint32mf2_t vs2, vuint32mf2_t vs1, size_t vl) {
285 return __riscv_vror(vs2, vs1, vl);
304 vuint32m1_t test_vror_vv_u32m1(vuint32m1_t vs2, vuint32m1_t vs1, size_t vl) {
305 return __riscv_vror(vs2, vs1, vl);
324 vuint32m2_t test_vror_vv_u32m2(vuint32m2_t vs2, vuint32m2_t vs1, size_t vl) {
325 return __riscv_vror(vs2, vs1, vl);
344 vuint32m4_t test_vror_vv_u32m4(vuint32m4_t vs2, vuint32m4_t vs1, size_t vl) {
345 return __riscv_vror(vs2, vs1, vl);
364 vuint32m8_t test_vror_vv_u32m8(vuint32m8_t vs2, vuint32m8_t vs1, size_t vl) {
365 return __riscv_vror(vs2, vs1, vl);
384 vuint64m1_t test_vror_vv_u64m1(vuint64m1_t vs2, vuint64m1_t vs1, size_t vl) {
385 return __riscv_vror(vs2, vs1, vl);
404 vuint64m2_t test_vror_vv_u64m2(vuint64m2_t vs2, vuint64m2_t vs1, size_t vl) {
405 return __riscv_vror(vs2, vs1, vl);
424 vuint64m4_t test_vror_vv_u64m4(vuint64m4_t vs2, vuint64m4_t vs1, size_t vl) {
425 return __riscv_vror(vs2, vs1, vl);
444 vuint64m8_t test_vror_vv_u64m8(vuint64m8_t vs2, vuint64m8_t vs1, size_t vl) {
445 return __riscv_vror(vs2, vs1, vl);
464 vuint8mf8_t test_vror_vv_u8mf8_m(vbool64_t mask, vuint8mf8_t vs2, vuint8mf8_t vs1, size_t vl) {
465 return __riscv_vror(mask, vs2, vs1, vl);
484 vuint8mf4_t test_vror_vv_u8mf4_m(vbool32_t mask, vuint8mf4_t vs2, vuint8mf4_t vs1, size_t vl) {
485 return __riscv_vror(mask, vs2, vs1, vl);
504 vuint8mf2_t test_vror_vv_u8mf2_m(vbool16_t mask, vuint8mf2_t vs2, vuint8mf2_t vs1, size_t vl) {
505 return __riscv_vror(mask, vs2, vs1, vl);
524 vuint8m1_t test_vror_vv_u8m1_m(vbool8_t mask, vuint8m1_t vs2, vuint8m1_t vs1, size_t vl) {
525 return __riscv_vror(mask, vs2, vs1, vl);
544 vuint8m2_t test_vror_vv_u8m2_m(vbool4_t mask, vuint8m2_t vs2, vuint8m2_t vs1, size_t vl) {
545 return __riscv_vror(mask, vs2, vs1, vl);
564 vuint8m4_t test_vror_vv_u8m4_m(vbool2_t mask, vuint8m4_t vs2, vuint8m4_t vs1, size_t vl) {
565 return __riscv_vror(mask, vs2, vs1, vl);
584 vuint8m8_t test_vror_vv_u8m8_m(vbool1_t mask, vuint8m8_t vs2, vuint8m8_t vs1, size_t vl) {
585 return __riscv_vror(mask, vs2, vs1, vl);
604 vuint16mf4_t test_vror_vv_u16mf4_m(vbool64_t mask, vuint16mf4_t vs2, vuint16mf4_t vs1, size_t vl) {
605 return __riscv_vror(mask, vs2, vs1, vl);
624 vuint16mf2_t test_vror_vv_u16mf2_m(vbool32_t mask, vuint16mf2_t vs2, vuint16mf2_t vs1, size_t vl) {
625 return __riscv_vror(mask, vs2, vs1, vl);
644 vuint16m1_t test_vror_vv_u16m1_m(vbool16_t mask, vuint16m1_t vs2, vuint16m1_t vs1, size_t vl) {
645 return __riscv_vror(mask, vs2, vs1, vl);
664 vuint16m2_t test_vror_vv_u16m2_m(vbool8_t mask, vuint16m2_t vs2, vuint16m2_t vs1, size_t vl) {
665 return __riscv_vror(mask, vs2, vs1, vl);
684 vuint16m4_t test_vror_vv_u16m4_m(vbool4_t mask, vuint16m4_t vs2, vuint16m4_t vs1, size_t vl) {
685 return __riscv_vror(mask, vs2, vs1, vl);
704 vuint16m8_t test_vror_vv_u16m8_m(vbool2_t mask, vuint16m8_t vs2, vuint16m8_t vs1, size_t vl) {
705 return __riscv_vror(mask, vs2, vs1, vl);
724 vuint32mf2_t test_vror_vv_u32mf2_m(vbool64_t mask, vuint32mf2_t vs2, vuint32mf2_t vs1, size_t vl) {
725 return __riscv_vror(mask, vs2, vs1, vl);
744 vuint32m1_t test_vror_vv_u32m1_m(vbool32_t mask, vuint32m1_t vs2, vuint32m1_t vs1, size_t vl) {
745 return __riscv_vror(mask, vs2, vs1, vl);
764 vuint32m2_t test_vror_vv_u32m2_m(vbool16_t mask, vuint32m2_t vs2, vuint32m2_t vs1, size_t vl) {
765 return __riscv_vror(mask, vs2, vs1, vl);
784 vuint32m4_t test_vror_vv_u32m4_m(vbool8_t mask, vuint32m4_t vs2, vuint32m4_t vs1, size_t vl) {
785 return __riscv_vror(mask, vs2, vs1, vl);
804 vuint32m8_t test_vror_vv_u32m8_m(vbool4_t mask, vuint32m8_t vs2, vuint32m8_t vs1, size_t vl) {
805 return __riscv_vror(mask, vs2, vs1, vl);
824 vuint64m1_t test_vror_vv_u64m1_m(vbool64_t mask, vuint64m1_t vs2, vuint64m1_t vs1, size_t vl) {
825 return __riscv_vror(mask, vs2, vs1, vl);
844 vuint64m2_t test_vror_vv_u64m2_m(vbool32_t mask, vuint64m2_t vs2, vuint64m2_t vs1, size_t vl) {
845 return __riscv_vror(mask, vs2, vs1, vl);
864 vuint64m4_t test_vror_vv_u64m4_m(vbool16_t mask, vuint64m4_t vs2, vuint64m4_t vs1, size_t vl) {
865 return __riscv_vror(mask, vs2, vs1, vl);
884 vuint64m8_t test_vror_vv_u64m8_m(vbool8_t mask, vuint64m8_t vs2, vuint64m8_t vs1, size_t vl) {
885 return __riscv_vror(mask, vs2, vs1, vl);