Lines Matching refs:vsrl
7 declare <vscale x 1 x i8> @llvm.riscv.vsrl.nxv1i8.nxv1i8(
17 ; CHECK-NEXT: vsrl.vv v8, v8, v9
20 %a = call <vscale x 1 x i8> @llvm.riscv.vsrl.nxv1i8.nxv1i8(
29 declare <vscale x 1 x i8> @llvm.riscv.vsrl.mask.nxv1i8.nxv1i8(
41 ; CHECK-NEXT: vsrl.vv v8, v9, v10, v0.t
44 %a = call <vscale x 1 x i8> @llvm.riscv.vsrl.mask.nxv1i8.nxv1i8(
54 declare <vscale x 2 x i8> @llvm.riscv.vsrl.nxv2i8.nxv2i8(
64 ; CHECK-NEXT: vsrl.vv v8, v8, v9
67 %a = call <vscale x 2 x i8> @llvm.riscv.vsrl.nxv2i8.nxv2i8(
76 declare <vscale x 2 x i8> @llvm.riscv.vsrl.mask.nxv2i8.nxv2i8(
88 ; CHECK-NEXT: vsrl.vv v8, v9, v10, v0.t
91 %a = call <vscale x 2 x i8> @llvm.riscv.vsrl.mask.nxv2i8.nxv2i8(
101 declare <vscale x 4 x i8> @llvm.riscv.vsrl.nxv4i8.nxv4i8(
111 ; CHECK-NEXT: vsrl.vv v8, v8, v9
114 %a = call <vscale x 4 x i8> @llvm.riscv.vsrl.nxv4i8.nxv4i8(
123 declare <vscale x 4 x i8> @llvm.riscv.vsrl.mask.nxv4i8.nxv4i8(
135 ; CHECK-NEXT: vsrl.vv v8, v9, v10, v0.t
138 %a = call <vscale x 4 x i8> @llvm.riscv.vsrl.mask.nxv4i8.nxv4i8(
148 declare <vscale x 8 x i8> @llvm.riscv.vsrl.nxv8i8.nxv8i8(
158 ; CHECK-NEXT: vsrl.vv v8, v8, v9
161 %a = call <vscale x 8 x i8> @llvm.riscv.vsrl.nxv8i8.nxv8i8(
170 declare <vscale x 8 x i8> @llvm.riscv.vsrl.mask.nxv8i8.nxv8i8(
182 ; CHECK-NEXT: vsrl.vv v8, v9, v10, v0.t
185 %a = call <vscale x 8 x i8> @llvm.riscv.vsrl.mask.nxv8i8.nxv8i8(
195 declare <vscale x 16 x i8> @llvm.riscv.vsrl.nxv16i8.nxv16i8(
205 ; CHECK-NEXT: vsrl.vv v8, v8, v10
208 %a = call <vscale x 16 x i8> @llvm.riscv.vsrl.nxv16i8.nxv16i8(
217 declare <vscale x 16 x i8> @llvm.riscv.vsrl.mask.nxv16i8.nxv16i8(
229 ; CHECK-NEXT: vsrl.vv v8, v10, v12, v0.t
232 %a = call <vscale x 16 x i8> @llvm.riscv.vsrl.mask.nxv16i8.nxv16i8(
242 declare <vscale x 32 x i8> @llvm.riscv.vsrl.nxv32i8.nxv32i8(
252 ; CHECK-NEXT: vsrl.vv v8, v8, v12
255 %a = call <vscale x 32 x i8> @llvm.riscv.vsrl.nxv32i8.nxv32i8(
264 declare <vscale x 32 x i8> @llvm.riscv.vsrl.mask.nxv32i8.nxv32i8(
276 ; CHECK-NEXT: vsrl.vv v8, v12, v16, v0.t
279 %a = call <vscale x 32 x i8> @llvm.riscv.vsrl.mask.nxv32i8.nxv32i8(
289 declare <vscale x 64 x i8> @llvm.riscv.vsrl.nxv64i8.nxv64i8(
299 ; CHECK-NEXT: vsrl.vv v8, v8, v16
302 %a = call <vscale x 64 x i8> @llvm.riscv.vsrl.nxv64i8.nxv64i8(
311 declare <vscale x 64 x i8> @llvm.riscv.vsrl.mask.nxv64i8.nxv64i8(
324 ; CHECK-NEXT: vsrl.vv v8, v16, v24, v0.t
327 %a = call <vscale x 64 x i8> @llvm.riscv.vsrl.mask.nxv64i8.nxv64i8(
337 declare <vscale x 1 x i16> @llvm.riscv.vsrl.nxv1i16.nxv1i16(
347 ; CHECK-NEXT: vsrl.vv v8, v8, v9
350 %a = call <vscale x 1 x i16> @llvm.riscv.vsrl.nxv1i16.nxv1i16(
359 declare <vscale x 1 x i16> @llvm.riscv.vsrl.mask.nxv1i16.nxv1i16(
371 ; CHECK-NEXT: vsrl.vv v8, v9, v10, v0.t
374 %a = call <vscale x 1 x i16> @llvm.riscv.vsrl.mask.nxv1i16.nxv1i16(
384 declare <vscale x 2 x i16> @llvm.riscv.vsrl.nxv2i16.nxv2i16(
394 ; CHECK-NEXT: vsrl.vv v8, v8, v9
397 %a = call <vscale x 2 x i16> @llvm.riscv.vsrl.nxv2i16.nxv2i16(
406 declare <vscale x 2 x i16> @llvm.riscv.vsrl.mask.nxv2i16.nxv2i16(
418 ; CHECK-NEXT: vsrl.vv v8, v9, v10, v0.t
421 %a = call <vscale x 2 x i16> @llvm.riscv.vsrl.mask.nxv2i16.nxv2i16(
431 declare <vscale x 4 x i16> @llvm.riscv.vsrl.nxv4i16.nxv4i16(
441 ; CHECK-NEXT: vsrl.vv v8, v8, v9
444 %a = call <vscale x 4 x i16> @llvm.riscv.vsrl.nxv4i16.nxv4i16(
453 declare <vscale x 4 x i16> @llvm.riscv.vsrl.mask.nxv4i16.nxv4i16(
465 ; CHECK-NEXT: vsrl.vv v8, v9, v10, v0.t
468 %a = call <vscale x 4 x i16> @llvm.riscv.vsrl.mask.nxv4i16.nxv4i16(
478 declare <vscale x 8 x i16> @llvm.riscv.vsrl.nxv8i16.nxv8i16(
488 ; CHECK-NEXT: vsrl.vv v8, v8, v10
491 %a = call <vscale x 8 x i16> @llvm.riscv.vsrl.nxv8i16.nxv8i16(
500 declare <vscale x 8 x i16> @llvm.riscv.vsrl.mask.nxv8i16.nxv8i16(
512 ; CHECK-NEXT: vsrl.vv v8, v10, v12, v0.t
515 %a = call <vscale x 8 x i16> @llvm.riscv.vsrl.mask.nxv8i16.nxv8i16(
525 declare <vscale x 16 x i16> @llvm.riscv.vsrl.nxv16i16.nxv16i16(
535 ; CHECK-NEXT: vsrl.vv v8, v8, v12
538 %a = call <vscale x 16 x i16> @llvm.riscv.vsrl.nxv16i16.nxv16i16(
547 declare <vscale x 16 x i16> @llvm.riscv.vsrl.mask.nxv16i16.nxv16i16(
559 ; CHECK-NEXT: vsrl.vv v8, v12, v16, v0.t
562 %a = call <vscale x 16 x i16> @llvm.riscv.vsrl.mask.nxv16i16.nxv16i16(
572 declare <vscale x 32 x i16> @llvm.riscv.vsrl.nxv32i16.nxv32i16(
582 ; CHECK-NEXT: vsrl.vv v8, v8, v16
585 %a = call <vscale x 32 x i16> @llvm.riscv.vsrl.nxv32i16.nxv32i16(
594 declare <vscale x 32 x i16> @llvm.riscv.vsrl.mask.nxv32i16.nxv32i16(
607 ; CHECK-NEXT: vsrl.vv v8, v16, v24, v0.t
610 %a = call <vscale x 32 x i16> @llvm.riscv.vsrl.mask.nxv32i16.nxv32i16(
620 declare <vscale x 1 x i32> @llvm.riscv.vsrl.nxv1i32.nxv1i32(
630 ; CHECK-NEXT: vsrl.vv v8, v8, v9
633 %a = call <vscale x 1 x i32> @llvm.riscv.vsrl.nxv1i32.nxv1i32(
642 declare <vscale x 1 x i32> @llvm.riscv.vsrl.mask.nxv1i32.nxv1i32(
654 ; CHECK-NEXT: vsrl.vv v8, v9, v10, v0.t
657 %a = call <vscale x 1 x i32> @llvm.riscv.vsrl.mask.nxv1i32.nxv1i32(
667 declare <vscale x 2 x i32> @llvm.riscv.vsrl.nxv2i32.nxv2i32(
677 ; CHECK-NEXT: vsrl.vv v8, v8, v9
680 %a = call <vscale x 2 x i32> @llvm.riscv.vsrl.nxv2i32.nxv2i32(
689 declare <vscale x 2 x i32> @llvm.riscv.vsrl.mask.nxv2i32.nxv2i32(
701 ; CHECK-NEXT: vsrl.vv v8, v9, v10, v0.t
704 %a = call <vscale x 2 x i32> @llvm.riscv.vsrl.mask.nxv2i32.nxv2i32(
714 declare <vscale x 4 x i32> @llvm.riscv.vsrl.nxv4i32.nxv4i32(
724 ; CHECK-NEXT: vsrl.vv v8, v8, v10
727 %a = call <vscale x 4 x i32> @llvm.riscv.vsrl.nxv4i32.nxv4i32(
736 declare <vscale x 4 x i32> @llvm.riscv.vsrl.mask.nxv4i32.nxv4i32(
748 ; CHECK-NEXT: vsrl.vv v8, v10, v12, v0.t
751 %a = call <vscale x 4 x i32> @llvm.riscv.vsrl.mask.nxv4i32.nxv4i32(
761 declare <vscale x 8 x i32> @llvm.riscv.vsrl.nxv8i32.nxv8i32(
771 ; CHECK-NEXT: vsrl.vv v8, v8, v12
774 %a = call <vscale x 8 x i32> @llvm.riscv.vsrl.nxv8i32.nxv8i32(
783 declare <vscale x 8 x i32> @llvm.riscv.vsrl.mask.nxv8i32.nxv8i32(
795 ; CHECK-NEXT: vsrl.vv v8, v12, v16, v0.t
798 %a = call <vscale x 8 x i32> @llvm.riscv.vsrl.mask.nxv8i32.nxv8i32(
808 declare <vscale x 16 x i32> @llvm.riscv.vsrl.nxv16i32.nxv16i32(
818 ; CHECK-NEXT: vsrl.vv v8, v8, v16
821 %a = call <vscale x 16 x i32> @llvm.riscv.vsrl.nxv16i32.nxv16i32(
830 declare <vscale x 16 x i32> @llvm.riscv.vsrl.mask.nxv16i32.nxv16i32(
843 ; CHECK-NEXT: vsrl.vv v8, v16, v24, v0.t
846 %a = call <vscale x 16 x i32> @llvm.riscv.vsrl.mask.nxv16i32.nxv16i32(
856 declare <vscale x 1 x i64> @llvm.riscv.vsrl.nxv1i64.nxv1i64(
866 ; CHECK-NEXT: vsrl.vv v8, v8, v9
869 %a = call <vscale x 1 x i64> @llvm.riscv.vsrl.nxv1i64.nxv1i64(
878 declare <vscale x 1 x i64> @llvm.riscv.vsrl.mask.nxv1i64.nxv1i64(
890 ; CHECK-NEXT: vsrl.vv v8, v9, v10, v0.t
893 %a = call <vscale x 1 x i64> @llvm.riscv.vsrl.mask.nxv1i64.nxv1i64(
903 declare <vscale x 2 x i64> @llvm.riscv.vsrl.nxv2i64.nxv2i64(
913 ; CHECK-NEXT: vsrl.vv v8, v8, v10
916 %a = call <vscale x 2 x i64> @llvm.riscv.vsrl.nxv2i64.nxv2i64(
925 declare <vscale x 2 x i64> @llvm.riscv.vsrl.mask.nxv2i64.nxv2i64(
937 ; CHECK-NEXT: vsrl.vv v8, v10, v12, v0.t
940 %a = call <vscale x 2 x i64> @llvm.riscv.vsrl.mask.nxv2i64.nxv2i64(
950 declare <vscale x 4 x i64> @llvm.riscv.vsrl.nxv4i64.nxv4i64(
960 ; CHECK-NEXT: vsrl.vv v8, v8, v12
963 %a = call <vscale x 4 x i64> @llvm.riscv.vsrl.nxv4i64.nxv4i64(
972 declare <vscale x 4 x i64> @llvm.riscv.vsrl.mask.nxv4i64.nxv4i64(
984 ; CHECK-NEXT: vsrl.vv v8, v12, v16, v0.t
987 %a = call <vscale x 4 x i64> @llvm.riscv.vsrl.mask.nxv4i64.nxv4i64(
997 declare <vscale x 8 x i64> @llvm.riscv.vsrl.nxv8i64.nxv8i64(
1007 ; CHECK-NEXT: vsrl.vv v8, v8, v16
1010 %a = call <vscale x 8 x i64> @llvm.riscv.vsrl.nxv8i64.nxv8i64(
1019 declare <vscale x 8 x i64> @llvm.riscv.vsrl.mask.nxv8i64.nxv8i64(
1032 ; CHECK-NEXT: vsrl.vv v8, v16, v24, v0.t
1035 %a = call <vscale x 8 x i64> @llvm.riscv.vsrl.mask.nxv8i64.nxv8i64(
1045 declare <vscale x 1 x i8> @llvm.riscv.vsrl.nxv1i8(
1055 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1058 %a = call <vscale x 1 x i8> @llvm.riscv.vsrl.nxv1i8(
1067 declare <vscale x 1 x i8> @llvm.riscv.vsrl.mask.nxv1i8(
1079 ; CHECK-NEXT: vsrl.vx v8, v9, a0, v0.t
1082 %a = call <vscale x 1 x i8> @llvm.riscv.vsrl.mask.nxv1i8(
1092 declare <vscale x 2 x i8> @llvm.riscv.vsrl.nxv2i8(
1102 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1105 %a = call <vscale x 2 x i8> @llvm.riscv.vsrl.nxv2i8(
1114 declare <vscale x 2 x i8> @llvm.riscv.vsrl.mask.nxv2i8(
1126 ; CHECK-NEXT: vsrl.vx v8, v9, a0, v0.t
1129 %a = call <vscale x 2 x i8> @llvm.riscv.vsrl.mask.nxv2i8(
1139 declare <vscale x 4 x i8> @llvm.riscv.vsrl.nxv4i8(
1149 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1152 %a = call <vscale x 4 x i8> @llvm.riscv.vsrl.nxv4i8(
1161 declare <vscale x 4 x i8> @llvm.riscv.vsrl.mask.nxv4i8(
1173 ; CHECK-NEXT: vsrl.vx v8, v9, a0, v0.t
1176 %a = call <vscale x 4 x i8> @llvm.riscv.vsrl.mask.nxv4i8(
1186 declare <vscale x 8 x i8> @llvm.riscv.vsrl.nxv8i8(
1196 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1199 %a = call <vscale x 8 x i8> @llvm.riscv.vsrl.nxv8i8(
1208 declare <vscale x 8 x i8> @llvm.riscv.vsrl.mask.nxv8i8(
1220 ; CHECK-NEXT: vsrl.vx v8, v9, a0, v0.t
1223 %a = call <vscale x 8 x i8> @llvm.riscv.vsrl.mask.nxv8i8(
1233 declare <vscale x 16 x i8> @llvm.riscv.vsrl.nxv16i8(
1243 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1246 %a = call <vscale x 16 x i8> @llvm.riscv.vsrl.nxv16i8(
1255 declare <vscale x 16 x i8> @llvm.riscv.vsrl.mask.nxv16i8(
1267 ; CHECK-NEXT: vsrl.vx v8, v10, a0, v0.t
1270 %a = call <vscale x 16 x i8> @llvm.riscv.vsrl.mask.nxv16i8(
1280 declare <vscale x 32 x i8> @llvm.riscv.vsrl.nxv32i8(
1290 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1293 %a = call <vscale x 32 x i8> @llvm.riscv.vsrl.nxv32i8(
1302 declare <vscale x 32 x i8> @llvm.riscv.vsrl.mask.nxv32i8(
1314 ; CHECK-NEXT: vsrl.vx v8, v12, a0, v0.t
1317 %a = call <vscale x 32 x i8> @llvm.riscv.vsrl.mask.nxv32i8(
1327 declare <vscale x 64 x i8> @llvm.riscv.vsrl.nxv64i8(
1337 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1340 %a = call <vscale x 64 x i8> @llvm.riscv.vsrl.nxv64i8(
1349 declare <vscale x 64 x i8> @llvm.riscv.vsrl.mask.nxv64i8(
1361 ; CHECK-NEXT: vsrl.vx v8, v16, a0, v0.t
1364 %a = call <vscale x 64 x i8> @llvm.riscv.vsrl.mask.nxv64i8(
1374 declare <vscale x 1 x i16> @llvm.riscv.vsrl.nxv1i16(
1384 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1387 %a = call <vscale x 1 x i16> @llvm.riscv.vsrl.nxv1i16(
1396 declare <vscale x 1 x i16> @llvm.riscv.vsrl.mask.nxv1i16(
1408 ; CHECK-NEXT: vsrl.vx v8, v9, a0, v0.t
1411 %a = call <vscale x 1 x i16> @llvm.riscv.vsrl.mask.nxv1i16(
1421 declare <vscale x 2 x i16> @llvm.riscv.vsrl.nxv2i16(
1431 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1434 %a = call <vscale x 2 x i16> @llvm.riscv.vsrl.nxv2i16(
1443 declare <vscale x 2 x i16> @llvm.riscv.vsrl.mask.nxv2i16(
1455 ; CHECK-NEXT: vsrl.vx v8, v9, a0, v0.t
1458 %a = call <vscale x 2 x i16> @llvm.riscv.vsrl.mask.nxv2i16(
1468 declare <vscale x 4 x i16> @llvm.riscv.vsrl.nxv4i16(
1478 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1481 %a = call <vscale x 4 x i16> @llvm.riscv.vsrl.nxv4i16(
1490 declare <vscale x 4 x i16> @llvm.riscv.vsrl.mask.nxv4i16(
1502 ; CHECK-NEXT: vsrl.vx v8, v9, a0, v0.t
1505 %a = call <vscale x 4 x i16> @llvm.riscv.vsrl.mask.nxv4i16(
1515 declare <vscale x 8 x i16> @llvm.riscv.vsrl.nxv8i16(
1525 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1528 %a = call <vscale x 8 x i16> @llvm.riscv.vsrl.nxv8i16(
1537 declare <vscale x 8 x i16> @llvm.riscv.vsrl.mask.nxv8i16(
1549 ; CHECK-NEXT: vsrl.vx v8, v10, a0, v0.t
1552 %a = call <vscale x 8 x i16> @llvm.riscv.vsrl.mask.nxv8i16(
1562 declare <vscale x 16 x i16> @llvm.riscv.vsrl.nxv16i16(
1572 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1575 %a = call <vscale x 16 x i16> @llvm.riscv.vsrl.nxv16i16(
1584 declare <vscale x 16 x i16> @llvm.riscv.vsrl.mask.nxv16i16(
1596 ; CHECK-NEXT: vsrl.vx v8, v12, a0, v0.t
1599 %a = call <vscale x 16 x i16> @llvm.riscv.vsrl.mask.nxv16i16(
1609 declare <vscale x 32 x i16> @llvm.riscv.vsrl.nxv32i16(
1619 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1622 %a = call <vscale x 32 x i16> @llvm.riscv.vsrl.nxv32i16(
1631 declare <vscale x 32 x i16> @llvm.riscv.vsrl.mask.nxv32i16(
1643 ; CHECK-NEXT: vsrl.vx v8, v16, a0, v0.t
1646 %a = call <vscale x 32 x i16> @llvm.riscv.vsrl.mask.nxv32i16(
1656 declare <vscale x 1 x i32> @llvm.riscv.vsrl.nxv1i32(
1666 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1669 %a = call <vscale x 1 x i32> @llvm.riscv.vsrl.nxv1i32(
1678 declare <vscale x 1 x i32> @llvm.riscv.vsrl.mask.nxv1i32(
1690 ; CHECK-NEXT: vsrl.vx v8, v9, a0, v0.t
1693 %a = call <vscale x 1 x i32> @llvm.riscv.vsrl.mask.nxv1i32(
1703 declare <vscale x 2 x i32> @llvm.riscv.vsrl.nxv2i32(
1713 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1716 %a = call <vscale x 2 x i32> @llvm.riscv.vsrl.nxv2i32(
1725 declare <vscale x 2 x i32> @llvm.riscv.vsrl.mask.nxv2i32(
1737 ; CHECK-NEXT: vsrl.vx v8, v9, a0, v0.t
1740 %a = call <vscale x 2 x i32> @llvm.riscv.vsrl.mask.nxv2i32(
1750 declare <vscale x 4 x i32> @llvm.riscv.vsrl.nxv4i32(
1760 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1763 %a = call <vscale x 4 x i32> @llvm.riscv.vsrl.nxv4i32(
1772 declare <vscale x 4 x i32> @llvm.riscv.vsrl.mask.nxv4i32(
1784 ; CHECK-NEXT: vsrl.vx v8, v10, a0, v0.t
1787 %a = call <vscale x 4 x i32> @llvm.riscv.vsrl.mask.nxv4i32(
1797 declare <vscale x 8 x i32> @llvm.riscv.vsrl.nxv8i32(
1807 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1810 %a = call <vscale x 8 x i32> @llvm.riscv.vsrl.nxv8i32(
1819 declare <vscale x 8 x i32> @llvm.riscv.vsrl.mask.nxv8i32(
1831 ; CHECK-NEXT: vsrl.vx v8, v12, a0, v0.t
1834 %a = call <vscale x 8 x i32> @llvm.riscv.vsrl.mask.nxv8i32(
1844 declare <vscale x 16 x i32> @llvm.riscv.vsrl.nxv16i32(
1854 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1857 %a = call <vscale x 16 x i32> @llvm.riscv.vsrl.nxv16i32(
1866 declare <vscale x 16 x i32> @llvm.riscv.vsrl.mask.nxv16i32(
1878 ; CHECK-NEXT: vsrl.vx v8, v16, a0, v0.t
1881 %a = call <vscale x 16 x i32> @llvm.riscv.vsrl.mask.nxv16i32(
1891 declare <vscale x 1 x i64> @llvm.riscv.vsrl.nxv1i64(
1901 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1904 %a = call <vscale x 1 x i64> @llvm.riscv.vsrl.nxv1i64(
1913 declare <vscale x 1 x i64> @llvm.riscv.vsrl.mask.nxv1i64(
1925 ; CHECK-NEXT: vsrl.vx v8, v9, a0, v0.t
1928 %a = call <vscale x 1 x i64> @llvm.riscv.vsrl.mask.nxv1i64(
1938 declare <vscale x 2 x i64> @llvm.riscv.vsrl.nxv2i64(
1948 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1951 %a = call <vscale x 2 x i64> @llvm.riscv.vsrl.nxv2i64(
1960 declare <vscale x 2 x i64> @llvm.riscv.vsrl.mask.nxv2i64(
1972 ; CHECK-NEXT: vsrl.vx v8, v10, a0, v0.t
1975 %a = call <vscale x 2 x i64> @llvm.riscv.vsrl.mask.nxv2i64(
1985 declare <vscale x 4 x i64> @llvm.riscv.vsrl.nxv4i64(
1995 ; CHECK-NEXT: vsrl.vx v8, v8, a0
1998 %a = call <vscale x 4 x i64> @llvm.riscv.vsrl.nxv4i64(
2007 declare <vscale x 4 x i64> @llvm.riscv.vsrl.mask.nxv4i64(
2019 ; CHECK-NEXT: vsrl.vx v8, v12, a0, v0.t
2022 %a = call <vscale x 4 x i64> @llvm.riscv.vsrl.mask.nxv4i64(
2032 declare <vscale x 8 x i64> @llvm.riscv.vsrl.nxv8i64(
2042 ; CHECK-NEXT: vsrl.vx v8, v8, a0
2045 %a = call <vscale x 8 x i64> @llvm.riscv.vsrl.nxv8i64(
2054 declare <vscale x 8 x i64> @llvm.riscv.vsrl.mask.nxv8i64(
2066 ; CHECK-NEXT: vsrl.vx v8, v16, a0, v0.t
2069 %a = call <vscale x 8 x i64> @llvm.riscv.vsrl.mask.nxv8i64(
2083 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2086 %a = call <vscale x 1 x i8> @llvm.riscv.vsrl.nxv1i8(
2099 ; CHECK-NEXT: vsrl.vi v8, v9, 9, v0.t
2102 %a = call <vscale x 1 x i8> @llvm.riscv.vsrl.mask.nxv1i8(
2116 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2119 %a = call <vscale x 2 x i8> @llvm.riscv.vsrl.nxv2i8(
2132 ; CHECK-NEXT: vsrl.vi v8, v9, 9, v0.t
2135 %a = call <vscale x 2 x i8> @llvm.riscv.vsrl.mask.nxv2i8(
2149 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2152 %a = call <vscale x 4 x i8> @llvm.riscv.vsrl.nxv4i8(
2165 ; CHECK-NEXT: vsrl.vi v8, v9, 9, v0.t
2168 %a = call <vscale x 4 x i8> @llvm.riscv.vsrl.mask.nxv4i8(
2182 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2185 %a = call <vscale x 8 x i8> @llvm.riscv.vsrl.nxv8i8(
2198 ; CHECK-NEXT: vsrl.vi v8, v9, 9, v0.t
2201 %a = call <vscale x 8 x i8> @llvm.riscv.vsrl.mask.nxv8i8(
2215 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2218 %a = call <vscale x 16 x i8> @llvm.riscv.vsrl.nxv16i8(
2231 ; CHECK-NEXT: vsrl.vi v8, v10, 9, v0.t
2234 %a = call <vscale x 16 x i8> @llvm.riscv.vsrl.mask.nxv16i8(
2248 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2251 %a = call <vscale x 32 x i8> @llvm.riscv.vsrl.nxv32i8(
2264 ; CHECK-NEXT: vsrl.vi v8, v12, 9, v0.t
2267 %a = call <vscale x 32 x i8> @llvm.riscv.vsrl.mask.nxv32i8(
2281 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2284 %a = call <vscale x 64 x i8> @llvm.riscv.vsrl.nxv64i8(
2297 ; CHECK-NEXT: vsrl.vi v8, v16, 9, v0.t
2300 %a = call <vscale x 64 x i8> @llvm.riscv.vsrl.mask.nxv64i8(
2314 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2317 %a = call <vscale x 1 x i16> @llvm.riscv.vsrl.nxv1i16(
2330 ; CHECK-NEXT: vsrl.vi v8, v9, 9, v0.t
2333 %a = call <vscale x 1 x i16> @llvm.riscv.vsrl.mask.nxv1i16(
2347 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2350 %a = call <vscale x 2 x i16> @llvm.riscv.vsrl.nxv2i16(
2363 ; CHECK-NEXT: vsrl.vi v8, v9, 9, v0.t
2366 %a = call <vscale x 2 x i16> @llvm.riscv.vsrl.mask.nxv2i16(
2380 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2383 %a = call <vscale x 4 x i16> @llvm.riscv.vsrl.nxv4i16(
2396 ; CHECK-NEXT: vsrl.vi v8, v9, 9, v0.t
2399 %a = call <vscale x 4 x i16> @llvm.riscv.vsrl.mask.nxv4i16(
2413 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2416 %a = call <vscale x 8 x i16> @llvm.riscv.vsrl.nxv8i16(
2429 ; CHECK-NEXT: vsrl.vi v8, v10, 9, v0.t
2432 %a = call <vscale x 8 x i16> @llvm.riscv.vsrl.mask.nxv8i16(
2446 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2449 %a = call <vscale x 16 x i16> @llvm.riscv.vsrl.nxv16i16(
2462 ; CHECK-NEXT: vsrl.vi v8, v12, 9, v0.t
2465 %a = call <vscale x 16 x i16> @llvm.riscv.vsrl.mask.nxv16i16(
2479 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2482 %a = call <vscale x 32 x i16> @llvm.riscv.vsrl.nxv32i16(
2495 ; CHECK-NEXT: vsrl.vi v8, v16, 9, v0.t
2498 %a = call <vscale x 32 x i16> @llvm.riscv.vsrl.mask.nxv32i16(
2512 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2515 %a = call <vscale x 1 x i32> @llvm.riscv.vsrl.nxv1i32(
2528 ; CHECK-NEXT: vsrl.vi v8, v9, 9, v0.t
2531 %a = call <vscale x 1 x i32> @llvm.riscv.vsrl.mask.nxv1i32(
2545 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2548 %a = call <vscale x 2 x i32> @llvm.riscv.vsrl.nxv2i32(
2561 ; CHECK-NEXT: vsrl.vi v8, v9, 9, v0.t
2564 %a = call <vscale x 2 x i32> @llvm.riscv.vsrl.mask.nxv2i32(
2578 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2581 %a = call <vscale x 4 x i32> @llvm.riscv.vsrl.nxv4i32(
2594 ; CHECK-NEXT: vsrl.vi v8, v10, 9, v0.t
2597 %a = call <vscale x 4 x i32> @llvm.riscv.vsrl.mask.nxv4i32(
2611 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2614 %a = call <vscale x 8 x i32> @llvm.riscv.vsrl.nxv8i32(
2627 ; CHECK-NEXT: vsrl.vi v8, v12, 9, v0.t
2630 %a = call <vscale x 8 x i32> @llvm.riscv.vsrl.mask.nxv8i32(
2644 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2647 %a = call <vscale x 16 x i32> @llvm.riscv.vsrl.nxv16i32(
2660 ; CHECK-NEXT: vsrl.vi v8, v16, 9, v0.t
2663 %a = call <vscale x 16 x i32> @llvm.riscv.vsrl.mask.nxv16i32(
2677 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2680 %a = call <vscale x 1 x i64> @llvm.riscv.vsrl.nxv1i64(
2693 ; CHECK-NEXT: vsrl.vi v8, v9, 9, v0.t
2696 %a = call <vscale x 1 x i64> @llvm.riscv.vsrl.mask.nxv1i64(
2710 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2713 %a = call <vscale x 2 x i64> @llvm.riscv.vsrl.nxv2i64(
2726 ; CHECK-NEXT: vsrl.vi v8, v10, 9, v0.t
2729 %a = call <vscale x 2 x i64> @llvm.riscv.vsrl.mask.nxv2i64(
2743 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2746 %a = call <vscale x 4 x i64> @llvm.riscv.vsrl.nxv4i64(
2759 ; CHECK-NEXT: vsrl.vi v8, v12, 9, v0.t
2762 %a = call <vscale x 4 x i64> @llvm.riscv.vsrl.mask.nxv4i64(
2776 ; CHECK-NEXT: vsrl.vi v8, v8, 9
2779 %a = call <vscale x 8 x i64> @llvm.riscv.vsrl.nxv8i64(
2792 ; CHECK-NEXT: vsrl.vi v8, v16, 9, v0.t
2795 %a = call <vscale x 8 x i64> @llvm.riscv.vsrl.mask.nxv8i64(