Lines Matching refs:tmp0
22 %tmp0 = ashr i8 %x, %y
23 %ret = shl i8 %tmp0, %y
32 %tmp0 = ashr i8 %x, 3
33 %ret = shl i8 %tmp0, 3
43 %tmp0 = ashr i8 %x, 6
44 %ret = shl i8 %tmp0, 3
54 %tmp0 = ashr i8 %x, 3
55 %ret = shl i8 %tmp0, 6
69 %tmp0 = ashr i8 %x, %y
70 %ret = shl nuw i8 %tmp0, %y
79 %tmp0 = ashr i8 %x, 3
80 %ret = shl nuw i8 %tmp0, 3
90 %tmp0 = ashr i8 %x, 6
91 %ret = shl nuw i8 %tmp0, 3
101 %tmp0 = ashr i8 %x, 3
102 %ret = shl nuw i8 %tmp0, 6
116 %tmp0 = ashr i8 %x, %y
117 %ret = shl nsw i8 %tmp0, %y
126 %tmp0 = ashr i8 %x, 3
127 %ret = shl nsw i8 %tmp0, 3
137 %tmp0 = ashr i8 %x, 6
138 %ret = shl nsw i8 %tmp0, 3
148 %tmp0 = ashr i8 %x, 3
149 %ret = shl nsw i8 %tmp0, 6
163 %tmp0 = ashr i8 %x, %y
164 %ret = shl nuw nsw i8 %tmp0, %y
173 %tmp0 = ashr i8 %x, 3
174 %ret = shl nuw nsw i8 %tmp0, 3
184 %tmp0 = ashr i8 %x, 6
185 %ret = shl nuw nsw i8 %tmp0, 3
195 %tmp0 = ashr i8 %x, 3
196 %ret = shl nuw nsw i8 %tmp0, 6
208 %tmp0 = ashr exact i8 %x, %y
209 %ret = shl i8 %tmp0, %y
217 %tmp0 = ashr exact i8 %x, 3
218 %ret = shl i8 %tmp0, 3
227 %tmp0 = ashr exact i8 %x, 6
228 %ret = shl i8 %tmp0, 3
237 %tmp0 = ashr exact i8 %x, 3
238 %ret = shl i8 %tmp0, 6
250 %tmp0 = ashr exact i8 %x, %y
251 %ret = shl nsw i8 %tmp0, %y
259 %tmp0 = ashr exact i8 %x, 3
260 %ret = shl nsw i8 %tmp0, 3
269 %tmp0 = ashr exact i8 %x, 6
270 %ret = shl nsw i8 %tmp0, 3
279 %tmp0 = ashr exact i8 %x, 3
280 %ret = shl nsw i8 %tmp0, 6
292 %tmp0 = ashr exact i8 %x, %y
293 %ret = shl nuw i8 %tmp0, %y
301 %tmp0 = ashr exact i8 %x, 3
302 %ret = shl nuw i8 %tmp0, 3
311 %tmp0 = ashr exact i8 %x, 6
312 %ret = shl nuw i8 %tmp0, 3
321 %tmp0 = ashr exact i8 %x, 3
322 %ret = shl nuw i8 %tmp0, 6
334 %tmp0 = ashr exact i8 %x, %y
335 %ret = shl nuw nsw i8 %tmp0, %y
343 %tmp0 = ashr exact i8 %x, 3
344 %ret = shl nuw nsw i8 %tmp0, 3
353 %tmp0 = ashr exact i8 %x, 6
354 %ret = shl nuw nsw i8 %tmp0, 3
363 %tmp0 = ashr exact i8 %x, 3
364 %ret = shl nuw nsw i8 %tmp0, 6
378 %tmp0 = ashr <2 x i8> %x, %y
379 %ret = shl <2 x i8> %tmp0, %y
392 %tmp0 = ashr <2 x i8> %x, <i8 3, i8 3>
393 %ret = shl <2 x i8> %tmp0, <i8 3, i8 3>
403 %tmp0 = ashr <3 x i8> %x, <i8 3, i8 undef, i8 3>
404 %ret = shl <3 x i8> %tmp0, <i8 3, i8 3, i8 3>
414 %tmp0 = ashr <3 x i8> %x, <i8 3, i8 3, i8 3>
415 %ret = shl <3 x i8> %tmp0, <i8 3, i8 undef, i8 3>
424 %tmp0 = ashr <3 x i8> %x, <i8 3, i8 undef, i8 3>
425 %ret = shl <3 x i8> %tmp0, <i8 3, i8 undef, i8 3>
435 %tmp0 = ashr <2 x i8> %x, <i8 6, i8 6>
436 %ret = shl <2 x i8> %tmp0, <i8 3, i8 3>
446 %tmp0 = ashr <3 x i8> %x, <i8 6, i8 undef, i8 6>
447 %ret = shl <3 x i8> %tmp0, <i8 3, i8 3, i8 3>
457 %tmp0 = ashr <3 x i8> %x, <i8 6, i8 6, i8 6>
458 %ret = shl <3 x i8> %tmp0, <i8 3, i8 undef, i8 3>
468 %tmp0 = ashr <3 x i8> %x, <i8 6, i8 undef, i8 6>
469 %ret = shl <3 x i8> %tmp0, <i8 3, i8 undef, i8 3>
479 %tmp0 = ashr <2 x i8> %x, <i8 3, i8 3>
480 %ret = shl <2 x i8> %tmp0, <i8 6, i8 6>
490 %tmp0 = ashr <3 x i8> %x, <i8 3, i8 undef, i8 3>
491 %ret = shl <3 x i8> %tmp0, <i8 6, i8 6, i8 6>
501 %tmp0 = ashr <3 x i8> %x, <i8 3, i8 3, i8 3>
502 %ret = shl <3 x i8> %tmp0, <i8 6, i8 undef, i8 6>
512 %tmp0 = ashr <3 x i8> %x, <i8 3, i8 undef, i8 3>
513 %ret = shl <3 x i8> %tmp0, <i8 6, i8 undef, i8 6>
528 %tmp0 = ashr i8 %x, 3
529 call void @use32(i8 %tmp0)
530 %ret = shl i8 %tmp0, 3
541 %tmp0 = ashr i8 %x, 6
542 call void @use32(i8 %tmp0)
543 %ret = shl i8 %tmp0, 3
554 %tmp0 = ashr i8 %x, 3
555 call void @use32(i8 %tmp0)
556 %ret = shl i8 %tmp0, 6
570 %tmp0 = ashr <2 x i8> %x, <i8 3, i8 3>
571 %ret = shl <2 x i8> %tmp0, <i8 3, i8 6>
581 %tmp0 = ashr <2 x i8> %x, <i8 3, i8 6>
582 %ret = shl <2 x i8> %tmp0, <i8 3, i8 3>
596 %tmp0 = ashr i8 %x, %y
597 %ret = shl i8 %tmp0, %z ; $z, not %y
611 %tmp0 = ashr i8 %x, %y
612 call void @use32(i8 %tmp0)
613 %ret = shl i8 %tmp0, %y