Lines Matching full:1

2 ; RUN: llc -mtriple=thumbv8.1m.main-none-none-eabi -mattr=+mve -verify-machineinstrs %s -o - | File…
8 ; CHECK-NEXT: vshr.s8 q0, q0, #1
11 …alf = ashr <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
18 ; CHECK-NEXT: vshr.u8 q0, q0, #1
21 …alf = lshr <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
28 ; CHECK-NEXT: vshr.s16 q0, q0, #1
31 %half = ashr <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
38 ; CHECK-NEXT: vshr.u16 q0, q0, #1
41 %half = lshr <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
48 ; CHECK-NEXT: vshr.s32 q0, q0, #1
51 %half = ashr <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
58 ; CHECK-NEXT: vshr.u32 q0, q0, #1
61 %half = lshr <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
68 ; CHECK-NEXT: vshr.s8 q0, q0, #1
71 …alf = ashr <16 x i8> %sub, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
78 ; CHECK-NEXT: vshr.u8 q0, q0, #1
81 …alf = lshr <16 x i8> %sub, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
88 ; CHECK-NEXT: vshr.s16 q0, q0, #1
91 %half = ashr <8 x i16> %sub, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
98 ; CHECK-NEXT: vshr.u16 q0, q0, #1
101 %half = lshr <8 x i16> %sub, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
108 ; CHECK-NEXT: vshr.s32 q0, q0, #1
111 %half = ashr <4 x i32> %sub, <i32 1, i32 1, i32 1, i32 1>
118 ; CHECK-NEXT: vshr.u32 q0, q0, #1
121 %half = lshr <4 x i32> %sub, <i32 1, i32 1, i32 1, i32 1>
131 …alf = ashr <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
140 …alf = lshr <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
149 %half = ashr <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
158 %half = lshr <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
167 %half = ashr <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
176 %half = lshr <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
185 …alf = ashr <16 x i8> %sub, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
194 …alf = lshr <16 x i8> %sub, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
203 %half = ashr <8 x i16> %sub, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
212 %half = lshr <8 x i16> %sub, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
221 %half = ashr <4 x i32> %sub, <i32 1, i32 1, i32 1, i32 1>
230 %half = lshr <4 x i32> %sub, <i32 1, i32 1, i32 1, i32 1>
237 ; CHECK-NEXT: movs r0, #1
239 ; CHECK-NEXT: vshr.s8 q0, q0, #1
242 …ound = add <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
243 …f = ashr <16 x i8> %round, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
250 ; CHECK-NEXT: movs r0, #1
252 ; CHECK-NEXT: vshr.u8 q0, q0, #1
255 …ound = add <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
256 …f = lshr <16 x i8> %round, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
263 ; CHECK-NEXT: movs r0, #1
265 ; CHECK-NEXT: vshr.s16 q0, q0, #1
268 %round = add <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
269 %half = ashr <8 x i16> %round, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
276 ; CHECK-NEXT: movs r0, #1
278 ; CHECK-NEXT: vshr.u16 q0, q0, #1
281 %round = add <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
282 %half = lshr <8 x i16> %round, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
289 ; CHECK-NEXT: movs r0, #1
291 ; CHECK-NEXT: vshr.s32 q0, q0, #1
294 %round = add <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
295 %half = ashr <4 x i32> %round, <i32 1, i32 1, i32 1, i32 1>
302 ; CHECK-NEXT: movs r0, #1
304 ; CHECK-NEXT: vshr.u32 q0, q0, #1
307 %round = add <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
308 %half = lshr <4 x i32> %round, <i32 1, i32 1, i32 1, i32 1>
315 ; CHECK-NEXT: movs r0, #1
317 ; CHECK-NEXT: vshr.s8 q0, q0, #1
320 …ound = add <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
321 …f = ashr <16 x i8> %round, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
328 ; CHECK-NEXT: movs r0, #1
330 ; CHECK-NEXT: vshr.u8 q0, q0, #1
333 …ound = add <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
334 …f = lshr <16 x i8> %round, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
341 ; CHECK-NEXT: movs r0, #1
343 ; CHECK-NEXT: vshr.s16 q0, q0, #1
346 %round = add <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
347 %half = ashr <8 x i16> %round, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
354 ; CHECK-NEXT: movs r0, #1
356 ; CHECK-NEXT: vshr.u16 q0, q0, #1
359 %round = add <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
360 %half = lshr <8 x i16> %round, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
367 ; CHECK-NEXT: movs r0, #1
369 ; CHECK-NEXT: vshr.s32 q0, q0, #1
372 %round = add <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
373 %half = ashr <4 x i32> %round, <i32 1, i32 1, i32 1, i32 1>
380 ; CHECK-NEXT: movs r0, #1
382 ; CHECK-NEXT: vshr.u32 q0, q0, #1
385 %round = add <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
386 %half = lshr <4 x i32> %round, <i32 1, i32 1, i32 1, i32 1>
393 ; CHECK-NEXT: movs r0, #1
397 … = add nsw <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
398 …f = ashr <16 x i8> %round, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
405 ; CHECK-NEXT: movs r0, #1
409 … = add nuw <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
410 …f = lshr <16 x i8> %round, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
417 ; CHECK-NEXT: movs r0, #1
421 %round = add nsw <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
422 %half = ashr <8 x i16> %round, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
429 ; CHECK-NEXT: movs r0, #1
433 %round = add nuw <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
434 %half = lshr <8 x i16> %round, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
441 ; CHECK-NEXT: movs r0, #1
445 %round = add nsw <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
446 %half = ashr <4 x i32> %round, <i32 1, i32 1, i32 1, i32 1>
453 ; CHECK-NEXT: movs r0, #1
457 %round = add nuw <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
458 %half = lshr <4 x i32> %round, <i32 1, i32 1, i32 1, i32 1>
467 … = add nsw <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
468 …f = ashr <16 x i8> %round, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
477 … = add nuw <16 x i8> %add, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
478 …f = lshr <16 x i8> %round, <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1
487 %round = add nsw <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
488 %half = ashr <8 x i16> %round, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
497 %round = add nuw <8 x i16> %add, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
498 %half = lshr <8 x i16> %round, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
507 %round = add nsw <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
508 %half = ashr <4 x i32> %round, <i32 1, i32 1, i32 1, i32 1>
517 %round = add nuw <4 x i32> %add, <i32 1, i32 1, i32 1, i32 1>
518 %half = lshr <4 x i32> %round, <i32 1, i32 1, i32 1, i32 1>