xref: /llvm-project/llvm/test/Transforms/SLPVectorizer/reduced-gathered-vectorized.ll (revision 15ee17c3ce34623261788d7de3c1bdf5860be34e)
1; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2; RUN: %if x86-registered-target %{ opt -passes=slp-vectorizer -S -mtriple=x86_64-unknown-linux-gnu < %s | FileCheck %s %}
3; RUN: %if aarch64-registered-target %{ opt -passes=slp-vectorizer -S -mtriple=aarch64-unknown-linux-gnu < %s | FileCheck %s %}
4
5define i16 @test() {
6; CHECK-LABEL: @test(
7; CHECK-NEXT:  entry:
8; CHECK-NEXT:    [[A:%.*]] = getelementptr [1000 x i64], ptr null, i64 0, i64 5
9; CHECK-NEXT:    [[A1:%.*]] = getelementptr [1000 x i64], ptr null, i64 0, i64 6
10; CHECK-NEXT:    br label [[WHILE:%.*]]
11; CHECK:       while:
12; CHECK-NEXT:    [[PH:%.*]] = phi i64 [ 0, [[ENTRY:%.*]] ], [ [[OP_RDX26:%.*]], [[WHILE]] ]
13; CHECK-NEXT:    [[TMP0:%.*]] = load i64, ptr null, align 8
14; CHECK-NEXT:    [[TMP1:%.*]] = load i64, ptr [[A1]], align 16
15; CHECK-NEXT:    [[TMP2:%.*]] = load i64, ptr null, align 8
16; CHECK-NEXT:    [[TMP3:%.*]] = load <4 x i64>, ptr [[A]], align 8
17; CHECK-NEXT:    [[TMP4:%.*]] = shufflevector <4 x i64> [[TMP3]], <4 x i64> zeroinitializer, <4 x i32> <i32 0, i32 1, i32 4, i32 4>
18; CHECK-NEXT:    [[TMP5:%.*]] = call i64 @llvm.vector.reduce.xor.v4i64(<4 x i64> [[TMP4]])
19; CHECK-NEXT:    [[OP_RDX:%.*]] = xor i64 0, [[TMP2]]
20; CHECK-NEXT:    [[OP_RDX24:%.*]] = xor i64 [[TMP0]], [[TMP1]]
21; CHECK-NEXT:    [[OP_RDX25:%.*]] = xor i64 [[OP_RDX]], [[OP_RDX24]]
22; CHECK-NEXT:    [[OP_RDX26]] = xor i64 [[OP_RDX25]], [[TMP5]]
23; CHECK-NEXT:    br label [[WHILE]]
24;
25entry:
26  %a = getelementptr [1000 x i64], ptr null, i64 0, i64 5
27  %a1 = getelementptr [1000 x i64], ptr null, i64 0, i64 6
28  %a2 = getelementptr [1000 x i64], ptr null, i64 0, i64 7
29  %a3 = getelementptr [1000 x i64], ptr null, i64 0, i64 8
30  br label %while
31
32while:
33  %ph = phi i64 [ 0, %entry ], [ %xor, %while ]
34  %0 = load i64, ptr null, align 8
35  %1 = load i64, ptr %a1, align 16
36  %2 = load i64, ptr %a2, align 8
37  %3 = load i64, ptr %a3, align 16
38  %4 = load i64, ptr null, align 8
39  %5 = load i64, ptr %a, align 8
40  %6 = load i64, ptr %a1, align 16
41  %7 = load i64, ptr %a2, align 8
42  %8 = load i64, ptr %a3, align 16
43  %9 = xor i64 %0, %1
44  %10 = xor i64 %9, %2
45  %11 = xor i64 %10, %3
46  %12 = xor i64 %11, %4
47  %13 = xor i64 %12, %0
48  %14 = xor i64 %13, %1
49  %15 = xor i64 %14, %2
50  %16 = xor i64 %15, %3
51  %17 = xor i64 %16, %4
52  %18 = xor i64 %17, %0
53  %19 = xor i64 %18, %1
54  %20 = xor i64 %19, %2
55  %21 = xor i64 %20, %3
56  %22 = xor i64 %21, %4
57  %23 = xor i64 %22, %5
58  %24 = xor i64 %23, %6
59  %25 = xor i64 %24, %2
60  %26 = xor i64 %25, %3
61  %27 = xor i64 %26, %4
62  %28 = xor i64 %27, %5
63  %29 = xor i64 %28, %6
64  %30 = xor i64 %29, %7
65  %31 = xor i64 %30, %8
66  %32 = xor i64 %31, %4
67  %33 = xor i64 %32, %5
68  %34 = xor i64 %33, %6
69  %35 = xor i64 %34, %7
70  %xor = xor i64 %35, %8
71  br label %while
72}
73