1; NOTE: Assertions have been autogenerated by utils/update_test_checks.py 2; RUN: %if x86-registered-target %{ opt -passes=slp-vectorizer -S -mtriple=x86_64-unknown-linux-gnu < %s | FileCheck %s %} 3; RUN: %if aarch64-registered-target %{ opt -passes=slp-vectorizer -S -mtriple=aarch64-unknown-linux-gnu < %s | FileCheck %s %} 4 5define i16 @test() { 6; CHECK-LABEL: @test( 7; CHECK-NEXT: entry: 8; CHECK-NEXT: [[A:%.*]] = getelementptr [1000 x i64], ptr null, i64 0, i64 5 9; CHECK-NEXT: [[A1:%.*]] = getelementptr [1000 x i64], ptr null, i64 0, i64 6 10; CHECK-NEXT: br label [[WHILE:%.*]] 11; CHECK: while: 12; CHECK-NEXT: [[PH:%.*]] = phi i64 [ 0, [[ENTRY:%.*]] ], [ [[OP_RDX26:%.*]], [[WHILE]] ] 13; CHECK-NEXT: [[TMP0:%.*]] = load i64, ptr null, align 8 14; CHECK-NEXT: [[TMP1:%.*]] = load i64, ptr [[A1]], align 16 15; CHECK-NEXT: [[TMP2:%.*]] = load i64, ptr null, align 8 16; CHECK-NEXT: [[TMP3:%.*]] = load <4 x i64>, ptr [[A]], align 8 17; CHECK-NEXT: [[TMP4:%.*]] = shufflevector <4 x i64> [[TMP3]], <4 x i64> zeroinitializer, <4 x i32> <i32 0, i32 1, i32 4, i32 4> 18; CHECK-NEXT: [[TMP5:%.*]] = call i64 @llvm.vector.reduce.xor.v4i64(<4 x i64> [[TMP4]]) 19; CHECK-NEXT: [[OP_RDX:%.*]] = xor i64 0, [[TMP2]] 20; CHECK-NEXT: [[OP_RDX24:%.*]] = xor i64 [[TMP0]], [[TMP1]] 21; CHECK-NEXT: [[OP_RDX25:%.*]] = xor i64 [[OP_RDX]], [[OP_RDX24]] 22; CHECK-NEXT: [[OP_RDX26]] = xor i64 [[OP_RDX25]], [[TMP5]] 23; CHECK-NEXT: br label [[WHILE]] 24; 25entry: 26 %a = getelementptr [1000 x i64], ptr null, i64 0, i64 5 27 %a1 = getelementptr [1000 x i64], ptr null, i64 0, i64 6 28 %a2 = getelementptr [1000 x i64], ptr null, i64 0, i64 7 29 %a3 = getelementptr [1000 x i64], ptr null, i64 0, i64 8 30 br label %while 31 32while: 33 %ph = phi i64 [ 0, %entry ], [ %xor, %while ] 34 %0 = load i64, ptr null, align 8 35 %1 = load i64, ptr %a1, align 16 36 %2 = load i64, ptr %a2, align 8 37 %3 = load i64, ptr %a3, align 16 38 %4 = load i64, ptr null, align 8 39 %5 = load i64, ptr %a, align 8 40 %6 = load i64, ptr %a1, align 16 41 %7 = load i64, ptr %a2, align 8 42 %8 = load i64, ptr %a3, align 16 43 %9 = xor i64 %0, %1 44 %10 = xor i64 %9, %2 45 %11 = xor i64 %10, %3 46 %12 = xor i64 %11, %4 47 %13 = xor i64 %12, %0 48 %14 = xor i64 %13, %1 49 %15 = xor i64 %14, %2 50 %16 = xor i64 %15, %3 51 %17 = xor i64 %16, %4 52 %18 = xor i64 %17, %0 53 %19 = xor i64 %18, %1 54 %20 = xor i64 %19, %2 55 %21 = xor i64 %20, %3 56 %22 = xor i64 %21, %4 57 %23 = xor i64 %22, %5 58 %24 = xor i64 %23, %6 59 %25 = xor i64 %24, %2 60 %26 = xor i64 %25, %3 61 %27 = xor i64 %26, %4 62 %28 = xor i64 %27, %5 63 %29 = xor i64 %28, %6 64 %30 = xor i64 %29, %7 65 %31 = xor i64 %30, %8 66 %32 = xor i64 %31, %4 67 %33 = xor i64 %32, %5 68 %34 = xor i64 %33, %6 69 %35 = xor i64 %34, %7 70 %xor = xor i64 %35, %8 71 br label %while 72} 73