xref: /llvm-project/llvm/test/CodeGen/AMDGPU/copy-hoist-no-spills.ll (revision 56ad6d19397c4286fa412f5070fd1a563b6c43e4)
1*56ad6d19Smichaelselehov; NOTE: There must be no spill reload inside the loop starting with LBB0_1:
2*56ad6d19Smichaelselehov; RUN: llc -mtriple=amdgcn-amd-amdhsa -mcpu=gfx908 < %s | FileCheck %s
3*56ad6d19Smichaelselehovtarget datalayout = "e-p:64:64-p1:64:64-p2:32:32-p3:32:32-p4:64:64-p5:32:32-p6:32:32-p7:160:256:256:32-p8:128:128-i64:64-v16:16-v24:32-v32:32-v48:64-v96:128-v192:256-v256:256-v512:512-v1024:1024-v2048:2048-n32:64-S32-A5-G1-ni:7:8:9-p9:192:256:256:32"
4*56ad6d19Smichaelselehovtarget triple = "amdgcn-amd-amdhsa"
5*56ad6d19Smichaelselehov
6*56ad6d19Smichaelselehovdefine amdgpu_kernel void @foo(ptr %.sroa.1.0.copyload, ptr %0, ptr %1, ptr %2, ptr %3, ptr %4, ptr %5, ptr %6, ptr %7, ptr %8, ptr %9, ptr %10, ptr %11, ptr %12, ptr %13, ptr %14, ptr %15, ptr %16, ptr %17, ptr %18, ptr %19, ptr %20, ptr %21, ptr %22, ptr %23, ptr %24, ptr %25, ptr %26, ptr %27, ptr %28, ptr %29, ptr %30, ptr %31, ptr %32, ptr %33, double %34, double %35, double %36, float %37, float %38, float %39, float %40, ptr %41) {
7*56ad6d19Smichaelselehov; CHECK-LABEL: foo:
8*56ad6d19Smichaelselehov; CHECK-LABEL: .LBB0_1
9*56ad6d19Smichaelselehov; CHECK-NOT: buffer_load_dword {{v[0-9]+}}
10*56ad6d19Smichaelselehov
11*56ad6d19Smichaelselehov.lr.ph:
12*56ad6d19Smichaelselehov  %.pre = load double, ptr null, align 8
13*56ad6d19Smichaelselehov  br label %42
14*56ad6d19Smichaelselehov
15*56ad6d19Smichaelselehov42:                                               ; preds = %42, %.lr.ph
16*56ad6d19Smichaelselehov  %.0.i4402 = phi i32 [ 1, %.lr.ph ], [ 0, %42 ]
17*56ad6d19Smichaelselehov  %43 = zext i32 %.0.i4402 to i64
18*56ad6d19Smichaelselehov  %44 = load double, ptr %2, align 8
19*56ad6d19Smichaelselehov  %45 = load double, ptr %4, align 8
20*56ad6d19Smichaelselehov  %46 = load double, ptr %7, align 8
21*56ad6d19Smichaelselehov  %47 = load double, ptr %13, align 8
22*56ad6d19Smichaelselehov  %48 = load double, ptr %15, align 8
23*56ad6d19Smichaelselehov  %49 = load double, ptr %17, align 8
24*56ad6d19Smichaelselehov  %50 = load double, ptr %19, align 8
25*56ad6d19Smichaelselehov  %51 = load double, ptr %18, align 8
26*56ad6d19Smichaelselehov  %52 = load double, ptr %27, align 8
27*56ad6d19Smichaelselehov  %53 = load double, ptr %23, align 8
28*56ad6d19Smichaelselehov  %54 = load double, ptr %31, align 8
29*56ad6d19Smichaelselehov  %55 = load double, ptr %33, align 8
30*56ad6d19Smichaelselehov  %56 = load double, ptr %25, align 8
31*56ad6d19Smichaelselehov  %57 = load double, ptr %16, align 8
32*56ad6d19Smichaelselehov  %58 = fpext float %40 to double
33*56ad6d19Smichaelselehov  %59 = fmul double %52, %58
34*56ad6d19Smichaelselehov  %60 = fadd double %59, %51
35*56ad6d19Smichaelselehov  %61 = fsub double %60, %48
36*56ad6d19Smichaelselehov  %62 = fmul double 0.000000e+00, %36
37*56ad6d19Smichaelselehov  %63 = fsub double %61, %62
38*56ad6d19Smichaelselehov  %64 = fadd double %49, %63
39*56ad6d19Smichaelselehov  %65 = fptrunc double %64 to float
40*56ad6d19Smichaelselehov  %66 = fsub double 0.000000e+00, %34
41*56ad6d19Smichaelselehov  %67 = fpext float %39 to double
42*56ad6d19Smichaelselehov  %68 = fmul double %53, %67
43*56ad6d19Smichaelselehov  %69 = fsub double %66, %68
44*56ad6d19Smichaelselehov  %70 = fadd double %50, %69
45*56ad6d19Smichaelselehov  %71 = fptrunc double %70 to float
46*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %30, align 4
47*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %26, align 4
48*56ad6d19Smichaelselehov  %72 = getelementptr float, ptr %41, i64 %43
49*56ad6d19Smichaelselehov  store float %38, ptr %72, align 4
50*56ad6d19Smichaelselehov  store float %65, ptr %29, align 4
51*56ad6d19Smichaelselehov  store float %71, ptr %14, align 4
52*56ad6d19Smichaelselehov  store float %39, ptr %3, align 4
53*56ad6d19Smichaelselehov  store float %39, ptr %11, align 4
54*56ad6d19Smichaelselehov  %73 = fsub double %46, %44
55*56ad6d19Smichaelselehov  %74 = fptrunc double %73 to float
56*56ad6d19Smichaelselehov  %75 = fsub double %47, %45
57*56ad6d19Smichaelselehov  %76 = fptrunc double %75 to float
58*56ad6d19Smichaelselehov  %77 = fadd float %74, %76
59*56ad6d19Smichaelselehov  %78 = fpext float %37 to double
60*56ad6d19Smichaelselehov  %79 = fmul contract double %56, 0.000000e+00
61*56ad6d19Smichaelselehov  %80 = fsub contract double %34, %79
62*56ad6d19Smichaelselehov  %81 = fpext float %77 to double
63*56ad6d19Smichaelselehov  %82 = fmul double %.pre, %81
64*56ad6d19Smichaelselehov  %83 = fsub double %80, %82
65*56ad6d19Smichaelselehov  %84 = fpext float %38 to double
66*56ad6d19Smichaelselehov  %85 = fmul double %57, %84
67*56ad6d19Smichaelselehov  %86 = fsub double %83, %85
68*56ad6d19Smichaelselehov  %87 = fptrunc double %86 to float
69*56ad6d19Smichaelselehov  %88 = fmul double %34, 0.000000e+00
70*56ad6d19Smichaelselehov  %89 = fmul double %54, %78
71*56ad6d19Smichaelselehov  %90 = fadd double %89, %88
72*56ad6d19Smichaelselehov  %91 = fsub double %90, %55
73*56ad6d19Smichaelselehov  %92 = fmul double 0.000000e+00, %35
74*56ad6d19Smichaelselehov  %93 = fsub double %91, %92
75*56ad6d19Smichaelselehov  %94 = fmul double %34, %34
76*56ad6d19Smichaelselehov  %95 = fadd double %93, %94
77*56ad6d19Smichaelselehov  %96 = fptrunc double %95 to float
78*56ad6d19Smichaelselehov  store float %87, ptr %1, align 4
79*56ad6d19Smichaelselehov  store float %37, ptr %21, align 4
80*56ad6d19Smichaelselehov  store float %96, ptr %0, align 4
81*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %9, align 4
82*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %32, align 4
83*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %20, align 4
84*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %22, align 4
85*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %5, align 4
86*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %28, align 4
87*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %12, align 4
88*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %6, align 4
89*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %8, align 4
90*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %.sroa.1.0.copyload, align 4
91*56ad6d19Smichaelselehov  store float %37, ptr %10, align 4
92*56ad6d19Smichaelselehov  store float 0.000000e+00, ptr %24, align 4
93*56ad6d19Smichaelselehov  br label %42
94*56ad6d19Smichaelselehov}
95