xref: /llvm-project/llvm/test/Transforms/InstSimplify/div-by-0-guard-before-umul_ov-not.ll (revision 060de415af335fdd82910f409e2be3b8457eaa43)
1; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2; RUN: opt %s -passes=instsimplify -S | FileCheck %s
3
4declare { i4, i1 } @llvm.umul.with.overflow.i4(i4, i4) #1
5
6define i1 @t0_umul(i4 %size, i4 %nmemb) {
7; CHECK-LABEL: @t0_umul(
8; CHECK-NEXT:    [[UMUL:%.*]] = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 [[SIZE:%.*]], i4 [[NMEMB:%.*]])
9; CHECK-NEXT:    [[UMUL_OV:%.*]] = extractvalue { i4, i1 } [[UMUL]], 1
10; CHECK-NEXT:    [[PHITMP:%.*]] = xor i1 [[UMUL_OV]], true
11; CHECK-NEXT:    ret i1 [[PHITMP]]
12;
13  %cmp = icmp eq i4 %size, 0
14  %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size, i4 %nmemb)
15  %umul.ov = extractvalue { i4, i1 } %umul, 1
16  %phitmp = xor i1 %umul.ov, true
17  %or = or i1 %cmp, %phitmp
18  ret i1 %or
19}
20
21define i1 @t1_commutative(i4 %size, i4 %nmemb) {
22; CHECK-LABEL: @t1_commutative(
23; CHECK-NEXT:    [[UMUL:%.*]] = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 [[SIZE:%.*]], i4 [[NMEMB:%.*]])
24; CHECK-NEXT:    [[UMUL_OV:%.*]] = extractvalue { i4, i1 } [[UMUL]], 1
25; CHECK-NEXT:    [[PHITMP:%.*]] = xor i1 [[UMUL_OV]], true
26; CHECK-NEXT:    ret i1 [[PHITMP]]
27;
28  %cmp = icmp eq i4 %size, 0
29  %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size, i4 %nmemb)
30  %umul.ov = extractvalue { i4, i1 } %umul, 1
31  %phitmp = xor i1 %umul.ov, true
32  %or = or i1 %phitmp, %cmp ; swapped
33  ret i1 %or
34}
35
36define i1 @n2_wrong_size(i4 %size0, i4 %size1, i4 %nmemb) {
37; CHECK-LABEL: @n2_wrong_size(
38; CHECK-NEXT:    [[CMP:%.*]] = icmp eq i4 [[SIZE1:%.*]], 0
39; CHECK-NEXT:    [[UMUL:%.*]] = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 [[SIZE0:%.*]], i4 [[NMEMB:%.*]])
40; CHECK-NEXT:    [[UMUL_OV:%.*]] = extractvalue { i4, i1 } [[UMUL]], 1
41; CHECK-NEXT:    [[PHITMP:%.*]] = xor i1 [[UMUL_OV]], true
42; CHECK-NEXT:    [[OR:%.*]] = or i1 [[CMP]], [[PHITMP]]
43; CHECK-NEXT:    ret i1 [[OR]]
44;
45  %cmp = icmp eq i4 %size1, 0 ; not %size0
46  %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size0, i4 %nmemb)
47  %umul.ov = extractvalue { i4, i1 } %umul, 1
48  %phitmp = xor i1 %umul.ov, true
49  %or = or i1 %cmp, %phitmp
50  ret i1 %or
51}
52
53define i1 @n3_wrong_pred(i4 %size, i4 %nmemb) {
54; CHECK-LABEL: @n3_wrong_pred(
55; CHECK-NEXT:    ret i1 true
56;
57  %cmp = icmp ne i4 %size, 0 ; not 'eq'
58  %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size, i4 %nmemb)
59  %umul.ov = extractvalue { i4, i1 } %umul, 1
60  %phitmp = xor i1 %umul.ov, true
61  %or = or i1 %cmp, %phitmp
62  ret i1 %or
63}
64
65define i1 @n4_not_and(i4 %size, i4 %nmemb) {
66; CHECK-LABEL: @n4_not_and(
67; CHECK-NEXT:    [[CMP:%.*]] = icmp eq i4 [[SIZE:%.*]], 0
68; CHECK-NEXT:    ret i1 [[CMP]]
69;
70  %cmp = icmp eq i4 %size, 0
71  %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size, i4 %nmemb)
72  %umul.ov = extractvalue { i4, i1 } %umul, 1
73  %phitmp = xor i1 %umul.ov, true
74  %or = and i1 %cmp, %phitmp ; not 'or'
75  ret i1 %or
76}
77
78define i1 @n5_not_zero(i4 %size, i4 %nmemb) {
79; CHECK-LABEL: @n5_not_zero(
80; CHECK-NEXT:    [[CMP:%.*]] = icmp eq i4 [[SIZE:%.*]], 1
81; CHECK-NEXT:    [[UMUL:%.*]] = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 [[SIZE]], i4 [[NMEMB:%.*]])
82; CHECK-NEXT:    [[UMUL_OV:%.*]] = extractvalue { i4, i1 } [[UMUL]], 1
83; CHECK-NEXT:    [[PHITMP:%.*]] = xor i1 [[UMUL_OV]], true
84; CHECK-NEXT:    [[OR:%.*]] = or i1 [[CMP]], [[PHITMP]]
85; CHECK-NEXT:    ret i1 [[OR]]
86;
87  %cmp = icmp eq i4 %size, 1 ; should be '0'
88  %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size, i4 %nmemb)
89  %umul.ov = extractvalue { i4, i1 } %umul, 1
90  %phitmp = xor i1 %umul.ov, true
91  %or = or i1 %cmp, %phitmp
92  ret i1 %or
93}
94