xref: /llvm-project/llvm/test/CodeGen/PowerPC/overflow-intrinsic-optimizations.ll (revision 5403c59c608c08c8ecd4303763f08eb046eb5e4d)
1; RUN: llc %s -mtriple=powerpc -o - | FileCheck %s
2; RUN: llc %s -mtriple=powerpc64 -o - | FileCheck %s
3
4define i1 @no__mulodi4(i32 %a, i64 %b, ptr %c) {
5; CHECK-LABEL: no__mulodi4
6; CHECK-NOT: bl __mulodi4
7; CHECK-NOT: bl __multi3
8entry:
9  %0 = sext i32 %a to i64
10  %1 = call { i64, i1 } @llvm.smul.with.overflow.i64(i64 %0, i64 %b)
11  %2 = extractvalue { i64, i1 } %1, 1
12  %3 = extractvalue { i64, i1 } %1, 0
13  %4 = trunc i64 %3 to i32
14  %5 = sext i32 %4 to i64
15  %6 = icmp ne i64 %3, %5
16  %7 = or i1 %2, %6
17  store i32 %4, ptr %c, align 4
18  ret i1 %7
19}
20
21define i1 @no__muloti4(i128 %a, i128 %b) {
22; CHECK-LABEL: no__muloti4
23; CHECK-NOT: bl __muloti4
24entry:
25  %0 = call { i128, i1 } @llvm.smul.with.overflow.i128(i128 %a, i128 %b)
26  %1 = extractvalue { i128, i1 } %0, 1
27  ret i1 %1
28}
29
30declare { i64, i1 } @llvm.smul.with.overflow.i64(i64, i64)
31declare { i128, i1 } @llvm.smul.with.overflow.i128(i128, i128)
32