xref: /llvm-project/llvm/test/CodeGen/X86/overflow-intrinsic-optimizations.ll (revision 2f448bf509432c1a19ec46ab8cbc7353c03c6280)
1; RUN: llc %s -mtriple=i386 -o - | FileCheck %s
2
3define i1 @no__mulodi4(i32 %a, i64 %b, ptr %c) {
4; CHECK-LABEL: no__mulodi4:
5; CHECK-NOT: calll __mulodi4
6entry:
7  %0 = sext i32 %a to i64
8  %1 = call { i64, i1 } @llvm.smul.with.overflow.i64(i64 %0, i64 %b)
9  %2 = extractvalue { i64, i1 } %1, 1
10  %3 = extractvalue { i64, i1 } %1, 0
11  %4 = trunc i64 %3 to i32
12  %5 = sext i32 %4 to i64
13  %6 = icmp ne i64 %3, %5
14  %7 = or i1 %2, %6
15  store i32 %4, ptr %c, align 4
16  ret i1 %7
17}
18
19declare { i64, i1 } @llvm.smul.with.overflow.i64(i64, i64)
20