Lines Matching full:llvm
1 // RUN: mlir-opt %s --pass-pipeline="builtin.module(llvm.func(mem2reg))" --split-input-file | FileCheck %s
3 // CHECK-LABEL: llvm.func @basic_memset
5 llvm.func @basic_memset(%memset_value: i8) -> i32 {
6 %0 = llvm.mlir.constant(1 : i32) : i32
7 %1 = llvm.alloca %0 x i32 {alignment = 4 : i64} : (i32) -> !llvm.ptr
8 %memset_len = llvm.mlir.constant(4 : i32) : i32
9 "llvm.intr.memset"(%1, %memset_value, %memset_len) <{isVolatile = false}> : (!llvm.ptr, i8, i32) -> ()
10 // CHECK-NOT: "llvm.intr.memset"
11 // CHECK: %[[VALUE_8:.*]] = llvm.zext %[[MEMSET_VALUE]] : i8 to i32
12 // CHECK: %[[C8:.*]] = llvm.mlir.constant(8 : i32) : i32
13 // CHECK: %[[SHIFTED_8:.*]] = llvm.shl %[[VALUE_8]], %[[C8]]
14 // CHECK: %[[VALUE_16:.*]] = llvm.or %[[VALUE_8]], %[[SHIFTED_8]]
15 // CHECK: %[[C16:.*]] = llvm.mlir.constant(16 : i32) : i32
16 // CHECK: %[[SHIFTED_16:.*]] = llvm.shl %[[VALUE_16]], %[[C16]]
17 // CHECK: %[[VALUE_32:.*]] = llvm.or %[[VALUE_16]], %[[SHIFTED_16]]
18 // CHECK-NOT: "llvm.intr.memset"
19 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i32
20 // CHECK: llvm.return %[[VALUE_32]] : i32
21 llvm.return %2 : i32
26 // CHECK-LABEL: llvm.func @basic_memset_inline
28 llvm.func @basic_memset_inline(%memset_value: i8) -> i32 {
29 %0 = llvm.mlir.constant(1 : i32) : i32
30 %1 = llvm.alloca %0 x i32 {alignment = 4 : i64} : (i32) -> !llvm.ptr
31 "llvm.intr.memset.inline"(%1, %memset_value) <{isVolatile = false, len = 4 : i32}> : (!llvm.ptr, i8) -> ()
32 // CHECK-NOT: "llvm.intr.memset.inline"
33 // CHECK: %[[VALUE_8:.*]] = llvm.zext %[[MEMSET_VALUE]] : i8 to i32
34 // CHECK: %[[C8:.*]] = llvm.mlir.constant(8 : i32) : i32
35 // CHECK: %[[SHIFTED_8:.*]] = llvm.shl %[[VALUE_8]], %[[C8]]
36 // CHECK: %[[VALUE_16:.*]] = llvm.or %[[VALUE_8]], %[[SHIFTED_8]]
37 // CHECK: %[[C16:.*]] = llvm.mlir.constant(16 : i32) : i32
38 // CHECK: %[[SHIFTED_16:.*]] = llvm.shl %[[VALUE_16]], %[[C16]]
39 // CHECK: %[[VALUE_32:.*]] = llvm.or %[[VALUE_16]], %[[SHIFTED_16]]
40 // CHECK-NOT: "llvm.intr.memset.inline"
41 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i32
42 // CHECK: llvm.return %[[VALUE_32]] : i32
43 llvm.return %2 : i32
48 // CHECK-LABEL: llvm.func @basic_memset_constant
49 llvm.func @basic_memset_constant() -> i32 {
50 %0 = llvm.mlir.constant(1 : i32) : i32
51 %1 = llvm.alloca %0 x i32 {alignment = 4 : i64} : (i32) -> !llvm.ptr
52 %memset_value = llvm.mlir.constant(42 : i8) : i8
53 %memset_len = llvm.mlir.constant(4 : i32) : i32
54 "llvm.intr.memset"(%1, %memset_value, %memset_len) <{isVolatile = false}> : (!llvm.ptr, i8, i32) -> ()
55 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i32
56 // CHECK: %[[C42:.*]] = llvm.mlir.constant(42 : i8) : i8
57 // CHECK: %[[VALUE_42:.*]] = llvm.zext %[[C42]] : i8 to i32
58 // CHECK: %[[C8:.*]] = llvm.mlir.constant(8 : i32) : i32
59 // CHECK: %[[SHIFTED_42:.*]] = llvm.shl %[[VALUE_42]], %[[C8]] : i32
60 // CHECK: %[[OR0:.*]] = llvm.or %[[VALUE_42]], %[[SHIFTED_42]] : i32
61 // CHECK: %[[C16:.*]] = llvm.mlir.constant(16 : i32) : i32
62 // CHECK: %[[SHIFTED:.*]] = llvm.shl %[[OR0]], %[[C16]] : i32
63 // CHECK: %[[RES:..*]] = llvm.or %[[OR0]], %[[SHIFTED]] : i32
64 // CHECK: llvm.return %[[RES]] : i32
65 llvm.return %2 : i32
70 // CHECK-LABEL: llvm.func @basic_memset_inline_constant
71 llvm.func @basic_memset_inline_constant() -> i32 {
72 %0 = llvm.mlir.constant(1 : i32) : i32
73 %1 = llvm.alloca %0 x i32 {alignment = 4 : i64} : (i32) -> !llvm.ptr
74 %memset_value = llvm.mlir.constant(42 : i8) : i8
75 "llvm.intr.memset.inline"(%1, %memset_value) <{isVolatile = false, len = 4}> : (!llvm.ptr, i8) -> ()
76 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i32
77 // CHECK: %[[C42:.*]] = llvm.mlir.constant(42 : i8) : i8
78 // CHECK: %[[VALUE_42:.*]] = llvm.zext %[[C42]] : i8 to i32
79 // CHECK: %[[C8:.*]] = llvm.mlir.constant(8 : i32) : i32
80 // CHECK: %[[SHIFTED_42:.*]] = llvm.shl %[[VALUE_42]], %[[C8]] : i32
81 // CHECK: %[[OR0:.*]] = llvm.or %[[VALUE_42]], %[[SHIFTED_42]] : i32
82 // CHECK: %[[C16:.*]] = llvm.mlir.constant(16 : i32) : i32
83 // CHECK: %[[SHIFTED:.*]] = llvm.shl %[[OR0]], %[[C16]] : i32
84 // CHECK: %[[RES:..*]] = llvm.or %[[OR0]], %[[SHIFTED]] : i32
85 // CHECK: llvm.return %[[RES]] : i32
86 llvm.return %2 : i32
91 // CHECK-LABEL: llvm.func @exotic_target_memset
93 llvm.func @exotic_target_memset(%memset_value: i8) -> i40 {
94 %0 = llvm.mlir.constant(1 : i32) : i32
95 %1 = llvm.alloca %0 x i40 {alignment = 4 : i64} : (i32) -> !llvm.ptr
96 %memset_len = llvm.mlir.constant(5 : i32) : i32
97 "llvm.intr.memset"(%1, %memset_value, %memset_len) <{isVolatile = false}> : (!llvm.ptr, i8, i32) -> ()
98 // CHECK-NOT: "llvm.intr.memset"
99 // CHECK: %[[VALUE_8:.*]] = llvm.zext %[[MEMSET_VALUE]] : i8 to i40
100 // CHECK: %[[C8:.*]] = llvm.mlir.constant(8 : i40) : i40
101 // CHECK: %[[SHIFTED_8:.*]] = llvm.shl %[[VALUE_8]], %[[C8]]
102 // CHECK: %[[VALUE_16:.*]] = llvm.or %[[VALUE_8]], %[[SHIFTED_8]]
103 // CHECK: %[[C16:.*]] = llvm.mlir.constant(16 : i40) : i40
104 // CHECK: %[[SHIFTED_16:.*]] = llvm.shl %[[VALUE_16]], %[[C16]]
105 // CHECK: %[[VALUE_32:.*]] = llvm.or %[[VALUE_16]], %[[SHIFTED_16]]
106 // CHECK: %[[C32:.*]] = llvm.mlir.constant(32 : i40) : i40
107 // CHECK: %[[SHIFTED_COMPL:.*]] = llvm.shl %[[VALUE_32]], %[[C32]]
108 // CHECK: %[[VALUE_COMPL:.*]] = llvm.or %[[VALUE_32]], %[[SHIFTED_COMPL]]
109 // CHECK-NOT: "llvm.intr.memset"
110 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i40
111 // CHECK: llvm.return %[[VALUE_COMPL]] : i40
112 llvm.return %2 : i40
117 // CHECK-LABEL: llvm.func @exotic_target_memset_inline
119 llvm.func @exotic_target_memset_inline(%memset_value: i8) -> i40 {
120 %0 = llvm.mlir.constant(1 : i32) : i32
121 %1 = llvm.alloca %0 x i40 {alignment = 4 : i64} : (i32) -> !llvm.ptr
122 "llvm.intr.memset.inline"(%1, %memset_value) <{isVolatile = false, len = 5}> : (!llvm.ptr, i8) -> ()
123 // CHECK-NOT: "llvm.intr.memset.inline"
124 // CHECK: %[[VALUE_8:.*]] = llvm.zext %[[MEMSET_VALUE]] : i8 to i40
125 // CHECK: %[[C8:.*]] = llvm.mlir.constant(8 : i40) : i40
126 // CHECK: %[[SHIFTED_8:.*]] = llvm.shl %[[VALUE_8]], %[[C8]]
127 // CHECK: %[[VALUE_16:.*]] = llvm.or %[[VALUE_8]], %[[SHIFTED_8]]
128 // CHECK: %[[C16:.*]] = llvm.mlir.constant(16 : i40) : i40
129 // CHECK: %[[SHIFTED_16:.*]] = llvm.shl %[[VALUE_16]], %[[C16]]
130 // CHECK: %[[VALUE_32:.*]] = llvm.or %[[VALUE_16]], %[[SHIFTED_16]]
131 // CHECK: %[[C32:.*]] = llvm.mlir.constant(32 : i40) : i40
132 // CHECK: %[[SHIFTED_COMPL:.*]] = llvm.shl %[[VALUE_32]], %[[C32]]
133 // CHECK: %[[VALUE_COMPL:.*]] = llvm.or %[[VALUE_32]], %[[SHIFTED_COMPL]]
134 // CHECK-NOT: "llvm.intr.memset.inline"
135 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i40
136 // CHECK: llvm.return %[[VALUE_COMPL]] : i40
137 llvm.return %2 : i40
142 // CHECK-LABEL: llvm.func @no_volatile_memset
143 llvm.func @no_volatile_memset() -> i32 {
144 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
145 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i32
146 // CHECK-DAG: %[[MEMSET_VALUE:.*]] = llvm.mlir.constant(42 : i8) : i8
147 // CHECK-DAG: %[[MEMSET_LEN:.*]] = llvm.mlir.constant(4 : i32) : i32
148 %0 = llvm.mlir.constant(1 : i32) : i32
149 %1 = llvm.alloca %0 x i32 {alignment = 4 : i64} : (i32) -> !llvm.ptr
150 %memset_value = llvm.mlir.constant(42 : i8) : i8
151 %memset_len = llvm.mlir.constant(4 : i32) : i32
152 // CHECK: "llvm.intr.memset"(%[[ALLOCA]], %[[MEMSET_VALUE]], %[[MEMSET_LEN]]) <{isVolatile = true}>
153 "llvm.intr.memset"(%1, %memset_value, %memset_len) <{isVolatile = true}> : (!llvm.ptr, i8, i32) -> ()
154 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i32
155 llvm.return %2 : i32
160 // CHECK-LABEL: llvm.func @no_volatile_memset_inline
161 llvm.func @no_volatile_memset_inline() -> i32 {
162 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
163 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i32
164 // CHECK-DAG: %[[MEMSET_VALUE:.*]] = llvm.mlir.constant(42 : i8) : i8
165 %0 = llvm.mlir.constant(1 : i32) : i32
166 %1 = llvm.alloca %0 x i32 {alignment = 4 : i64} : (i32) -> !llvm.ptr
167 %memset_value = llvm.mlir.constant(42 : i8) : i8
168 // CHECK: "llvm.intr.memset.inline"(%[[ALLOCA]], %[[MEMSET_VALUE]]) <{isVolatile = true, len = 4 : i64}>
169 "llvm.intr.memset.inline"(%1, %memset_value) <{isVolatile = true, len = 4}> : (!llvm.ptr, i8) -> ()
170 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i32
171 llvm.return %2 : i32
176 // CHECK-LABEL: llvm.func @no_partial_memset
177 llvm.func @no_partial_memset() -> i32 {
178 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
179 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i32
180 // CHECK-DAG: %[[MEMSET_VALUE:.*]] = llvm.mlir.constant(42 : i8) : i8
181 // CHECK-DAG: %[[MEMSET_LEN:.*]] = llvm.mlir.constant(2 : i32) : i32
182 %0 = llvm.mlir.constant(1 : i32) : i32
183 %1 = llvm.alloca %0 x i32 {alignment = 4 : i64} : (i32) -> !llvm.ptr
184 %memset_value = llvm.mlir.constant(42 : i8) : i8
185 %memset_len = llvm.mlir.constant(2 : i32) : i32
186 // CHECK: "llvm.intr.memset"(%[[ALLOCA]], %[[MEMSET_VALUE]], %[[MEMSET_LEN]]) <{isVolatile = false}>
187 "llvm.intr.memset"(%1, %memset_value, %memset_len) <{isVolatile = false}> : (!llvm.ptr, i8, i32) -> ()
188 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i32
189 llvm.return %2 : i32
194 // CHECK-LABEL: llvm.func @no_partial_memset_inline
195 llvm.func @no_partial_memset_inline() -> i32 {
196 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
197 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i32
198 // CHECK-DAG: %[[MEMSET_VALUE:.*]] = llvm.mlir.constant(42 : i8) : i8
199 %0 = llvm.mlir.constant(1 : i32) : i32
200 %1 = llvm.alloca %0 x i32 {alignment = 4 : i64} : (i32) -> !llvm.ptr
201 %memset_value = llvm.mlir.constant(42 : i8) : i8
202 // CHECK: "llvm.intr.memset.inline"(%[[ALLOCA]], %[[MEMSET_VALUE]]) <{isVolatile = false, len = 2 : i64}>
203 "llvm.intr.memset.inline"(%1, %memset_value) <{isVolatile = false, len = 2}> : (!llvm.ptr, i8) -> ()
204 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i32
205 llvm.return %2 : i32
210 // CHECK-LABEL: llvm.func @no_overflowing_memset
211 llvm.func @no_overflowing_memset() -> i32 {
212 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
213 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i32
214 // CHECK-DAG: %[[MEMSET_VALUE:.*]] = llvm.mlir.constant(42 : i8) : i8
215 // CHECK-DAG: %[[MEMSET_LEN:.*]] = llvm.mlir.constant(6 : i32) : i32
216 %0 = llvm.mlir.constant(1 : i32) : i32
217 %1 = llvm.alloca %0 x i32 {alignment = 4 : i64} : (i32) -> !llvm.ptr
218 %memset_value = llvm.mlir.constant(42 : i8) : i8
219 %memset_len = llvm.mlir.constant(6 : i32) : i32
220 // CHECK: "llvm.intr.memset"(%[[ALLOCA]], %[[MEMSET_VALUE]], %[[MEMSET_LEN]]) <{isVolatile = false}>
221 "llvm.intr.memset"(%1, %memset_value, %memset_len) <{isVolatile = false}> : (!llvm.ptr, i8, i32) -> ()
222 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i32
223 llvm.return %2 : i32
228 // CHECK-LABEL: llvm.func @no_overflowing_memset_inline
229 llvm.func @no_overflowing_memset_inline() -> i32 {
230 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
231 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i32
232 // CHECK-DAG: %[[MEMSET_VALUE:.*]] = llvm.mlir.constant(42 : i8) : i8
233 %0 = llvm.mlir.constant(1 : i32) : i32
234 %1 = llvm.alloca %0 x i32 {alignment = 4 : i64} : (i32) -> !llvm.ptr
235 %memset_value = llvm.mlir.constant(42 : i8) : i8
236 // CHECK: "llvm.intr.memset.inline"(%[[ALLOCA]], %[[MEMSET_VALUE]]) <{isVolatile = false, len = 6 : i64}>
237 "llvm.intr.memset.inline"(%1, %memset_value) <{isVolatile = false, len = 6}> : (!llvm.ptr, i8) -> ()
238 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i32
239 llvm.return %2 : i32
244 // CHECK-LABEL: llvm.func @only_byte_aligned_integers_memset
245 llvm.func @only_byte_aligned_integers_memset() -> i10 {
246 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
247 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i10
248 // CHECK-DAG: %[[MEMSET_VALUE:.*]] = llvm.mlir.constant(42 : i8) : i8
249 // CHECK-DAG: %[[MEMSET_LEN:.*]] = llvm.mlir.constant(2 : i32) : i32
250 %0 = llvm.mlir.constant(1 : i32) : i32
251 %1 = llvm.alloca %0 x i10 {alignment = 4 : i64} : (i32) -> !llvm.ptr
252 %memset_value = llvm.mlir.constant(42 : i8) : i8
253 %memset_len = llvm.mlir.constant(2 : i32) : i32
254 // CHECK: "llvm.intr.memset"(%[[ALLOCA]], %[[MEMSET_VALUE]], %[[MEMSET_LEN]]) <{isVolatile = false}>
255 "llvm.intr.memset"(%1, %memset_value, %memset_len) <{isVolatile = false}> : (!llvm.ptr, i8, i32) -> ()
256 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i10
257 llvm.return %2 : i10
262 // CHECK-LABEL: llvm.func @only_byte_aligned_integers_memset_inline
263 llvm.func @only_byte_aligned_integers_memset_inline() -> i10 {
264 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
265 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i10
266 // CHECK-DAG: %[[MEMSET_VALUE:.*]] = llvm.mlir.constant(42 : i8) : i8
267 %0 = llvm.mlir.constant(1 : i32) : i32
268 %1 = llvm.alloca %0 x i10 {alignment = 4 : i64} : (i32) -> !llvm.ptr
269 %memset_value = llvm.mlir.constant(42 : i8) : i8
270 // CHECK: "llvm.intr.memset.inline"(%[[ALLOCA]], %[[MEMSET_VALUE]]) <{isVolatile = false, len = 2 : i64}>
271 "llvm.intr.memset.inline"(%1, %memset_value) <{isVolatile = false, len = 2}> : (!llvm.ptr, i8) -> ()
272 %2 = llvm.load %1 {alignment = 4 : i64} : !llvm.ptr -> i10
273 llvm.return %2 : i10
278 // CHECK-LABEL: llvm.func @basic_memcpy
279 // CHECK-SAME: (%[[SOURCE:.*]]: !llvm.ptr)
280 llvm.func @basic_memcpy(%source: !llvm.ptr) -> i32 {
281 %0 = llvm.mlir.constant(1 : i32) : i32
282 %1 = llvm.alloca %0 x i32 : (i32) -> !llvm.ptr
283 %is_volatile = llvm.mlir.constant(false) : i1
284 %memcpy_len = llvm.mlir.constant(4 : i32) : i32
285 "llvm.intr.memcpy"(%1, %source, %memcpy_len) <{isVolatile = false}> : (!llvm.ptr, !llvm.ptr, i32) -> ()
286 // CHECK-NOT: "llvm.intr.memcpy"
287 // CHECK: %[[LOADED:.*]] = llvm.load %[[SOURCE]] : !llvm.ptr -> i32
288 // CHECK-NOT: "llvm.intr.memcpy"
289 %2 = llvm.load %1 : !llvm.ptr -> i32
290 // CHECK: llvm.return %[[LOADED]] : i32
291 llvm.return %2 : i32
296 // CHECK-LABEL: llvm.func @basic_memcpy_dest
297 // CHECK-SAME: (%[[DESTINATION:.*]]: !llvm.ptr)
298 llvm.func @basic_memcpy_dest(%destination: !llvm.ptr) -> i32 {
299 %0 = llvm.mlir.constant(1 : i32) : i32
300 // CHECK: %[[DATA:.*]] = llvm.mlir.constant(42 : i32) : i32
301 %data = llvm.mlir.constant(42 : i32) : i32
302 %is_volatile = llvm.mlir.constant(false) : i1
303 %memcpy_len = llvm.mlir.constant(4 : i32) : i32
305 %1 = llvm.alloca %0 x i32 : (i32) -> !llvm.ptr
306 llvm.store %data, %1 : i32, !llvm.ptr
307 "llvm.intr.memcpy"(%destination, %1, %memcpy_len) <{isVolatile = false}> : (!llvm.ptr, !llvm.ptr, i32) -> ()
308 // CHECK-NOT: "llvm.intr.memcpy"
309 // CHECK: llvm.store %[[DATA]], %[[DESTINATION]] : i32, !llvm.ptr
310 // CHECK-NOT: "llvm.intr.memcpy"
312 %2 = llvm.load %1 : !llvm.ptr -> i32
313 // CHECK: llvm.return %[[DATA]] : i32
314 llvm.return %2 : i32
319 // CHECK-LABEL: llvm.func @double_memcpy
320 llvm.func @double_memcpy() -> i32 {
321 %0 = llvm.mlir.constant(1 : i32) : i32
322 // CHECK: %[[DATA:.*]] = llvm.mlir.constant(42 : i32) : i32
323 %data = llvm.mlir.constant(42 : i32) : i32
324 %is_volatile = llvm.mlir.constant(false) : i1
325 %memcpy_len = llvm.mlir.constant(4 : i32) : i32
327 %1 = llvm.alloca %0 x i32 : (i32) -> !llvm.ptr
328 %2 = llvm.alloca %0 x i32 : (i32) -> !llvm.ptr
329 llvm.store %data, %1 : i32, !llvm.ptr
330 "llvm.intr.memcpy"(%2, %1, %memcpy_len) <{isVolatile = false}> : (!llvm.ptr, !llvm.ptr, i32) -> ()
332 %res = llvm.load %2 : !llvm.ptr -> i32
333 // CHECK: llvm.return %[[DATA]] : i32
334 llvm.return %res : i32
339 // CHECK-LABEL: llvm.func @ignore_self_memcpy
340 llvm.func @ignore_self_memcpy() -> i32 {
341 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
342 %0 = llvm.mlir.constant(1 : i32) : i32
343 %is_volatile = llvm.mlir.constant(false) : i1
344 %memcpy_len = llvm.mlir.constant(4 : i32) : i32
346 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i32
347 %1 = llvm.alloca %0 x i32 : (i32) -> !llvm.ptr
348 // CHECK: "llvm.intr.memcpy"(%[[ALLOCA]], %[[ALLOCA]]
349 "llvm.intr.memcpy"(%1, %1, %memcpy_len) <{isVolatile = false}> : (!llvm.ptr, !llvm.ptr, i32) -> ()
351 %res = llvm.load %1 : !llvm.ptr -> i32
352 llvm.return %res : i32
357 // CHECK-LABEL: llvm.func @ignore_partial_memcpy
358 // CHECK-SAME: (%[[SOURCE:.*]]: !llvm.ptr)
359 llvm.func @ignore_partial_memcpy(%source: !llvm.ptr) -> i32 {
360 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
361 %0 = llvm.mlir.constant(1 : i32) : i32
362 %is_volatile = llvm.mlir.constant(false) : i1
363 // CHECK-DAG: %[[MEMCPY_LEN:.*]] = llvm.mlir.constant(2 : i32) : i32
364 %memcpy_len = llvm.mlir.constant(2 : i32) : i32
366 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i32
367 %1 = llvm.alloca %0 x i32 : (i32) -> !llvm.ptr
368 // CHECK: "llvm.intr.memcpy"(%[[ALLOCA]], %[[SOURCE]], %[[MEMCPY_LEN]]) <{isVolatile = false}>
369 "llvm.intr.memcpy"(%1, %source, %memcpy_len) <{isVolatile = false}> : (!llvm.ptr, !llvm.ptr, i32) -> ()
371 %res = llvm.load %1 : !llvm.ptr -> i32
372 llvm.return %res : i32
377 // CHECK-LABEL: llvm.func @ignore_volatile_memcpy
378 // CHECK-SAME: (%[[SOURCE:.*]]: !llvm.ptr)
379 llvm.func @ignore_volatile_memcpy(%source: !llvm.ptr) -> i32 {
380 // CHECK-DAG: %[[ALLOCA_LEN:.*]] = llvm.mlir.constant(1 : i32) : i32
381 // CHECK-DAG: %[[MEMCPY_LEN:.*]] = llvm.mlir.constant(4 : i32) : i32
382 %0 = llvm.mlir.constant(1 : i32) : i32
383 %is_volatile = llvm.mlir.constant(false) : i1
384 %memcpy_len = llvm.mlir.constant(4 : i32) : i32
386 // CHECK-DAG: %[[ALLOCA:.*]] = llvm.alloca %[[ALLOCA_LEN]] x i32
387 %1 = llvm.alloca %0 x i32 : (i32) -> !llvm.ptr
388 // CHECK: "llvm.intr.memcpy"(%[[ALLOCA]], %[[SOURCE]], %[[MEMCPY_LEN]]) <{isVolatile = true}>
389 "llvm.intr.memcpy"(%1, %source, %memcpy_len) <{isVolatile = true}> : (!llvm.ptr, !llvm.ptr, i32) -> ()
391 %res = llvm.load %1 : !llvm.ptr -> i32
392 llvm.return %res : i32
397 // CHECK-LABEL: llvm.func @basic_memmove
398 // CHECK-SAME: (%[[SOURCE:.*]]: !llvm.ptr)
399 llvm.func @basic_memmove(%source: !llvm.ptr) -> i32 {
400 %0 = llvm.mlir.constant(1 : i32) : i32
401 %1 = llvm.alloca %0 x i32 : (i32) -> !llvm.ptr
402 %is_volatile = llvm.mlir.constant(false) : i1
403 %memmove_len = llvm.mlir.constant(4 : i32) : i32
404 "llvm.intr.memmove"(%1, %source, %memmove_len) <{isVolatile = false}> : (!llvm.ptr, !llvm.ptr, i32) -> ()
405 // CHECK-NOT: "llvm.intr.memmove"
406 // CHECK: %[[LOADED:.*]] = llvm.load %[[SOURCE]] : !llvm.ptr -> i32
407 // CHECK-NOT: "llvm.intr.memmove"
408 %2 = llvm.load %1 : !llvm.ptr -> i32
409 // CHECK: llvm.return %[[LOADED]] : i32
410 llvm.return %2 : i32
415 // CHECK-LABEL: llvm.func @basic_memcpy_inline
416 // CHECK-SAME: (%[[SOURCE:.*]]: !llvm.ptr)
417 llvm.func @basic_memcpy_inline(%source: !llvm.ptr) -> i32 {
418 %0 = llvm.mlir.constant(1 : i32) : i32
419 %1 = llvm.alloca %0 x i32 : (i32) -> !llvm.ptr
420 %is_volatile = llvm.mlir.constant(false) : i1
421 "llvm.intr.memcpy.inline"(%1, %source) <{isVolatile = false, len = 4 : i32}> : (!llvm.ptr, !llvm.ptr) -> ()
422 // CHECK-NOT: "llvm.intr.memcpy.inline"
423 // CHECK: %[[LOADED:.*]] = llvm.load %[[SOURCE]] : !llvm.ptr -> i32
424 // CHECK-NOT: "llvm.intr.memcpy.inline"
425 %2 = llvm.load %1 : !llvm.ptr -> i32
426 // CHECK: llvm.return %[[LOADED]] : i32
427 llvm.return %2 : i32