Lines Matching full:8

6 define void @test_fmla_f16_vg2_single(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b) #0 {
13 call void @llvm.aarch64.sme.fmla.single.vg1x2.nxv8f16(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b)
15 call void @llvm.aarch64.sme.fmla.single.vg1x2.nxv8f16(i32 %slice.7, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b)
19 define void @test_fmla_f16_vg4_single(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
26 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b) #0 {
27 call void @llvm.aarch64.sme.fmla.single.vg1x4.nxv8f16(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
28 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b)
30 call void @llvm.aarch64.sme.fmla.single.vg1x4.nxv8f16(i32 %slice.7, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
31 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b)
35 define void @test_fmls_f16_vg2_single(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b) #0 {
42 call void @llvm.aarch64.sme.fmls.single.vg1x2.nxv8f16(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b)
44 call void @llvm.aarch64.sme.fmls.single.vg1x2.nxv8f16(i32 %slice.7, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b)
48 define void @test_fmls_f16_vg4_single(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
55 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b) #0 {
56 call void @llvm.aarch64.sme.fmls.single.vg1x4.nxv8f16(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
57 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b)
59 call void @llvm.aarch64.sme.fmls.single.vg1x4.nxv8f16(i32 %slice.7, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
60 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b)
71 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
72 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1) #0 {
74 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
75 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1)
78 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
79 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1)
90 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
91 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
92 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
93 <vscale x 8 x half> %b2, <vscale x 8 x half> %b3) #0 {
95 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
96 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
97 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
98 <vscale x 8 x half> %b2, <vscale x 8 x half> %b3)
101 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
102 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
103 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
104 <vscale x 8 x half> %b2, <vscale x 8 x half> %b3)
115 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
116 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1) #0 {
118 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
119 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1)
122 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
123 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1)
134 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
135 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
136 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
137 <vscale x 8 x half> %b2, <vscale x 8 x half> %b3) #0 {
139 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
140 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
141 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
142 <vscale x 8 x half> %b2, <vscale x 8 x half> %b3)
145 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
146 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
147 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
148 <vscale x 8 x half> %b2, <vscale x 8 x half> %b3)
159 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
160 <vscale x 8 x half> %b) #0 {
162 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
163 <vscale x 8 x half> %b, i32 7);
166 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
167 <vscale x 8 x half> %b, i32 7);
178 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
179 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
180 <vscale x 8 x half> %b) #0 {
182 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
183 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
184 <vscale x 8 x half> %b, i32 7);
187 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
188 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
189 <vscale x 8 x half> %b, i32 7);
200 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
201 <vscale x 8 x half> %b) #0 {
203 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
204 <vscale x 8 x half> %b, i32 7);
207 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
208 <vscale x 8 x half> %b, i32 7);
219 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
220 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
221 <vscale x 8 x half> %b) #0 {
223 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
224 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
225 <vscale x 8 x half> %b, i32 7);
228 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
229 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
230 <vscale x 8 x half> %b, i32 7);
234 define void @test_fmla_bf16_vg2_single(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b) #0 {
241 call void @llvm.aarch64.sme.fmla.single.vg1x2.nxv8bf16(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b)
243 call void @llvm.aarch64.sme.fmla.single.vg1x2.nxv8bf16(i32 %slice.7, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b)
247 define void @test_fmla_bf16_vg4_single(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
254 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b) #0 {
255 call void @llvm.aarch64.sme.fmla.single.vg1x4.nxv8bf16(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
256 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b)
258 call void @llvm.aarch64.sme.fmla.single.vg1x4.nxv8bf16(i32 %slice.7, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
259 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b)
263 define void @test_fmls_bf16_vg2_single(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b) #0 {
270 call void @llvm.aarch64.sme.fmls.single.vg1x2.nxv8bf16(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b)
272 call void @llvm.aarch64.sme.fmls.single.vg1x2.nxv8bf16(i32 %slice.7, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b)
276 define void @test_fmls_bf16_vg4_single(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
283 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b) #0 {
284 call void @llvm.aarch64.sme.fmls.single.vg1x4.nxv8bf16(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
285 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b)
287 call void @llvm.aarch64.sme.fmls.single.vg1x4.nxv8bf16(i32 %slice.7, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
288 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b)
299 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
300 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1) #0 {
302 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
303 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1)
306 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
307 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1)
318 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
319 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
320 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
321 <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3) #0 {
323 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
324 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
325 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
326 <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3)
329 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
330 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
331 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
332 <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3)
343 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
344 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1) #0 {
346 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
347 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1)
350 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
351 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1)
362 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
363 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
364 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
365 <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3) #0 {
367 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
368 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
369 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
370 <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3)
373 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
374 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
375 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
376 <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3)
387 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
388 <vscale x 8 x bfloat> %b) #0 {
390 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
391 <vscale x 8 x bfloat> %b, i32 7);
394 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
395 <vscale x 8 x bfloat> %b, i32 7);
406 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
407 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
408 <vscale x 8 x bfloat> %b) #0 {
410 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
411 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
412 <vscale x 8 x bfloat> %b, i32 7);
415 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
416 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
417 <vscale x 8 x bfloat> %b, i32 7);
428 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
429 <vscale x 8 x bfloat> %b) #0 {
431 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
432 <vscale x 8 x bfloat> %b, i32 7);
435 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
436 <vscale x 8 x bfloat> %b, i32 7);
447 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
448 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
449 <vscale x 8 x bfloat> %b) #0 {
451 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
452 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
453 <vscale x 8 x bfloat> %b, i32 7);
456 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
457 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
458 <vscale x 8 x bfloat> %b, i32 7);