xref: /llvm-project/clang/test/CodeGen/SystemZ/builtins-systemz-vector.c (revision 0013f94b24d18ee5c4535763b7d64ccdf4d6fa9e)
1 // REQUIRES: systemz-registered-target
2 // RUN: %clang_cc1 -target-cpu z13 -triple s390x-ibm-linux -flax-vector-conversions=none \
3 // RUN: -Wall -Wno-unused -Werror -emit-llvm %s -o - | FileCheck %s
4 
5 typedef __attribute__((vector_size(16))) signed char vec_schar;
6 typedef __attribute__((vector_size(16))) signed short vec_sshort;
7 typedef __attribute__((vector_size(16))) signed int vec_sint;
8 typedef __attribute__((vector_size(16))) signed long long vec_slong;
9 typedef __attribute__((vector_size(16))) unsigned char vec_uchar;
10 typedef __attribute__((vector_size(16))) unsigned short vec_ushort;
11 typedef __attribute__((vector_size(16))) unsigned int vec_uint;
12 typedef __attribute__((vector_size(16))) unsigned long long vec_ulong;
13 typedef __attribute__((vector_size(16))) double vec_double;
14 
15 volatile vec_schar vsc;
16 volatile vec_sshort vss;
17 volatile vec_sint vsi;
18 volatile vec_slong vsl;
19 volatile vec_uchar vuc;
20 volatile vec_ushort vus;
21 volatile vec_uint vui;
22 volatile vec_ulong vul;
23 volatile vec_double vd;
24 volatile signed __int128 si128;
25 volatile unsigned __int128 ui128;
26 
27 volatile unsigned int len;
28 volatile unsigned char amt;
29 const void * volatile cptr;
30 void * volatile ptr;
31 int cc;
32 
33 void test_core(void) {
34   len = __builtin_s390_lcbb(cptr, 0);
35   // CHECK: call i32 @llvm.s390.lcbb(ptr %{{.*}}, i32 0)
36   len = __builtin_s390_lcbb(cptr, 15);
37   // CHECK: call i32 @llvm.s390.lcbb(ptr %{{.*}}, i32 15)
38 
39   vsc = __builtin_s390_vlbb(cptr, 0);
40   // CHECK: call <16 x i8> @llvm.s390.vlbb(ptr %{{.*}}, i32 0)
41   vsc = __builtin_s390_vlbb(cptr, 15);
42   // CHECK: call <16 x i8> @llvm.s390.vlbb(ptr %{{.*}}, i32 15)
43 
44   vsc = __builtin_s390_vll(len, cptr);
45   // CHECK: call <16 x i8> @llvm.s390.vll(i32 %{{.*}}, ptr %{{.*}})
46 
47   vul = __builtin_s390_vpdi(vul, vul, 0);
48   // CHECK: call <2 x i64> @llvm.s390.vpdi(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 0)
49   vul = __builtin_s390_vpdi(vul, vul, 15);
50   // CHECK: call <2 x i64> @llvm.s390.vpdi(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 15)
51 
52   vuc = __builtin_s390_vperm(vuc, vuc, vuc);
53   // CHECK: call <16 x i8> @llvm.s390.vperm(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
54 
55   vuc = __builtin_s390_vpklsh(vus, vus);
56   // CHECK: call <16 x i8> @llvm.s390.vpklsh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
57   vus = __builtin_s390_vpklsf(vui, vui);
58   // CHECK: call <8 x i16> @llvm.s390.vpklsf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
59   vui = __builtin_s390_vpklsg(vul, vul);
60   // CHECK: call <4 x i32> @llvm.s390.vpklsg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
61 
62   vuc = __builtin_s390_vpklshs(vus, vus, &cc);
63   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vpklshs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
64   vus = __builtin_s390_vpklsfs(vui, vui, &cc);
65   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vpklsfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
66   vui = __builtin_s390_vpklsgs(vul, vul, &cc);
67   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vpklsgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
68 
69   vsc = __builtin_s390_vpksh(vss, vss);
70   // CHECK: call <16 x i8> @llvm.s390.vpksh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
71   vss = __builtin_s390_vpksf(vsi, vsi);
72   // CHECK: call <8 x i16> @llvm.s390.vpksf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
73   vsi = __builtin_s390_vpksg(vsl, vsl);
74   // CHECK: call <4 x i32> @llvm.s390.vpksg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
75 
76   vsc = __builtin_s390_vpkshs(vss, vss, &cc);
77   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vpkshs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
78   vss = __builtin_s390_vpksfs(vsi, vsi, &cc);
79   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vpksfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
80   vsi = __builtin_s390_vpksgs(vsl, vsl, &cc);
81   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vpksgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
82 
83   __builtin_s390_vstl(vsc, len, ptr);
84   // CHECK: call void @llvm.s390.vstl(<16 x i8> %{{.*}}, i32 %{{.*}}, ptr %{{.*}})
85 
86   vss = __builtin_s390_vuphb(vsc);
87   // CHECK: call <8 x i16> @llvm.s390.vuphb(<16 x i8> %{{.*}})
88   vsi = __builtin_s390_vuphh(vss);
89   // CHECK: call <4 x i32> @llvm.s390.vuphh(<8 x i16> %{{.*}})
90   vsl = __builtin_s390_vuphf(vsi);
91   // CHECK: call <2 x i64> @llvm.s390.vuphf(<4 x i32> %{{.*}})
92 
93   vss = __builtin_s390_vuplb(vsc);
94   // CHECK: call <8 x i16> @llvm.s390.vuplb(<16 x i8> %{{.*}})
95   vsi = __builtin_s390_vuplhw(vss);
96   // CHECK: call <4 x i32> @llvm.s390.vuplhw(<8 x i16> %{{.*}})
97   vsl = __builtin_s390_vuplf(vsi);
98   // CHECK: call <2 x i64> @llvm.s390.vuplf(<4 x i32> %{{.*}})
99 
100   vus = __builtin_s390_vuplhb(vuc);
101   // CHECK: call <8 x i16> @llvm.s390.vuplhb(<16 x i8> %{{.*}})
102   vui = __builtin_s390_vuplhh(vus);
103   // CHECK: call <4 x i32> @llvm.s390.vuplhh(<8 x i16> %{{.*}})
104   vul = __builtin_s390_vuplhf(vui);
105   // CHECK: call <2 x i64> @llvm.s390.vuplhf(<4 x i32> %{{.*}})
106 
107   vus = __builtin_s390_vupllb(vuc);
108   // CHECK: call <8 x i16> @llvm.s390.vupllb(<16 x i8> %{{.*}})
109   vui = __builtin_s390_vupllh(vus);
110   // CHECK: call <4 x i32> @llvm.s390.vupllh(<8 x i16> %{{.*}})
111   vul = __builtin_s390_vupllf(vui);
112   // CHECK: call <2 x i64> @llvm.s390.vupllf(<4 x i32> %{{.*}})
113 }
114 
115 void test_integer(void) {
116   si128 = __builtin_s390_vaq(si128, si128);
117   // CHECK: call i128 @llvm.s390.vaq(i128 %{{.*}}, i128 %{{.*}})
118   ui128 = __builtin_s390_vacq(ui128, ui128, ui128);
119   // CHECK: call i128 @llvm.s390.vacq(i128 %{{.*}}, i128 %{{.*}}, i128 %{{.*}})
120   ui128 = __builtin_s390_vaccq(ui128, ui128);
121   // CHECK: call i128 @llvm.s390.vaccq(i128 %{{.*}}, i128 %{{.*}})
122   ui128 = __builtin_s390_vacccq(ui128, ui128, ui128);
123   // CHECK: call i128 @llvm.s390.vacccq(i128 %{{.*}}, i128 %{{.*}}, i128 %{{.*}})
124 
125   vuc = __builtin_s390_vaccb(vuc, vuc);
126   // CHECK: call <16 x i8> @llvm.s390.vaccb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
127   vus = __builtin_s390_vacch(vus, vus);
128   // CHECK: call <8 x i16> @llvm.s390.vacch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
129   vui = __builtin_s390_vaccf(vui, vui);
130   // CHECK: call <4 x i32> @llvm.s390.vaccf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
131   vul = __builtin_s390_vaccg(vul, vul);
132   // CHECK: call <2 x i64> @llvm.s390.vaccg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
133 
134   vsc = __builtin_s390_vavgb(vsc, vsc);
135   // CHECK: call <16 x i8> @llvm.s390.vavgb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
136   vss = __builtin_s390_vavgh(vss, vss);
137   // CHECK: call <8 x i16> @llvm.s390.vavgh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
138   vsi = __builtin_s390_vavgf(vsi, vsi);
139   // CHECK: call <4 x i32> @llvm.s390.vavgf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
140   vsl = __builtin_s390_vavgg(vsl, vsl);
141   // CHECK: call <2 x i64> @llvm.s390.vavgg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
142 
143   vuc = __builtin_s390_vavglb(vuc, vuc);
144   // CHECK: call <16 x i8> @llvm.s390.vavglb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
145   vus = __builtin_s390_vavglh(vus, vus);
146   // CHECK: call <8 x i16> @llvm.s390.vavglh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
147   vui = __builtin_s390_vavglf(vui, vui);
148   // CHECK: call <4 x i32> @llvm.s390.vavglf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
149   vul = __builtin_s390_vavglg(vul, vul);
150   // CHECK: call <2 x i64> @llvm.s390.vavglg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
151 
152   vui = __builtin_s390_vcksm(vui, vui);
153   // CHECK: call <4 x i32> @llvm.s390.vcksm(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
154 
155   vuc = __builtin_s390_vclzb(vuc);
156   // CHECK: call <16 x i8> @llvm.ctlz.v16i8(<16 x i8> %{{.*}}, i1 false)
157   vus = __builtin_s390_vclzh(vus);
158   // CHECK: call <8 x i16> @llvm.ctlz.v8i16(<8 x i16> %{{.*}}, i1 false)
159   vui = __builtin_s390_vclzf(vui);
160   // CHECK: call <4 x i32> @llvm.ctlz.v4i32(<4 x i32> %{{.*}}, i1 false)
161   vul = __builtin_s390_vclzg(vul);
162   // CHECK: call <2 x i64> @llvm.ctlz.v2i64(<2 x i64> %{{.*}}, i1 false)
163 
164   vuc = __builtin_s390_vctzb(vuc);
165   // CHECK: call <16 x i8> @llvm.cttz.v16i8(<16 x i8> %{{.*}}, i1 false)
166   vus = __builtin_s390_vctzh(vus);
167   // CHECK: call <8 x i16> @llvm.cttz.v8i16(<8 x i16> %{{.*}}, i1 false)
168   vui = __builtin_s390_vctzf(vui);
169   // CHECK: call <4 x i32> @llvm.cttz.v4i32(<4 x i32> %{{.*}}, i1 false)
170   vul = __builtin_s390_vctzg(vul);
171   // CHECK: call <2 x i64> @llvm.cttz.v2i64(<2 x i64> %{{.*}}, i1 false)
172 
173   vuc = __builtin_s390_verimb(vuc, vuc, vuc, 0);
174   // CHECK: call <16 x i8> @llvm.s390.verimb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
175   vuc = __builtin_s390_verimb(vuc, vuc, vuc, 255);
176   // CHECK: call <16 x i8> @llvm.s390.verimb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 255)
177   vus = __builtin_s390_verimh(vus, vus, vus, 0);
178   // CHECK: call <8 x i16> @llvm.s390.verimh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
179   vus = __builtin_s390_verimh(vus, vus, vus, 255);
180   // CHECK: call <8 x i16> @llvm.s390.verimh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 255)
181   vui = __builtin_s390_verimf(vui, vui, vui, 0);
182   // CHECK: call <4 x i32> @llvm.s390.verimf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
183   vui = __builtin_s390_verimf(vui, vui, vui, 255);
184   // CHECK: call <4 x i32> @llvm.s390.verimf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 255)
185   vul = __builtin_s390_verimg(vul, vul, vul, 0);
186   // CHECK: call <2 x i64> @llvm.s390.verimg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 0)
187   vul = __builtin_s390_verimg(vul, vul, vul, 255);
188   // CHECK: call <2 x i64> @llvm.s390.verimg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 255)
189 
190   vuc = __builtin_s390_verllb(vuc, amt);
191   // CHECK: call <16 x i8> @llvm.fshl.v16i8(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
192   vus = __builtin_s390_verllh(vus, amt);
193   // CHECK: call <8 x i16> @llvm.fshl.v8i16(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
194   vui = __builtin_s390_verllf(vui, amt);
195   // CHECK: call <4 x i32> @llvm.fshl.v4i32(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
196   vul = __builtin_s390_verllg(vul, amt);
197   // CHECK: call <2 x i64> @llvm.fshl.v2i64(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}})
198 
199   vuc = __builtin_s390_verllvb(vuc, vuc);
200   // CHECK: call <16 x i8> @llvm.fshl.v16i8(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
201   vus = __builtin_s390_verllvh(vus, vus);
202   // CHECK: call <8 x i16> @llvm.fshl.v8i16(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
203   vui = __builtin_s390_verllvf(vui, vui);
204   // CHECK: call <4 x i32> @llvm.fshl.v4i32(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
205   vul = __builtin_s390_verllvg(vul, vul);
206   // CHECK: call <2 x i64> @llvm.fshl.v2i64(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}})
207 
208   vus = __builtin_s390_vgfmb(vuc, vuc);
209   // CHECK: call <8 x i16> @llvm.s390.vgfmb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
210   vui = __builtin_s390_vgfmh(vus, vus);
211   // CHECK: call <4 x i32> @llvm.s390.vgfmh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
212   vul = __builtin_s390_vgfmf(vui, vui);
213   // CHECK: call <2 x i64> @llvm.s390.vgfmf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
214   ui128 = __builtin_s390_vgfmg(vul, vul);
215   // CHECK: call i128 @llvm.s390.vgfmg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
216 
217   vus = __builtin_s390_vgfmab(vuc, vuc, vus);
218   // CHECK: call <8 x i16> @llvm.s390.vgfmab(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
219   vui = __builtin_s390_vgfmah(vus, vus, vui);
220   // CHECK: call <4 x i32> @llvm.s390.vgfmah(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
221   vul = __builtin_s390_vgfmaf(vui, vui, vul);
222   // CHECK: call <2 x i64> @llvm.s390.vgfmaf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
223   ui128 = __builtin_s390_vgfmag(vul, vul, ui128);
224   // CHECK: call i128 @llvm.s390.vgfmag(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i128 %{{.*}})
225 
226   vsc = __builtin_s390_vmahb(vsc, vsc, vsc);
227   // CHECK: call <16 x i8> @llvm.s390.vmahb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
228   vss = __builtin_s390_vmahh(vss, vss, vss);
229   // CHECK: call <8 x i16> @llvm.s390.vmahh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
230   vsi = __builtin_s390_vmahf(vsi, vsi, vsi);
231   // CHECK: call <4 x i32> @llvm.s390.vmahf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
232   vuc = __builtin_s390_vmalhb(vuc, vuc, vuc);
233   // CHECK: call <16 x i8> @llvm.s390.vmalhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
234   vus = __builtin_s390_vmalhh(vus, vus, vus);
235   // CHECK: call <8 x i16> @llvm.s390.vmalhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
236   vui = __builtin_s390_vmalhf(vui, vui, vui);
237   // CHECK: call <4 x i32> @llvm.s390.vmalhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
238 
239   vss = __builtin_s390_vmaeb(vsc, vsc, vss);
240   // CHECK: call <8 x i16> @llvm.s390.vmaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
241   vsi = __builtin_s390_vmaeh(vss, vss, vsi);
242   // CHECK: call <4 x i32> @llvm.s390.vmaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
243   vsl = __builtin_s390_vmaef(vsi, vsi, vsl);
244   // CHECK: call <2 x i64> @llvm.s390.vmaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
245   vus = __builtin_s390_vmaleb(vuc, vuc, vus);
246   // CHECK: call <8 x i16> @llvm.s390.vmaleb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
247   vui = __builtin_s390_vmaleh(vus, vus, vui);
248   // CHECK: call <4 x i32> @llvm.s390.vmaleh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
249   vul = __builtin_s390_vmalef(vui, vui, vul);
250   // CHECK: call <2 x i64> @llvm.s390.vmalef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
251 
252   vss = __builtin_s390_vmaob(vsc, vsc, vss);
253   // CHECK: call <8 x i16> @llvm.s390.vmaob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
254   vsi = __builtin_s390_vmaoh(vss, vss, vsi);
255   // CHECK: call <4 x i32> @llvm.s390.vmaoh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
256   vsl = __builtin_s390_vmaof(vsi, vsi, vsl);
257   // CHECK: call <2 x i64> @llvm.s390.vmaof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
258   vus = __builtin_s390_vmalob(vuc, vuc, vus);
259   // CHECK: call <8 x i16> @llvm.s390.vmalob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
260   vui = __builtin_s390_vmaloh(vus, vus, vui);
261   // CHECK: call <4 x i32> @llvm.s390.vmaloh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
262   vul = __builtin_s390_vmalof(vui, vui, vul);
263   // CHECK: call <2 x i64> @llvm.s390.vmalof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
264 
265   vsc = __builtin_s390_vmhb(vsc, vsc);
266   // CHECK: call <16 x i8> @llvm.s390.vmhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
267   vss = __builtin_s390_vmhh(vss, vss);
268   // CHECK: call <8 x i16> @llvm.s390.vmhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
269   vsi = __builtin_s390_vmhf(vsi, vsi);
270   // CHECK: call <4 x i32> @llvm.s390.vmhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
271   vuc = __builtin_s390_vmlhb(vuc, vuc);
272   // CHECK: call <16 x i8> @llvm.s390.vmlhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
273   vus = __builtin_s390_vmlhh(vus, vus);
274   // CHECK: call <8 x i16> @llvm.s390.vmlhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
275   vui = __builtin_s390_vmlhf(vui, vui);
276   // CHECK: call <4 x i32> @llvm.s390.vmlhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
277 
278   vss = __builtin_s390_vmeb(vsc, vsc);
279   // CHECK: call <8 x i16> @llvm.s390.vmeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
280   vsi = __builtin_s390_vmeh(vss, vss);
281   // CHECK: call <4 x i32> @llvm.s390.vmeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
282   vsl = __builtin_s390_vmef(vsi, vsi);
283   // CHECK: call <2 x i64> @llvm.s390.vmef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
284   vus = __builtin_s390_vmleb(vuc, vuc);
285   // CHECK: call <8 x i16> @llvm.s390.vmleb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
286   vui = __builtin_s390_vmleh(vus, vus);
287   // CHECK: call <4 x i32> @llvm.s390.vmleh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
288   vul = __builtin_s390_vmlef(vui, vui);
289   // CHECK: call <2 x i64> @llvm.s390.vmlef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
290 
291   vss = __builtin_s390_vmob(vsc, vsc);
292   // CHECK: call <8 x i16> @llvm.s390.vmob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
293   vsi = __builtin_s390_vmoh(vss, vss);
294   // CHECK: call <4 x i32> @llvm.s390.vmoh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
295   vsl = __builtin_s390_vmof(vsi, vsi);
296   // CHECK: call <2 x i64> @llvm.s390.vmof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
297   vus = __builtin_s390_vmlob(vuc, vuc);
298   // CHECK: call <8 x i16> @llvm.s390.vmlob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
299   vui = __builtin_s390_vmloh(vus, vus);
300   // CHECK: call <4 x i32> @llvm.s390.vmloh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
301   vul = __builtin_s390_vmlof(vui, vui);
302   // CHECK: call <2 x i64> @llvm.s390.vmlof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
303 
304   si128 = __builtin_s390_vsq(si128, si128);
305   // CHECK: call i128 @llvm.s390.vsq(i128 %{{.*}}, i128 %{{.*}})
306   ui128 = __builtin_s390_vsbiq(ui128, ui128, ui128);
307   // CHECK: call i128 @llvm.s390.vsbiq(i128 %{{.*}}, i128 %{{.*}}, i128 %{{.*}})
308   ui128 = __builtin_s390_vscbiq(ui128, ui128);
309   // CHECK: call i128 @llvm.s390.vscbiq(i128 %{{.*}}, i128 %{{.*}})
310   ui128 = __builtin_s390_vsbcbiq(ui128, ui128, ui128);
311   // CHECK: call i128 @llvm.s390.vsbcbiq(i128 %{{.*}}, i128 %{{.*}}, i128 %{{.*}})
312 
313   vuc = __builtin_s390_vscbib(vuc, vuc);
314   // CHECK: call <16 x i8> @llvm.s390.vscbib(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
315   vus = __builtin_s390_vscbih(vus, vus);
316   // CHECK: call <8 x i16> @llvm.s390.vscbih(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
317   vui = __builtin_s390_vscbif(vui, vui);
318   // CHECK: call <4 x i32> @llvm.s390.vscbif(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
319   vul = __builtin_s390_vscbig(vul, vul);
320   // CHECK: call <2 x i64> @llvm.s390.vscbig(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
321 
322   vuc = __builtin_s390_vsldb(vuc, vuc, 0);
323   // CHECK: call <16 x i8> @llvm.s390.vsldb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
324   vuc = __builtin_s390_vsldb(vuc, vuc, 15);
325   // CHECK: call <16 x i8> @llvm.s390.vsldb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
326 
327   vuc = __builtin_s390_vsl(vuc, vuc);
328   // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
329   vuc = __builtin_s390_vslb(vuc, vuc);
330   // CHECK: call <16 x i8> @llvm.s390.vslb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
331 
332   vuc = __builtin_s390_vsra(vuc, vuc);
333   // CHECK: call <16 x i8> @llvm.s390.vsra(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
334   vuc = __builtin_s390_vsrab(vuc, vuc);
335   // CHECK: call <16 x i8> @llvm.s390.vsrab(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
336 
337   vuc = __builtin_s390_vsrl(vuc, vuc);
338   // CHECK: call <16 x i8> @llvm.s390.vsrl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
339   vuc = __builtin_s390_vsrlb(vuc, vuc);
340   // CHECK: call <16 x i8> @llvm.s390.vsrlb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
341 
342   vui = __builtin_s390_vsumb(vuc, vuc);
343   // CHECK: call <4 x i32> @llvm.s390.vsumb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
344   vui = __builtin_s390_vsumh(vus, vus);
345   // CHECK: call <4 x i32> @llvm.s390.vsumh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
346   vul = __builtin_s390_vsumgh(vus, vus);
347   // CHECK: call <2 x i64> @llvm.s390.vsumgh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
348   vul = __builtin_s390_vsumgf(vui, vui);
349   // CHECK: call <2 x i64> @llvm.s390.vsumgf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
350   ui128 = __builtin_s390_vsumqf(vui, vui);
351   // CHECK: call i128 @llvm.s390.vsumqf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
352   ui128 = __builtin_s390_vsumqg(vul, vul);
353   // CHECK: call i128 @llvm.s390.vsumqg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
354 
355   len = __builtin_s390_vtm(vuc, vuc);
356   // CHECK: call i32 @llvm.s390.vtm(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
357 
358   vsc = __builtin_s390_vceqbs(vuc, vuc, &cc);
359   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vceqbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
360   vss = __builtin_s390_vceqhs(vus, vus, &cc);
361   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vceqhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
362   vsi = __builtin_s390_vceqfs(vui, vui, &cc);
363   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vceqfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
364   vsl = __builtin_s390_vceqgs(vul, vul, &cc);
365   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vceqgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
366 
367   vsc = __builtin_s390_vchbs(vsc, vsc, &cc);
368   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vchbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
369   vss = __builtin_s390_vchhs(vss, vss, &cc);
370   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vchhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
371   vsi = __builtin_s390_vchfs(vsi, vsi, &cc);
372   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vchfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
373   vsl = __builtin_s390_vchgs(vsl, vsl, &cc);
374   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vchgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
375 
376   vsc = __builtin_s390_vchlbs(vuc, vuc, &cc);
377   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vchlbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
378   vss = __builtin_s390_vchlhs(vus, vus, &cc);
379   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vchlhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
380   vsi = __builtin_s390_vchlfs(vui, vui, &cc);
381   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vchlfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
382   vsl = __builtin_s390_vchlgs(vul, vul, &cc);
383   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vchlgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
384 }
385 
386 void test_string(void) {
387   vuc = __builtin_s390_vfaeb(vuc, vuc, 0);
388   // CHECK: call <16 x i8> @llvm.s390.vfaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
389   vuc = __builtin_s390_vfaeb(vuc, vuc, 15);
390   // CHECK: call <16 x i8> @llvm.s390.vfaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
391   vus = __builtin_s390_vfaeh(vus, vus, 0);
392   // CHECK: call <8 x i16> @llvm.s390.vfaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
393   vus = __builtin_s390_vfaeh(vus, vus, 15);
394   // CHECK: call <8 x i16> @llvm.s390.vfaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
395   vui = __builtin_s390_vfaef(vui, vui, 0);
396   // CHECK: call <4 x i32> @llvm.s390.vfaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
397   vui = __builtin_s390_vfaef(vui, vui, 15);
398   // CHECK: call <4 x i32> @llvm.s390.vfaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
399 
400   vuc = __builtin_s390_vfaezb(vuc, vuc, 0);
401   // CHECK: call <16 x i8> @llvm.s390.vfaezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
402   vuc = __builtin_s390_vfaezb(vuc, vuc, 15);
403   // CHECK: call <16 x i8> @llvm.s390.vfaezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
404   vus = __builtin_s390_vfaezh(vus, vus, 0);
405   // CHECK: call <8 x i16> @llvm.s390.vfaezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
406   vus = __builtin_s390_vfaezh(vus, vus, 15);
407   // CHECK: call <8 x i16> @llvm.s390.vfaezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
408   vui = __builtin_s390_vfaezf(vui, vui, 0);
409   // CHECK: call <4 x i32> @llvm.s390.vfaezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
410   vui = __builtin_s390_vfaezf(vui, vui, 15);
411   // CHECK: call <4 x i32> @llvm.s390.vfaezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
412 
413   vuc = __builtin_s390_vfeeb(vuc, vuc);
414   // CHECK: call <16 x i8> @llvm.s390.vfeeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
415   vus = __builtin_s390_vfeeh(vus, vus);
416   // CHECK: call <8 x i16> @llvm.s390.vfeeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
417   vui = __builtin_s390_vfeef(vui, vui);
418   // CHECK: call <4 x i32> @llvm.s390.vfeef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
419 
420   vuc = __builtin_s390_vfeezb(vuc, vuc);
421   // CHECK: call <16 x i8> @llvm.s390.vfeezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
422   vus = __builtin_s390_vfeezh(vus, vus);
423   // CHECK: call <8 x i16> @llvm.s390.vfeezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
424   vui = __builtin_s390_vfeezf(vui, vui);
425   // CHECK: call <4 x i32> @llvm.s390.vfeezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
426 
427   vuc = __builtin_s390_vfeneb(vuc, vuc);
428   // CHECK: call <16 x i8> @llvm.s390.vfeneb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
429   vus = __builtin_s390_vfeneh(vus, vus);
430   // CHECK: call <8 x i16> @llvm.s390.vfeneh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
431   vui = __builtin_s390_vfenef(vui, vui);
432   // CHECK: call <4 x i32> @llvm.s390.vfenef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
433 
434   vuc = __builtin_s390_vfenezb(vuc, vuc);
435   // CHECK: call <16 x i8> @llvm.s390.vfenezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
436   vus = __builtin_s390_vfenezh(vus, vus);
437   // CHECK: call <8 x i16> @llvm.s390.vfenezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
438   vui = __builtin_s390_vfenezf(vui, vui);
439   // CHECK: call <4 x i32> @llvm.s390.vfenezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
440 
441   vuc = __builtin_s390_vistrb(vuc);
442   // CHECK: call <16 x i8> @llvm.s390.vistrb(<16 x i8> %{{.*}})
443   vus = __builtin_s390_vistrh(vus);
444   // CHECK: call <8 x i16> @llvm.s390.vistrh(<8 x i16> %{{.*}})
445   vui = __builtin_s390_vistrf(vui);
446   // CHECK: call <4 x i32> @llvm.s390.vistrf(<4 x i32> %{{.*}})
447 
448   vuc = __builtin_s390_vstrcb(vuc, vuc, vuc, 0);
449   // CHECK: call <16 x i8> @llvm.s390.vstrcb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
450   vuc = __builtin_s390_vstrcb(vuc, vuc, vuc, 15);
451   // CHECK: call <16 x i8> @llvm.s390.vstrcb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
452   vus = __builtin_s390_vstrch(vus, vus, vus, 0);
453   // CHECK: call <8 x i16> @llvm.s390.vstrch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
454   vus = __builtin_s390_vstrch(vus, vus, vus, 15);
455   // CHECK: call <8 x i16> @llvm.s390.vstrch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
456   vui = __builtin_s390_vstrcf(vui, vui, vui, 0);
457   // CHECK: call <4 x i32> @llvm.s390.vstrcf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
458   vui = __builtin_s390_vstrcf(vui, vui, vui, 15);
459   // CHECK: call <4 x i32> @llvm.s390.vstrcf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
460 
461   vuc = __builtin_s390_vstrczb(vuc, vuc, vuc, 0);
462   // CHECK: call <16 x i8> @llvm.s390.vstrczb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
463   vuc = __builtin_s390_vstrczb(vuc, vuc, vuc, 15);
464   // CHECK: call <16 x i8> @llvm.s390.vstrczb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
465   vus = __builtin_s390_vstrczh(vus, vus, vus, 0);
466   // CHECK: call <8 x i16> @llvm.s390.vstrczh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
467   vus = __builtin_s390_vstrczh(vus, vus, vus, 15);
468   // CHECK: call <8 x i16> @llvm.s390.vstrczh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
469   vui = __builtin_s390_vstrczf(vui, vui, vui, 0);
470   // CHECK: call <4 x i32> @llvm.s390.vstrczf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
471   vui = __builtin_s390_vstrczf(vui, vui, vui, 15);
472   // CHECK: call <4 x i32> @llvm.s390.vstrczf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
473 
474   vuc = __builtin_s390_vfaebs(vuc, vuc, 0, &cc);
475   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
476   vuc = __builtin_s390_vfaebs(vuc, vuc, 15, &cc);
477   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
478   vus = __builtin_s390_vfaehs(vus, vus, 0, &cc);
479   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
480   vus = __builtin_s390_vfaehs(vus, vus, 15, &cc);
481   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
482   vui = __builtin_s390_vfaefs(vui, vui, 0, &cc);
483   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
484   vui = __builtin_s390_vfaefs(vui, vui, 15, &cc);
485   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
486 
487   vuc = __builtin_s390_vfaezbs(vuc, vuc, 0, &cc);
488   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
489   vuc = __builtin_s390_vfaezbs(vuc, vuc, 15, &cc);
490   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
491   vus = __builtin_s390_vfaezhs(vus, vus, 0, &cc);
492   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
493   vus = __builtin_s390_vfaezhs(vus, vus, 15, &cc);
494   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
495   vui = __builtin_s390_vfaezfs(vui, vui, 0, &cc);
496   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
497   vui = __builtin_s390_vfaezfs(vui, vui, 15, &cc);
498   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
499 
500   vuc = __builtin_s390_vfeebs(vuc, vuc, &cc);
501   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfeebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
502   vus = __builtin_s390_vfeehs(vus, vus, &cc);
503   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfeehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
504   vui = __builtin_s390_vfeefs(vui, vui, &cc);
505   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfeefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
506 
507   vuc = __builtin_s390_vfeezbs(vuc, vuc, &cc);
508   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfeezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
509   vus = __builtin_s390_vfeezhs(vus, vus, &cc);
510   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfeezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
511   vui = __builtin_s390_vfeezfs(vui, vui, &cc);
512   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfeezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
513 
514   vuc = __builtin_s390_vfenebs(vuc, vuc, &cc);
515   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfenebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
516   vus = __builtin_s390_vfenehs(vus, vus, &cc);
517   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfenehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
518   vui = __builtin_s390_vfenefs(vui, vui, &cc);
519   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfenefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
520 
521   vuc = __builtin_s390_vfenezbs(vuc, vuc, &cc);
522   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfenezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
523   vus = __builtin_s390_vfenezhs(vus, vus, &cc);
524   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfenezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
525   vui = __builtin_s390_vfenezfs(vui, vui, &cc);
526   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfenezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
527 
528   vuc = __builtin_s390_vistrbs(vuc, &cc);
529   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vistrbs(<16 x i8> %{{.*}})
530   vus = __builtin_s390_vistrhs(vus, &cc);
531   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vistrhs(<8 x i16> %{{.*}})
532   vui = __builtin_s390_vistrfs(vui, &cc);
533   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vistrfs(<4 x i32> %{{.*}})
534 
535   vuc = __builtin_s390_vstrcbs(vuc, vuc, vuc, 0, &cc);
536   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrcbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
537   vuc = __builtin_s390_vstrcbs(vuc, vuc, vuc, 15, &cc);
538   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrcbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
539   vus = __builtin_s390_vstrchs(vus, vus, vus, 0, &cc);
540   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrchs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
541   vus = __builtin_s390_vstrchs(vus, vus, vus, 15, &cc);
542   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrchs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
543   vui = __builtin_s390_vstrcfs(vui, vui, vui, 0, &cc);
544   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrcfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
545   vui = __builtin_s390_vstrcfs(vui, vui, vui, 15, &cc);
546   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrcfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
547 
548   vuc = __builtin_s390_vstrczbs(vuc, vuc, vuc, 0, &cc);
549   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrczbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
550   vuc = __builtin_s390_vstrczbs(vuc, vuc, vuc, 15, &cc);
551   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrczbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
552   vus = __builtin_s390_vstrczhs(vus, vus, vus, 0, &cc);
553   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrczhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
554   vus = __builtin_s390_vstrczhs(vus, vus, vus, 15, &cc);
555   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrczhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
556   vui = __builtin_s390_vstrczfs(vui, vui, vui, 0, &cc);
557   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrczfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
558   vui = __builtin_s390_vstrczfs(vui, vui, vui, 15, &cc);
559   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrczfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
560 }
561 
562 void test_float(void) {
563   vsl = __builtin_s390_vfcedbs(vd, vd, &cc);
564   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfcedbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
565   vsl = __builtin_s390_vfchdbs(vd, vd, &cc);
566   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfchdbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
567   vsl = __builtin_s390_vfchedbs(vd, vd, &cc);
568   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfchedbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
569 
570   vsl = __builtin_s390_vftcidb(vd, 0, &cc);
571   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vftcidb(<2 x double> %{{.*}}, i32 0)
572   vsl = __builtin_s390_vftcidb(vd, 4095, &cc);
573   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vftcidb(<2 x double> %{{.*}}, i32 4095)
574 
575   vd = __builtin_s390_vfsqdb(vd);
576   // CHECK: call <2 x double> @llvm.sqrt.v2f64(<2 x double> %{{.*}})
577 
578   vd = __builtin_s390_vfmadb(vd, vd, vd);
579   // CHECK: call <2 x double> @llvm.fma.v2f64(<2 x double> %{{.*}}, <2 x double> %{{.*}}, <2 x double> %{{.*}})
580   vd = __builtin_s390_vfmsdb(vd, vd, vd);
581   // CHECK: [[NEG:%[^ ]+]] = fneg <2 x double> %{{.*}}
582   // CHECK: call <2 x double> @llvm.fma.v2f64(<2 x double> %{{.*}}, <2 x double> %{{.*}}, <2 x double> [[NEG]])
583 
584   vd = __builtin_s390_vflpdb(vd);
585   // CHECK: call <2 x double> @llvm.fabs.v2f64(<2 x double> %{{.*}})
586   vd = __builtin_s390_vflndb(vd);
587   // CHECK: [[ABS:%[^ ]+]] = call <2 x double> @llvm.fabs.v2f64(<2 x double> %{{.*}})
588   // CHECK: fneg <2 x double> [[ABS]]
589 
590   vd = __builtin_s390_vfidb(vd, 0, 0);
591   // CHECK: call <2 x double> @llvm.rint.v2f64(<2 x double> %{{.*}})
592   vd = __builtin_s390_vfidb(vd, 4, 0);
593   // CHECK: call <2 x double> @llvm.nearbyint.v2f64(<2 x double> %{{.*}})
594   vd = __builtin_s390_vfidb(vd, 4, 1);
595   // CHECK: call <2 x double> @llvm.round.v2f64(<2 x double> %{{.*}})
596   vd = __builtin_s390_vfidb(vd, 4, 5);
597   // CHECK: call <2 x double> @llvm.trunc.v2f64(<2 x double> %{{.*}})
598   vd = __builtin_s390_vfidb(vd, 4, 6);
599   // CHECK: call <2 x double> @llvm.ceil.v2f64(<2 x double> %{{.*}})
600   vd = __builtin_s390_vfidb(vd, 4, 7);
601   // CHECK: call <2 x double> @llvm.floor.v2f64(<2 x double> %{{.*}})
602   vd = __builtin_s390_vfidb(vd, 4, 4);
603   // CHECK: call <2 x double> @llvm.s390.vfidb(<2 x double> %{{.*}}, i32 4, i32 4)
604 }
605