Lines Matching defs:v4u64
29 typedef unsigned long long v4u64 __attribute__((vector_size(32), aligned(32)));
244 return (__m256i)__builtin_lasx_xvbitclr_d((v4u64)_1, (v4u64)_2);
257 ((__m256i)__builtin_lasx_xvbitclri_d((v4u64)(_1), (_2)))
280 return (__m256i)__builtin_lasx_xvbitset_d((v4u64)_1, (v4u64)_2);
293 ((__m256i)__builtin_lasx_xvbitseti_d((v4u64)(_1), (_2)))
316 return (__m256i)__builtin_lasx_xvbitrev_d((v4u64)_1, (v4u64)_2);
329 ((__m256i)__builtin_lasx_xvbitrevi_d((v4u64)(_1), (_2)))
460 return (__m256i)__builtin_lasx_xvmax_du((v4u64)_1, (v4u64)_2);
473 ((__m256i)__builtin_lasx_xvmaxi_du((v4u64)(_1), (_2)))
532 return (__m256i)__builtin_lasx_xvmin_du((v4u64)_1, (v4u64)_2);
545 ((__m256i)__builtin_lasx_xvmini_du((v4u64)(_1), (_2)))
640 return (__m256i)__builtin_lasx_xvslt_du((v4u64)_1, (v4u64)_2);
653 ((__m256i)__builtin_lasx_xvslti_du((v4u64)(_1), (_2)))
712 return (__m256i)__builtin_lasx_xvsle_du((v4u64)_1, (v4u64)_2);
725 ((__m256i)__builtin_lasx_xvslei_du((v4u64)(_1), (_2)))
749 ((__m256i)__builtin_lasx_xvsat_du((v4u64)(_1), (_2)))
820 return (__m256i)__builtin_lasx_xvsadd_du((v4u64)_1, (v4u64)_2);
868 return (__m256i)__builtin_lasx_xvavg_du((v4u64)_1, (v4u64)_2);
916 return (__m256i)__builtin_lasx_xvavgr_du((v4u64)_1, (v4u64)_2);
964 return (__m256i)__builtin_lasx_xvssub_du((v4u64)_1, (v4u64)_2);
1012 return (__m256i)__builtin_lasx_xvabsd_du((v4u64)_1, (v4u64)_2);
1132 return (__m256i)__builtin_lasx_xvdiv_du((v4u64)_1, (v4u64)_2);
1252 return (__m256i)__builtin_lasx_xvmod_du((v4u64)_1, (v4u64)_2);
1858 return (__m256d)__builtin_lasx_xvffint_d_lu((v4u64)_1);
1963 return (__m256i)__builtin_lasx_xvmuh_du((v4u64)_1, (v4u64)_2);
2035 return (__m256i)__builtin_lasx_xvssran_wu_d((v4u64)_1, (v4u64)_2);
2089 return (__m256i)__builtin_lasx_xvssrarn_wu_d((v4u64)_1, (v4u64)_2);
2125 return (__m256i)__builtin_lasx_xvssrln_wu_d((v4u64)_1, (v4u64)_2);
2161 return (__m256i)__builtin_lasx_xvssrlrn_wu_d((v4u64)_1, (v4u64)_2);
2584 return (__m256i)__builtin_lasx_xvextl_qu_du((v4u64)_1);
2758 return (__m256i)__builtin_lasx_xvaddwev_q_du((v4u64)_1, (v4u64)_2);
2806 return (__m256i)__builtin_lasx_xvsubwev_q_du((v4u64)_1, (v4u64)_2);
2854 return (__m256i)__builtin_lasx_xvmulwev_q_du((v4u64)_1, (v4u64)_2);
2902 return (__m256i)__builtin_lasx_xvaddwod_q_du((v4u64)_1, (v4u64)_2);
2950 return (__m256i)__builtin_lasx_xvsubwod_q_du((v4u64)_1, (v4u64)_2);
2998 return (__m256i)__builtin_lasx_xvmulwod_q_du((v4u64)_1, (v4u64)_2);
3100 return (__m256i)__builtin_lasx_xvhaddw_qu_du((v4u64)_1, (v4u64)_2);
3112 return (__m256i)__builtin_lasx_xvhsubw_qu_du((v4u64)_1, (v4u64)_2);
3144 return (__m256i)__builtin_lasx_xvmaddwev_q_du((v4u64)_1, (v4u64)_2,
3145 (v4u64)_3);
3151 return (__m256i)__builtin_lasx_xvmaddwev_d_wu((v4u64)_1, (v8u32)_2,
3198 return (__m256i)__builtin_lasx_xvmaddwod_q_du((v4u64)_1, (v4u64)_2,
3199 (v4u64)_3);
3205 return (__m256i)__builtin_lasx_xvmaddwod_d_wu((v4u64)_1, (v8u32)_2,
3226 return (__m256i)__builtin_lasx_xvmaddwev_q_du_d((v4i64)_1, (v4u64)_2,
3254 return (__m256i)__builtin_lasx_xvmaddwod_q_du_d((v4i64)_1, (v4u64)_2,
3318 return (__m256i)__builtin_lasx_xvaddwev_q_du_d((v4u64)_1, (v4i64)_2);
3324 return (__m256i)__builtin_lasx_xvaddwod_q_du_d((v4u64)_1, (v4i64)_2);
3330 return (__m256i)__builtin_lasx_xvmulwev_q_du_d((v4u64)_1, (v4i64)_2);
3336 return (__m256i)__builtin_lasx_xvmulwod_q_du_d((v4u64)_1, (v4i64)_2);
3396 return (__m256i)__builtin_lasx_xvexth_qu_du((v4u64)_1);
3463 ((__m256i)__builtin_lasx_xvssrlni_du_q((v4u64)(_1), (v4i64)(_2), (_3)))
3487 ((__m256i)__builtin_lasx_xvssrlrni_du_q((v4u64)(_1), (v4i64)(_2), (_3)))
3535 ((__m256i)__builtin_lasx_xvssrani_du_q((v4u64)(_1), (v4i64)(_2), (_3)))
3559 ((__m256i)__builtin_lasx_xvssrarni_du_q((v4u64)(_1), (v4i64)(_2), (_3)))
3563 #define __lasx_xbnz_d(/*__m256i*/ _1) ((int)__builtin_lasx_xbnz_d((v4u64)(_1)))
3573 #define __lasx_xbz_d(/*__m256i*/ _1) ((int)__builtin_lasx_xbz_d((v4u64)(_1)))