1; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py 2; RUN: llc < %s -mtriple=x86_64-- -mattr=+sse2 | FileCheck %s --check-prefix=SSE2 3; RUN: llc < %s -mtriple=x86_64-- -mattr=+sse4.2 | FileCheck %s --check-prefix=SSE4 4; RUN: llc < %s -mtriple=x86_64-- -mattr=+avx | FileCheck %s --check-prefix=AVX1 5; RUN: llc < %s -mtriple=x86_64-- -mattr=+avx2 | FileCheck %s --check-prefix=AVX2 6 7define <4 x i64> @PR45808(<4 x i64> %0, <4 x i64> %1) { 8; SSE2-LABEL: PR45808: 9; SSE2: # %bb.0: 10; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648] 11; SSE2-NEXT: movdqa %xmm3, %xmm5 12; SSE2-NEXT: pxor %xmm4, %xmm5 13; SSE2-NEXT: movdqa %xmm1, %xmm6 14; SSE2-NEXT: pxor %xmm4, %xmm6 15; SSE2-NEXT: movdqa %xmm6, %xmm7 16; SSE2-NEXT: pcmpgtd %xmm5, %xmm7 17; SSE2-NEXT: movdqa %xmm2, %xmm8 18; SSE2-NEXT: pxor %xmm4, %xmm8 19; SSE2-NEXT: pxor %xmm0, %xmm4 20; SSE2-NEXT: movdqa %xmm4, %xmm9 21; SSE2-NEXT: pcmpgtd %xmm8, %xmm9 22; SSE2-NEXT: movdqa %xmm9, %xmm10 23; SSE2-NEXT: shufps {{.*#+}} xmm10 = xmm10[0,2],xmm7[0,2] 24; SSE2-NEXT: pcmpeqd %xmm5, %xmm6 25; SSE2-NEXT: pcmpeqd %xmm8, %xmm4 26; SSE2-NEXT: shufps {{.*#+}} xmm4 = xmm4[1,3],xmm6[1,3] 27; SSE2-NEXT: andps %xmm10, %xmm4 28; SSE2-NEXT: shufps {{.*#+}} xmm9 = xmm9[1,3],xmm7[1,3] 29; SSE2-NEXT: orps %xmm4, %xmm9 30; SSE2-NEXT: pcmpeqd %xmm4, %xmm4 31; SSE2-NEXT: pxor %xmm9, %xmm4 32; SSE2-NEXT: pxor %xmm5, %xmm5 33; SSE2-NEXT: pcmpgtd %xmm4, %xmm5 34; SSE2-NEXT: punpckldq {{.*#+}} xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1] 35; SSE2-NEXT: pand %xmm4, %xmm0 36; SSE2-NEXT: pandn %xmm2, %xmm4 37; SSE2-NEXT: por %xmm4, %xmm0 38; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm9[2,2,3,3] 39; SSE2-NEXT: pslld $31, %xmm2 40; SSE2-NEXT: psrad $31, %xmm2 41; SSE2-NEXT: pand %xmm2, %xmm1 42; SSE2-NEXT: pandn %xmm3, %xmm2 43; SSE2-NEXT: por %xmm2, %xmm1 44; SSE2-NEXT: retq 45; 46; SSE4-LABEL: PR45808: 47; SSE4: # %bb.0: 48; SSE4-NEXT: movdqa %xmm0, %xmm4 49; SSE4-NEXT: movdqa %xmm0, %xmm5 50; SSE4-NEXT: pcmpgtq %xmm2, %xmm5 51; SSE4-NEXT: movdqa %xmm1, %xmm0 52; SSE4-NEXT: pcmpgtq %xmm3, %xmm0 53; SSE4-NEXT: blendvpd %xmm0, %xmm1, %xmm3 54; SSE4-NEXT: pshufd {{.*#+}} xmm0 = xmm5[0,0,2,2] 55; SSE4-NEXT: blendvpd %xmm0, %xmm2, %xmm4 56; SSE4-NEXT: movapd %xmm4, %xmm0 57; SSE4-NEXT: movapd %xmm3, %xmm1 58; SSE4-NEXT: retq 59; 60; AVX1-LABEL: PR45808: 61; AVX1: # %bb.0: 62; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 63; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 64; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 65; AVX1-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm3 66; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm3, %ymm2 67; AVX1-NEXT: vxorpd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %ymm2, %ymm2 68; AVX1-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0 69; AVX1-NEXT: retq 70; 71; AVX2-LABEL: PR45808: 72; AVX2: # %bb.0: 73; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2 74; AVX2-NEXT: vpxor {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %ymm2, %ymm2 75; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0 76; AVX2-NEXT: retq 77 %3 = icmp sgt <4 x i64> %0, %1 78 %4 = xor <4 x i1> %3, <i1 true, i1 true, i1 false, i1 false> 79 %5 = select <4 x i1> %4, <4 x i64> %0, <4 x i64> %1 80 ret <4 x i64> %5 81} 82