Lines Matching refs:unordered

15   %v = load atomic i8, ptr %ptr unordered, align 1
30 store atomic i8 %v, ptr %ptr unordered, align 1
44 %v = load atomic i16, ptr %ptr unordered, align 2
60 store atomic i16 %v, ptr %ptr unordered, align 2
69 %v = load atomic i32, ptr %ptr unordered, align 4
78 store atomic i32 %v, ptr %ptr unordered, align 4
87 %v = load atomic i64, ptr %ptr unordered, align 8
96 store atomic i64 %v, ptr %ptr unordered, align 8
119 %v = load atomic i64, ptr %ptr unordered, align 8
121 store atomic i64 %v.new, ptr %ptr unordered, align 8
141 %v = load atomic i64, ptr %ptr unordered, align 8
143 store atomic i64 %v.new, ptr %ptr unordered, align 8
160 %v = load atomic i64, ptr %ptr unordered, align 8
162 store atomic i64 %v.new, ptr %ptr unordered, align 8
184 store atomic i32 %v1, ptr %p0 unordered, align 8
185 store atomic i32 %v2, ptr %p1 unordered, align 4
199 store atomic i32 %v1, ptr %p0 unordered, align 4
200 store atomic i32 %v2, ptr %p1 unordered, align 4
212 store atomic i32 %v, ptr %p0 unordered, align 8
213 store atomic i32 %v, ptr %p1 unordered, align 4
225 store atomic i32 %v, ptr %p0 unordered, align 4
226 store atomic i32 %v, ptr %p1 unordered, align 4
237 %v = load atomic i128, ptr %ptr unordered, align 16
257 store atomic i128 %v, ptr %ptr unordered, align 16
308 %v = load atomic i256, ptr %ptr unordered, align 16
348 store atomic i256 %v, ptr %ptr unordered, align 16
372 store atomic i32 %v1, ptr %p0 unordered, align 8
373 store atomic i32 %v2, ptr %p1 unordered, align 4
397 store atomic i32 %v1, ptr %p0 unordered, align 4
398 store atomic i32 %v2, ptr %p1 unordered, align 4
415 store atomic i32 %v1, ptr %p0 unordered, align 8
416 store atomic i32 %v1, ptr %p1 unordered, align 4
430 store atomic i32 %v1, ptr %p0 unordered, align 4
431 store atomic i32 %v1, ptr %p1 unordered, align 4
443 store atomic i32 0, ptr %p0 unordered, align 8
444 store atomic i32 0, ptr %p1 unordered, align 4
456 store atomic i32 0, ptr %p0 unordered, align 4
457 store atomic i32 0, ptr %p1 unordered, align 4
471 %v = load atomic i64, ptr %p unordered, align 8
482 %v = load atomic i64, ptr %p unordered, align 8
499 %v = load atomic i64, ptr %p1 unordered, align 8
500 %v2 = load atomic i64, ptr %p2 unordered, align 8
518 %v = load atomic i64, ptr %p unordered, align 8
529 %v = load atomic i64, ptr %p unordered, align 8
540 %v = load atomic i64, ptr %p1 unordered, align 8
541 %v2 = load atomic i64, ptr %p2 unordered, align 8
559 %v = load atomic i64, ptr %p unordered, align 8
570 %v = load atomic i64, ptr %p unordered, align 8
587 %v = load atomic i64, ptr %p1 unordered, align 8
588 %v2 = load atomic i64, ptr %p2 unordered, align 8
616 %v = load atomic i64, ptr %p unordered, align 8
647 %v = load atomic i64, ptr %p unordered, align 8
678 %v = load atomic i64, ptr %p1 unordered, align 8
679 %v2 = load atomic i64, ptr %p2 unordered, align 8
702 %v = load atomic i64, ptr %p unordered, align 8
733 %v = load atomic i64, ptr %p unordered, align 8
765 %v = load atomic i64, ptr %p1 unordered, align 8
766 %v2 = load atomic i64, ptr %p2 unordered, align 8
798 %v = load atomic i64, ptr %p unordered, align 8
831 %v = load atomic i64, ptr %p unordered, align 8
864 %v = load atomic i64, ptr %p1 unordered, align 8
865 %v2 = load atomic i64, ptr %p2 unordered, align 8
893 %v = load atomic i64, ptr %p unordered, align 8
927 %v = load atomic i64, ptr %p unordered, align 8
961 %v = load atomic i64, ptr %p1 unordered, align 8
962 %v2 = load atomic i64, ptr %p2 unordered, align 8
974 %v = load atomic i64, ptr %p unordered, align 8
992 %v = load atomic i64, ptr %p unordered, align 8
1011 %v = load atomic i64, ptr %p1 unordered, align 8
1012 %v2 = load atomic i64, ptr %p2 unordered, align 8
1024 %v = load atomic i64, ptr %p unordered, align 8
1042 %v = load atomic i64, ptr %p unordered, align 8
1061 %v = load atomic i64, ptr %p1 unordered, align 8
1062 %v2 = load atomic i64, ptr %p2 unordered, align 8
1074 %v = load atomic i64, ptr %p unordered, align 8
1092 %v = load atomic i64, ptr %p unordered, align 8
1111 %v = load atomic i64, ptr %p1 unordered, align 8
1112 %v2 = load atomic i64, ptr %p2 unordered, align 8
1130 %v = load atomic i64, ptr %p unordered, align 8
1141 %v = load atomic i64, ptr %p unordered, align 8
1158 %v = load atomic i64, ptr %p1 unordered, align 8
1159 %v2 = load atomic i64, ptr %p2 unordered, align 8
1171 %v = load atomic i64, ptr %p unordered, align 8
1182 %v = load atomic i64, ptr %p unordered, align 8
1199 %v = load atomic i64, ptr %p1 unordered, align 8
1200 %v2 = load atomic i64, ptr %p2 unordered, align 8
1212 %v = load atomic i64, ptr %p unordered, align 8
1223 %v = load atomic i64, ptr %p unordered, align 8
1240 %v = load atomic i64, ptr %p1 unordered, align 8
1241 %v2 = load atomic i64, ptr %p2 unordered, align 8
1259 %v = load atomic i64, ptr %p unordered, align 8
1277 %v = load atomic i64, ptr %p unordered, align 8
1297 %v = load atomic i64, ptr %p1 unordered, align 8
1298 %v2 = load atomic i64, ptr %p2 unordered, align 8
1322 %prev = load atomic i64, ptr %p unordered, align 8
1324 store atomic i64 %val, ptr %p unordered, align 8
1341 %prev = load atomic i64, ptr %p unordered, align 8
1343 store atomic i64 %val, ptr %p unordered, align 8
1360 %prev = load atomic i64, ptr %p unordered, align 8
1362 store atomic i64 %val, ptr %p unordered, align 8
1379 %prev = load atomic i64, ptr %p unordered, align 8
1381 store atomic i64 %val, ptr %p unordered, align 8
1394 %prev = load atomic i64, ptr %p unordered, align 8
1396 store atomic i64 %val, ptr %p unordered, align 8
1414 %prev = load atomic i64, ptr %p unordered, align 8
1416 store atomic i64 %val, ptr %p unordered, align 8
1450 %prev = load atomic i64, ptr %p unordered, align 8
1452 store atomic i64 %val, ptr %p unordered, align 8
1485 %prev = load atomic i64, ptr %p unordered, align 8
1487 store atomic i64 %val, ptr %p unordered, align 8
1501 %prev = load atomic i64, ptr %p unordered, align 8
1503 store atomic i64 %val, ptr %p unordered, align 8
1537 %prev = load atomic i64, ptr %p unordered, align 8
1539 store atomic i64 %val, ptr %p unordered, align 8
1580 %prev = load atomic i64, ptr %p unordered, align 8
1582 store atomic i64 %val, ptr %p unordered, align 8
1615 %prev = load atomic i64, ptr %p unordered, align 8
1617 store atomic i64 %val, ptr %p unordered, align 8
1647 %prev = load atomic i64, ptr %p unordered, align 8
1649 store atomic i64 %val, ptr %p unordered, align 8
1683 %prev = load atomic i64, ptr %p unordered, align 8
1685 store atomic i64 %val, ptr %p unordered, align 8
1697 %prev = load atomic i64, ptr %p unordered, align 8
1699 store atomic i64 %val, ptr %p unordered, align 8
1720 %prev = load atomic i64, ptr %p unordered, align 8
1722 store atomic i64 %val, ptr %p unordered, align 8
1734 %prev = load atomic i64, ptr %p unordered, align 8
1736 store atomic i64 %val, ptr %p unordered, align 8
1757 %prev = load atomic i64, ptr %p unordered, align 8
1759 store atomic i64 %val, ptr %p unordered, align 8
1771 %prev = load atomic i64, ptr %p unordered, align 8
1773 store atomic i64 %val, ptr %p unordered, align 8
1794 %prev = load atomic i64, ptr %p unordered, align 8
1796 store atomic i64 %val, ptr %p unordered, align 8
1815 %prev = load atomic i64, ptr %p unordered, align 8
1817 store atomic i64 %val, ptr %p unordered, align 8
1834 %prev = load atomic i64, ptr %p unordered, align 8
1836 store atomic i64 %val, ptr %p unordered, align 8
1853 %prev = load atomic i64, ptr %p unordered, align 8
1855 store atomic i64 %val, ptr %p unordered, align 8
1872 %prev = load atomic i64, ptr %p unordered, align 8
1874 store atomic i64 %val, ptr %p unordered, align 8
1891 %prev = load atomic i64, ptr %p unordered, align 8
1893 store atomic i64 %val, ptr %p unordered, align 8
1910 %prev = load atomic i64, ptr %p unordered, align 8
1912 store atomic i64 %val, ptr %p unordered, align 8
1926 %v = load atomic i64, ptr %p unordered, align 8
1946 %v = load atomic i64, ptr %p unordered, align 8
1967 %v = load atomic i64, ptr %p unordered, align 8
1988 %v = load atomic i64, ptr %p unordered, align 8
2015 %v = load atomic i64, ptr %p unordered, align 8
2035 %v = load atomic i64, ptr %p unordered, align 8
2046 %v = load atomic i64, ptr %p unordered, align 8
2047 %v2 = load atomic i64, ptr %p unordered, align 8
2059 store atomic i64 %v, ptr %p unordered, align 8
2060 %ret = load atomic i64, ptr %p unordered, align 8
2071 %v = load atomic i64, ptr %p unordered, align 8
2072 store atomic i64 %v, ptr %p unordered, align 8
2083 store atomic i64 0, ptr %p unordered, align 8
2084 store atomic i64 %v, ptr %p unordered, align 8
2102 %v = load atomic i64, ptr %p unordered, align 8
2115 %v = load atomic i64, ptr %p unordered, align 8
2129 %v = load atomic i64, ptr %p unordered, align 8
2151 %v = load atomic i64, ptr @Constant unordered, align 8
2163 %v = load atomic i64, ptr @Constant unordered, align 8
2176 %v = load atomic i64, ptr @Constant unordered, align 8
2189 %v = load atomic i64, ptr %p unordered, align 8, !invariant.load !{}
2203 %v = load atomic i64, ptr %p unordered, align 8, !invariant.load !{}
2225 %v = load atomic i8, ptr %ptr unordered, align 2
2242 %v = load atomic i8, ptr %ptr unordered, align 4
2260 %v = load atomic i16, ptr %ptr unordered, align 4
2282 %v = load atomic i16, ptr %ptr unordered, align 8
2310 %v1 = load atomic i8, ptr %p unordered, align 2
2312 %v2 = load atomic i8, ptr %p2 unordered, align 1
2347 %v2 = load atomic i32, ptr %p unordered, align 4