Lines Matching defs:beginOffset
541 uint64_t beginOffset() const { return BeginOffset; }
559 if (beginOffset() < RHS.beginOffset())
561 if (beginOffset() > RHS.beginOffset())
573 return LHS.beginOffset() < RHSOffset;
577 return LHSOffset < RHS.beginOffset();
582 beginOffset() == RHS.beginOffset() && endOffset() == RHS.endOffset();
753 uint64_t beginOffset() const { return BeginOffset; }
894 if (!P.SplitTails.empty() && P.SI->beginOffset() != P.EndOffset &&
897 P.EndOffset = P.SI->beginOffset();
907 P.BeginOffset = P.SplitTails.empty() ? P.SI->beginOffset() : P.EndOffset;
916 assert(P.BeginOffset == P.SI->beginOffset());
920 while (P.SJ != SE && P.SJ->beginOffset() < P.EndOffset) {
937 while (P.SJ != SE && P.SJ->beginOffset() < P.EndOffset &&
946 if (P.SJ != SE && P.SJ->beginOffset() < P.EndOffset) {
948 P.EndOffset = P.SJ->beginOffset();
1231 if (!II.isVolatile() && PrevP.beginOffset() == RawOffset) {
1449 OS << Indent << "[" << I->beginOffset() << "," << I->endOffset() << ")"
1497 if (I->beginOffset() != B->beginOffset() || I->endOffset() != EndOffset)
1513 UserITy->getBitWidth() / 8 > (EndOffset - B->beginOffset()))
2050 std::max(S.beginOffset(), P.beginOffset()) - P.beginOffset();
2055 uint64_t EndOffset = std::min(S.endOffset(), P.endOffset()) - P.beginOffset();
2087 if (P.beginOffset() > S.beginOffset() || P.endOffset() < S.endOffset()) {
2100 if (P.beginOffset() > S.beginOffset() || P.endOffset() < S.endOffset()) {
2328 if (CandTy->isPointerTy() && (S.beginOffset() != P.beginOffset() ||
2336 if (S.beginOffset() == P.beginOffset() && S.endOffset() == P.endOffset())
2365 uint64_t RelBegin = S.beginOffset() - AllocBeginOffset;
2392 if (S.beginOffset() < AllocBeginOffset)
2417 if (S.beginOffset() < AllocBeginOffset)
2480 if (!isIntegerWideningViableForSlice(S, P.beginOffset(), AllocaTy, DL,
2485 if (!isIntegerWideningViableForSlice(*S, P.beginOffset(), AllocaTy, DL,
2728 BeginOffset = I->beginOffset();
4405 assert(P.endOffset() > S.beginOffset() &&
4450 Offsets.Splits.push_back(P.endOffset() - S.beginOffset());
4466 P.beginOffset() - Offsets.S->beginOffset() &&
4472 Offsets.Splits.push_back(P.endOffset() - Offsets.S->beginOffset());
4559 unsigned SliceSize = Offsets.S->endOffset() - Offsets.S->beginOffset();
4565 uint64_t BaseOffset = Offsets.S->beginOffset();
4599 LLVM_DEBUG(dbgs() << " new slice [" << NewSlices.back().beginOffset()
4693 assert(StoreSize == Offsets.S->endOffset() - Offsets.S->beginOffset() &&
4695 uint64_t BaseOffset = Offsets.S->beginOffset();
4758 LLVM_DEBUG(dbgs() << " new slice [" << NewSlices.back().beginOffset()
4858 P.beginOffset(), P.size()))
4877 P.beginOffset(), P.size())) {
4899 // P.beginOffset() can be non-zero even with the same type in a case with
4902 if (SliceTy == AI.getAllocatedType() && P.beginOffset() == 0) {
4908 // Make sure the alignment is compatible with P.beginOffset().
4909 const Align Alignment = commonAlignment(AI.getAlign(), P.beginOffset());
4923 LLVM_DEBUG(dbgs() << "Rewriting alloca partition " << "[" << P.beginOffset()
4934 AllocaSliceRewriter Rewriter(DL, AS, *this, AI, *NewAI, P.beginOffset(),
5287 for (unsigned O = S.beginOffset() + 1;
5295 if ((S.beginOffset() > AllocaSize || SplittableOffset[S.beginOffset()]) &&
5312 if (S.beginOffset() == 0 && S.endOffset() >= AllocaSize)
5348 Fragment(NewAI, P.beginOffset() * SizeOfByte, Size));
5500 // increasing beginOffset. We don't use AS.partitions(), as it will use a more
5504 uint64_t BeginOffset = PartitionBegin->beginOffset();
5511 (PartitionEnd->beginOffset() < EndOffset ||
5514 AllSameAndValid &= PartitionEnd->beginOffset() == BeginOffset &&
5555 BeginOffset = PartitionBegin->beginOffset();