Lines Matching refs:reloc_cache
220 struct reloc_cache { struct
233 } reloc_cache; member
443 if (!eb->reloc_cache.has_fence) { in eb_validate_vma()
447 eb->reloc_cache.needs_unfenced) && in eb_validate_vma()
510 static inline int use_cpu_reloc(const struct reloc_cache *cache, in use_cpu_reloc()
763 if (eb->reloc_cache.has_fence) in eb_lookup_vmas()
830 GEM_BUG_ON(eb->reloc_cache.rq); in eb_destroy()
843 static void reloc_cache_init(struct reloc_cache *cache, in reloc_cache_init()
871 static inline struct i915_ggtt *cache_to_ggtt(struct reloc_cache *cache) in cache_to_ggtt()
874 container_of(cache, struct i915_execbuffer, reloc_cache)->i915; in cache_to_ggtt()
878 static void reloc_gpu_flush(struct reloc_cache *cache) in reloc_gpu_flush()
889 static void reloc_cache_reset(struct reloc_cache *cache) in reloc_cache_reset()
926 struct reloc_cache *cache, in reloc_kmap()
958 struct reloc_cache *cache, in reloc_iomap()
1022 struct reloc_cache *cache, in reloc_vaddr()
1067 struct reloc_cache *cache = &eb->reloc_cache; in __reloc_gpu_alloc()
1160 struct reloc_cache *cache = &eb->reloc_cache; in reloc_gpu()
1195 bool wide = eb->reloc_cache.use_64bit_reloc; in relocate_entry()
1198 if (!eb->reloc_cache.vaddr && in relocate_entry()
1201 const unsigned int gen = eb->reloc_cache.gen; in relocate_entry()
1258 vaddr = reloc_vaddr(vma->obj, &eb->reloc_cache, offset >> PAGE_SHIFT); in relocate_entry()
1264 eb->reloc_cache.vaddr); in relocate_entry()
1342 vma->size - (eb->reloc_cache.use_64bit_reloc ? 8 : 4))) { in eb_relocate_entry()
1455 reloc_cache_reset(&eb->reloc_cache); in eb_relocate_vma()
1478 reloc_cache_reset(&eb->reloc_cache); in eb_relocate_vma_slow()
2219 reloc_cache_init(&eb.reloc_cache, eb.i915); in i915_gem_do_execbuffer()
2370 GEM_BUG_ON(eb.reloc_cache.rq); in i915_gem_do_execbuffer()