Lines Matching defs:tcache

660 		 * individual threads do not lock when recording tcache stats
668 tcache_t *tcache;
671 ql_foreach(tcache, &arena->tcache_ql, link) {
672 tcache_stats_merge(tsdn, tcache, arena);
1294 CONF_HANDLE_BOOL(opt_tcache, "tcache")
1918 tcache_t *tcache;
1921 /* Fill in the tcache. */
1924 /* Getting tcache ptr unconditionally. */
1925 tcache = tsd_tcachep_get(tsd);
1926 assert(tcache == tcache_get(tsd));
1928 tcache = tcache_get(tsd);
1931 tcache = NULL;
1933 tcache = tcaches_get(tsd, dopts->tcache_ind);
1941 * allocation out of the tcache.
1950 dopts->zero, tcache, arena);
1953 return iallocztm(tsd_tsdn(tsd), size, ind, dopts->zero, tcache, false,
2317 * tcache. If either of these is false, we tail-call to the slowpath,
2339 tcache_t *tcache = tsd_tcachep_get(tsd);
2341 if (unlikely(ticker_trytick(&tcache->gc_ticker))) {
2373 cache_bin_t *bin = tcache_small_bin_get(tcache, ind);
2383 tcache->prof_accumbytes += usize;
2560 ifree(tsd_t *tsd, void *ptr, tcache_t *tcache, bool slow_path) {
2590 idalloctm(tsd_tsdn(tsd), ptr, tcache, &alloc_ctx, false,
2593 idalloctm(tsd_tsdn(tsd), ptr, tcache, &alloc_ctx, false,
2599 isfree(tsd_t *tsd, void *ptr, size_t usize, tcache_t *tcache, bool slow_path) {
2648 isdalloct(tsd_tsdn(tsd), ptr, usize, tcache, ctx, false);
2650 isdalloct(tsd_tsdn(tsd), ptr, usize, tcache, ctx, true);
2760 * We avoid setting up tsd fully (e.g. tcache, arena binding)
2770 tcache_t *tcache;
2773 /* Unconditionally get tcache ptr on fast path. */
2774 tcache = tsd_tcachep_get(tsd);
2775 ifree(tsd, ptr, tcache, false);
2778 tcache = tcache_get(tsd);
2780 tcache = NULL;
2784 ifree(tsd, ptr, tcache, true);
2797 tcache_t *tcache = tsd_tcachep_get(tsd);
2829 if (unlikely(ticker_trytick(&tcache->gc_ticker))) {
2833 cache_bin_t *bin = tcache_small_bin_get(tcache, alloc_ctx.szind);
3135 size_t usize, size_t alignment, bool zero, tcache_t *tcache, arena_t *arena,
3144 SC_LARGE_MINCLASS, alignment, zero, tcache,
3152 tcache, arena, hook_args);
3160 size_t alignment, size_t *usize, bool zero, tcache_t *tcache,
3171 *usize, alignment, zero, tcache, arena, tctx, hook_args);
3174 zero, tcache, arena, hook_args);
3209 tcache_t *tcache;
3233 tcache = NULL;
3235 tcache = tcaches_get(tsd, MALLOCX_TCACHE_GET(flags));
3238 tcache = tcache_get(tsd);
3259 zero, tcache, arena, &alloc_ctx, &hook_args);
3265 zero, tcache, arena, &hook_args);
3482 tcache_t *tcache;
3484 /* Not allowed to be reentrant and specify a custom tcache. */
3487 tcache = NULL;
3489 tcache = tcaches_get(tsd, MALLOCX_TCACHE_GET(flags));
3493 tcache = tsd_tcachep_get(tsd);
3494 assert(tcache == tcache_get(tsd));
3497 tcache = tcache_get(tsd);
3499 tcache = NULL;
3507 ifree(tsd, ptr, tcache, false);
3511 ifree(tsd, ptr, tcache, true);
3543 tcache_t *tcache;
3545 /* Not allowed to be reentrant and specify a custom tcache. */
3548 tcache = NULL;
3550 tcache = tcaches_get(tsd, MALLOCX_TCACHE_GET(flags));
3554 tcache = tsd_tcachep_get(tsd);
3555 assert(tcache == tcache_get(tsd));
3558 tcache = tcache_get(tsd);
3560 tcache = NULL;
3568 isfree(tsd, ptr, usize, tcache, false);
3572 isfree(tsd, ptr, usize, tcache, true);