bmalloc: VMHeap should keep a record of all of its VM ranges (for malloc introspection)
[WebKit-https.git] / Source / bmalloc / bmalloc / VMHeap.h
1 /*
2  * Copyright (C) 2014, 2015 Apple Inc. All rights reserved.
3  *
4  * Redistribution and use in source and binary forms, with or without
5  * modification, are permitted provided that the following conditions
6  * are met:
7  * 1. Redistributions of source code must retain the above copyright
8  *    notice, this list of conditions and the following disclaimer.
9  * 2. Redistributions in binary form must reproduce the above copyright
10  *    notice, this list of conditions and the following disclaimer in the
11  *    documentation and/or other materials provided with the distribution.
12  *
13  * THIS SOFTWARE IS PROVIDED BY APPLE INC. ``AS IS'' AND ANY
14  * EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
15  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
16  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL APPLE INC. OR
17  * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
18  * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
19  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
20  * PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY
21  * OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
22  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
23  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE. 
24  */
25
26 #ifndef VMHeap_h
27 #define VMHeap_h
28
29 #include "AsyncTask.h"
30 #include "FixedVector.h"
31 #include "LargeChunk.h"
32 #include "MediumChunk.h"
33 #include "Range.h"
34 #include "SegregatedFreeList.h"
35 #include "SmallChunk.h"
36 #include "Vector.h"
37
38 namespace bmalloc {
39
40 class BeginTag;
41 class EndTag;
42 class Heap;
43 class SuperChunk;
44
45 class VMHeap {
46 public:
47     VMHeap();
48
49     SmallPage* allocateSmallPage();
50     MediumPage* allocateMediumPage();
51     Range allocateLargeRange(size_t);
52     Range allocateLargeRange(size_t alignment, size_t, size_t unalignedSize);
53
54     void deallocateSmallPage(std::unique_lock<StaticMutex>&, SmallPage*);
55     void deallocateMediumPage(std::unique_lock<StaticMutex>&, MediumPage*);
56     void deallocateLargeRange(std::unique_lock<StaticMutex>&, Range);
57
58 private:
59     void grow();
60
61     Vector<SmallPage*> m_smallPages;
62     Vector<MediumPage*> m_mediumPages;
63     SegregatedFreeList m_largeRanges;
64     Vector<SuperChunk*> m_superChunks;
65 };
66
67 inline SmallPage* VMHeap::allocateSmallPage()
68 {
69     if (!m_smallPages.size())
70         grow();
71
72     return m_smallPages.pop();
73 }
74
75 inline MediumPage* VMHeap::allocateMediumPage()
76 {
77     if (!m_mediumPages.size())
78         grow();
79
80     return m_mediumPages.pop();
81 }
82
83 inline Range VMHeap::allocateLargeRange(size_t size)
84 {
85     Range range = m_largeRanges.take(size);
86     if (!range) {
87         grow();
88         range = m_largeRanges.take(size);
89         BASSERT(range);
90     }
91     return range;
92 }
93
94 inline Range VMHeap::allocateLargeRange(size_t alignment, size_t size, size_t unalignedSize)
95 {
96     Range range = m_largeRanges.take(alignment, size, unalignedSize);
97     if (!range) {
98         grow();
99         range = m_largeRanges.take(alignment, size, unalignedSize);
100         BASSERT(range);
101     }
102     return range;
103 }
104
105 inline void VMHeap::deallocateSmallPage(std::unique_lock<StaticMutex>& lock, SmallPage* page)
106 {
107     lock.unlock();
108     vmDeallocatePhysicalPages(page->begin()->begin(), vmPageSize);
109     lock.lock();
110     
111     m_smallPages.push(page);
112 }
113
114 inline void VMHeap::deallocateMediumPage(std::unique_lock<StaticMutex>& lock, MediumPage* page)
115 {
116     lock.unlock();
117     vmDeallocatePhysicalPages(page->begin()->begin(), vmPageSize);
118     lock.lock();
119     
120     m_mediumPages.push(page);
121 }
122
123 inline void VMHeap::deallocateLargeRange(std::unique_lock<StaticMutex>& lock, Range range)
124 {
125     BeginTag* beginTag = LargeChunk::beginTag(range.begin());
126     EndTag* endTag = LargeChunk::endTag(range.begin(), range.size());
127     
128     // Temporarily mark this range as allocated to prevent clients from merging
129     // with it and then reallocating it while we're messing with its physical pages.
130     beginTag->setFree(false);
131     endTag->setFree(false);
132
133     lock.unlock();
134     vmDeallocatePhysicalPagesSloppy(range.begin(), range.size());
135     lock.lock();
136
137     beginTag->setFree(true);
138     endTag->setFree(true);
139
140     beginTag->setHasPhysicalPages(false);
141     endTag->setHasPhysicalPages(false);
142
143     m_largeRanges.insert(range);
144 }
145
146 } // namespace bmalloc
147
148 #endif // VMHeap_h