bmalloc should honor the FastMalloc statistics API
[WebKit-https.git] / Source / bmalloc / bmalloc / VMHeap.h
1 /*
2  * Copyright (C) 2014 Apple Inc. All rights reserved.
3  *
4  * Redistribution and use in source and binary forms, with or without
5  * modification, are permitted provided that the following conditions
6  * are met:
7  * 1. Redistributions of source code must retain the above copyright
8  *    notice, this list of conditions and the following disclaimer.
9  * 2. Redistributions in binary form must reproduce the above copyright
10  *    notice, this list of conditions and the following disclaimer in the
11  *    documentation and/or other materials provided with the distribution.
12  *
13  * THIS SOFTWARE IS PROVIDED BY APPLE INC. ``AS IS'' AND ANY
14  * EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
15  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
16  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL APPLE INC. OR
17  * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
18  * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
19  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
20  * PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY
21  * OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
22  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
23  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE. 
24  */
25
26 #ifndef VMHeap_h
27 #define VMHeap_h
28
29 #include "AsyncTask.h"
30 #include "FixedVector.h"
31 #include "LargeChunk.h"
32 #include "MediumChunk.h"
33 #include "Range.h"
34 #include "SegregatedFreeList.h"
35 #include "SmallChunk.h"
36 #include "Vector.h"
37
38 namespace bmalloc {
39
40 class BeginTag;
41 class EndTag;
42 class Heap;
43
44 class VMHeap {
45 public:
46     VMHeap();
47
48     size_t size() { return m_size; }
49     size_t capacity() { return m_capacity; }
50
51     SmallPage* allocateSmallPage();
52     MediumPage* allocateMediumPage();
53     Range allocateLargeRange(size_t);
54
55     void deallocateSmallPage(std::unique_lock<StaticMutex>&, SmallPage*);
56     void deallocateMediumPage(std::unique_lock<StaticMutex>&, MediumPage*);
57     void deallocateLargeRange(std::unique_lock<StaticMutex>&, Range);
58
59 private:
60     void allocateSmallChunk();
61     void allocateMediumChunk();
62     Range allocateLargeChunk();
63
64     size_t m_size;
65     size_t m_capacity;
66
67     Vector<SmallPage*> m_smallPages;
68     Vector<MediumPage*> m_mediumPages;
69     SegregatedFreeList m_largeRanges;
70 };
71
72 inline SmallPage* VMHeap::allocateSmallPage()
73 {
74     if (!m_smallPages.size())
75         allocateSmallChunk();
76
77     m_size -= vmPageSize;
78     return m_smallPages.pop();
79 }
80
81 inline MediumPage* VMHeap::allocateMediumPage()
82 {
83     if (!m_mediumPages.size())
84         allocateMediumChunk();
85
86     m_size -= vmPageSize;
87     return m_mediumPages.pop();
88 }
89
90 inline Range VMHeap::allocateLargeRange(size_t size)
91 {
92     Range range = m_largeRanges.take(size);
93     if (!range)
94         range = allocateLargeChunk();
95     m_size -= range.size();
96     return range;
97 }
98
99 inline void VMHeap::deallocateSmallPage(std::unique_lock<StaticMutex>& lock, SmallPage* page)
100 {
101     lock.unlock();
102     vmDeallocatePhysicalPages(page->begin()->begin(), vmPageSize);
103     lock.lock();
104     
105     m_size += vmPageSize;
106     m_smallPages.push(page);
107 }
108
109 inline void VMHeap::deallocateMediumPage(std::unique_lock<StaticMutex>& lock, MediumPage* page)
110 {
111     lock.unlock();
112     vmDeallocatePhysicalPages(page->begin()->begin(), vmPageSize);
113     lock.lock();
114     
115     m_size += vmPageSize;
116     m_mediumPages.push(page);
117 }
118
119 inline void VMHeap::deallocateLargeRange(std::unique_lock<StaticMutex>& lock, Range range)
120 {
121     BeginTag* beginTag = LargeChunk::beginTag(range.begin());
122     EndTag* endTag = LargeChunk::endTag(range.begin(), range.size());
123     
124     // Temporarily mark this range as allocated to prevent clients from merging
125     // with it and then reallocating it while we're messing with its physical pages.
126     beginTag->setFree(false);
127     endTag->setFree(false);
128
129     lock.unlock();
130     vmDeallocatePhysicalPagesSloppy(range.begin(), range.size());
131     lock.lock();
132
133     beginTag->setFree(true);
134     endTag->setFree(true);
135
136     beginTag->setHasPhysicalPages(false);
137     endTag->setHasPhysicalPages(false);
138
139     m_size += range.size();
140     m_largeRanges.insert(range);
141 }
142
143 } // namespace bmalloc
144
145 #endif // VMHeap_h