b0ca4b998e42e42c117464f148119ed4893630dd
[WebKit-https.git] / Source / bmalloc / bmalloc / VMHeap.h
1 /*
2  * Copyright (C) 2014, 2015 Apple Inc. All rights reserved.
3  *
4  * Redistribution and use in source and binary forms, with or without
5  * modification, are permitted provided that the following conditions
6  * are met:
7  * 1. Redistributions of source code must retain the above copyright
8  *    notice, this list of conditions and the following disclaimer.
9  * 2. Redistributions in binary form must reproduce the above copyright
10  *    notice, this list of conditions and the following disclaimer in the
11  *    documentation and/or other materials provided with the distribution.
12  *
13  * THIS SOFTWARE IS PROVIDED BY APPLE INC. ``AS IS'' AND ANY
14  * EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
15  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
16  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL APPLE INC. OR
17  * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
18  * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
19  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
20  * PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY
21  * OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
22  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
23  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE. 
24  */
25
26 #ifndef VMHeap_h
27 #define VMHeap_h
28
29 #include "AsyncTask.h"
30 #include "FixedVector.h"
31 #include "LargeChunk.h"
32 #include "MediumChunk.h"
33 #include "Range.h"
34 #include "SegregatedFreeList.h"
35 #include "SmallChunk.h"
36 #include "Vector.h"
37 #if BPLATFORM(DARWIN)
38 #include "Zone.h"
39 #endif
40
41 namespace bmalloc {
42
43 class BeginTag;
44 class EndTag;
45 class Heap;
46 class SuperChunk;
47
48 class VMHeap {
49 public:
50     VMHeap();
51
52     SmallPage* allocateSmallPage();
53     MediumPage* allocateMediumPage();
54     Range allocateLargeRange(size_t);
55     Range allocateLargeRange(size_t alignment, size_t, size_t unalignedSize);
56
57     void deallocateSmallPage(std::unique_lock<StaticMutex>&, SmallPage*);
58     void deallocateMediumPage(std::unique_lock<StaticMutex>&, MediumPage*);
59     void deallocateLargeRange(std::unique_lock<StaticMutex>&, Range);
60
61 private:
62     void grow();
63
64     Vector<SmallPage*> m_smallPages;
65     Vector<MediumPage*> m_mediumPages;
66     SegregatedFreeList m_largeRanges;
67 #if BPLATFORM(DARWIN)
68     Zone m_zone;
69 #endif
70 };
71
72 inline SmallPage* VMHeap::allocateSmallPage()
73 {
74     if (!m_smallPages.size())
75         grow();
76
77     return m_smallPages.pop();
78 }
79
80 inline MediumPage* VMHeap::allocateMediumPage()
81 {
82     if (!m_mediumPages.size())
83         grow();
84
85     return m_mediumPages.pop();
86 }
87
88 inline Range VMHeap::allocateLargeRange(size_t size)
89 {
90     Range range = m_largeRanges.take(size);
91     if (!range) {
92         grow();
93         range = m_largeRanges.take(size);
94         BASSERT(range);
95     }
96     return range;
97 }
98
99 inline Range VMHeap::allocateLargeRange(size_t alignment, size_t size, size_t unalignedSize)
100 {
101     Range range = m_largeRanges.take(alignment, size, unalignedSize);
102     if (!range) {
103         grow();
104         range = m_largeRanges.take(alignment, size, unalignedSize);
105         BASSERT(range);
106     }
107     return range;
108 }
109
110 inline void VMHeap::deallocateSmallPage(std::unique_lock<StaticMutex>& lock, SmallPage* page)
111 {
112     lock.unlock();
113     vmDeallocatePhysicalPages(page->begin()->begin(), vmPageSize);
114     lock.lock();
115     
116     m_smallPages.push(page);
117 }
118
119 inline void VMHeap::deallocateMediumPage(std::unique_lock<StaticMutex>& lock, MediumPage* page)
120 {
121     lock.unlock();
122     vmDeallocatePhysicalPages(page->begin()->begin(), vmPageSize);
123     lock.lock();
124     
125     m_mediumPages.push(page);
126 }
127
128 inline void VMHeap::deallocateLargeRange(std::unique_lock<StaticMutex>& lock, Range range)
129 {
130     BeginTag* beginTag = LargeChunk::beginTag(range.begin());
131     EndTag* endTag = LargeChunk::endTag(range.begin(), range.size());
132     
133     // Temporarily mark this range as allocated to prevent clients from merging
134     // with it and then reallocating it while we're messing with its physical pages.
135     beginTag->setFree(false);
136     endTag->setFree(false);
137
138     lock.unlock();
139     vmDeallocatePhysicalPagesSloppy(range.begin(), range.size());
140     lock.lock();
141
142     beginTag->setFree(true);
143     endTag->setFree(true);
144
145     beginTag->setHasPhysicalPages(false);
146     endTag->setHasPhysicalPages(false);
147
148     m_largeRanges.insert(range);
149 }
150
151 } // namespace bmalloc
152
153 #endif // VMHeap_h