1d90e1cfb4e81958c1502b22ecb224d7eaa77e84
[WebKit-https.git] / Source / bmalloc / bmalloc / VMHeap.h
1 /*
2  * Copyright (C) 2014 Apple Inc. All rights reserved.
3  *
4  * Redistribution and use in source and binary forms, with or without
5  * modification, are permitted provided that the following conditions
6  * are met:
7  * 1. Redistributions of source code must retain the above copyright
8  *    notice, this list of conditions and the following disclaimer.
9  * 2. Redistributions in binary form must reproduce the above copyright
10  *    notice, this list of conditions and the following disclaimer in the
11  *    documentation and/or other materials provided with the distribution.
12  *
13  * THIS SOFTWARE IS PROVIDED BY APPLE INC. ``AS IS'' AND ANY
14  * EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
15  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
16  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL APPLE INC. OR
17  * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
18  * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
19  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
20  * PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY
21  * OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
22  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
23  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE. 
24  */
25
26 #ifndef VMHeap_h
27 #define VMHeap_h
28
29 #include "AsyncTask.h"
30 #include "FixedVector.h"
31 #include "LargeChunk.h"
32 #include "MediumChunk.h"
33 #include "Range.h"
34 #include "SegregatedFreeList.h"
35 #include "SmallChunk.h"
36 #include "Vector.h"
37
38 namespace bmalloc {
39
40 class BeginTag;
41 class EndTag;
42 class Heap;
43
44 class VMHeap {
45 public:
46     VMHeap();
47
48     SmallPage* allocateSmallPage();
49     MediumPage* allocateMediumPage();
50     Range allocateLargeRange(size_t);
51     Range allocateLargeRange(size_t alignment, size_t, size_t unalignedSize);
52
53     void deallocateSmallPage(std::unique_lock<StaticMutex>&, SmallPage*);
54     void deallocateMediumPage(std::unique_lock<StaticMutex>&, MediumPage*);
55     void deallocateLargeRange(std::unique_lock<StaticMutex>&, Range);
56
57 private:
58     void allocateSuperChunk();
59
60     Vector<SmallPage*> m_smallPages;
61     Vector<MediumPage*> m_mediumPages;
62     SegregatedFreeList m_largeRanges;
63 };
64
65 inline SmallPage* VMHeap::allocateSmallPage()
66 {
67     if (!m_smallPages.size())
68         allocateSuperChunk();
69
70     return m_smallPages.pop();
71 }
72
73 inline MediumPage* VMHeap::allocateMediumPage()
74 {
75     if (!m_mediumPages.size())
76         allocateSuperChunk();
77
78     return m_mediumPages.pop();
79 }
80
81 inline Range VMHeap::allocateLargeRange(size_t size)
82 {
83     Range range = m_largeRanges.take(size);
84     if (!range) {
85         allocateSuperChunk();
86         range = m_largeRanges.take(size);
87         BASSERT(range);
88     }
89     return range;
90 }
91
92 inline Range VMHeap::allocateLargeRange(size_t alignment, size_t size, size_t unalignedSize)
93 {
94     Range range = m_largeRanges.take(alignment, size, unalignedSize);
95     if (!range) {
96         allocateSuperChunk();
97         range = m_largeRanges.take(alignment, size, unalignedSize);
98         BASSERT(range);
99     }
100     return range;
101 }
102
103 inline void VMHeap::deallocateSmallPage(std::unique_lock<StaticMutex>& lock, SmallPage* page)
104 {
105     lock.unlock();
106     vmDeallocatePhysicalPages(page->begin()->begin(), vmPageSize);
107     lock.lock();
108     
109     m_smallPages.push(page);
110 }
111
112 inline void VMHeap::deallocateMediumPage(std::unique_lock<StaticMutex>& lock, MediumPage* page)
113 {
114     lock.unlock();
115     vmDeallocatePhysicalPages(page->begin()->begin(), vmPageSize);
116     lock.lock();
117     
118     m_mediumPages.push(page);
119 }
120
121 inline void VMHeap::deallocateLargeRange(std::unique_lock<StaticMutex>& lock, Range range)
122 {
123     BeginTag* beginTag = LargeChunk::beginTag(range.begin());
124     EndTag* endTag = LargeChunk::endTag(range.begin(), range.size());
125     
126     // Temporarily mark this range as allocated to prevent clients from merging
127     // with it and then reallocating it while we're messing with its physical pages.
128     beginTag->setFree(false);
129     endTag->setFree(false);
130
131     lock.unlock();
132     vmDeallocatePhysicalPagesSloppy(range.begin(), range.size());
133     lock.lock();
134
135     beginTag->setFree(true);
136     endTag->setFree(true);
137
138     beginTag->setHasPhysicalPages(false);
139     endTag->setHasPhysicalPages(false);
140
141     m_largeRanges.insert(range);
142 }
143
144 } // namespace bmalloc
145
146 #endif // VMHeap_h