GCActivityCallback and IncrementalSweeper should share code
[WebKit-https.git] / Source / JavaScriptCore / heap / Heap.h
1 /*
2  *  Copyright (C) 1999-2000 Harri Porten (porten@kde.org)
3  *  Copyright (C) 2001 Peter Kelly (pmk@post.com)
4  *  Copyright (C) 2003, 2004, 2005, 2006, 2007, 2008, 2009 Apple Inc. All rights reserved.
5  *
6  *  This library is free software; you can redistribute it and/or
7  *  modify it under the terms of the GNU Lesser General Public
8  *  License as published by the Free Software Foundation; either
9  *  version 2 of the License, or (at your option) any later version.
10  *
11  *  This library is distributed in the hope that it will be useful,
12  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
13  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  *  Lesser General Public License for more details.
15  *
16  *  You should have received a copy of the GNU Lesser General Public
17  *  License along with this library; if not, write to the Free Software
18  *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
19  *
20  */
21
22 #ifndef Heap_h
23 #define Heap_h
24
25 #include "BlockAllocator.h"
26 #include "DFGCodeBlocks.h"
27 #include "HandleSet.h"
28 #include "HandleStack.h"
29 #include "MarkedAllocator.h"
30 #include "MarkedBlock.h"
31 #include "MarkedBlockSet.h"
32 #include "MarkedSpace.h"
33 #include "SlotVisitor.h"
34 #include "WeakHandleOwner.h"
35 #include "WriteBarrierSupport.h"
36 #include <wtf/HashCountedSet.h>
37 #include <wtf/HashSet.h>
38
39 #define COLLECT_ON_EVERY_ALLOCATION 0
40
41 namespace JSC {
42
43     class CopiedSpace;
44     class CodeBlock;
45     class ExecutableBase;
46     class GCActivityCallback;
47     class GlobalCodeBlock;
48     class Heap;
49     class HeapRootVisitor;
50     class IncrementalSweeper;
51     class JSCell;
52     class JSGlobalData;
53     class JSValue;
54     class LiveObjectIterator;
55     class LLIntOffsetsExtractor;
56     class MarkedArgumentBuffer;
57     class RegisterFile;
58     class UString;
59     class WeakGCHandlePool;
60     class SlotVisitor;
61
62     typedef std::pair<JSValue, UString> ValueStringPair;
63     typedef HashCountedSet<JSCell*> ProtectCountSet;
64     typedef HashCountedSet<const char*> TypeCountSet;
65
66     enum OperationInProgress { NoOperation, Allocation, Collection };
67
68     enum HeapType { SmallHeap, LargeHeap };
69
70     class Heap {
71         WTF_MAKE_NONCOPYABLE(Heap);
72     public:
73         friend class JIT;
74         friend class MarkStackThreadSharedData;
75         static Heap* heap(const JSValue); // 0 for immediate values
76         static Heap* heap(const JSCell*);
77
78         // This constant determines how many blocks we iterate between checks of our 
79         // deadline when calling Heap::isPagedOut. Decreasing it will cause us to detect 
80         // overstepping our deadline more quickly, while increasing it will cause 
81         // our scan to run faster. 
82         static const unsigned s_timeCheckResolution = 16;
83
84         static bool isMarked(const void*);
85         static bool testAndSetMarked(const void*);
86         static void setMarked(const void*);
87
88         static bool isWriteBarrierEnabled();
89         static void writeBarrier(const JSCell*, JSValue);
90         static void writeBarrier(const JSCell*, JSCell*);
91         static uint8_t* addressOfCardFor(JSCell*);
92
93         Heap(JSGlobalData*, HeapType);
94         ~Heap();
95         JS_EXPORT_PRIVATE void lastChanceToFinalize();
96
97         JSGlobalData* globalData() const { return m_globalData; }
98         MarkedSpace& objectSpace() { return m_objectSpace; }
99         MachineThreads& machineThreads() { return m_machineThreads; }
100
101         JS_EXPORT_PRIVATE GCActivityCallback* activityCallback();
102         JS_EXPORT_PRIVATE void setActivityCallback(PassOwnPtr<GCActivityCallback>);
103         JS_EXPORT_PRIVATE void setGarbageCollectionTimerEnabled(bool);
104
105         IncrementalSweeper* sweeper();
106
107         // true if an allocation or collection is in progress
108         inline bool isBusy();
109         
110         MarkedAllocator& firstAllocatorWithoutDestructors() { return m_objectSpace.firstAllocator(); }
111         MarkedAllocator& allocatorForObjectWithoutDestructor(size_t bytes) { return m_objectSpace.allocatorFor(bytes); }
112         MarkedAllocator& allocatorForObjectWithDestructor(size_t bytes) { return m_objectSpace.destructorAllocatorFor(bytes); }
113         CopiedAllocator& storageAllocator() { return m_storageSpace.allocator(); }
114         CheckedBoolean tryAllocateStorage(size_t, void**);
115         CheckedBoolean tryReallocateStorage(void**, size_t, size_t);
116
117         typedef void (*Finalizer)(JSCell*);
118         JS_EXPORT_PRIVATE void addFinalizer(JSCell*, Finalizer);
119         void addCompiledCode(ExecutableBase*);
120
121         void notifyIsSafeToCollect() { m_isSafeToCollect = true; }
122         bool isSafeToCollect() const { return m_isSafeToCollect; }
123
124         JS_EXPORT_PRIVATE void collectAllGarbage();
125         enum SweepToggle { DoNotSweep, DoSweep };
126         bool shouldCollect();
127         void collect(SweepToggle);
128
129         void reportExtraMemoryCost(size_t cost);
130         JS_EXPORT_PRIVATE void reportAbandonedObjectGraph();
131
132         JS_EXPORT_PRIVATE void protect(JSValue);
133         JS_EXPORT_PRIVATE bool unprotect(JSValue); // True when the protect count drops to 0.
134         
135         void jettisonDFGCodeBlock(PassOwnPtr<CodeBlock>);
136
137         JS_EXPORT_PRIVATE size_t size();
138         JS_EXPORT_PRIVATE size_t capacity();
139         JS_EXPORT_PRIVATE size_t objectCount();
140         JS_EXPORT_PRIVATE size_t globalObjectCount();
141         JS_EXPORT_PRIVATE size_t protectedObjectCount();
142         JS_EXPORT_PRIVATE size_t protectedGlobalObjectCount();
143         JS_EXPORT_PRIVATE PassOwnPtr<TypeCountSet> protectedObjectTypeCounts();
144         JS_EXPORT_PRIVATE PassOwnPtr<TypeCountSet> objectTypeCounts();
145
146         void pushTempSortVector(Vector<ValueStringPair>*);
147         void popTempSortVector(Vector<ValueStringPair>*);
148     
149         HashSet<MarkedArgumentBuffer*>& markListSet() { if (!m_markListSet) m_markListSet = adoptPtr(new HashSet<MarkedArgumentBuffer*>); return *m_markListSet; }
150         
151         template<typename Functor> typename Functor::ReturnType forEachProtectedCell(Functor&);
152         template<typename Functor> typename Functor::ReturnType forEachProtectedCell();
153
154         HandleSet* handleSet() { return &m_handleSet; }
155         HandleStack* handleStack() { return &m_handleStack; }
156
157         void getConservativeRegisterRoots(HashSet<JSCell*>& roots);
158
159         double lastGCLength() { return m_lastGCLength; }
160         void increaseLastGCLength(double amount) { m_lastGCLength += amount; }
161
162         JS_EXPORT_PRIVATE void deleteAllCompiledCode();
163
164         void didAllocate(size_t);
165         void didAbandon(size_t);
166
167         bool isPagedOut(double deadline);
168
169     private:
170         friend class CodeBlock;
171         friend class LLIntOffsetsExtractor;
172         friend class MarkedSpace;
173         friend class MarkedAllocator;
174         friend class MarkedBlock;
175         friend class CopiedSpace;
176         friend class SlotVisitor;
177         template<typename T> friend void* allocateCell(Heap&);
178
179         void* allocateWithDestructor(size_t);
180         void* allocateWithoutDestructor(size_t);
181
182         static const size_t minExtraCost = 256;
183         static const size_t maxExtraCost = 1024 * 1024;
184         
185         class FinalizerOwner : public WeakHandleOwner {
186             virtual void finalize(Handle<Unknown>, void* context);
187         };
188
189         JS_EXPORT_PRIVATE bool isValidAllocation(size_t);
190         JS_EXPORT_PRIVATE void reportExtraMemoryCostSlowCase(size_t);
191
192         void markRoots(bool fullGC);
193         void markProtectedObjects(HeapRootVisitor&);
194         void markTempSortVectors(HeapRootVisitor&);
195         void harvestWeakReferences();
196         void finalizeUnconditionalFinalizers();
197         void deleteUnmarkedCompiledCode();
198         
199         RegisterFile& registerFile();
200         BlockAllocator& blockAllocator();
201
202         const HeapType m_heapType;
203         const size_t m_ramSize;
204         const size_t m_minBytesPerCycle;
205         size_t m_sizeAfterLastCollect;
206
207         size_t m_bytesAllocatedLimit;
208         size_t m_bytesAllocated;
209         size_t m_bytesAbandoned;
210         
211         OperationInProgress m_operationInProgress;
212         BlockAllocator m_blockAllocator;
213         MarkedSpace m_objectSpace;
214         CopiedSpace m_storageSpace;
215
216 #if ENABLE(SIMPLE_HEAP_PROFILING)
217         VTableSpectrum m_destroyedTypeCounts;
218 #endif
219
220         ProtectCountSet m_protectedValues;
221         Vector<Vector<ValueStringPair>* > m_tempSortingVectors;
222         OwnPtr<HashSet<MarkedArgumentBuffer*> > m_markListSet;
223
224         MachineThreads m_machineThreads;
225         
226         MarkStackThreadSharedData m_sharedData;
227         SlotVisitor m_slotVisitor;
228
229         HandleSet m_handleSet;
230         HandleStack m_handleStack;
231         DFGCodeBlocks m_dfgCodeBlocks;
232         FinalizerOwner m_finalizerOwner;
233         
234         bool m_isSafeToCollect;
235
236         JSGlobalData* m_globalData;
237         double m_lastGCLength;
238         double m_lastCodeDiscardTime;
239
240         OwnPtr<GCActivityCallback> m_activityCallback;
241         OwnPtr<IncrementalSweeper> m_sweeper;
242         
243         DoublyLinkedList<ExecutableBase> m_compiledCode;
244     };
245
246     inline bool Heap::shouldCollect()
247     {
248 #if ENABLE(GGC)
249         return m_objectSpace.nurseryWaterMark() >= m_minBytesPerCycle && m_isSafeToCollect && m_operationInProgress == NoOperation;
250 #else
251         return m_bytesAllocated > m_bytesAllocatedLimit && m_isSafeToCollect && m_operationInProgress == NoOperation;
252 #endif
253     }
254
255     bool Heap::isBusy()
256     {
257         return m_operationInProgress != NoOperation;
258     }
259
260     inline Heap* Heap::heap(const JSCell* cell)
261     {
262         return MarkedBlock::blockFor(cell)->heap();
263     }
264
265     inline Heap* Heap::heap(const JSValue v)
266     {
267         if (!v.isCell())
268             return 0;
269         return heap(v.asCell());
270     }
271
272     inline bool Heap::isMarked(const void* cell)
273     {
274         return MarkedBlock::blockFor(cell)->isMarked(cell);
275     }
276
277     inline bool Heap::testAndSetMarked(const void* cell)
278     {
279         return MarkedBlock::blockFor(cell)->testAndSetMarked(cell);
280     }
281
282     inline void Heap::setMarked(const void* cell)
283     {
284         MarkedBlock::blockFor(cell)->setMarked(cell);
285     }
286
287     inline bool Heap::isWriteBarrierEnabled()
288     {
289 #if ENABLE(GGC) || ENABLE(WRITE_BARRIER_PROFILING)
290         return true;
291 #else
292         return false;
293 #endif
294     }
295
296 #if ENABLE(GGC)
297     inline uint8_t* Heap::addressOfCardFor(JSCell* cell)
298     {
299         return MarkedBlock::blockFor(cell)->addressOfCardFor(cell);
300     }
301
302     inline void Heap::writeBarrier(const JSCell* owner, JSCell*)
303     {
304         WriteBarrierCounters::countWriteBarrier();
305         MarkedBlock* block = MarkedBlock::blockFor(owner);
306         if (block->isMarked(owner))
307             block->setDirtyObject(owner);
308     }
309
310     inline void Heap::writeBarrier(const JSCell* owner, JSValue value)
311     {
312         if (!value)
313             return;
314         if (!value.isCell())
315             return;
316         writeBarrier(owner, value.asCell());
317     }
318 #else
319
320     inline void Heap::writeBarrier(const JSCell*, JSCell*)
321     {
322         WriteBarrierCounters::countWriteBarrier();
323     }
324
325     inline void Heap::writeBarrier(const JSCell*, JSValue)
326     {
327         WriteBarrierCounters::countWriteBarrier();
328     }
329 #endif
330
331     inline void Heap::reportExtraMemoryCost(size_t cost)
332     {
333         if (cost > minExtraCost) 
334             reportExtraMemoryCostSlowCase(cost);
335     }
336
337     template<typename Functor> inline typename Functor::ReturnType Heap::forEachProtectedCell(Functor& functor)
338     {
339         ProtectCountSet::iterator end = m_protectedValues.end();
340         for (ProtectCountSet::iterator it = m_protectedValues.begin(); it != end; ++it)
341             functor(it->first);
342         m_handleSet.forEachStrongHandle(functor, m_protectedValues);
343
344         return functor.returnValue();
345     }
346
347     template<typename Functor> inline typename Functor::ReturnType Heap::forEachProtectedCell()
348     {
349         Functor functor;
350         return forEachProtectedCell(functor);
351     }
352
353     inline void* Heap::allocateWithDestructor(size_t bytes)
354     {
355         ASSERT(isValidAllocation(bytes));
356         return m_objectSpace.allocateWithDestructor(bytes);
357     }
358     
359     inline void* Heap::allocateWithoutDestructor(size_t bytes)
360     {
361         ASSERT(isValidAllocation(bytes));
362         return m_objectSpace.allocateWithoutDestructor(bytes);
363     }
364     
365     inline CheckedBoolean Heap::tryAllocateStorage(size_t bytes, void** outPtr)
366     {
367         return m_storageSpace.tryAllocate(bytes, outPtr);
368     }
369     
370     inline CheckedBoolean Heap::tryReallocateStorage(void** ptr, size_t oldSize, size_t newSize)
371     {
372         return m_storageSpace.tryReallocate(ptr, oldSize, newSize);
373     }
374
375     inline BlockAllocator& Heap::blockAllocator()
376     {
377         return m_blockAllocator;
378     }
379
380 } // namespace JSC
381
382 #endif // Heap_h