Rename first/second to key/value in HashMap iterators
[WebKit-https.git] / Source / JavaScriptCore / heap / Heap.h
1 /*
2  *  Copyright (C) 1999-2000 Harri Porten (porten@kde.org)
3  *  Copyright (C) 2001 Peter Kelly (pmk@post.com)
4  *  Copyright (C) 2003, 2004, 2005, 2006, 2007, 2008, 2009 Apple Inc. All rights reserved.
5  *
6  *  This library is free software; you can redistribute it and/or
7  *  modify it under the terms of the GNU Lesser General Public
8  *  License as published by the Free Software Foundation; either
9  *  version 2 of the License, or (at your option) any later version.
10  *
11  *  This library is distributed in the hope that it will be useful,
12  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
13  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  *  Lesser General Public License for more details.
15  *
16  *  You should have received a copy of the GNU Lesser General Public
17  *  License along with this library; if not, write to the Free Software
18  *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
19  *
20  */
21
22 #ifndef Heap_h
23 #define Heap_h
24
25 #include "BlockAllocator.h"
26 #include "DFGCodeBlocks.h"
27 #include "GCThreadSharedData.h"
28 #include "HandleSet.h"
29 #include "HandleStack.h"
30 #include "JITStubRoutineSet.h"
31 #include "MarkedAllocator.h"
32 #include "MarkedBlock.h"
33 #include "MarkedBlockSet.h"
34 #include "MarkedSpace.h"
35 #include "Options.h"
36 #include "SlotVisitor.h"
37 #include "WeakHandleOwner.h"
38 #include "WriteBarrierSupport.h"
39 #include <wtf/HashCountedSet.h>
40 #include <wtf/HashSet.h>
41
42 #define COLLECT_ON_EVERY_ALLOCATION 0
43
44 namespace JSC {
45
46     class CopiedSpace;
47     class CodeBlock;
48     class ExecutableBase;
49     class GCActivityCallback;
50     class GCAwareJITStubRoutine;
51     class GlobalCodeBlock;
52     class Heap;
53     class HeapRootVisitor;
54     class IncrementalSweeper;
55     class JITStubRoutine;
56     class JSCell;
57     class JSGlobalData;
58     class JSValue;
59     class LiveObjectIterator;
60     class LLIntOffsetsExtractor;
61     class MarkedArgumentBuffer;
62     class RegisterFile;
63     class WeakGCHandlePool;
64     class SlotVisitor;
65
66     typedef std::pair<JSValue, WTF::String> ValueStringPair;
67     typedef HashCountedSet<JSCell*> ProtectCountSet;
68     typedef HashCountedSet<const char*> TypeCountSet;
69
70     enum OperationInProgress { NoOperation, Allocation, Collection };
71
72     enum HeapType { SmallHeap, LargeHeap };
73
74     class Heap {
75         WTF_MAKE_NONCOPYABLE(Heap);
76     public:
77         friend class JIT;
78         friend class GCThreadSharedData;
79         static Heap* heap(const JSValue); // 0 for immediate values
80         static Heap* heap(const JSCell*);
81
82         // This constant determines how many blocks we iterate between checks of our 
83         // deadline when calling Heap::isPagedOut. Decreasing it will cause us to detect 
84         // overstepping our deadline more quickly, while increasing it will cause 
85         // our scan to run faster. 
86         static const unsigned s_timeCheckResolution = 16;
87
88         static bool isMarked(const void*);
89         static bool testAndSetMarked(const void*);
90         static void setMarked(const void*);
91
92         static bool isWriteBarrierEnabled();
93         static void writeBarrier(const JSCell*, JSValue);
94         static void writeBarrier(const JSCell*, JSCell*);
95         static uint8_t* addressOfCardFor(JSCell*);
96
97         Heap(JSGlobalData*, HeapType);
98         ~Heap();
99         JS_EXPORT_PRIVATE void lastChanceToFinalize();
100
101         JSGlobalData* globalData() const { return m_globalData; }
102         MarkedSpace& objectSpace() { return m_objectSpace; }
103         MachineThreads& machineThreads() { return m_machineThreads; }
104
105         JS_EXPORT_PRIVATE GCActivityCallback* activityCallback();
106         JS_EXPORT_PRIVATE void setActivityCallback(GCActivityCallback*);
107         JS_EXPORT_PRIVATE void setGarbageCollectionTimerEnabled(bool);
108
109         JS_EXPORT_PRIVATE IncrementalSweeper* sweeper();
110
111         // true if an allocation or collection is in progress
112         inline bool isBusy();
113         
114         MarkedAllocator& firstAllocatorWithoutDestructors() { return m_objectSpace.firstAllocator(); }
115         MarkedAllocator& allocatorForObjectWithoutDestructor(size_t bytes) { return m_objectSpace.allocatorFor(bytes); }
116         MarkedAllocator& allocatorForObjectWithNormalDestructor(size_t bytes) { return m_objectSpace.normalDestructorAllocatorFor(bytes); }
117         MarkedAllocator& allocatorForObjectWithImmortalStructureDestructor(size_t bytes) { return m_objectSpace.immortalStructureDestructorAllocatorFor(bytes); }
118         CopiedAllocator& storageAllocator() { return m_storageSpace.allocator(); }
119         CheckedBoolean tryAllocateStorage(size_t, void**);
120         CheckedBoolean tryReallocateStorage(void**, size_t, size_t);
121
122         typedef void (*Finalizer)(JSCell*);
123         JS_EXPORT_PRIVATE void addFinalizer(JSCell*, Finalizer);
124         void addCompiledCode(ExecutableBase*);
125
126         void notifyIsSafeToCollect() { m_isSafeToCollect = true; }
127         bool isSafeToCollect() const { return m_isSafeToCollect; }
128
129         JS_EXPORT_PRIVATE void collectAllGarbage();
130         enum SweepToggle { DoNotSweep, DoSweep };
131         bool shouldCollect();
132         void collect(SweepToggle);
133
134         void reportExtraMemoryCost(size_t cost);
135         JS_EXPORT_PRIVATE void reportAbandonedObjectGraph();
136
137         JS_EXPORT_PRIVATE void protect(JSValue);
138         JS_EXPORT_PRIVATE bool unprotect(JSValue); // True when the protect count drops to 0.
139         
140         void jettisonDFGCodeBlock(PassOwnPtr<CodeBlock>);
141
142         JS_EXPORT_PRIVATE size_t size();
143         JS_EXPORT_PRIVATE size_t capacity();
144         JS_EXPORT_PRIVATE size_t objectCount();
145         JS_EXPORT_PRIVATE size_t globalObjectCount();
146         JS_EXPORT_PRIVATE size_t protectedObjectCount();
147         JS_EXPORT_PRIVATE size_t protectedGlobalObjectCount();
148         JS_EXPORT_PRIVATE PassOwnPtr<TypeCountSet> protectedObjectTypeCounts();
149         JS_EXPORT_PRIVATE PassOwnPtr<TypeCountSet> objectTypeCounts();
150         void showStatistics();
151
152         void pushTempSortVector(Vector<ValueStringPair>*);
153         void popTempSortVector(Vector<ValueStringPair>*);
154     
155         HashSet<MarkedArgumentBuffer*>& markListSet() { if (!m_markListSet) m_markListSet = adoptPtr(new HashSet<MarkedArgumentBuffer*>); return *m_markListSet; }
156         
157         template<typename Functor> typename Functor::ReturnType forEachProtectedCell(Functor&);
158         template<typename Functor> typename Functor::ReturnType forEachProtectedCell();
159
160         HandleSet* handleSet() { return &m_handleSet; }
161         HandleStack* handleStack() { return &m_handleStack; }
162
163         void getConservativeRegisterRoots(HashSet<JSCell*>& roots);
164
165         double lastGCLength() { return m_lastGCLength; }
166         void increaseLastGCLength(double amount) { m_lastGCLength += amount; }
167
168         JS_EXPORT_PRIVATE void deleteAllCompiledCode();
169
170         void didAllocate(size_t);
171         void didAbandon(size_t);
172
173         bool isPagedOut(double deadline);
174         void didStartVMShutdown();
175
176     private:
177         friend class CodeBlock;
178         friend class GCAwareJITStubRoutine;
179         friend class JITStubRoutine;
180         friend class LLIntOffsetsExtractor;
181         friend class MarkedSpace;
182         friend class MarkedAllocator;
183         friend class MarkedBlock;
184         friend class CopiedSpace;
185         friend class SlotVisitor;
186         friend class HeapStatistics;
187         template<typename T> friend void* allocateCell(Heap&);
188         template<typename T> friend void* allocateCell(Heap&, size_t);
189
190         void* allocateWithImmortalStructureDestructor(size_t); // For use with special objects whose Structures never die.
191         void* allocateWithNormalDestructor(size_t); // For use with objects that inherit directly or indirectly from JSDestructibleObject.
192         void* allocateWithoutDestructor(size_t); // For use with objects without destructors.
193
194         static const size_t minExtraCost = 256;
195         static const size_t maxExtraCost = 1024 * 1024;
196         
197         class FinalizerOwner : public WeakHandleOwner {
198             virtual void finalize(Handle<Unknown>, void* context);
199         };
200
201         JS_EXPORT_PRIVATE bool isValidAllocation(size_t);
202         JS_EXPORT_PRIVATE void reportExtraMemoryCostSlowCase(size_t);
203
204         void markRoots(bool fullGC);
205         void markProtectedObjects(HeapRootVisitor&);
206         void markTempSortVectors(HeapRootVisitor&);
207         void harvestWeakReferences();
208         void finalizeUnconditionalFinalizers();
209         void deleteUnmarkedCompiledCode();
210         void zombifyDeadObjects();
211         void markDeadObjects();
212
213         RegisterFile& registerFile();
214         BlockAllocator& blockAllocator();
215
216         const HeapType m_heapType;
217         const size_t m_ramSize;
218         const size_t m_minBytesPerCycle;
219         size_t m_sizeAfterLastCollect;
220
221         size_t m_bytesAllocatedLimit;
222         size_t m_bytesAllocated;
223         size_t m_bytesAbandoned;
224         
225         OperationInProgress m_operationInProgress;
226         BlockAllocator m_blockAllocator;
227         MarkedSpace m_objectSpace;
228         CopiedSpace m_storageSpace;
229
230 #if ENABLE(SIMPLE_HEAP_PROFILING)
231         VTableSpectrum m_destroyedTypeCounts;
232 #endif
233
234         ProtectCountSet m_protectedValues;
235         Vector<Vector<ValueStringPair>* > m_tempSortingVectors;
236         OwnPtr<HashSet<MarkedArgumentBuffer*> > m_markListSet;
237
238         MachineThreads m_machineThreads;
239         
240         GCThreadSharedData m_sharedData;
241         SlotVisitor m_slotVisitor;
242
243         HandleSet m_handleSet;
244         HandleStack m_handleStack;
245         DFGCodeBlocks m_dfgCodeBlocks;
246         JITStubRoutineSet m_jitStubRoutines;
247         FinalizerOwner m_finalizerOwner;
248         
249         bool m_isSafeToCollect;
250
251         JSGlobalData* m_globalData;
252         double m_lastGCLength;
253         double m_lastCodeDiscardTime;
254
255         DoublyLinkedList<ExecutableBase> m_compiledCode;
256         
257         GCActivityCallback* m_activityCallback;
258         IncrementalSweeper* m_sweeper;
259     };
260
261     inline bool Heap::shouldCollect()
262     {
263         if (Options::gcMaxHeapSize())
264             return m_bytesAllocated > Options::gcMaxHeapSize() && m_isSafeToCollect && m_operationInProgress == NoOperation;
265 #if ENABLE(GGC)
266         return m_objectSpace.nurseryWaterMark() >= m_minBytesPerCycle && m_isSafeToCollect && m_operationInProgress == NoOperation;
267 #else
268         return m_bytesAllocated > m_bytesAllocatedLimit && m_isSafeToCollect && m_operationInProgress == NoOperation;
269 #endif
270     }
271
272     bool Heap::isBusy()
273     {
274         return m_operationInProgress != NoOperation;
275     }
276
277     inline Heap* Heap::heap(const JSCell* cell)
278     {
279         return MarkedBlock::blockFor(cell)->heap();
280     }
281
282     inline Heap* Heap::heap(const JSValue v)
283     {
284         if (!v.isCell())
285             return 0;
286         return heap(v.asCell());
287     }
288
289     inline bool Heap::isMarked(const void* cell)
290     {
291         return MarkedBlock::blockFor(cell)->isMarked(cell);
292     }
293
294     inline bool Heap::testAndSetMarked(const void* cell)
295     {
296         return MarkedBlock::blockFor(cell)->testAndSetMarked(cell);
297     }
298
299     inline void Heap::setMarked(const void* cell)
300     {
301         MarkedBlock::blockFor(cell)->setMarked(cell);
302     }
303
304     inline bool Heap::isWriteBarrierEnabled()
305     {
306 #if ENABLE(GGC) || ENABLE(WRITE_BARRIER_PROFILING)
307         return true;
308 #else
309         return false;
310 #endif
311     }
312
313 #if ENABLE(GGC)
314     inline uint8_t* Heap::addressOfCardFor(JSCell* cell)
315     {
316         return MarkedBlock::blockFor(cell)->addressOfCardFor(cell);
317     }
318
319     inline void Heap::writeBarrier(const JSCell* owner, JSCell*)
320     {
321         WriteBarrierCounters::countWriteBarrier();
322         MarkedBlock* block = MarkedBlock::blockFor(owner);
323         if (block->isMarked(owner))
324             block->setDirtyObject(owner);
325     }
326
327     inline void Heap::writeBarrier(const JSCell* owner, JSValue value)
328     {
329         if (!value)
330             return;
331         if (!value.isCell())
332             return;
333         writeBarrier(owner, value.asCell());
334     }
335 #else
336
337     inline void Heap::writeBarrier(const JSCell*, JSCell*)
338     {
339         WriteBarrierCounters::countWriteBarrier();
340     }
341
342     inline void Heap::writeBarrier(const JSCell*, JSValue)
343     {
344         WriteBarrierCounters::countWriteBarrier();
345     }
346 #endif
347
348     inline void Heap::reportExtraMemoryCost(size_t cost)
349     {
350         if (cost > minExtraCost) 
351             reportExtraMemoryCostSlowCase(cost);
352     }
353
354     template<typename Functor> inline typename Functor::ReturnType Heap::forEachProtectedCell(Functor& functor)
355     {
356         ProtectCountSet::iterator end = m_protectedValues.end();
357         for (ProtectCountSet::iterator it = m_protectedValues.begin(); it != end; ++it)
358             functor(it->key);
359         m_handleSet.forEachStrongHandle(functor, m_protectedValues);
360
361         return functor.returnValue();
362     }
363
364     template<typename Functor> inline typename Functor::ReturnType Heap::forEachProtectedCell()
365     {
366         Functor functor;
367         return forEachProtectedCell(functor);
368     }
369
370     inline void* Heap::allocateWithNormalDestructor(size_t bytes)
371     {
372         ASSERT(isValidAllocation(bytes));
373         return m_objectSpace.allocateWithNormalDestructor(bytes);
374     }
375     
376     inline void* Heap::allocateWithImmortalStructureDestructor(size_t bytes)
377     {
378         ASSERT(isValidAllocation(bytes));
379         return m_objectSpace.allocateWithImmortalStructureDestructor(bytes);
380     }
381     
382     inline void* Heap::allocateWithoutDestructor(size_t bytes)
383     {
384         ASSERT(isValidAllocation(bytes));
385         return m_objectSpace.allocateWithoutDestructor(bytes);
386     }
387    
388     inline CheckedBoolean Heap::tryAllocateStorage(size_t bytes, void** outPtr)
389     {
390         return m_storageSpace.tryAllocate(bytes, outPtr);
391     }
392     
393     inline CheckedBoolean Heap::tryReallocateStorage(void** ptr, size_t oldSize, size_t newSize)
394     {
395         return m_storageSpace.tryReallocate(ptr, oldSize, newSize);
396     }
397
398     inline BlockAllocator& Heap::blockAllocator()
399     {
400         return m_blockAllocator;
401     }
402
403 } // namespace JSC
404
405 #endif // Heap_h