e422fb6498cc0f0731c2bda36f68f44588012948
[WebKit-https.git] / Source / JavaScriptCore / heap / Heap.h
1 /*
2  *  Copyright (C) 1999-2000 Harri Porten (porten@kde.org)
3  *  Copyright (C) 2001 Peter Kelly (pmk@post.com)
4  *  Copyright (C) 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2013 Apple Inc. All rights reserved.
5  *
6  *  This library is free software; you can redistribute it and/or
7  *  modify it under the terms of the GNU Lesser General Public
8  *  License as published by the Free Software Foundation; either
9  *  version 2 of the License, or (at your option) any later version.
10  *
11  *  This library is distributed in the hope that it will be useful,
12  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
13  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  *  Lesser General Public License for more details.
15  *
16  *  You should have received a copy of the GNU Lesser General Public
17  *  License along with this library; if not, write to the Free Software
18  *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
19  *
20  */
21
22 #ifndef Heap_h
23 #define Heap_h
24
25 #include "ArrayBuffer.h"
26 #include "BlockAllocator.h"
27 #include "CopyVisitor.h"
28 #include "DFGCodeBlocks.h"
29 #include "GCIncomingRefCountedSet.h"
30 #include "GCThreadSharedData.h"
31 #include "HandleSet.h"
32 #include "HandleStack.h"
33 #include "JITStubRoutineSet.h"
34 #include "MarkedAllocator.h"
35 #include "MarkedBlock.h"
36 #include "MarkedBlockSet.h"
37 #include "MarkedSpace.h"
38 #include "Options.h"
39 #include "SlotVisitor.h"
40 #include "WeakHandleOwner.h"
41 #include "WriteBarrierSupport.h"
42 #include <wtf/HashCountedSet.h>
43 #include <wtf/HashSet.h>
44
45 #define COLLECT_ON_EVERY_ALLOCATION 0
46
47 namespace JSC {
48
49     class CopiedSpace;
50     class CodeBlock;
51     class ExecutableBase;
52     class GCActivityCallback;
53     class GCAwareJITStubRoutine;
54     class GlobalCodeBlock;
55     class Heap;
56     class HeapRootVisitor;
57     class IncrementalSweeper;
58     class JITStubRoutine;
59     class JSCell;
60     class VM;
61     class JSStack;
62     class JSValue;
63     class LiveObjectIterator;
64     class LLIntOffsetsExtractor;
65     class MarkedArgumentBuffer;
66     class WeakGCHandlePool;
67     class SlotVisitor;
68
69     typedef std::pair<JSValue, WTF::String> ValueStringPair;
70     typedef HashCountedSet<JSCell*> ProtectCountSet;
71     typedef HashCountedSet<const char*> TypeCountSet;
72
73     enum OperationInProgress { NoOperation, Allocation, Collection };
74
75     enum HeapType { SmallHeap, LargeHeap };
76
77     class Heap {
78         WTF_MAKE_NONCOPYABLE(Heap);
79     public:
80         friend class JIT;
81         friend class GCThreadSharedData;
82         static Heap* heap(const JSValue); // 0 for immediate values
83         static Heap* heap(const JSCell*);
84
85         // This constant determines how many blocks we iterate between checks of our 
86         // deadline when calling Heap::isPagedOut. Decreasing it will cause us to detect 
87         // overstepping our deadline more quickly, while increasing it will cause 
88         // our scan to run faster. 
89         static const unsigned s_timeCheckResolution = 16;
90
91         static bool isLive(const void*);
92         static bool isMarked(const void*);
93         static bool testAndSetMarked(const void*);
94         static void setMarked(const void*);
95
96         static bool isWriteBarrierEnabled();
97         static void writeBarrier(const JSCell*, JSValue);
98         static void writeBarrier(const JSCell*, JSCell*);
99         static uint8_t* addressOfCardFor(JSCell*);
100
101         Heap(VM*, HeapType);
102         ~Heap();
103         JS_EXPORT_PRIVATE void lastChanceToFinalize();
104
105         VM* vm() const { return m_vm; }
106         MarkedSpace& objectSpace() { return m_objectSpace; }
107         MachineThreads& machineThreads() { return m_machineThreads; }
108
109         JS_EXPORT_PRIVATE GCActivityCallback* activityCallback();
110         JS_EXPORT_PRIVATE void setActivityCallback(PassOwnPtr<GCActivityCallback>);
111         JS_EXPORT_PRIVATE void setGarbageCollectionTimerEnabled(bool);
112
113         JS_EXPORT_PRIVATE IncrementalSweeper* sweeper();
114
115         // true if collection is in progress
116         inline bool isCollecting();
117         // true if an allocation or collection is in progress
118         inline bool isBusy();
119         
120         MarkedAllocator& allocatorForObjectWithoutDestructor(size_t bytes) { return m_objectSpace.allocatorFor(bytes); }
121         MarkedAllocator& allocatorForObjectWithNormalDestructor(size_t bytes) { return m_objectSpace.normalDestructorAllocatorFor(bytes); }
122         MarkedAllocator& allocatorForObjectWithImmortalStructureDestructor(size_t bytes) { return m_objectSpace.immortalStructureDestructorAllocatorFor(bytes); }
123         CopiedAllocator& storageAllocator() { return m_storageSpace.allocator(); }
124         CheckedBoolean tryAllocateStorage(JSCell* intendedOwner, size_t, void**);
125         CheckedBoolean tryReallocateStorage(JSCell* intendedOwner, void**, size_t, size_t);
126         void ascribeOwner(JSCell* intendedOwner, void*);
127
128         typedef void (*Finalizer)(JSCell*);
129         JS_EXPORT_PRIVATE void addFinalizer(JSCell*, Finalizer);
130         void addCompiledCode(ExecutableBase*);
131
132         void notifyIsSafeToCollect() { m_isSafeToCollect = true; }
133         bool isSafeToCollect() const { return m_isSafeToCollect; }
134
135         JS_EXPORT_PRIVATE void collectAllGarbage();
136         enum SweepToggle { DoNotSweep, DoSweep };
137         bool shouldCollect();
138         void collect(SweepToggle);
139         bool collectIfNecessaryOrDefer(); // Returns true if it did collect.
140
141         void reportExtraMemoryCost(size_t cost);
142         JS_EXPORT_PRIVATE void reportAbandonedObjectGraph();
143
144         JS_EXPORT_PRIVATE void protect(JSValue);
145         JS_EXPORT_PRIVATE bool unprotect(JSValue); // True when the protect count drops to 0.
146         
147         void jettisonDFGCodeBlock(PassRefPtr<CodeBlock>);
148
149         size_t extraSize(); // extra memory usage outside of pages allocated by the heap
150         JS_EXPORT_PRIVATE size_t size();
151         JS_EXPORT_PRIVATE size_t capacity();
152         JS_EXPORT_PRIVATE size_t objectCount();
153         JS_EXPORT_PRIVATE size_t globalObjectCount();
154         JS_EXPORT_PRIVATE size_t protectedObjectCount();
155         JS_EXPORT_PRIVATE size_t protectedGlobalObjectCount();
156         JS_EXPORT_PRIVATE PassOwnPtr<TypeCountSet> protectedObjectTypeCounts();
157         JS_EXPORT_PRIVATE PassOwnPtr<TypeCountSet> objectTypeCounts();
158         void showStatistics();
159
160         void pushTempSortVector(Vector<ValueStringPair, 0, UnsafeVectorOverflow>*);
161         void popTempSortVector(Vector<ValueStringPair, 0, UnsafeVectorOverflow>*);
162     
163         HashSet<MarkedArgumentBuffer*>& markListSet() { if (!m_markListSet) m_markListSet = adoptPtr(new HashSet<MarkedArgumentBuffer*>); return *m_markListSet; }
164         
165         template<typename Functor> typename Functor::ReturnType forEachProtectedCell(Functor&);
166         template<typename Functor> typename Functor::ReturnType forEachProtectedCell();
167
168         HandleSet* handleSet() { return &m_handleSet; }
169         HandleStack* handleStack() { return &m_handleStack; }
170
171         void canonicalizeCellLivenessData();
172         void getConservativeRegisterRoots(HashSet<JSCell*>& roots);
173
174         double lastGCLength() { return m_lastGCLength; }
175         void increaseLastGCLength(double amount) { m_lastGCLength += amount; }
176
177         JS_EXPORT_PRIVATE void deleteAllCompiledCode();
178
179         void didAllocate(size_t);
180         void didAbandon(size_t);
181
182         bool isPagedOut(double deadline);
183         
184         const JITStubRoutineSet& jitStubRoutines() { return m_jitStubRoutines; }
185         
186         void addReference(JSCell*, ArrayBuffer*);
187         
188         bool isDeferred() const { return !!m_deferralDepth; }
189
190     private:
191         friend class CodeBlock;
192         friend class CopiedBlock;
193         friend class DeferGC;
194         friend class DeferGCForAWhile;
195         friend class GCAwareJITStubRoutine;
196         friend class HandleSet;
197         friend class JITStubRoutine;
198         friend class LLIntOffsetsExtractor;
199         friend class MarkedSpace;
200         friend class MarkedAllocator;
201         friend class MarkedBlock;
202         friend class CopiedSpace;
203         friend class CopyVisitor;
204         friend class SlotVisitor;
205         friend class SuperRegion;
206         friend class IncrementalSweeper;
207         friend class HeapStatistics;
208         friend class VM;
209         friend class WeakSet;
210         template<typename T> friend void* allocateCell(Heap&);
211         template<typename T> friend void* allocateCell(Heap&, size_t);
212
213         void* allocateWithImmortalStructureDestructor(size_t); // For use with special objects whose Structures never die.
214         void* allocateWithNormalDestructor(size_t); // For use with objects that inherit directly or indirectly from JSDestructibleObject.
215         void* allocateWithoutDestructor(size_t); // For use with objects without destructors.
216
217         static const size_t minExtraCost = 256;
218         static const size_t maxExtraCost = 1024 * 1024;
219         
220         class FinalizerOwner : public WeakHandleOwner {
221             virtual void finalize(Handle<Unknown>, void* context);
222         };
223
224         JS_EXPORT_PRIVATE bool isValidAllocation(size_t);
225         JS_EXPORT_PRIVATE void reportExtraMemoryCostSlowCase(size_t);
226
227         void markRoots();
228         void markProtectedObjects(HeapRootVisitor&);
229         void markTempSortVectors(HeapRootVisitor&);
230         void copyBackingStores();
231         void harvestWeakReferences();
232         void finalizeUnconditionalFinalizers();
233         void deleteUnmarkedCompiledCode();
234         void zombifyDeadObjects();
235         void markDeadObjects();
236
237         JSStack& stack();
238         BlockAllocator& blockAllocator();
239         
240         JS_EXPORT_PRIVATE void incrementDeferralDepth();
241         void decrementDeferralDepth();
242         JS_EXPORT_PRIVATE void decrementDeferralDepthAndGCIfNeeded();
243
244         const HeapType m_heapType;
245         const size_t m_ramSize;
246         const size_t m_minBytesPerCycle;
247         size_t m_sizeAfterLastCollect;
248
249         size_t m_bytesAllocatedLimit;
250         size_t m_bytesAllocated;
251         size_t m_bytesAbandoned;
252         
253         OperationInProgress m_operationInProgress;
254         BlockAllocator m_blockAllocator;
255         MarkedSpace m_objectSpace;
256         CopiedSpace m_storageSpace;
257         GCIncomingRefCountedSet<ArrayBuffer> m_arrayBuffers;
258         size_t m_extraMemoryUsage;
259
260 #if ENABLE(SIMPLE_HEAP_PROFILING)
261         VTableSpectrum m_destroyedTypeCounts;
262 #endif
263
264         ProtectCountSet m_protectedValues;
265         Vector<Vector<ValueStringPair, 0, UnsafeVectorOverflow>* > m_tempSortingVectors;
266         OwnPtr<HashSet<MarkedArgumentBuffer*> > m_markListSet;
267
268         MachineThreads m_machineThreads;
269         
270         GCThreadSharedData m_sharedData;
271         SlotVisitor m_slotVisitor;
272         CopyVisitor m_copyVisitor;
273
274         HandleSet m_handleSet;
275         HandleStack m_handleStack;
276         DFGCodeBlocks m_dfgCodeBlocks;
277         JITStubRoutineSet m_jitStubRoutines;
278         FinalizerOwner m_finalizerOwner;
279         
280         bool m_isSafeToCollect;
281
282         VM* m_vm;
283         double m_lastGCLength;
284         double m_lastCodeDiscardTime;
285
286         DoublyLinkedList<ExecutableBase> m_compiledCode;
287         
288         OwnPtr<GCActivityCallback> m_activityCallback;
289         OwnPtr<IncrementalSweeper> m_sweeper;
290         Vector<MarkedBlock*> m_blockSnapshot;
291         
292         unsigned m_deferralDepth;
293     };
294
295     struct MarkedBlockSnapshotFunctor : public MarkedBlock::VoidFunctor {
296         MarkedBlockSnapshotFunctor(Vector<MarkedBlock*>& blocks) 
297             : m_index(0) 
298             , m_blocks(blocks)
299         {
300         }
301     
302         void operator()(MarkedBlock* block) { m_blocks[m_index++] = block; }
303     
304         size_t m_index;
305         Vector<MarkedBlock*>& m_blocks;
306     };
307
308     inline bool Heap::shouldCollect()
309     {
310         if (Options::gcMaxHeapSize())
311             return m_bytesAllocated > Options::gcMaxHeapSize() && m_isSafeToCollect && m_operationInProgress == NoOperation;
312         return m_bytesAllocated > m_bytesAllocatedLimit && m_isSafeToCollect && m_operationInProgress == NoOperation;
313     }
314
315     bool Heap::isBusy()
316     {
317         return m_operationInProgress != NoOperation;
318     }
319
320     bool Heap::isCollecting()
321     {
322         return m_operationInProgress == Collection;
323     }
324
325     inline Heap* Heap::heap(const JSCell* cell)
326     {
327         return MarkedBlock::blockFor(cell)->heap();
328     }
329
330     inline Heap* Heap::heap(const JSValue v)
331     {
332         if (!v.isCell())
333             return 0;
334         return heap(v.asCell());
335     }
336
337     inline bool Heap::isLive(const void* cell)
338     {
339         return MarkedBlock::blockFor(cell)->isLiveCell(cell);
340     }
341
342     inline bool Heap::isMarked(const void* cell)
343     {
344         return MarkedBlock::blockFor(cell)->isMarked(cell);
345     }
346
347     inline bool Heap::testAndSetMarked(const void* cell)
348     {
349         return MarkedBlock::blockFor(cell)->testAndSetMarked(cell);
350     }
351
352     inline void Heap::setMarked(const void* cell)
353     {
354         MarkedBlock::blockFor(cell)->setMarked(cell);
355     }
356
357     inline bool Heap::isWriteBarrierEnabled()
358     {
359 #if ENABLE(WRITE_BARRIER_PROFILING)
360         return true;
361 #else
362         return false;
363 #endif
364     }
365
366     inline void Heap::writeBarrier(const JSCell*, JSCell*)
367     {
368         WriteBarrierCounters::countWriteBarrier();
369     }
370
371     inline void Heap::writeBarrier(const JSCell*, JSValue)
372     {
373         WriteBarrierCounters::countWriteBarrier();
374     }
375
376     inline void Heap::reportExtraMemoryCost(size_t cost)
377     {
378         if (cost > minExtraCost) 
379             reportExtraMemoryCostSlowCase(cost);
380     }
381
382     template<typename Functor> inline typename Functor::ReturnType Heap::forEachProtectedCell(Functor& functor)
383     {
384         ProtectCountSet::iterator end = m_protectedValues.end();
385         for (ProtectCountSet::iterator it = m_protectedValues.begin(); it != end; ++it)
386             functor(it->key);
387         m_handleSet.forEachStrongHandle(functor, m_protectedValues);
388
389         return functor.returnValue();
390     }
391
392     template<typename Functor> inline typename Functor::ReturnType Heap::forEachProtectedCell()
393     {
394         Functor functor;
395         return forEachProtectedCell(functor);
396     }
397
398     inline void* Heap::allocateWithNormalDestructor(size_t bytes)
399     {
400 #if ENABLE(ALLOCATION_LOGGING)
401         dataLogF("JSC GC allocating %lu bytes with normal destructor.\n", bytes);
402 #endif
403         ASSERT(isValidAllocation(bytes));
404         return m_objectSpace.allocateWithNormalDestructor(bytes);
405     }
406     
407     inline void* Heap::allocateWithImmortalStructureDestructor(size_t bytes)
408     {
409 #if ENABLE(ALLOCATION_LOGGING)
410         dataLogF("JSC GC allocating %lu bytes with immortal structure destructor.\n", bytes);
411 #endif
412         ASSERT(isValidAllocation(bytes));
413         return m_objectSpace.allocateWithImmortalStructureDestructor(bytes);
414     }
415     
416     inline void* Heap::allocateWithoutDestructor(size_t bytes)
417     {
418 #if ENABLE(ALLOCATION_LOGGING)
419         dataLogF("JSC GC allocating %lu bytes without destructor.\n", bytes);
420 #endif
421         ASSERT(isValidAllocation(bytes));
422         return m_objectSpace.allocateWithoutDestructor(bytes);
423     }
424    
425     inline CheckedBoolean Heap::tryAllocateStorage(JSCell* intendedOwner, size_t bytes, void** outPtr)
426     {
427         CheckedBoolean result = m_storageSpace.tryAllocate(bytes, outPtr);
428 #if ENABLE(ALLOCATION_LOGGING)
429         dataLogF("JSC GC allocating %lu bytes of storage for %p: %p.\n", bytes, intendedOwner, *outPtr);
430 #else
431         UNUSED_PARAM(intendedOwner);
432 #endif
433         return result;
434     }
435     
436     inline CheckedBoolean Heap::tryReallocateStorage(JSCell* intendedOwner, void** ptr, size_t oldSize, size_t newSize)
437     {
438 #if ENABLE(ALLOCATION_LOGGING)
439         void* oldPtr = *ptr;
440 #endif
441         CheckedBoolean result = m_storageSpace.tryReallocate(ptr, oldSize, newSize);
442 #if ENABLE(ALLOCATION_LOGGING)
443         dataLogF("JSC GC reallocating %lu -> %lu bytes of storage for %p: %p -> %p.\n", oldSize, newSize, intendedOwner, oldPtr, *ptr);
444 #else
445         UNUSED_PARAM(intendedOwner);
446 #endif
447         return result;
448     }
449
450     inline void Heap::ascribeOwner(JSCell* intendedOwner, void* storage)
451     {
452 #if ENABLE(ALLOCATION_LOGGING)
453         dataLogF("JSC GC ascribing %p as owner of storage %p.\n", intendedOwner, storage);
454 #else
455         UNUSED_PARAM(intendedOwner);
456         UNUSED_PARAM(storage);
457 #endif
458     }
459
460     inline BlockAllocator& Heap::blockAllocator()
461     {
462         return m_blockAllocator;
463     }
464
465 } // namespace JSC
466
467 #endif // Heap_h