2812393a09057dfee86dbbb33692ff20e2ccf204
[WebKit-https.git] / Source / JavaScriptCore / heap / Heap.h
1 /*
2  *  Copyright (C) 1999-2000 Harri Porten (porten@kde.org)
3  *  Copyright (C) 2001 Peter Kelly (pmk@post.com)
4  *  Copyright (C) 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2013 Apple Inc. All rights reserved.
5  *
6  *  This library is free software; you can redistribute it and/or
7  *  modify it under the terms of the GNU Lesser General Public
8  *  License as published by the Free Software Foundation; either
9  *  version 2 of the License, or (at your option) any later version.
10  *
11  *  This library is distributed in the hope that it will be useful,
12  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
13  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  *  Lesser General Public License for more details.
15  *
16  *  You should have received a copy of the GNU Lesser General Public
17  *  License along with this library; if not, write to the Free Software
18  *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
19  *
20  */
21
22 #ifndef Heap_h
23 #define Heap_h
24
25 #include "ArrayBuffer.h"
26 #include "BlockAllocator.h"
27 #include "CopyVisitor.h"
28 #include "DFGCodeBlocks.h"
29 #include "GCIncomingRefCountedSet.h"
30 #include "GCThreadSharedData.h"
31 #include "HandleSet.h"
32 #include "HandleStack.h"
33 #include "JITStubRoutineSet.h"
34 #include "MarkedAllocator.h"
35 #include "MarkedBlock.h"
36 #include "MarkedBlockSet.h"
37 #include "MarkedSpace.h"
38 #include "Options.h"
39 #include "SlotVisitor.h"
40 #include "WeakHandleOwner.h"
41 #include "WriteBarrierSupport.h"
42 #include <wtf/HashCountedSet.h>
43 #include <wtf/HashSet.h>
44
45 #define COLLECT_ON_EVERY_ALLOCATION 0
46
47 namespace JSC {
48
49     class CopiedSpace;
50     class CodeBlock;
51     class ExecutableBase;
52     class GCActivityCallback;
53     class GCAwareJITStubRoutine;
54     class GlobalCodeBlock;
55     class Heap;
56     class HeapRootVisitor;
57     class IncrementalSweeper;
58     class JITStubRoutine;
59     class JSCell;
60     class VM;
61     class JSStack;
62     class JSValue;
63     class LiveObjectIterator;
64     class LLIntOffsetsExtractor;
65     class MarkedArgumentBuffer;
66     class WeakGCHandlePool;
67     class SlotVisitor;
68
69     typedef std::pair<JSValue, WTF::String> ValueStringPair;
70     typedef HashCountedSet<JSCell*> ProtectCountSet;
71     typedef HashCountedSet<const char*> TypeCountSet;
72
73     enum OperationInProgress { NoOperation, Allocation, Collection };
74
75     enum HeapType { SmallHeap, LargeHeap };
76
77     class Heap {
78         WTF_MAKE_NONCOPYABLE(Heap);
79     public:
80         friend class JIT;
81         friend class GCThreadSharedData;
82         static Heap* heap(const JSValue); // 0 for immediate values
83         static Heap* heap(const JSCell*);
84
85         // This constant determines how many blocks we iterate between checks of our 
86         // deadline when calling Heap::isPagedOut. Decreasing it will cause us to detect 
87         // overstepping our deadline more quickly, while increasing it will cause 
88         // our scan to run faster. 
89         static const unsigned s_timeCheckResolution = 16;
90
91         static bool isLive(const void*);
92         static bool isMarked(const void*);
93         static bool testAndSetMarked(const void*);
94         static void setMarked(const void*);
95
96         static bool isWriteBarrierEnabled();
97         static void writeBarrier(const JSCell*, JSValue);
98         static void writeBarrier(const JSCell*, JSCell*);
99         static uint8_t* addressOfCardFor(JSCell*);
100
101         Heap(VM*, HeapType);
102         ~Heap();
103         JS_EXPORT_PRIVATE void lastChanceToFinalize();
104
105         VM* vm() const { return m_vm; }
106         MarkedSpace& objectSpace() { return m_objectSpace; }
107         MachineThreads& machineThreads() { return m_machineThreads; }
108
109         JS_EXPORT_PRIVATE GCActivityCallback* activityCallback();
110         JS_EXPORT_PRIVATE void setActivityCallback(PassOwnPtr<GCActivityCallback>);
111         JS_EXPORT_PRIVATE void setGarbageCollectionTimerEnabled(bool);
112
113         JS_EXPORT_PRIVATE IncrementalSweeper* sweeper();
114
115         // true if collection is in progress
116         inline bool isCollecting();
117         // true if an allocation or collection is in progress
118         inline bool isBusy();
119         
120         MarkedAllocator& allocatorForObjectWithoutDestructor(size_t bytes) { return m_objectSpace.allocatorFor(bytes); }
121         MarkedAllocator& allocatorForObjectWithNormalDestructor(size_t bytes) { return m_objectSpace.normalDestructorAllocatorFor(bytes); }
122         MarkedAllocator& allocatorForObjectWithImmortalStructureDestructor(size_t bytes) { return m_objectSpace.immortalStructureDestructorAllocatorFor(bytes); }
123         CopiedAllocator& storageAllocator() { return m_storageSpace.allocator(); }
124         CheckedBoolean tryAllocateStorage(JSCell* intendedOwner, size_t, void**);
125         CheckedBoolean tryReallocateStorage(JSCell* intendedOwner, void**, size_t, size_t);
126         void ascribeOwner(JSCell* intendedOwner, void*);
127
128         typedef void (*Finalizer)(JSCell*);
129         JS_EXPORT_PRIVATE void addFinalizer(JSCell*, Finalizer);
130         void addCompiledCode(ExecutableBase*);
131
132         void notifyIsSafeToCollect() { m_isSafeToCollect = true; }
133         bool isSafeToCollect() const { return m_isSafeToCollect; }
134
135         JS_EXPORT_PRIVATE void collectAllGarbage();
136         enum SweepToggle { DoNotSweep, DoSweep };
137         bool shouldCollect();
138         void collect(SweepToggle);
139         bool collectIfNecessaryOrDefer(); // Returns true if it did collect.
140
141         void reportExtraMemoryCost(size_t cost);
142         JS_EXPORT_PRIVATE void reportAbandonedObjectGraph();
143
144         JS_EXPORT_PRIVATE void protect(JSValue);
145         JS_EXPORT_PRIVATE bool unprotect(JSValue); // True when the protect count drops to 0.
146         
147         void jettisonDFGCodeBlock(PassRefPtr<CodeBlock>);
148
149         size_t extraSize(); // extra memory usage outside of pages allocated by the heap
150         JS_EXPORT_PRIVATE size_t size();
151         JS_EXPORT_PRIVATE size_t capacity();
152         JS_EXPORT_PRIVATE size_t objectCount();
153         JS_EXPORT_PRIVATE size_t globalObjectCount();
154         JS_EXPORT_PRIVATE size_t protectedObjectCount();
155         JS_EXPORT_PRIVATE size_t protectedGlobalObjectCount();
156         JS_EXPORT_PRIVATE PassOwnPtr<TypeCountSet> protectedObjectTypeCounts();
157         JS_EXPORT_PRIVATE PassOwnPtr<TypeCountSet> objectTypeCounts();
158         void showStatistics();
159
160         void pushTempSortVector(Vector<ValueStringPair, 0, UnsafeVectorOverflow>*);
161         void popTempSortVector(Vector<ValueStringPair, 0, UnsafeVectorOverflow>*);
162     
163         HashSet<MarkedArgumentBuffer*>& markListSet() { if (!m_markListSet) m_markListSet = adoptPtr(new HashSet<MarkedArgumentBuffer*>); return *m_markListSet; }
164         
165         template<typename Functor> typename Functor::ReturnType forEachProtectedCell(Functor&);
166         template<typename Functor> typename Functor::ReturnType forEachProtectedCell();
167
168         HandleSet* handleSet() { return &m_handleSet; }
169         HandleStack* handleStack() { return &m_handleStack; }
170
171         void canonicalizeCellLivenessData();
172         void getConservativeRegisterRoots(HashSet<JSCell*>& roots);
173
174         double lastGCLength() { return m_lastGCLength; }
175         void increaseLastGCLength(double amount) { m_lastGCLength += amount; }
176
177         JS_EXPORT_PRIVATE void deleteAllCompiledCode();
178
179         void didAllocate(size_t);
180         void didAbandon(size_t);
181
182         bool isPagedOut(double deadline);
183         
184         const JITStubRoutineSet& jitStubRoutines() { return m_jitStubRoutines; }
185         
186         void addReference(JSCell*, ArrayBuffer*);
187
188     private:
189         friend class CodeBlock;
190         friend class CopiedBlock;
191         friend class DeferGC;
192         friend class DeferGCForAWhile;
193         friend class GCAwareJITStubRoutine;
194         friend class HandleSet;
195         friend class JITStubRoutine;
196         friend class LLIntOffsetsExtractor;
197         friend class MarkedSpace;
198         friend class MarkedAllocator;
199         friend class MarkedBlock;
200         friend class CopiedSpace;
201         friend class CopyVisitor;
202         friend class SlotVisitor;
203         friend class SuperRegion;
204         friend class IncrementalSweeper;
205         friend class HeapStatistics;
206         friend class VM;
207         friend class WeakSet;
208         template<typename T> friend void* allocateCell(Heap&);
209         template<typename T> friend void* allocateCell(Heap&, size_t);
210
211         void* allocateWithImmortalStructureDestructor(size_t); // For use with special objects whose Structures never die.
212         void* allocateWithNormalDestructor(size_t); // For use with objects that inherit directly or indirectly from JSDestructibleObject.
213         void* allocateWithoutDestructor(size_t); // For use with objects without destructors.
214
215         static const size_t minExtraCost = 256;
216         static const size_t maxExtraCost = 1024 * 1024;
217         
218         class FinalizerOwner : public WeakHandleOwner {
219             virtual void finalize(Handle<Unknown>, void* context);
220         };
221
222         JS_EXPORT_PRIVATE bool isValidAllocation(size_t);
223         JS_EXPORT_PRIVATE void reportExtraMemoryCostSlowCase(size_t);
224
225         void markRoots();
226         void markProtectedObjects(HeapRootVisitor&);
227         void markTempSortVectors(HeapRootVisitor&);
228         void copyBackingStores();
229         void harvestWeakReferences();
230         void finalizeUnconditionalFinalizers();
231         void deleteUnmarkedCompiledCode();
232         void zombifyDeadObjects();
233         void markDeadObjects();
234
235         JSStack& stack();
236         BlockAllocator& blockAllocator();
237         
238         JS_EXPORT_PRIVATE void incrementDeferralDepth();
239         void decrementDeferralDepth();
240         JS_EXPORT_PRIVATE void decrementDeferralDepthAndGCIfNeeded();
241
242         const HeapType m_heapType;
243         const size_t m_ramSize;
244         const size_t m_minBytesPerCycle;
245         size_t m_sizeAfterLastCollect;
246
247         size_t m_bytesAllocatedLimit;
248         size_t m_bytesAllocated;
249         size_t m_bytesAbandoned;
250         
251         OperationInProgress m_operationInProgress;
252         BlockAllocator m_blockAllocator;
253         MarkedSpace m_objectSpace;
254         CopiedSpace m_storageSpace;
255         GCIncomingRefCountedSet<ArrayBuffer> m_arrayBuffers;
256         size_t m_extraMemoryUsage;
257
258 #if ENABLE(SIMPLE_HEAP_PROFILING)
259         VTableSpectrum m_destroyedTypeCounts;
260 #endif
261
262         ProtectCountSet m_protectedValues;
263         Vector<Vector<ValueStringPair, 0, UnsafeVectorOverflow>* > m_tempSortingVectors;
264         OwnPtr<HashSet<MarkedArgumentBuffer*> > m_markListSet;
265
266         MachineThreads m_machineThreads;
267         
268         GCThreadSharedData m_sharedData;
269         SlotVisitor m_slotVisitor;
270         CopyVisitor m_copyVisitor;
271
272         HandleSet m_handleSet;
273         HandleStack m_handleStack;
274         DFGCodeBlocks m_dfgCodeBlocks;
275         JITStubRoutineSet m_jitStubRoutines;
276         FinalizerOwner m_finalizerOwner;
277         
278         bool m_isSafeToCollect;
279
280         VM* m_vm;
281         double m_lastGCLength;
282         double m_lastCodeDiscardTime;
283
284         DoublyLinkedList<ExecutableBase> m_compiledCode;
285         
286         OwnPtr<GCActivityCallback> m_activityCallback;
287         OwnPtr<IncrementalSweeper> m_sweeper;
288         Vector<MarkedBlock*> m_blockSnapshot;
289         
290         unsigned m_deferralDepth;
291     };
292
293     struct MarkedBlockSnapshotFunctor : public MarkedBlock::VoidFunctor {
294         MarkedBlockSnapshotFunctor(Vector<MarkedBlock*>& blocks) 
295             : m_index(0) 
296             , m_blocks(blocks)
297         {
298         }
299     
300         void operator()(MarkedBlock* block) { m_blocks[m_index++] = block; }
301     
302         size_t m_index;
303         Vector<MarkedBlock*>& m_blocks;
304     };
305
306     inline bool Heap::shouldCollect()
307     {
308         if (Options::gcMaxHeapSize())
309             return m_bytesAllocated > Options::gcMaxHeapSize() && m_isSafeToCollect && m_operationInProgress == NoOperation;
310         return m_bytesAllocated > m_bytesAllocatedLimit && m_isSafeToCollect && m_operationInProgress == NoOperation;
311     }
312
313     bool Heap::isBusy()
314     {
315         return m_operationInProgress != NoOperation;
316     }
317
318     bool Heap::isCollecting()
319     {
320         return m_operationInProgress == Collection;
321     }
322
323     inline Heap* Heap::heap(const JSCell* cell)
324     {
325         return MarkedBlock::blockFor(cell)->heap();
326     }
327
328     inline Heap* Heap::heap(const JSValue v)
329     {
330         if (!v.isCell())
331             return 0;
332         return heap(v.asCell());
333     }
334
335     inline bool Heap::isLive(const void* cell)
336     {
337         return MarkedBlock::blockFor(cell)->isLiveCell(cell);
338     }
339
340     inline bool Heap::isMarked(const void* cell)
341     {
342         return MarkedBlock::blockFor(cell)->isMarked(cell);
343     }
344
345     inline bool Heap::testAndSetMarked(const void* cell)
346     {
347         return MarkedBlock::blockFor(cell)->testAndSetMarked(cell);
348     }
349
350     inline void Heap::setMarked(const void* cell)
351     {
352         MarkedBlock::blockFor(cell)->setMarked(cell);
353     }
354
355     inline bool Heap::isWriteBarrierEnabled()
356     {
357 #if ENABLE(WRITE_BARRIER_PROFILING)
358         return true;
359 #else
360         return false;
361 #endif
362     }
363
364     inline void Heap::writeBarrier(const JSCell*, JSCell*)
365     {
366         WriteBarrierCounters::countWriteBarrier();
367     }
368
369     inline void Heap::writeBarrier(const JSCell*, JSValue)
370     {
371         WriteBarrierCounters::countWriteBarrier();
372     }
373
374     inline void Heap::reportExtraMemoryCost(size_t cost)
375     {
376         if (cost > minExtraCost) 
377             reportExtraMemoryCostSlowCase(cost);
378     }
379
380     template<typename Functor> inline typename Functor::ReturnType Heap::forEachProtectedCell(Functor& functor)
381     {
382         ProtectCountSet::iterator end = m_protectedValues.end();
383         for (ProtectCountSet::iterator it = m_protectedValues.begin(); it != end; ++it)
384             functor(it->key);
385         m_handleSet.forEachStrongHandle(functor, m_protectedValues);
386
387         return functor.returnValue();
388     }
389
390     template<typename Functor> inline typename Functor::ReturnType Heap::forEachProtectedCell()
391     {
392         Functor functor;
393         return forEachProtectedCell(functor);
394     }
395
396     inline void* Heap::allocateWithNormalDestructor(size_t bytes)
397     {
398 #if ENABLE(ALLOCATION_LOGGING)
399         dataLogF("JSC GC allocating %lu bytes with normal destructor.\n", bytes);
400 #endif
401         ASSERT(isValidAllocation(bytes));
402         return m_objectSpace.allocateWithNormalDestructor(bytes);
403     }
404     
405     inline void* Heap::allocateWithImmortalStructureDestructor(size_t bytes)
406     {
407 #if ENABLE(ALLOCATION_LOGGING)
408         dataLogF("JSC GC allocating %lu bytes with immortal structure destructor.\n", bytes);
409 #endif
410         ASSERT(isValidAllocation(bytes));
411         return m_objectSpace.allocateWithImmortalStructureDestructor(bytes);
412     }
413     
414     inline void* Heap::allocateWithoutDestructor(size_t bytes)
415     {
416 #if ENABLE(ALLOCATION_LOGGING)
417         dataLogF("JSC GC allocating %lu bytes without destructor.\n", bytes);
418 #endif
419         ASSERT(isValidAllocation(bytes));
420         return m_objectSpace.allocateWithoutDestructor(bytes);
421     }
422    
423     inline CheckedBoolean Heap::tryAllocateStorage(JSCell* intendedOwner, size_t bytes, void** outPtr)
424     {
425         CheckedBoolean result = m_storageSpace.tryAllocate(bytes, outPtr);
426 #if ENABLE(ALLOCATION_LOGGING)
427         dataLogF("JSC GC allocating %lu bytes of storage for %p: %p.\n", bytes, intendedOwner, *outPtr);
428 #else
429         UNUSED_PARAM(intendedOwner);
430 #endif
431         return result;
432     }
433     
434     inline CheckedBoolean Heap::tryReallocateStorage(JSCell* intendedOwner, void** ptr, size_t oldSize, size_t newSize)
435     {
436 #if ENABLE(ALLOCATION_LOGGING)
437         void* oldPtr = *ptr;
438 #endif
439         CheckedBoolean result = m_storageSpace.tryReallocate(ptr, oldSize, newSize);
440 #if ENABLE(ALLOCATION_LOGGING)
441         dataLogF("JSC GC reallocating %lu -> %lu bytes of storage for %p: %p -> %p.\n", oldSize, newSize, intendedOwner, oldPtr, *ptr);
442 #else
443         UNUSED_PARAM(intendedOwner);
444 #endif
445         return result;
446     }
447
448     inline void Heap::ascribeOwner(JSCell* intendedOwner, void* storage)
449     {
450 #if ENABLE(ALLOCATION_LOGGING)
451         dataLogF("JSC GC ascribing %p as owner of storage %p.\n", intendedOwner, storage);
452 #else
453         UNUSED_PARAM(intendedOwner);
454         UNUSED_PARAM(storage);
455 #endif
456     }
457
458     inline BlockAllocator& Heap::blockAllocator()
459     {
460         return m_blockAllocator;
461     }
462
463 } // namespace JSC
464
465 #endif // Heap_h