Heap Snapshot should include different Edge types and data (Property, Index, Variable)
[WebKit-https.git] / Source / JavaScriptCore / heap / Heap.h
1 /*
2  *  Copyright (C) 1999-2000 Harri Porten (porten@kde.org)
3  *  Copyright (C) 2001 Peter Kelly (pmk@post.com)
4  *  Copyright (C) 2003-2009, 2013-2015 Apple Inc. All rights reserved.
5  *
6  *  This library is free software; you can redistribute it and/or
7  *  modify it under the terms of the GNU Lesser General Public
8  *  License as published by the Free Software Foundation; either
9  *  version 2 of the License, or (at your option) any later version.
10  *
11  *  This library is distributed in the hope that it will be useful,
12  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
13  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  *  Lesser General Public License for more details.
15  *
16  *  You should have received a copy of the GNU Lesser General Public
17  *  License along with this library; if not, write to the Free Software
18  *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
19  *
20  */
21
22 #ifndef Heap_h
23 #define Heap_h
24
25 #include "ArrayBuffer.h"
26 #include "CodeBlockSet.h"
27 #include "CopyVisitor.h"
28 #include "GCIncomingRefCountedSet.h"
29 #include "HandleSet.h"
30 #include "HandleStack.h"
31 #include "HeapObserver.h"
32 #include "HeapOperation.h"
33 #include "JITStubRoutineSet.h"
34 #include "ListableHandler.h"
35 #include "MachineStackMarker.h"
36 #include "MarkedAllocator.h"
37 #include "MarkedBlock.h"
38 #include "MarkedBlockSet.h"
39 #include "MarkedSpace.h"
40 #include "Options.h"
41 #include "SlotVisitor.h"
42 #include "StructureIDTable.h"
43 #include "TinyBloomFilter.h"
44 #include "UnconditionalFinalizer.h"
45 #include "WeakHandleOwner.h"
46 #include "WeakReferenceHarvester.h"
47 #include "WriteBarrierBuffer.h"
48 #include "WriteBarrierSupport.h"
49 #include <wtf/HashCountedSet.h>
50 #include <wtf/HashSet.h>
51 #include <wtf/ParallelHelperPool.h>
52
53 namespace JSC {
54
55 class CodeBlock;
56 class CopiedSpace;
57 class EdenGCActivityCallback;
58 class ExecutableBase;
59 class FullGCActivityCallback;
60 class GCActivityCallback;
61 class GCAwareJITStubRoutine;
62 class Heap;
63 class HeapProfiler;
64 class HeapRootVisitor;
65 class HeapVerifier;
66 class IncrementalSweeper;
67 class JITStubRoutine;
68 class JSCell;
69 class JSStack;
70 class JSValue;
71 class LLIntOffsetsExtractor;
72 class MarkedArgumentBuffer;
73 class VM;
74
75 namespace DFG {
76 class SpeculativeJIT;
77 class Worklist;
78 }
79
80 static void* const zombifiedBits = reinterpret_cast<void*>(static_cast<uintptr_t>(0xdeadbeef));
81
82 typedef HashCountedSet<JSCell*> ProtectCountSet;
83 typedef HashCountedSet<const char*> TypeCountSet;
84
85 enum HeapType { SmallHeap, LargeHeap };
86
87 class Heap {
88     WTF_MAKE_NONCOPYABLE(Heap);
89 public:
90     friend class JIT;
91     friend class DFG::SpeculativeJIT;
92     static Heap* heap(const JSValue); // 0 for immediate values
93     static Heap* heap(const JSCell*);
94
95     // This constant determines how many blocks we iterate between checks of our 
96     // deadline when calling Heap::isPagedOut. Decreasing it will cause us to detect 
97     // overstepping our deadline more quickly, while increasing it will cause 
98     // our scan to run faster. 
99     static const unsigned s_timeCheckResolution = 16;
100
101     static bool isLive(const void*);
102     static bool isMarked(const void*);
103     static bool testAndSetMarked(const void*);
104     static void setMarked(const void*);
105
106     // This function must be run after stopAllocation() is called and 
107     // before liveness data is cleared to be accurate.
108     static bool isPointerGCObject(TinyBloomFilter, MarkedBlockSet&, void* pointer);
109     static bool isValueGCObject(TinyBloomFilter, MarkedBlockSet&, JSValue);
110
111     void writeBarrier(const JSCell*);
112     void writeBarrier(const JSCell*, JSValue);
113     void writeBarrier(const JSCell*, JSCell*);
114
115     JS_EXPORT_PRIVATE static void* copyBarrier(const JSCell* owner, void*& copiedSpacePointer);
116
117     WriteBarrierBuffer& writeBarrierBuffer() { return m_writeBarrierBuffer; }
118     void flushWriteBarrierBuffer(JSCell*);
119
120     Heap(VM*, HeapType);
121     ~Heap();
122     void lastChanceToFinalize();
123     void releaseDelayedReleasedObjects();
124
125     VM* vm() const { return m_vm; }
126     MarkedSpace& objectSpace() { return m_objectSpace; }
127     CopiedSpace& storageSpace() { return m_storageSpace; }
128     MachineThreads& machineThreads() { return m_machineThreads; }
129
130     const SlotVisitor& slotVisitor() const { return m_slotVisitor; }
131
132     JS_EXPORT_PRIVATE GCActivityCallback* fullActivityCallback();
133     JS_EXPORT_PRIVATE GCActivityCallback* edenActivityCallback();
134     JS_EXPORT_PRIVATE void setFullActivityCallback(PassRefPtr<FullGCActivityCallback>);
135     JS_EXPORT_PRIVATE void setEdenActivityCallback(PassRefPtr<EdenGCActivityCallback>);
136     JS_EXPORT_PRIVATE void setGarbageCollectionTimerEnabled(bool);
137
138     JS_EXPORT_PRIVATE IncrementalSweeper* sweeper();
139     JS_EXPORT_PRIVATE void setIncrementalSweeper(std::unique_ptr<IncrementalSweeper>);
140
141     void addObserver(HeapObserver* observer) { m_observers.append(observer); }
142     void removeObserver(HeapObserver* observer) { m_observers.removeFirst(observer); }
143
144     // true if collection is in progress
145     bool isCollecting();
146     HeapOperation operationInProgress() { return m_operationInProgress; }
147     // true if an allocation or collection is in progress
148     bool isBusy();
149     MarkedSpace::Subspace& subspaceForObjectWithoutDestructor() { return m_objectSpace.subspaceForObjectsWithoutDestructor(); }
150     MarkedSpace::Subspace& subspaceForObjectDestructor() { return m_objectSpace.subspaceForObjectsWithDestructor(); }
151     template<typename ClassType> MarkedSpace::Subspace& subspaceForObjectOfType();
152     MarkedAllocator& allocatorForObjectWithoutDestructor(size_t bytes) { return m_objectSpace.allocatorFor(bytes); }
153     MarkedAllocator& allocatorForObjectWithDestructor(size_t bytes) { return m_objectSpace.destructorAllocatorFor(bytes); }
154     template<typename ClassType> MarkedAllocator& allocatorForObjectOfType(size_t bytes);
155     CopiedAllocator& storageAllocator() { return m_storageSpace.allocator(); }
156     CheckedBoolean tryAllocateStorage(JSCell* intendedOwner, size_t, void**);
157     CheckedBoolean tryReallocateStorage(JSCell* intendedOwner, void**, size_t, size_t);
158     void ascribeOwner(JSCell* intendedOwner, void*);
159
160     typedef void (*Finalizer)(JSCell*);
161     JS_EXPORT_PRIVATE void addFinalizer(JSCell*, Finalizer);
162     void addExecutable(ExecutableBase*);
163
164     void notifyIsSafeToCollect() { m_isSafeToCollect = true; }
165     bool isSafeToCollect() const { return m_isSafeToCollect; }
166
167     JS_EXPORT_PRIVATE bool isHeapSnapshotting() const;
168
169     JS_EXPORT_PRIVATE void collectAllGarbageIfNotDoneRecently();
170     void collectAllGarbage() { collectAndSweep(FullCollection); }
171     JS_EXPORT_PRIVATE void collectAndSweep(HeapOperation collectionType = AnyCollection);
172     bool shouldCollect();
173     JS_EXPORT_PRIVATE void collect(HeapOperation collectionType = AnyCollection);
174     bool collectIfNecessaryOrDefer(); // Returns true if it did collect.
175
176     void completeAllDFGPlans();
177     
178     // Use this API to report non-GC memory referenced by GC objects. Be sure to
179     // call both of these functions: Calling only one may trigger catastropic
180     // memory growth.
181     void reportExtraMemoryAllocated(size_t);
182     void reportExtraMemoryVisited(CellState cellStateBeforeVisiting, size_t);
183
184     // Use this API to report non-GC memory if you can't use the better API above.
185     void deprecatedReportExtraMemory(size_t);
186
187     JS_EXPORT_PRIVATE void reportAbandonedObjectGraph();
188
189     JS_EXPORT_PRIVATE void protect(JSValue);
190     JS_EXPORT_PRIVATE bool unprotect(JSValue); // True when the protect count drops to 0.
191     
192     JS_EXPORT_PRIVATE size_t extraMemorySize(); // Non-GC memory referenced by GC objects.
193     JS_EXPORT_PRIVATE size_t size();
194     JS_EXPORT_PRIVATE size_t capacity();
195     JS_EXPORT_PRIVATE size_t objectCount();
196     JS_EXPORT_PRIVATE size_t globalObjectCount();
197     JS_EXPORT_PRIVATE size_t protectedObjectCount();
198     JS_EXPORT_PRIVATE size_t protectedGlobalObjectCount();
199     JS_EXPORT_PRIVATE std::unique_ptr<TypeCountSet> protectedObjectTypeCounts();
200     JS_EXPORT_PRIVATE std::unique_ptr<TypeCountSet> objectTypeCounts();
201
202     HashSet<MarkedArgumentBuffer*>& markListSet();
203     
204     template<typename Functor> typename Functor::ReturnType forEachProtectedCell(Functor&);
205     template<typename Functor> typename Functor::ReturnType forEachProtectedCell();
206     template<typename Functor> void forEachCodeBlock(Functor&);
207
208     HandleSet* handleSet() { return &m_handleSet; }
209     HandleStack* handleStack() { return &m_handleStack; }
210
211     void willStartIterating();
212     void didFinishIterating();
213
214     double lastFullGCLength() const { return m_lastFullGCLength; }
215     double lastEdenGCLength() const { return m_lastEdenGCLength; }
216     void increaseLastFullGCLength(double amount) { m_lastFullGCLength += amount; }
217
218     size_t sizeBeforeLastEdenCollection() const { return m_sizeBeforeLastEdenCollect; }
219     size_t sizeAfterLastEdenCollection() const { return m_sizeAfterLastEdenCollect; }
220     size_t sizeBeforeLastFullCollection() const { return m_sizeBeforeLastFullCollect; }
221     size_t sizeAfterLastFullCollection() const { return m_sizeAfterLastFullCollect; }
222
223     void deleteAllCodeBlocks();
224     void deleteAllUnlinkedCodeBlocks();
225
226     void didAllocate(size_t);
227     void didAbandon(size_t);
228
229     bool isPagedOut(double deadline);
230     
231     const JITStubRoutineSet& jitStubRoutines() { return m_jitStubRoutines; }
232     
233     void addReference(JSCell*, ArrayBuffer*);
234     
235     bool isDeferred() const { return !!m_deferralDepth || !Options::useGC(); }
236
237     StructureIDTable& structureIDTable() { return m_structureIDTable; }
238
239     CodeBlockSet& codeBlockSet() { return m_codeBlocks; }
240
241 #if USE(CF)
242         template<typename T> void releaseSoon(RetainPtr<T>&&);
243 #endif
244
245     static bool isZombified(JSCell* cell) { return *(void**)cell == zombifiedBits; }
246
247     void registerWeakGCMap(void* weakGCMap, std::function<void()> pruningCallback);
248     void unregisterWeakGCMap(void* weakGCMap);
249
250     void addLogicallyEmptyWeakBlock(WeakBlock*);
251
252 #if ENABLE(RESOURCE_USAGE)
253     size_t blockBytesAllocated() const { return m_blockBytesAllocated; }
254 #endif
255
256     void didAllocateBlock(size_t capacity);
257     void didFreeBlock(size_t capacity);
258
259 private:
260     friend class CodeBlock;
261     friend class CopiedBlock;
262     friend class DeferGC;
263     friend class DeferGCForAWhile;
264     friend class GCAwareJITStubRoutine;
265     friend class GCLogging;
266     friend class GCThread;
267     friend class HandleSet;
268     friend class HeapVerifier;
269     friend class JITStubRoutine;
270     friend class LLIntOffsetsExtractor;
271     friend class MarkedSpace;
272     friend class MarkedAllocator;
273     friend class MarkedBlock;
274     friend class CopiedSpace;
275     friend class CopyVisitor;
276     friend class SlotVisitor;
277     friend class IncrementalSweeper;
278     friend class HeapStatistics;
279     friend class VM;
280     friend class WeakSet;
281     template<typename T> friend void* allocateCell(Heap&);
282     template<typename T> friend void* allocateCell(Heap&, size_t);
283
284     void* allocateWithDestructor(size_t); // For use with objects with destructors.
285     void* allocateWithoutDestructor(size_t); // For use with objects without destructors.
286     template<typename ClassType> void* allocateObjectOfType(size_t); // Chooses one of the methods above based on type.
287
288     static const size_t minExtraMemory = 256;
289     
290     class FinalizerOwner : public WeakHandleOwner {
291         void finalize(Handle<Unknown>, void* context) override;
292     };
293
294     JS_EXPORT_PRIVATE bool isValidAllocation(size_t);
295     JS_EXPORT_PRIVATE void reportExtraMemoryAllocatedSlowCase(size_t);
296     JS_EXPORT_PRIVATE void deprecatedReportExtraMemorySlowCase(size_t);
297
298     void collectImpl(HeapOperation, void* stackOrigin, void* stackTop, MachineThreads::RegisterState&);
299
300     void suspendCompilerThreads();
301     void willStartCollection(HeapOperation collectionType);
302     void flushOldStructureIDTables();
303     void flushWriteBarrierBuffer();
304     void stopAllocation();
305     
306     void markRoots(double gcStartTime, void* stackOrigin, void* stackTop, MachineThreads::RegisterState&);
307     void gatherStackRoots(ConservativeRoots&, void* stackOrigin, void* stackTop, MachineThreads::RegisterState&);
308     void gatherJSStackRoots(ConservativeRoots&);
309     void gatherScratchBufferRoots(ConservativeRoots&);
310     void clearLivenessData();
311     void visitExternalRememberedSet();
312     void visitSmallStrings();
313     void visitConservativeRoots(ConservativeRoots&);
314     void visitCompilerWorklistWeakReferences();
315     void removeDeadCompilerWorklistEntries();
316     void visitProtectedObjects(HeapRootVisitor&);
317     void visitArgumentBuffers(HeapRootVisitor&);
318     void visitException(HeapRootVisitor&);
319     void visitStrongHandles(HeapRootVisitor&);
320     void visitHandleStack(HeapRootVisitor&);
321     void visitSamplingProfiler();
322     void traceCodeBlocksAndJITStubRoutines();
323     void converge();
324     void visitWeakHandles(HeapRootVisitor&);
325     void updateObjectCounts(double gcStartTime);
326     void resetVisitors();
327
328     void reapWeakHandles();
329     void pruneStaleEntriesFromWeakGCMaps();
330     void sweepArrayBuffers();
331     void snapshotMarkedSpace();
332     void deleteSourceProviderCaches();
333     void notifyIncrementalSweeper();
334     void writeBarrierCurrentlyExecutingCodeBlocks();
335     void resetAllocators();
336     void copyBackingStores();
337     void harvestWeakReferences();
338     void finalizeUnconditionalFinalizers();
339     void clearUnmarkedExecutables();
340     void deleteUnmarkedCompiledCode();
341     JS_EXPORT_PRIVATE void addToRememberedSet(const JSCell*);
342     void updateAllocationLimits();
343     void didFinishCollection(double gcStartTime);
344     void resumeCompilerThreads();
345     void zombifyDeadObjects();
346     void markDeadObjects();
347     void gatherExtraHeapSnapshotData(HeapProfiler&);
348     void removeDeadHeapSnapshotNodes(HeapProfiler&);
349
350     void sweepAllLogicallyEmptyWeakBlocks();
351     bool sweepNextLogicallyEmptyWeakBlock();
352
353     bool shouldDoFullCollection(HeapOperation requestedCollectionType) const;
354
355     JSStack& stack();
356     
357     void incrementDeferralDepth();
358     void decrementDeferralDepth();
359     void decrementDeferralDepthAndGCIfNeeded();
360
361     size_t threadVisitCount();
362     size_t threadBytesVisited();
363     size_t threadBytesCopied();
364
365     const HeapType m_heapType;
366     const size_t m_ramSize;
367     const size_t m_minBytesPerCycle;
368     size_t m_sizeAfterLastCollect;
369     size_t m_sizeAfterLastFullCollect;
370     size_t m_sizeBeforeLastFullCollect;
371     size_t m_sizeAfterLastEdenCollect;
372     size_t m_sizeBeforeLastEdenCollect;
373
374     size_t m_bytesAllocatedThisCycle;
375     size_t m_bytesAbandonedSinceLastFullCollect;
376     size_t m_maxEdenSize;
377     size_t m_maxHeapSize;
378     bool m_shouldDoFullCollection;
379     size_t m_totalBytesVisited;
380     size_t m_totalBytesVisitedThisCycle;
381     size_t m_totalBytesCopied;
382     size_t m_totalBytesCopiedThisCycle;
383     
384     HeapOperation m_operationInProgress;
385     StructureIDTable m_structureIDTable;
386     MarkedSpace m_objectSpace;
387     CopiedSpace m_storageSpace;
388     GCIncomingRefCountedSet<ArrayBuffer> m_arrayBuffers;
389     size_t m_extraMemorySize;
390     size_t m_deprecatedExtraMemorySize;
391
392     HashSet<const JSCell*> m_copyingRememberedSet;
393
394     ProtectCountSet m_protectedValues;
395     std::unique_ptr<HashSet<MarkedArgumentBuffer*>> m_markListSet;
396
397     MachineThreads m_machineThreads;
398     
399     SlotVisitor m_slotVisitor;
400
401     // We pool the slot visitors used by parallel marking threads. It's useful to be able to
402     // enumerate over them, and it's useful to have them cache some small amount of memory from
403     // one GC to the next. GC marking threads claim these at the start of marking, and return
404     // them at the end.
405     Vector<std::unique_ptr<SlotVisitor>> m_parallelSlotVisitors;
406     Vector<SlotVisitor*> m_availableParallelSlotVisitors;
407     Lock m_parallelSlotVisitorLock;
408
409     HandleSet m_handleSet;
410     HandleStack m_handleStack;
411     CodeBlockSet m_codeBlocks;
412     JITStubRoutineSet m_jitStubRoutines;
413     FinalizerOwner m_finalizerOwner;
414     
415     bool m_isSafeToCollect;
416
417     WriteBarrierBuffer m_writeBarrierBuffer;
418
419     VM* m_vm;
420     double m_lastFullGCLength;
421     double m_lastEdenGCLength;
422
423     Vector<ExecutableBase*> m_executables;
424
425     Vector<WeakBlock*> m_logicallyEmptyWeakBlocks;
426     size_t m_indexOfNextLogicallyEmptyWeakBlockToSweep { WTF::notFound };
427     
428     RefPtr<FullGCActivityCallback> m_fullActivityCallback;
429     RefPtr<GCActivityCallback> m_edenActivityCallback;
430     std::unique_ptr<IncrementalSweeper> m_sweeper;
431     Vector<MarkedBlock*> m_blockSnapshot;
432
433     Vector<HeapObserver*> m_observers;
434
435     unsigned m_deferralDepth;
436     Vector<DFG::Worklist*> m_suspendedCompilerWorklists;
437
438     std::unique_ptr<HeapVerifier> m_verifier;
439 #if USE(CF)
440     Vector<RetainPtr<CFTypeRef>> m_delayedReleaseObjects;
441     unsigned m_delayedReleaseRecursionCount;
442 #endif
443
444     HashMap<void*, std::function<void()>> m_weakGCMaps;
445
446     Lock m_markingMutex;
447     Condition m_markingConditionVariable;
448     MarkStackArray m_sharedMarkStack;
449     unsigned m_numberOfActiveParallelMarkers { 0 };
450     unsigned m_numberOfWaitingParallelMarkers { 0 };
451     bool m_parallelMarkersShouldExit { false };
452
453     Lock m_opaqueRootsMutex;
454     HashSet<void*> m_opaqueRoots;
455
456     Vector<CopiedBlock*> m_blocksToCopy;
457     static const size_t s_blockFragmentLength = 32;
458
459     ListableHandler<WeakReferenceHarvester>::List m_weakReferenceHarvesters;
460     ListableHandler<UnconditionalFinalizer>::List m_unconditionalFinalizers;
461
462     ParallelHelperClient m_helperClient;
463
464 #if ENABLE(RESOURCE_USAGE)
465     size_t m_blockBytesAllocated { 0 };
466 #endif
467 };
468
469 } // namespace JSC
470
471 #endif // Heap_h