378ba138a7916b8f36d994377ee8c22f0c85cc54
[WebKit-https.git] / Source / JavaScriptCore / heap / Heap.h
1 /*
2  *  Copyright (C) 1999-2000 Harri Porten (porten@kde.org)
3  *  Copyright (C) 2001 Peter Kelly (pmk@post.com)
4  *  Copyright (C) 2003-2009, 2013-2016 Apple Inc. All rights reserved.
5  *
6  *  This library is free software; you can redistribute it and/or
7  *  modify it under the terms of the GNU Lesser General Public
8  *  License as published by the Free Software Foundation; either
9  *  version 2 of the License, or (at your option) any later version.
10  *
11  *  This library is distributed in the hope that it will be useful,
12  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
13  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  *  Lesser General Public License for more details.
15  *
16  *  You should have received a copy of the GNU Lesser General Public
17  *  License along with this library; if not, write to the Free Software
18  *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
19  *
20  */
21
22 #ifndef Heap_h
23 #define Heap_h
24
25 #include "ArrayBuffer.h"
26 #include "GCIncomingRefCountedSet.h"
27 #include "HandleSet.h"
28 #include "HandleStack.h"
29 #include "HeapObserver.h"
30 #include "HeapOperation.h"
31 #include "ListableHandler.h"
32 #include "MachineStackMarker.h"
33 #include "MarkedAllocator.h"
34 #include "MarkedBlock.h"
35 #include "MarkedBlockSet.h"
36 #include "MarkedSpace.h"
37 #include "Options.h"
38 #include "SlotVisitor.h"
39 #include "StructureIDTable.h"
40 #include "TinyBloomFilter.h"
41 #include "UnconditionalFinalizer.h"
42 #include "WeakHandleOwner.h"
43 #include "WeakReferenceHarvester.h"
44 #include "WriteBarrierBuffer.h"
45 #include "WriteBarrierSupport.h"
46 #include <wtf/HashCountedSet.h>
47 #include <wtf/HashSet.h>
48 #include <wtf/ParallelHelperPool.h>
49
50 namespace JSC {
51
52 class CodeBlock;
53 class CodeBlockSet;
54 class EdenGCActivityCallback;
55 class ExecutableBase;
56 class FullGCActivityCallback;
57 class GCActivityCallback;
58 class GCAwareJITStubRoutine;
59 class Heap;
60 class HeapProfiler;
61 class HeapRootVisitor;
62 class HeapVerifier;
63 class IncrementalSweeper;
64 class JITStubRoutine;
65 class JITStubRoutineSet;
66 class JSCell;
67 class JSValue;
68 class LLIntOffsetsExtractor;
69 class MarkedArgumentBuffer;
70 class VM;
71
72 namespace DFG {
73 class SpeculativeJIT;
74 class Worklist;
75 }
76
77 static void* const zombifiedBits = reinterpret_cast<void*>(static_cast<uintptr_t>(0xdeadbeef));
78
79 typedef HashCountedSet<JSCell*> ProtectCountSet;
80 typedef HashCountedSet<const char*> TypeCountSet;
81
82 enum HeapType { SmallHeap, LargeHeap };
83
84 class HeapUtil;
85
86 class Heap {
87     WTF_MAKE_NONCOPYABLE(Heap);
88 public:
89     friend class JIT;
90     friend class DFG::SpeculativeJIT;
91     static Heap* heap(const JSValue); // 0 for immediate values
92     static Heap* heap(const HeapCell*);
93
94     // This constant determines how many blocks we iterate between checks of our 
95     // deadline when calling Heap::isPagedOut. Decreasing it will cause us to detect 
96     // overstepping our deadline more quickly, while increasing it will cause 
97     // our scan to run faster. 
98     static const unsigned s_timeCheckResolution = 16;
99
100     static bool isLive(const void*);
101     static bool isMarked(const void*);
102     static bool testAndSetMarked(HeapVersion, const void*);
103     static void setMarked(const void*);
104     
105     static size_t cellSize(const void*);
106
107     void writeBarrier(const JSCell*);
108     void writeBarrier(const JSCell*, JSValue);
109     void writeBarrier(const JSCell*, JSCell*);
110
111     WriteBarrierBuffer& writeBarrierBuffer() { return m_writeBarrierBuffer; }
112     void flushWriteBarrierBuffer(JSCell*);
113
114     Heap(VM*, HeapType);
115     ~Heap();
116     void lastChanceToFinalize();
117     void releaseDelayedReleasedObjects();
118
119     VM* vm() const { return m_vm; }
120     MarkedSpace& objectSpace() { return m_objectSpace; }
121     MachineThreads& machineThreads() { return m_machineThreads; }
122
123     const SlotVisitor& slotVisitor() const { return m_slotVisitor; }
124
125     JS_EXPORT_PRIVATE GCActivityCallback* fullActivityCallback();
126     JS_EXPORT_PRIVATE GCActivityCallback* edenActivityCallback();
127     JS_EXPORT_PRIVATE void setFullActivityCallback(PassRefPtr<FullGCActivityCallback>);
128     JS_EXPORT_PRIVATE void setEdenActivityCallback(PassRefPtr<EdenGCActivityCallback>);
129     JS_EXPORT_PRIVATE void setGarbageCollectionTimerEnabled(bool);
130
131     JS_EXPORT_PRIVATE IncrementalSweeper* sweeper();
132     JS_EXPORT_PRIVATE void setIncrementalSweeper(std::unique_ptr<IncrementalSweeper>);
133
134     void addObserver(HeapObserver* observer) { m_observers.append(observer); }
135     void removeObserver(HeapObserver* observer) { m_observers.removeFirst(observer); }
136
137     // true if collection is in progress
138     bool isCollecting();
139     HeapOperation operationInProgress() { return m_operationInProgress; }
140     // true if an allocation or collection is in progress
141     bool isBusy();
142     MarkedSpace::Subspace& subspaceForObjectWithoutDestructor() { return m_objectSpace.subspaceForObjectsWithoutDestructor(); }
143     MarkedSpace::Subspace& subspaceForObjectDestructor() { return m_objectSpace.subspaceForObjectsWithDestructor(); }
144     MarkedSpace::Subspace& subspaceForAuxiliaryData() { return m_objectSpace.subspaceForAuxiliaryData(); }
145     template<typename ClassType> MarkedSpace::Subspace& subspaceForObjectOfType();
146     MarkedAllocator* allocatorForObjectWithoutDestructor(size_t bytes) { return m_objectSpace.allocatorFor(bytes); }
147     MarkedAllocator* allocatorForObjectWithDestructor(size_t bytes) { return m_objectSpace.destructorAllocatorFor(bytes); }
148     template<typename ClassType> MarkedAllocator* allocatorForObjectOfType(size_t bytes);
149     MarkedAllocator* allocatorForAuxiliaryData(size_t bytes) { return m_objectSpace.auxiliaryAllocatorFor(bytes); }
150     void* allocateAuxiliary(JSCell* intendedOwner, size_t);
151     void* tryAllocateAuxiliary(JSCell* intendedOwner, size_t);
152     void* tryReallocateAuxiliary(JSCell* intendedOwner, void* oldBase, size_t oldSize, size_t newSize);
153     void ascribeOwner(JSCell* intendedOwner, void*);
154
155     typedef void (*Finalizer)(JSCell*);
156     JS_EXPORT_PRIVATE void addFinalizer(JSCell*, Finalizer);
157     void addExecutable(ExecutableBase*);
158
159     void notifyIsSafeToCollect() { m_isSafeToCollect = true; }
160     bool isSafeToCollect() const { return m_isSafeToCollect; }
161
162     JS_EXPORT_PRIVATE bool isHeapSnapshotting() const;
163
164     JS_EXPORT_PRIVATE void collectAllGarbageIfNotDoneRecently();
165     JS_EXPORT_PRIVATE void collectAllGarbage();
166
167     bool shouldCollect();
168     JS_EXPORT_PRIVATE void collect(HeapOperation collectionType = AnyCollection);
169     bool collectIfNecessaryOrDefer(); // Returns true if it did collect.
170     void collectAccordingToDeferGCProbability();
171
172     void completeAllJITPlans();
173     
174     // Use this API to report non-GC memory referenced by GC objects. Be sure to
175     // call both of these functions: Calling only one may trigger catastropic
176     // memory growth.
177     void reportExtraMemoryAllocated(size_t);
178     void reportExtraMemoryVisited(CellState cellStateBeforeVisiting, size_t);
179
180 #if ENABLE(RESOURCE_USAGE)
181     // Use this API to report the subset of extra memory that lives outside this process.
182     void reportExternalMemoryVisited(CellState cellStateBeforeVisiting, size_t);
183     size_t externalMemorySize() { return m_externalMemorySize; }
184 #endif
185
186     // Use this API to report non-GC memory if you can't use the better API above.
187     void deprecatedReportExtraMemory(size_t);
188
189     JS_EXPORT_PRIVATE void reportAbandonedObjectGraph();
190
191     JS_EXPORT_PRIVATE void protect(JSValue);
192     JS_EXPORT_PRIVATE bool unprotect(JSValue); // True when the protect count drops to 0.
193     
194     JS_EXPORT_PRIVATE size_t extraMemorySize(); // Non-GC memory referenced by GC objects.
195     JS_EXPORT_PRIVATE size_t size();
196     JS_EXPORT_PRIVATE size_t capacity();
197     JS_EXPORT_PRIVATE size_t objectCount();
198     JS_EXPORT_PRIVATE size_t globalObjectCount();
199     JS_EXPORT_PRIVATE size_t protectedObjectCount();
200     JS_EXPORT_PRIVATE size_t protectedGlobalObjectCount();
201     JS_EXPORT_PRIVATE std::unique_ptr<TypeCountSet> protectedObjectTypeCounts();
202     JS_EXPORT_PRIVATE std::unique_ptr<TypeCountSet> objectTypeCounts();
203
204     HashSet<MarkedArgumentBuffer*>& markListSet();
205     
206     template<typename Functor> void forEachProtectedCell(const Functor&);
207     template<typename Functor> void forEachCodeBlock(const Functor&);
208
209     HandleSet* handleSet() { return &m_handleSet; }
210     HandleStack* handleStack() { return &m_handleStack; }
211
212     void willStartIterating();
213     void didFinishIterating();
214
215     double lastFullGCLength() const { return m_lastFullGCLength; }
216     double lastEdenGCLength() const { return m_lastEdenGCLength; }
217     void increaseLastFullGCLength(double amount) { m_lastFullGCLength += amount; }
218
219     size_t sizeBeforeLastEdenCollection() const { return m_sizeBeforeLastEdenCollect; }
220     size_t sizeAfterLastEdenCollection() const { return m_sizeAfterLastEdenCollect; }
221     size_t sizeBeforeLastFullCollection() const { return m_sizeBeforeLastFullCollect; }
222     size_t sizeAfterLastFullCollection() const { return m_sizeAfterLastFullCollect; }
223
224     void deleteAllCodeBlocks();
225     void deleteAllUnlinkedCodeBlocks();
226
227     void didAllocate(size_t);
228     bool isPagedOut(double deadline);
229     
230     const JITStubRoutineSet& jitStubRoutines() { return *m_jitStubRoutines; }
231     
232     void addReference(JSCell*, ArrayBuffer*);
233     
234     bool isDeferred() const { return !!m_deferralDepth || !Options::useGC(); }
235
236     StructureIDTable& structureIDTable() { return m_structureIDTable; }
237
238     CodeBlockSet& codeBlockSet() { return *m_codeBlocks; }
239
240 #if USE(FOUNDATION)
241     template<typename T> void releaseSoon(RetainPtr<T>&&);
242 #endif
243
244     static bool isZombified(JSCell* cell) { return *(void**)cell == zombifiedBits; }
245
246     void registerWeakGCMap(void* weakGCMap, std::function<void()> pruningCallback);
247     void unregisterWeakGCMap(void* weakGCMap);
248
249     void addLogicallyEmptyWeakBlock(WeakBlock*);
250
251 #if ENABLE(RESOURCE_USAGE)
252     size_t blockBytesAllocated() const { return m_blockBytesAllocated; }
253 #endif
254
255     void didAllocateBlock(size_t capacity);
256     void didFreeBlock(size_t capacity);
257
258 private:
259     friend class CodeBlock;
260     friend class DeferGC;
261     friend class DeferGCForAWhile;
262     friend class GCAwareJITStubRoutine;
263     friend class GCLogging;
264     friend class GCThread;
265     friend class HandleSet;
266     friend class HeapUtil;
267     friend class HeapVerifier;
268     friend class JITStubRoutine;
269     friend class LLIntOffsetsExtractor;
270     friend class MarkedSpace;
271     friend class MarkedAllocator;
272     friend class MarkedBlock;
273     friend class SlotVisitor;
274     friend class IncrementalSweeper;
275     friend class HeapStatistics;
276     friend class VM;
277     friend class WeakSet;
278     template<typename T> friend void* allocateCell(Heap&);
279     template<typename T> friend void* allocateCell(Heap&, size_t);
280
281     void collectWithoutAnySweep(HeapOperation collectionType = AnyCollection);
282
283     void* allocateWithDestructor(size_t); // For use with objects with destructors.
284     void* allocateWithoutDestructor(size_t); // For use with objects without destructors.
285     template<typename ClassType> void* allocateObjectOfType(size_t); // Chooses one of the methods above based on type.
286
287     static const size_t minExtraMemory = 256;
288     
289     class FinalizerOwner : public WeakHandleOwner {
290         void finalize(Handle<Unknown>, void* context) override;
291     };
292
293     JS_EXPORT_PRIVATE bool isValidAllocation(size_t);
294     JS_EXPORT_PRIVATE void reportExtraMemoryAllocatedSlowCase(size_t);
295     JS_EXPORT_PRIVATE void deprecatedReportExtraMemorySlowCase(size_t);
296
297     void collectImpl(HeapOperation, void* stackOrigin, void* stackTop, MachineThreads::RegisterState&);
298
299     void suspendCompilerThreads();
300     void willStartCollection(HeapOperation collectionType);
301     void flushOldStructureIDTables();
302     void flushWriteBarrierBuffer();
303     void stopAllocation();
304     void prepareForMarking();
305     
306     void markRoots(double gcStartTime, void* stackOrigin, void* stackTop, MachineThreads::RegisterState&);
307     void gatherStackRoots(ConservativeRoots&, void* stackOrigin, void* stackTop, MachineThreads::RegisterState&);
308     void gatherJSStackRoots(ConservativeRoots&);
309     void gatherScratchBufferRoots(ConservativeRoots&);
310     void clearLivenessData();
311     void visitExternalRememberedSet();
312     void visitSmallStrings();
313     void visitConservativeRoots(ConservativeRoots&);
314     void visitCompilerWorklistWeakReferences();
315     void removeDeadCompilerWorklistEntries();
316     void visitProtectedObjects(HeapRootVisitor&);
317     void visitArgumentBuffers(HeapRootVisitor&);
318     void visitException(HeapRootVisitor&);
319     void visitStrongHandles(HeapRootVisitor&);
320     void visitHandleStack(HeapRootVisitor&);
321     void visitSamplingProfiler();
322     void visitShadowChicken();
323     void traceCodeBlocksAndJITStubRoutines();
324     void converge();
325     void visitWeakHandles(HeapRootVisitor&);
326     void updateObjectCounts(double gcStartTime);
327     void resetVisitors();
328
329     void reapWeakHandles();
330     void pruneStaleEntriesFromWeakGCMaps();
331     void sweepArrayBuffers();
332     void snapshotMarkedSpace();
333     void deleteSourceProviderCaches();
334     void notifyIncrementalSweeper();
335     void writeBarrierCurrentlyExecutingCodeBlocks();
336     void resetAllocators();
337     void harvestWeakReferences();
338     void finalizeUnconditionalFinalizers();
339     void clearUnmarkedExecutables();
340     void deleteUnmarkedCompiledCode();
341     JS_EXPORT_PRIVATE void addToRememberedSet(const JSCell*);
342     void updateAllocationLimits();
343     void didFinishCollection(double gcStartTime);
344     void resumeCompilerThreads();
345     void zombifyDeadObjects();
346     void gatherExtraHeapSnapshotData(HeapProfiler&);
347     void removeDeadHeapSnapshotNodes(HeapProfiler&);
348     void sweepLargeAllocations();
349     
350     void sweepAllLogicallyEmptyWeakBlocks();
351     bool sweepNextLogicallyEmptyWeakBlock();
352
353     bool shouldDoFullCollection(HeapOperation requestedCollectionType) const;
354
355     void incrementDeferralDepth();
356     void decrementDeferralDepth();
357     void decrementDeferralDepthAndGCIfNeeded();
358
359     size_t threadVisitCount();
360     size_t threadBytesVisited();
361     
362     void forEachCodeBlockImpl(const ScopedLambda<bool(CodeBlock*)>&);
363
364     const HeapType m_heapType;
365     const size_t m_ramSize;
366     const size_t m_minBytesPerCycle;
367     size_t m_sizeAfterLastCollect;
368     size_t m_sizeAfterLastFullCollect;
369     size_t m_sizeBeforeLastFullCollect;
370     size_t m_sizeAfterLastEdenCollect;
371     size_t m_sizeBeforeLastEdenCollect;
372
373     size_t m_bytesAllocatedThisCycle;
374     size_t m_bytesAbandonedSinceLastFullCollect;
375     size_t m_maxEdenSize;
376     size_t m_maxHeapSize;
377     bool m_shouldDoFullCollection;
378     size_t m_totalBytesVisited;
379     size_t m_totalBytesVisitedThisCycle;
380     
381     HeapOperation m_operationInProgress;
382     StructureIDTable m_structureIDTable;
383     MarkedSpace m_objectSpace;
384     GCIncomingRefCountedSet<ArrayBuffer> m_arrayBuffers;
385     size_t m_extraMemorySize;
386     size_t m_deprecatedExtraMemorySize;
387
388     HashSet<const JSCell*> m_copyingRememberedSet;
389
390     ProtectCountSet m_protectedValues;
391     std::unique_ptr<HashSet<MarkedArgumentBuffer*>> m_markListSet;
392
393     MachineThreads m_machineThreads;
394     
395     SlotVisitor m_slotVisitor;
396
397     // We pool the slot visitors used by parallel marking threads. It's useful to be able to
398     // enumerate over them, and it's useful to have them cache some small amount of memory from
399     // one GC to the next. GC marking threads claim these at the start of marking, and return
400     // them at the end.
401     Vector<std::unique_ptr<SlotVisitor>> m_parallelSlotVisitors;
402     Vector<SlotVisitor*> m_availableParallelSlotVisitors;
403     Lock m_parallelSlotVisitorLock;
404
405     HandleSet m_handleSet;
406     HandleStack m_handleStack;
407     std::unique_ptr<CodeBlockSet> m_codeBlocks;
408     std::unique_ptr<JITStubRoutineSet> m_jitStubRoutines;
409     FinalizerOwner m_finalizerOwner;
410     
411     bool m_isSafeToCollect;
412
413     WriteBarrierBuffer m_writeBarrierBuffer;
414
415     VM* m_vm;
416     double m_lastFullGCLength;
417     double m_lastEdenGCLength;
418
419     Vector<ExecutableBase*> m_executables;
420
421     Vector<WeakBlock*> m_logicallyEmptyWeakBlocks;
422     size_t m_indexOfNextLogicallyEmptyWeakBlockToSweep { WTF::notFound };
423     
424     RefPtr<FullGCActivityCallback> m_fullActivityCallback;
425     RefPtr<GCActivityCallback> m_edenActivityCallback;
426     std::unique_ptr<IncrementalSweeper> m_sweeper;
427     Vector<MarkedBlock::Handle*> m_blockSnapshot;
428
429     Vector<HeapObserver*> m_observers;
430
431     unsigned m_deferralDepth;
432     Vector<DFG::Worklist*> m_suspendedCompilerWorklists;
433
434     std::unique_ptr<HeapVerifier> m_verifier;
435
436 #if USE(FOUNDATION)
437     Vector<RetainPtr<CFTypeRef>> m_delayedReleaseObjects;
438     unsigned m_delayedReleaseRecursionCount;
439 #endif
440
441     HashMap<void*, std::function<void()>> m_weakGCMaps;
442
443     Lock m_markingMutex;
444     Condition m_markingConditionVariable;
445     MarkStackArray m_sharedMarkStack;
446     unsigned m_numberOfActiveParallelMarkers { 0 };
447     unsigned m_numberOfWaitingParallelMarkers { 0 };
448     bool m_parallelMarkersShouldExit { false };
449
450     Lock m_opaqueRootsMutex;
451     HashSet<void*> m_opaqueRoots;
452
453     static const size_t s_blockFragmentLength = 32;
454
455     ListableHandler<WeakReferenceHarvester>::List m_weakReferenceHarvesters;
456     ListableHandler<UnconditionalFinalizer>::List m_unconditionalFinalizers;
457
458     ParallelHelperClient m_helperClient;
459
460 #if ENABLE(RESOURCE_USAGE)
461     size_t m_blockBytesAllocated { 0 };
462     size_t m_externalMemorySize { 0 };
463 #endif
464 };
465
466 } // namespace JSC
467
468 #endif // Heap_h