e589ec01d8fb6362228008650e13bf5f4fbea7dd
[WebKit-https.git] / Source / JavaScriptCore / heap / Heap.h
1 /*
2  *  Copyright (C) 1999-2000 Harri Porten (porten@kde.org)
3  *  Copyright (C) 2001 Peter Kelly (pmk@post.com)
4  *  Copyright (C) 2003-2009, 2013-2014 Apple Inc. All rights reserved.
5  *
6  *  This library is free software; you can redistribute it and/or
7  *  modify it under the terms of the GNU Lesser General Public
8  *  License as published by the Free Software Foundation; either
9  *  version 2 of the License, or (at your option) any later version.
10  *
11  *  This library is distributed in the hope that it will be useful,
12  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
13  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  *  Lesser General Public License for more details.
15  *
16  *  You should have received a copy of the GNU Lesser General Public
17  *  License along with this library; if not, write to the Free Software
18  *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
19  *
20  */
21
22 #ifndef Heap_h
23 #define Heap_h
24
25 #include "ArrayBuffer.h"
26 #include "CodeBlockSet.h"
27 #include "CopyVisitor.h"
28 #include "GCIncomingRefCountedSet.h"
29 #include "GCThreadSharedData.h"
30 #include "HandleSet.h"
31 #include "HandleStack.h"
32 #include "HeapOperation.h"
33 #include "JITStubRoutineSet.h"
34 #include "MarkedAllocator.h"
35 #include "MarkedBlock.h"
36 #include "MarkedBlockSet.h"
37 #include "MarkedSpace.h"
38 #include "Options.h"
39 #include "SlotVisitor.h"
40 #include "StructureIDTable.h"
41 #include "WeakHandleOwner.h"
42 #include "WriteBarrierBuffer.h"
43 #include "WriteBarrierSupport.h"
44 #include <wtf/HashCountedSet.h>
45 #include <wtf/HashSet.h>
46
47 namespace JSC {
48
49 class CopiedSpace;
50 class CodeBlock;
51 class ExecutableBase;
52 class EdenGCActivityCallback;
53 class FullGCActivityCallback;
54 class GCActivityCallback;
55 class GCAwareJITStubRoutine;
56 class GlobalCodeBlock;
57 class Heap;
58 class HeapRootVisitor;
59 class HeapVerifier;
60 class IncrementalSweeper;
61 class JITStubRoutine;
62 class JSCell;
63 class VM;
64 class JSStack;
65 class JSValue;
66 class LiveObjectIterator;
67 class LLIntOffsetsExtractor;
68 class MarkedArgumentBuffer;
69 class WeakGCHandlePool;
70 class SlotVisitor;
71
72 namespace DFG {
73 class Worklist;
74 }
75
76 static void* const zombifiedBits = reinterpret_cast<void*>(0xdeadbeef);
77
78 typedef std::pair<JSValue, WTF::String> ValueStringPair;
79 typedef HashCountedSet<JSCell*> ProtectCountSet;
80 typedef HashCountedSet<const char*> TypeCountSet;
81
82 enum HeapType { SmallHeap, LargeHeap };
83
84 class Heap {
85     WTF_MAKE_NONCOPYABLE(Heap);
86 public:
87     friend class JIT;
88     friend class DFG::SpeculativeJIT;
89     friend class GCThreadSharedData;
90     static Heap* heap(const JSValue); // 0 for immediate values
91     static Heap* heap(const JSCell*);
92
93     // This constant determines how many blocks we iterate between checks of our 
94     // deadline when calling Heap::isPagedOut. Decreasing it will cause us to detect 
95     // overstepping our deadline more quickly, while increasing it will cause 
96     // our scan to run faster. 
97     static const unsigned s_timeCheckResolution = 16;
98
99     static bool isLive(const void*);
100     static bool isMarked(const void*);
101     static bool testAndSetMarked(const void*);
102     static void setMarked(const void*);
103     static bool isRemembered(const void*);
104
105     JS_EXPORT_PRIVATE void addToRememberedSet(const JSCell*);
106     static bool isWriteBarrierEnabled();
107     void writeBarrier(const JSCell*);
108     void writeBarrier(const JSCell*, JSValue);
109     void writeBarrier(const JSCell*, JSCell*);
110
111     WriteBarrierBuffer& writeBarrierBuffer() { return m_writeBarrierBuffer; }
112     void flushWriteBarrierBuffer(JSCell*);
113
114     Heap(VM*, HeapType);
115     ~Heap();
116     JS_EXPORT_PRIVATE void lastChanceToFinalize();
117     void releaseDelayedReleasedObjects();
118
119     VM* vm() const { return m_vm; }
120     MarkedSpace& objectSpace() { return m_objectSpace; }
121     MachineThreads& machineThreads() { return m_machineThreads; }
122
123     const SlotVisitor& slotVisitor() const { return m_slotVisitor; }
124
125     JS_EXPORT_PRIVATE GCActivityCallback* fullActivityCallback();
126     JS_EXPORT_PRIVATE GCActivityCallback* edenActivityCallback();
127     JS_EXPORT_PRIVATE void setFullActivityCallback(PassRefPtr<FullGCActivityCallback>);
128     JS_EXPORT_PRIVATE void setEdenActivityCallback(PassRefPtr<EdenGCActivityCallback>);
129     JS_EXPORT_PRIVATE void setGarbageCollectionTimerEnabled(bool);
130
131     JS_EXPORT_PRIVATE IncrementalSweeper* sweeper();
132     JS_EXPORT_PRIVATE void setIncrementalSweeper(std::unique_ptr<IncrementalSweeper>);
133
134     // true if collection is in progress
135     bool isCollecting();
136     HeapOperation operationInProgress() { return m_operationInProgress; }
137     // true if an allocation or collection is in progress
138     bool isBusy();
139     MarkedSpace::Subspace& subspaceForObjectWithoutDestructor() { return m_objectSpace.subspaceForObjectsWithoutDestructor(); }
140     MarkedSpace::Subspace& subspaceForObjectNormalDestructor() { return m_objectSpace.subspaceForObjectsWithNormalDestructor(); }
141     MarkedSpace::Subspace& subspaceForObjectsWithImmortalStructure() { return m_objectSpace.subspaceForObjectsWithImmortalStructure(); }
142     template<typename ClassType> MarkedSpace::Subspace& subspaceForObjectOfType();
143     MarkedAllocator& allocatorForObjectWithoutDestructor(size_t bytes) { return m_objectSpace.allocatorFor(bytes); }
144     MarkedAllocator& allocatorForObjectWithNormalDestructor(size_t bytes) { return m_objectSpace.normalDestructorAllocatorFor(bytes); }
145     MarkedAllocator& allocatorForObjectWithImmortalStructureDestructor(size_t bytes) { return m_objectSpace.immortalStructureDestructorAllocatorFor(bytes); }
146     template<typename ClassType> MarkedAllocator& allocatorForObjectOfType(size_t bytes);
147     CopiedAllocator& storageAllocator() { return m_storageSpace.allocator(); }
148     CheckedBoolean tryAllocateStorage(JSCell* intendedOwner, size_t, void**);
149     CheckedBoolean tryReallocateStorage(JSCell* intendedOwner, void**, size_t, size_t);
150     void ascribeOwner(JSCell* intendedOwner, void*);
151
152     typedef void (*Finalizer)(JSCell*);
153     JS_EXPORT_PRIVATE void addFinalizer(JSCell*, Finalizer);
154     void addCompiledCode(ExecutableBase*);
155
156     void notifyIsSafeToCollect() { m_isSafeToCollect = true; }
157     bool isSafeToCollect() const { return m_isSafeToCollect; }
158
159     JS_EXPORT_PRIVATE void collectAllGarbage();
160     bool shouldCollect();
161     JS_EXPORT_PRIVATE void collect(HeapOperation collectionType = AnyCollection);
162     bool collectIfNecessaryOrDefer(); // Returns true if it did collect.
163
164     void reportExtraMemoryCost(size_t cost);
165     JS_EXPORT_PRIVATE void reportAbandonedObjectGraph();
166
167     JS_EXPORT_PRIVATE void protect(JSValue);
168     JS_EXPORT_PRIVATE bool unprotect(JSValue); // True when the protect count drops to 0.
169     
170     size_t extraSize(); // extra memory usage outside of pages allocated by the heap
171     JS_EXPORT_PRIVATE size_t size();
172     JS_EXPORT_PRIVATE size_t capacity();
173     JS_EXPORT_PRIVATE size_t objectCount();
174     JS_EXPORT_PRIVATE size_t globalObjectCount();
175     JS_EXPORT_PRIVATE size_t protectedObjectCount();
176     JS_EXPORT_PRIVATE size_t protectedGlobalObjectCount();
177     JS_EXPORT_PRIVATE std::unique_ptr<TypeCountSet> protectedObjectTypeCounts();
178     JS_EXPORT_PRIVATE std::unique_ptr<TypeCountSet> objectTypeCounts();
179     void showStatistics();
180
181     void pushTempSortVector(Vector<ValueStringPair, 0, UnsafeVectorOverflow>*);
182     void popTempSortVector(Vector<ValueStringPair, 0, UnsafeVectorOverflow>*);
183
184     HashSet<MarkedArgumentBuffer*>& markListSet();
185     
186     template<typename Functor> typename Functor::ReturnType forEachProtectedCell(Functor&);
187     template<typename Functor> typename Functor::ReturnType forEachProtectedCell();
188     template<typename Functor> void forEachCodeBlock(Functor&);
189
190     HandleSet* handleSet() { return &m_handleSet; }
191     HandleStack* handleStack() { return &m_handleStack; }
192
193     void willStartIterating();
194     void didFinishIterating();
195     void getConservativeRegisterRoots(HashSet<JSCell*>& roots);
196
197     double lastFullGCLength() const { return m_lastFullGCLength; }
198     double lastEdenGCLength() const { return m_lastEdenGCLength; }
199     void increaseLastFullGCLength(double amount) { m_lastFullGCLength += amount; }
200
201     size_t sizeBeforeLastEdenCollection() const { return m_sizeBeforeLastEdenCollect; }
202     size_t sizeAfterLastEdenCollection() const { return m_sizeAfterLastEdenCollect; }
203     size_t sizeBeforeLastFullCollection() const { return m_sizeBeforeLastFullCollect; }
204     size_t sizeAfterLastFullCollection() const { return m_sizeAfterLastFullCollect; }
205
206     JS_EXPORT_PRIVATE void deleteAllCompiledCode();
207     void deleteAllUnlinkedFunctionCode();
208
209     void didAllocate(size_t);
210     void didAbandon(size_t);
211
212     bool isPagedOut(double deadline);
213     
214     const JITStubRoutineSet& jitStubRoutines() { return m_jitStubRoutines; }
215     
216     void addReference(JSCell*, ArrayBuffer*);
217     
218     bool isDeferred() const { return !!m_deferralDepth || Options::disableGC(); }
219
220     StructureIDTable& structureIDTable() { return m_structureIDTable; }
221
222 #if USE(CF)
223         template<typename T> void releaseSoon(RetainPtr<T>&&);
224 #endif
225
226     void removeCodeBlock(CodeBlock* cb) { m_codeBlocks.remove(cb); }
227
228     static bool isZombified(JSCell* cell) { return *(void**)cell == zombifiedBits; }
229
230     void registerWeakGCMap(void* weakGCMap, std::function<void()> pruningCallback);
231     void unregisterWeakGCMap(void* weakGCMap);
232
233 private:
234     friend class CodeBlock;
235     friend class CopiedBlock;
236     friend class DeferGC;
237     friend class DeferGCForAWhile;
238     friend class GCAwareJITStubRoutine;
239     friend class GCLogging;
240     friend class HandleSet;
241     friend class HeapVerifier;
242     friend class JITStubRoutine;
243     friend class LLIntOffsetsExtractor;
244     friend class MarkedSpace;
245     friend class MarkedAllocator;
246     friend class MarkedBlock;
247     friend class CopiedSpace;
248     friend class CopyVisitor;
249     friend class RecursiveAllocationScope;
250     friend class SlotVisitor;
251     friend class SuperRegion;
252     friend class IncrementalSweeper;
253     friend class HeapStatistics;
254     friend class VM;
255     friend class WeakSet;
256     template<typename T> friend void* allocateCell(Heap&);
257     template<typename T> friend void* allocateCell(Heap&, size_t);
258
259     void* allocateWithImmortalStructureDestructor(size_t); // For use with special objects whose Structures never die.
260     void* allocateWithNormalDestructor(size_t); // For use with objects that inherit directly or indirectly from JSDestructibleObject.
261     void* allocateWithoutDestructor(size_t); // For use with objects without destructors.
262     template<typename ClassType> void* allocateObjectOfType(size_t); // Chooses one of the methods above based on type.
263
264     static const size_t minExtraCost = 256;
265     static const size_t maxExtraCost = 1024 * 1024;
266     
267     class FinalizerOwner : public WeakHandleOwner {
268         virtual void finalize(Handle<Unknown>, void* context) override;
269     };
270
271     JS_EXPORT_PRIVATE bool isValidAllocation(size_t);
272     JS_EXPORT_PRIVATE void reportExtraMemoryCostSlowCase(size_t);
273
274     void collectImpl(HeapOperation, void* stackOrigin, void* stackTop, MachineThreads::RegisterState&);
275
276     void suspendCompilerThreads();
277     void willStartCollection(HeapOperation collectionType);
278     void deleteOldCode(double gcStartTime);
279     void flushOldStructureIDTables();
280     void flushWriteBarrierBuffer();
281     void stopAllocation();
282
283     void markRoots(double gcStartTime, void* stackOrigin, void* stackTop, MachineThreads::RegisterState&);
284     void gatherStackRoots(ConservativeRoots&, void* stackOrigin, void* stackTop, MachineThreads::RegisterState&);
285     void gatherJSStackRoots(ConservativeRoots&);
286     void gatherScratchBufferRoots(ConservativeRoots&);
287     void clearLivenessData();
288     void visitExternalRememberedSet();
289     void visitSmallStrings();
290     void visitConservativeRoots(ConservativeRoots&);
291     void visitCompilerWorklistWeakReferences();
292     void removeDeadCompilerWorklistEntries();
293     void visitProtectedObjects(HeapRootVisitor&);
294     void visitTempSortVectors(HeapRootVisitor&);
295     void visitArgumentBuffers(HeapRootVisitor&);
296     void visitException(HeapRootVisitor&);
297     void visitStrongHandles(HeapRootVisitor&);
298     void visitHandleStack(HeapRootVisitor&);
299     void traceCodeBlocksAndJITStubRoutines();
300     void converge();
301     void visitWeakHandles(HeapRootVisitor&);
302     void clearRememberedSet(Vector<const JSCell*>&);
303     void updateObjectCounts(double gcStartTime);
304     void resetVisitors();
305
306     void reapWeakHandles();
307     void pruneStaleEntriesFromWeakGCMaps();
308     void sweepArrayBuffers();
309     void snapshotMarkedSpace();
310     void deleteSourceProviderCaches();
311     void notifyIncrementalSweeper();
312     void rememberCurrentlyExecutingCodeBlocks();
313     void resetAllocators();
314     void copyBackingStores();
315     void harvestWeakReferences();
316     void finalizeUnconditionalFinalizers();
317     void clearUnmarkedExecutables();
318     void deleteUnmarkedCompiledCode();
319     void updateAllocationLimits();
320     void didFinishCollection(double gcStartTime);
321     void resumeCompilerThreads();
322     void zombifyDeadObjects();
323     void markDeadObjects();
324
325     bool shouldDoFullCollection(HeapOperation requestedCollectionType) const;
326     size_t sizeAfterCollect();
327
328     JSStack& stack();
329     
330     void incrementDeferralDepth();
331     void decrementDeferralDepth();
332     void decrementDeferralDepthAndGCIfNeeded();
333
334     const HeapType m_heapType;
335     const size_t m_ramSize;
336     const size_t m_minBytesPerCycle;
337     size_t m_sizeAfterLastCollect;
338     size_t m_sizeAfterLastFullCollect;
339     size_t m_sizeBeforeLastFullCollect;
340     size_t m_sizeAfterLastEdenCollect;
341     size_t m_sizeBeforeLastEdenCollect;
342
343     size_t m_bytesAllocatedThisCycle;
344     size_t m_bytesAbandonedSinceLastFullCollect;
345     size_t m_maxEdenSize;
346     size_t m_maxHeapSize;
347     bool m_shouldDoFullCollection;
348     size_t m_totalBytesVisited;
349     size_t m_totalBytesCopied;
350     
351     HeapOperation m_operationInProgress;
352     StructureIDTable m_structureIDTable;
353     MarkedSpace m_objectSpace;
354     CopiedSpace m_storageSpace;
355     GCIncomingRefCountedSet<ArrayBuffer> m_arrayBuffers;
356     size_t m_extraMemoryUsage;
357
358     HashSet<const JSCell*> m_copyingRememberedSet;
359
360     ProtectCountSet m_protectedValues;
361     Vector<Vector<ValueStringPair, 0, UnsafeVectorOverflow>*> m_tempSortingVectors;
362     std::unique_ptr<HashSet<MarkedArgumentBuffer*>> m_markListSet;
363
364     MachineThreads m_machineThreads;
365     
366     GCThreadSharedData m_sharedData;
367     SlotVisitor m_slotVisitor;
368     CopyVisitor m_copyVisitor;
369
370     HandleSet m_handleSet;
371     HandleStack m_handleStack;
372     CodeBlockSet m_codeBlocks;
373     JITStubRoutineSet m_jitStubRoutines;
374     FinalizerOwner m_finalizerOwner;
375     
376     bool m_isSafeToCollect;
377
378     WriteBarrierBuffer m_writeBarrierBuffer;
379
380     VM* m_vm;
381     double m_lastFullGCLength;
382     double m_lastEdenGCLength;
383     double m_lastCodeDiscardTime;
384
385     Vector<ExecutableBase*> m_compiledCode;
386     
387     RefPtr<GCActivityCallback> m_fullActivityCallback;
388     RefPtr<GCActivityCallback> m_edenActivityCallback;
389     std::unique_ptr<IncrementalSweeper> m_sweeper;
390     Vector<MarkedBlock*> m_blockSnapshot;
391     
392     unsigned m_deferralDepth;
393     Vector<DFG::Worklist*> m_suspendedCompilerWorklists;
394
395     std::unique_ptr<HeapVerifier> m_verifier;
396 #if USE(CF)
397     Vector<RetainPtr<CFTypeRef>> m_delayedReleaseObjects;
398     unsigned m_delayedReleaseRecursionCount;
399 #endif
400
401     HashMap<void*, std::function<void()>> m_weakGCMaps;
402 };
403
404 } // namespace JSC
405
406 #endif // Heap_h