It should be possible to jettison JIT stub routines even if they are currently running
[WebKit-https.git] / Source / JavaScriptCore / heap / Heap.h
1 /*
2  *  Copyright (C) 1999-2000 Harri Porten (porten@kde.org)
3  *  Copyright (C) 2001 Peter Kelly (pmk@post.com)
4  *  Copyright (C) 2003, 2004, 2005, 2006, 2007, 2008, 2009 Apple Inc. All rights reserved.
5  *
6  *  This library is free software; you can redistribute it and/or
7  *  modify it under the terms of the GNU Lesser General Public
8  *  License as published by the Free Software Foundation; either
9  *  version 2 of the License, or (at your option) any later version.
10  *
11  *  This library is distributed in the hope that it will be useful,
12  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
13  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  *  Lesser General Public License for more details.
15  *
16  *  You should have received a copy of the GNU Lesser General Public
17  *  License along with this library; if not, write to the Free Software
18  *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
19  *
20  */
21
22 #ifndef Heap_h
23 #define Heap_h
24
25 #include "BlockAllocator.h"
26 #include "DFGCodeBlocks.h"
27 #include "HandleSet.h"
28 #include "HandleStack.h"
29 #include "JITStubRoutineSet.h"
30 #include "MarkedAllocator.h"
31 #include "MarkedBlock.h"
32 #include "MarkedBlockSet.h"
33 #include "MarkedSpace.h"
34 #include "SlotVisitor.h"
35 #include "WeakHandleOwner.h"
36 #include "WriteBarrierSupport.h"
37 #include <wtf/HashCountedSet.h>
38 #include <wtf/HashSet.h>
39
40 #define COLLECT_ON_EVERY_ALLOCATION 0
41
42 namespace JSC {
43
44     class CopiedSpace;
45     class CodeBlock;
46     class ExecutableBase;
47     class GCActivityCallback;
48     class GCAwareJITStubRoutine;
49     class GlobalCodeBlock;
50     class Heap;
51     class HeapRootVisitor;
52     class IncrementalSweeper;
53     class JITStubRoutine;
54     class JSCell;
55     class JSGlobalData;
56     class JSValue;
57     class LiveObjectIterator;
58     class LLIntOffsetsExtractor;
59     class MarkedArgumentBuffer;
60     class RegisterFile;
61     class UString;
62     class WeakGCHandlePool;
63     class SlotVisitor;
64
65     typedef std::pair<JSValue, UString> ValueStringPair;
66     typedef HashCountedSet<JSCell*> ProtectCountSet;
67     typedef HashCountedSet<const char*> TypeCountSet;
68
69     enum OperationInProgress { NoOperation, Allocation, Collection };
70
71     enum HeapType { SmallHeap, LargeHeap };
72
73     class Heap {
74         WTF_MAKE_NONCOPYABLE(Heap);
75     public:
76         friend class JIT;
77         friend class MarkStackThreadSharedData;
78         static Heap* heap(const JSValue); // 0 for immediate values
79         static Heap* heap(const JSCell*);
80
81         // This constant determines how many blocks we iterate between checks of our 
82         // deadline when calling Heap::isPagedOut. Decreasing it will cause us to detect 
83         // overstepping our deadline more quickly, while increasing it will cause 
84         // our scan to run faster. 
85         static const unsigned s_timeCheckResolution = 16;
86
87         static bool isMarked(const void*);
88         static bool testAndSetMarked(const void*);
89         static void setMarked(const void*);
90
91         static bool isWriteBarrierEnabled();
92         static void writeBarrier(const JSCell*, JSValue);
93         static void writeBarrier(const JSCell*, JSCell*);
94         static uint8_t* addressOfCardFor(JSCell*);
95
96         Heap(JSGlobalData*, HeapType);
97         ~Heap();
98         JS_EXPORT_PRIVATE void lastChanceToFinalize();
99
100         JSGlobalData* globalData() const { return m_globalData; }
101         MarkedSpace& objectSpace() { return m_objectSpace; }
102         MachineThreads& machineThreads() { return m_machineThreads; }
103
104         JS_EXPORT_PRIVATE GCActivityCallback* activityCallback();
105         JS_EXPORT_PRIVATE void setActivityCallback(GCActivityCallback*);
106         JS_EXPORT_PRIVATE void setGarbageCollectionTimerEnabled(bool);
107
108         JS_EXPORT_PRIVATE IncrementalSweeper* sweeper();
109
110         // true if an allocation or collection is in progress
111         inline bool isBusy();
112         
113         MarkedAllocator& firstAllocatorWithoutDestructors() { return m_objectSpace.firstAllocator(); }
114         MarkedAllocator& allocatorForObjectWithoutDestructor(size_t bytes) { return m_objectSpace.allocatorFor(bytes); }
115         MarkedAllocator& allocatorForObjectWithDestructor(size_t bytes) { return m_objectSpace.destructorAllocatorFor(bytes); }
116         CopiedAllocator& storageAllocator() { return m_storageSpace.allocator(); }
117         CheckedBoolean tryAllocateStorage(size_t, void**);
118         CheckedBoolean tryReallocateStorage(void**, size_t, size_t);
119
120         typedef void (*Finalizer)(JSCell*);
121         JS_EXPORT_PRIVATE void addFinalizer(JSCell*, Finalizer);
122         void addCompiledCode(ExecutableBase*);
123
124         void notifyIsSafeToCollect() { m_isSafeToCollect = true; }
125         bool isSafeToCollect() const { return m_isSafeToCollect; }
126
127         JS_EXPORT_PRIVATE void collectAllGarbage();
128         enum SweepToggle { DoNotSweep, DoSweep };
129         bool shouldCollect();
130         void collect(SweepToggle);
131
132         void reportExtraMemoryCost(size_t cost);
133         JS_EXPORT_PRIVATE void reportAbandonedObjectGraph();
134
135         JS_EXPORT_PRIVATE void protect(JSValue);
136         JS_EXPORT_PRIVATE bool unprotect(JSValue); // True when the protect count drops to 0.
137         
138         void jettisonDFGCodeBlock(PassOwnPtr<CodeBlock>);
139
140         JS_EXPORT_PRIVATE size_t size();
141         JS_EXPORT_PRIVATE size_t capacity();
142         JS_EXPORT_PRIVATE size_t objectCount();
143         JS_EXPORT_PRIVATE size_t globalObjectCount();
144         JS_EXPORT_PRIVATE size_t protectedObjectCount();
145         JS_EXPORT_PRIVATE size_t protectedGlobalObjectCount();
146         JS_EXPORT_PRIVATE PassOwnPtr<TypeCountSet> protectedObjectTypeCounts();
147         JS_EXPORT_PRIVATE PassOwnPtr<TypeCountSet> objectTypeCounts();
148
149         void pushTempSortVector(Vector<ValueStringPair>*);
150         void popTempSortVector(Vector<ValueStringPair>*);
151     
152         HashSet<MarkedArgumentBuffer*>& markListSet() { if (!m_markListSet) m_markListSet = adoptPtr(new HashSet<MarkedArgumentBuffer*>); return *m_markListSet; }
153         
154         template<typename Functor> typename Functor::ReturnType forEachProtectedCell(Functor&);
155         template<typename Functor> typename Functor::ReturnType forEachProtectedCell();
156
157         HandleSet* handleSet() { return &m_handleSet; }
158         HandleStack* handleStack() { return &m_handleStack; }
159
160         void getConservativeRegisterRoots(HashSet<JSCell*>& roots);
161
162         double lastGCLength() { return m_lastGCLength; }
163         void increaseLastGCLength(double amount) { m_lastGCLength += amount; }
164
165         JS_EXPORT_PRIVATE void deleteAllCompiledCode();
166
167         void didAllocate(size_t);
168         void didAbandon(size_t);
169
170         bool isPagedOut(double deadline);
171
172     private:
173         friend class CodeBlock;
174         friend class GCAwareJITStubRoutine;
175         friend class JITStubRoutine;
176         friend class LLIntOffsetsExtractor;
177         friend class MarkedSpace;
178         friend class MarkedAllocator;
179         friend class MarkedBlock;
180         friend class CopiedSpace;
181         friend class SlotVisitor;
182         template<typename T> friend void* allocateCell(Heap&);
183
184         void* allocateWithDestructor(size_t);
185         void* allocateWithoutDestructor(size_t);
186
187         static const size_t minExtraCost = 256;
188         static const size_t maxExtraCost = 1024 * 1024;
189         
190         class FinalizerOwner : public WeakHandleOwner {
191             virtual void finalize(Handle<Unknown>, void* context);
192         };
193
194         JS_EXPORT_PRIVATE bool isValidAllocation(size_t);
195         JS_EXPORT_PRIVATE void reportExtraMemoryCostSlowCase(size_t);
196
197         void markRoots(bool fullGC);
198         void markProtectedObjects(HeapRootVisitor&);
199         void markTempSortVectors(HeapRootVisitor&);
200         void harvestWeakReferences();
201         void finalizeUnconditionalFinalizers();
202         void deleteUnmarkedCompiledCode();
203         
204         RegisterFile& registerFile();
205         BlockAllocator& blockAllocator();
206
207         const HeapType m_heapType;
208         const size_t m_ramSize;
209         const size_t m_minBytesPerCycle;
210         size_t m_sizeAfterLastCollect;
211
212         size_t m_bytesAllocatedLimit;
213         size_t m_bytesAllocated;
214         size_t m_bytesAbandoned;
215         
216         OperationInProgress m_operationInProgress;
217         BlockAllocator m_blockAllocator;
218         MarkedSpace m_objectSpace;
219         CopiedSpace m_storageSpace;
220
221 #if ENABLE(SIMPLE_HEAP_PROFILING)
222         VTableSpectrum m_destroyedTypeCounts;
223 #endif
224
225         ProtectCountSet m_protectedValues;
226         Vector<Vector<ValueStringPair>* > m_tempSortingVectors;
227         OwnPtr<HashSet<MarkedArgumentBuffer*> > m_markListSet;
228
229         MachineThreads m_machineThreads;
230         
231         MarkStackThreadSharedData m_sharedData;
232         SlotVisitor m_slotVisitor;
233
234         HandleSet m_handleSet;
235         HandleStack m_handleStack;
236         DFGCodeBlocks m_dfgCodeBlocks;
237         JITStubRoutineSet m_jitStubRoutines;
238         FinalizerOwner m_finalizerOwner;
239         
240         bool m_isSafeToCollect;
241
242         JSGlobalData* m_globalData;
243         double m_lastGCLength;
244         double m_lastCodeDiscardTime;
245
246         DoublyLinkedList<ExecutableBase> m_compiledCode;
247         
248         GCActivityCallback* m_activityCallback;
249         IncrementalSweeper* m_sweeper;
250     };
251
252     inline bool Heap::shouldCollect()
253     {
254 #if ENABLE(GGC)
255         return m_objectSpace.nurseryWaterMark() >= m_minBytesPerCycle && m_isSafeToCollect && m_operationInProgress == NoOperation;
256 #else
257         return m_bytesAllocated > m_bytesAllocatedLimit && m_isSafeToCollect && m_operationInProgress == NoOperation;
258 #endif
259     }
260
261     bool Heap::isBusy()
262     {
263         return m_operationInProgress != NoOperation;
264     }
265
266     inline Heap* Heap::heap(const JSCell* cell)
267     {
268         return MarkedBlock::blockFor(cell)->heap();
269     }
270
271     inline Heap* Heap::heap(const JSValue v)
272     {
273         if (!v.isCell())
274             return 0;
275         return heap(v.asCell());
276     }
277
278     inline bool Heap::isMarked(const void* cell)
279     {
280         return MarkedBlock::blockFor(cell)->isMarked(cell);
281     }
282
283     inline bool Heap::testAndSetMarked(const void* cell)
284     {
285         return MarkedBlock::blockFor(cell)->testAndSetMarked(cell);
286     }
287
288     inline void Heap::setMarked(const void* cell)
289     {
290         MarkedBlock::blockFor(cell)->setMarked(cell);
291     }
292
293     inline bool Heap::isWriteBarrierEnabled()
294     {
295 #if ENABLE(GGC) || ENABLE(WRITE_BARRIER_PROFILING)
296         return true;
297 #else
298         return false;
299 #endif
300     }
301
302 #if ENABLE(GGC)
303     inline uint8_t* Heap::addressOfCardFor(JSCell* cell)
304     {
305         return MarkedBlock::blockFor(cell)->addressOfCardFor(cell);
306     }
307
308     inline void Heap::writeBarrier(const JSCell* owner, JSCell*)
309     {
310         WriteBarrierCounters::countWriteBarrier();
311         MarkedBlock* block = MarkedBlock::blockFor(owner);
312         if (block->isMarked(owner))
313             block->setDirtyObject(owner);
314     }
315
316     inline void Heap::writeBarrier(const JSCell* owner, JSValue value)
317     {
318         if (!value)
319             return;
320         if (!value.isCell())
321             return;
322         writeBarrier(owner, value.asCell());
323     }
324 #else
325
326     inline void Heap::writeBarrier(const JSCell*, JSCell*)
327     {
328         WriteBarrierCounters::countWriteBarrier();
329     }
330
331     inline void Heap::writeBarrier(const JSCell*, JSValue)
332     {
333         WriteBarrierCounters::countWriteBarrier();
334     }
335 #endif
336
337     inline void Heap::reportExtraMemoryCost(size_t cost)
338     {
339         if (cost > minExtraCost) 
340             reportExtraMemoryCostSlowCase(cost);
341     }
342
343     template<typename Functor> inline typename Functor::ReturnType Heap::forEachProtectedCell(Functor& functor)
344     {
345         ProtectCountSet::iterator end = m_protectedValues.end();
346         for (ProtectCountSet::iterator it = m_protectedValues.begin(); it != end; ++it)
347             functor(it->first);
348         m_handleSet.forEachStrongHandle(functor, m_protectedValues);
349
350         return functor.returnValue();
351     }
352
353     template<typename Functor> inline typename Functor::ReturnType Heap::forEachProtectedCell()
354     {
355         Functor functor;
356         return forEachProtectedCell(functor);
357     }
358
359     inline void* Heap::allocateWithDestructor(size_t bytes)
360     {
361         ASSERT(isValidAllocation(bytes));
362         return m_objectSpace.allocateWithDestructor(bytes);
363     }
364     
365     inline void* Heap::allocateWithoutDestructor(size_t bytes)
366     {
367         ASSERT(isValidAllocation(bytes));
368         return m_objectSpace.allocateWithoutDestructor(bytes);
369     }
370     
371     inline CheckedBoolean Heap::tryAllocateStorage(size_t bytes, void** outPtr)
372     {
373         return m_storageSpace.tryAllocate(bytes, outPtr);
374     }
375     
376     inline CheckedBoolean Heap::tryReallocateStorage(void** ptr, size_t oldSize, size_t newSize)
377     {
378         return m_storageSpace.tryReallocate(ptr, oldSize, newSize);
379     }
380
381     inline BlockAllocator& Heap::blockAllocator()
382     {
383         return m_blockAllocator;
384     }
385
386 } // namespace JSC
387
388 #endif // Heap_h