9f67ef0c128282242bfe1298b76520f4aa6180db
[WebKit.git] / Source / JavaScriptCore / runtime / Structure.h
1 /*
2  * Copyright (C) 2008, 2009, 2012-2016 Apple Inc. All rights reserved.
3  *
4  * Redistribution and use in source and binary forms, with or without
5  * modification, are permitted provided that the following conditions
6  * are met:
7  * 1. Redistributions of source code must retain the above copyright
8  *    notice, this list of conditions and the following disclaimer.
9  * 2. Redistributions in binary form must reproduce the above copyright
10  *    notice, this list of conditions and the following disclaimer in the
11  *    documentation and/or other materials provided with the distribution.
12  *
13  * THIS SOFTWARE IS PROVIDED BY APPLE INC. ``AS IS'' AND ANY
14  * EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
15  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
16  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL APPLE INC. OR
17  * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
18  * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
19  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
20  * PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY
21  * OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
22  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
23  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE. 
24  */
25
26 #ifndef Structure_h
27 #define Structure_h
28
29 #include "ClassInfo.h"
30 #include "ConcurrentJITLock.h"
31 #include "IndexingType.h"
32 #include "InferredTypeTable.h"
33 #include "JSCJSValue.h"
34 #include "JSCell.h"
35 #include "JSType.h"
36 #include "PropertyName.h"
37 #include "PropertyNameArray.h"
38 #include "PropertyOffset.h"
39 #include "Protect.h"
40 #include "PutPropertySlot.h"
41 #include "StructureIDBlob.h"
42 #include "StructureRareData.h"
43 #include "StructureRareDataInlines.h"
44 #include "StructureTransitionTable.h"
45 #include "JSTypeInfo.h"
46 #include "Watchpoint.h"
47 #include "Weak.h"
48 #include "WriteBarrierInlines.h"
49 #include <wtf/CompilationThread.h>
50 #include <wtf/PassRefPtr.h>
51 #include <wtf/PrintStream.h>
52 #include <wtf/RefCounted.h>
53
54 namespace WTF {
55
56 class UniquedStringImpl;
57
58 } // namespace WTF
59
60 namespace JSC {
61
62 class DeferGC;
63 class LLIntOffsetsExtractor;
64 class PropertyNameArray;
65 class PropertyNameArrayData;
66 class PropertyTable;
67 class StructureChain;
68 class StructureShape;
69 class SlotVisitor;
70 class JSString;
71 struct DumpContext;
72
73 // The out-of-line property storage capacity to use when first allocating out-of-line
74 // storage. Note that all objects start out without having any out-of-line storage;
75 // this comes into play only on the first property store that exhausts inline storage.
76 static const unsigned initialOutOfLineCapacity = 4;
77
78 // The factor by which to grow out-of-line storage when it is exhausted, after the
79 // initial allocation.
80 static const unsigned outOfLineGrowthFactor = 2;
81
82 struct PropertyMapEntry {
83     UniquedStringImpl* key;
84     PropertyOffset offset;
85     uint8_t attributes;
86     bool hasInferredType; // This caches whether or not a property has an inferred type in the inferred type table, and is used for a fast check in JSObject::putDirectInternal().
87
88     PropertyMapEntry()
89         : key(nullptr)
90         , offset(invalidOffset)
91         , attributes(0)
92         , hasInferredType(false)
93     {
94     }
95     
96     PropertyMapEntry(UniquedStringImpl* key, PropertyOffset offset, unsigned attributes)
97         : key(key)
98         , offset(offset)
99         , attributes(attributes)
100         , hasInferredType(false)
101     {
102         ASSERT(this->attributes == attributes);
103     }
104 };
105
106 class StructureFireDetail : public FireDetail {
107 public:
108     StructureFireDetail(const Structure* structure)
109         : m_structure(structure)
110     {
111     }
112     
113     void dump(PrintStream& out) const override;
114
115 private:
116     const Structure* m_structure;
117 };
118
119 class DeferredStructureTransitionWatchpointFire {
120     WTF_MAKE_NONCOPYABLE(DeferredStructureTransitionWatchpointFire);
121 public:
122     JS_EXPORT_PRIVATE DeferredStructureTransitionWatchpointFire();
123     JS_EXPORT_PRIVATE ~DeferredStructureTransitionWatchpointFire();
124     
125     void add(const Structure*);
126     
127 private:
128     const Structure* m_structure;
129 };
130
131 class Structure final : public JSCell {
132 public:
133     friend class StructureTransitionTable;
134
135     typedef JSCell Base;
136     static const unsigned StructureFlags = Base::StructureFlags | StructureIsImmortal;
137     
138     static Structure* create(VM&, JSGlobalObject*, JSValue prototype, const TypeInfo&, const ClassInfo*, IndexingType = NonArray, unsigned inlineCapacity = 0);
139
140     ~Structure();
141
142 protected:
143     void finishCreation(VM& vm)
144     {
145         Base::finishCreation(vm);
146         ASSERT(m_prototype);
147         ASSERT(m_prototype.isObject() || m_prototype.isNull());
148     }
149
150     void finishCreation(VM& vm, CreatingEarlyCellTag)
151     {
152         Base::finishCreation(vm, this, CreatingEarlyCell);
153         ASSERT(m_prototype);
154         ASSERT(m_prototype.isNull());
155         ASSERT(!vm.structureStructure);
156     }
157
158 public:
159     StructureID id() const { return m_blob.structureID(); }
160     int32_t objectInitializationBlob() const { return m_blob.blobExcludingStructureID(); }
161     int64_t idBlob() const { return m_blob.blob(); }
162
163     bool isProxy() const
164     {
165         JSType type = m_blob.type();
166         return type == ImpureProxyType || type == PureForwardingProxyType;
167     }
168
169     static void dumpStatistics();
170
171     JS_EXPORT_PRIVATE static Structure* addPropertyTransition(VM&, Structure*, PropertyName, unsigned attributes, PropertyOffset&);
172     JS_EXPORT_PRIVATE static Structure* addNewPropertyTransition(VM&, Structure*, PropertyName, unsigned attributes, PropertyOffset&, PutPropertySlot::Context = PutPropertySlot::UnknownContext, DeferredStructureTransitionWatchpointFire* = nullptr);
173     static Structure* addPropertyTransitionToExistingStructureConcurrently(Structure*, UniquedStringImpl* uid, unsigned attributes, PropertyOffset&);
174     JS_EXPORT_PRIVATE static Structure* addPropertyTransitionToExistingStructure(Structure*, PropertyName, unsigned attributes, PropertyOffset&);
175     static Structure* removePropertyTransition(VM&, Structure*, PropertyName, PropertyOffset&);
176     JS_EXPORT_PRIVATE static Structure* changePrototypeTransition(VM&, Structure*, JSValue prototype);
177     JS_EXPORT_PRIVATE static Structure* attributeChangeTransition(VM&, Structure*, PropertyName, unsigned attributes);
178     JS_EXPORT_PRIVATE static Structure* toCacheableDictionaryTransition(VM&, Structure*, DeferredStructureTransitionWatchpointFire* = nullptr);
179     static Structure* toUncacheableDictionaryTransition(VM&, Structure*);
180     JS_EXPORT_PRIVATE static Structure* sealTransition(VM&, Structure*);
181     JS_EXPORT_PRIVATE static Structure* freezeTransition(VM&, Structure*);
182     static Structure* preventExtensionsTransition(VM&, Structure*);
183     JS_EXPORT_PRIVATE static Structure* nonPropertyTransition(VM&, Structure*, NonPropertyTransition);
184
185     JS_EXPORT_PRIVATE bool isSealed(VM&);
186     JS_EXPORT_PRIVATE bool isFrozen(VM&);
187     bool isStructureExtensible() const { return !didPreventExtensions(); }
188     bool putWillGrowOutOfLineStorage();
189     size_t suggestedNewOutOfLineStorageCapacity(); 
190
191     JS_EXPORT_PRIVATE Structure* flattenDictionaryStructure(VM&, JSObject*);
192
193     static const bool needsDestruction = true;
194     static void destroy(JSCell*);
195
196     // These should be used with caution.  
197     JS_EXPORT_PRIVATE PropertyOffset addPropertyWithoutTransition(VM&, PropertyName, unsigned attributes);
198     PropertyOffset removePropertyWithoutTransition(VM&, PropertyName);
199     void setPrototypeWithoutTransition(VM& vm, JSValue prototype) { m_prototype.set(vm, this, prototype); }
200         
201     bool isDictionary() const { return dictionaryKind() != NoneDictionaryKind; }
202     bool isUncacheableDictionary() const { return dictionaryKind() == UncachedDictionaryKind; }
203   
204     bool propertyAccessesAreCacheable()
205     {
206         return dictionaryKind() != UncachedDictionaryKind
207             && !typeInfo().prohibitsPropertyCaching()
208             && !(typeInfo().getOwnPropertySlotIsImpure() && !typeInfo().newImpurePropertyFiresWatchpoints());
209     }
210
211     bool propertyAccessesAreCacheableForAbsence()
212     {
213         return !typeInfo().getOwnPropertySlotIsImpureForPropertyAbsence();
214     }
215     
216     bool needImpurePropertyWatchpoint()
217     {
218         return propertyAccessesAreCacheable()
219             && typeInfo().getOwnPropertySlotIsImpure()
220             && typeInfo().newImpurePropertyFiresWatchpoints();
221     }
222
223     // We use SlowPath in GetByIdStatus for structures that may get new impure properties later to prevent
224     // DFG from inlining property accesses since structures don't transition when a new impure property appears.
225     bool takesSlowPathInDFGForImpureProperty()
226     {
227         return typeInfo().getOwnPropertySlotIsImpure();
228     }
229     
230     // Type accessors.
231     TypeInfo typeInfo() const { ASSERT(structure()->classInfo() == info()); return m_blob.typeInfo(m_outOfLineTypeFlags); }
232     bool isObject() const { return typeInfo().isObject(); }
233
234     IndexingType indexingType() const { return m_blob.indexingType() & AllArrayTypes; }
235     IndexingType indexingTypeIncludingHistory() const { return m_blob.indexingType(); }
236         
237     bool mayInterceptIndexedAccesses() const
238     {
239         return !!(indexingTypeIncludingHistory() & MayHaveIndexedAccessors);
240     }
241         
242     JS_EXPORT_PRIVATE bool anyObjectInChainMayInterceptIndexedAccesses() const;
243     bool holesMustForwardToPrototype(VM&) const;
244         
245     bool needsSlowPutIndexing() const;
246     NonPropertyTransition suggestedArrayStorageTransition() const;
247         
248     JSGlobalObject* globalObject() const { return m_globalObject.get(); }
249
250     // NOTE: This method should only be called during the creation of structures, since the global
251     // object of a structure is presumed to be immutable in a bunch of places.
252     void setGlobalObject(VM& vm, JSGlobalObject* globalObject) { m_globalObject.set(vm, this, globalObject); }
253         
254     JSValue storedPrototype() const { return m_prototype.get(); }
255     JSObject* storedPrototypeObject() const;
256     Structure* storedPrototypeStructure() const;
257     JSValue prototypeForLookup(ExecState*) const;
258     JSValue prototypeForLookup(JSGlobalObject*) const;
259     JSValue prototypeForLookup(CodeBlock*) const;
260     StructureChain* prototypeChain(VM&, JSGlobalObject*) const;
261     StructureChain* prototypeChain(ExecState*) const;
262     static void visitChildren(JSCell*, SlotVisitor&);
263     
264     // A Structure is cheap to mark during GC if doing so would only add a small and bounded amount
265     // to our heap footprint. For example, if the structure refers to a global object that is not
266     // yet marked, then as far as we know, the decision to mark this Structure would lead to a large
267     // increase in footprint because no other object refers to that global object. This method
268     // returns true if all user-controlled (and hence unbounded in size) objects referenced from the
269     // Structure are already marked.
270     bool isCheapDuringGC();
271     
272     // Returns true if this structure is now marked.
273     bool markIfCheap(SlotVisitor&);
274         
275     // Will just the prototype chain intercept this property access?
276     JS_EXPORT_PRIVATE bool prototypeChainMayInterceptStoreTo(VM&, PropertyName);
277         
278     Structure* previousID() const
279     {
280         ASSERT(structure()->classInfo() == info());
281         if (hasRareData())
282             return rareData()->previousID();
283         return previous();
284     }
285     bool transitivelyTransitionedFrom(Structure* structureToFind);
286
287     unsigned outOfLineCapacity() const
288     {
289         ASSERT(checkOffsetConsistency());
290             
291         unsigned outOfLineSize = this->outOfLineSize();
292
293         if (!outOfLineSize)
294             return 0;
295
296         if (outOfLineSize <= initialOutOfLineCapacity)
297             return initialOutOfLineCapacity;
298
299         ASSERT(outOfLineSize > initialOutOfLineCapacity);
300         COMPILE_ASSERT(outOfLineGrowthFactor == 2, outOfLineGrowthFactor_is_two);
301         return WTF::roundUpToPowerOfTwo(outOfLineSize);
302     }
303     unsigned outOfLineSize() const
304     {
305         ASSERT(checkOffsetConsistency());
306         ASSERT(structure()->classInfo() == info());
307             
308         return numberOfOutOfLineSlotsForLastOffset(m_offset);
309     }
310     bool hasInlineStorage() const
311     {
312         return !!m_inlineCapacity;
313     }
314     unsigned inlineCapacity() const
315     {
316         return m_inlineCapacity;
317     }
318     unsigned inlineSize() const
319     {
320         return std::min<unsigned>(m_offset + 1, m_inlineCapacity);
321     }
322     unsigned totalStorageSize() const
323     {
324         return numberOfSlotsForLastOffset(m_offset, m_inlineCapacity);
325     }
326     unsigned totalStorageCapacity() const
327     {
328         ASSERT(structure()->classInfo() == info());
329         return outOfLineCapacity() + inlineCapacity();
330     }
331
332     bool isValidOffset(PropertyOffset offset) const
333     {
334         return JSC::isValidOffset(offset)
335             && offset <= m_offset
336             && (offset < m_inlineCapacity || offset >= firstOutOfLineOffset);
337     }
338
339     bool hijacksIndexingHeader() const
340     {
341         return isTypedView(m_classInfo->typedArrayStorageType);
342     }
343     
344     bool couldHaveIndexingHeader() const
345     {
346         return hasIndexedProperties(indexingType())
347             || hijacksIndexingHeader();
348     }
349     
350     bool hasIndexingHeader(const JSCell*) const;
351     
352     bool masqueradesAsUndefined(JSGlobalObject* lexicalGlobalObject);
353
354     PropertyOffset get(VM&, PropertyName);
355     PropertyOffset get(VM&, PropertyName, unsigned& attributes);
356     PropertyOffset get(VM&, PropertyName, unsigned& attributes, bool& hasInferredType);
357
358     // This is a somewhat internalish method. It will call your functor while possibly holding the
359     // Structure's lock. There is no guarantee whether the lock is held or not in any particular
360     // call. So, you have to assume the worst. Also, the functor returns true if it wishes for you
361     // to continue or false if it's done.
362     template<typename Functor>
363     void forEachPropertyConcurrently(const Functor&);
364     
365     PropertyOffset getConcurrently(UniquedStringImpl* uid);
366     PropertyOffset getConcurrently(UniquedStringImpl* uid, unsigned& attributes);
367     
368     Vector<PropertyMapEntry> getPropertiesConcurrently();
369     
370     void setHasGetterSetterPropertiesWithProtoCheck(bool is__proto__)
371     {
372         setHasGetterSetterProperties(true);
373         if (!is__proto__)
374             setHasReadOnlyOrGetterSetterPropertiesExcludingProto(true);
375     }
376     
377     void setContainsReadOnlyProperties() { setHasReadOnlyOrGetterSetterPropertiesExcludingProto(true); }
378     
379     void setHasCustomGetterSetterPropertiesWithProtoCheck(bool is__proto__)
380     {
381         setHasCustomGetterSetterProperties(true);
382         if (!is__proto__)
383             setHasReadOnlyOrGetterSetterPropertiesExcludingProto(true);
384     }
385     
386     bool isEmpty() const
387     {
388         ASSERT(checkOffsetConsistency());
389         return !JSC::isValidOffset(m_offset);
390     }
391
392     void setCachedPropertyNameEnumerator(VM&, JSPropertyNameEnumerator*);
393     JSPropertyNameEnumerator* cachedPropertyNameEnumerator() const;
394     bool canCachePropertyNameEnumerator() const;
395     bool canAccessPropertiesQuicklyForEnumeration() const;
396
397     void getPropertyNamesFromStructure(VM&, PropertyNameArray&, EnumerationMode);
398
399     JSString* objectToStringValue()
400     {
401         if (!hasRareData())
402             return 0;
403         return rareData()->objectToStringValue();
404     }
405
406     void setObjectToStringValue(ExecState*, VM&, JSString* value, PropertySlot toStringTagSymbolSlot);
407
408     const ClassInfo* classInfo() const { return m_classInfo; }
409
410     static ptrdiff_t structureIDOffset()
411     {
412         return OBJECT_OFFSETOF(Structure, m_blob) + StructureIDBlob::structureIDOffset();
413     }
414
415     static ptrdiff_t prototypeOffset()
416     {
417         return OBJECT_OFFSETOF(Structure, m_prototype);
418     }
419
420     static ptrdiff_t globalObjectOffset()
421     {
422         return OBJECT_OFFSETOF(Structure, m_globalObject);
423     }
424
425     static ptrdiff_t classInfoOffset()
426     {
427         return OBJECT_OFFSETOF(Structure, m_classInfo);
428     }
429         
430     static ptrdiff_t indexingTypeOffset()
431     {
432         return OBJECT_OFFSETOF(Structure, m_blob) + StructureIDBlob::indexingTypeOffset();
433     }
434     
435     static ptrdiff_t propertyTableUnsafeOffset()
436     {
437         return OBJECT_OFFSETOF(Structure, m_propertyTableUnsafe);
438     }
439
440     static Structure* createStructure(VM&);
441         
442     bool transitionWatchpointSetHasBeenInvalidated() const
443     {
444         return m_transitionWatchpointSet.hasBeenInvalidated();
445     }
446         
447     bool transitionWatchpointSetIsStillValid() const
448     {
449         return m_transitionWatchpointSet.isStillValid();
450     }
451     
452     bool dfgShouldWatchIfPossible() const
453     {
454         // FIXME: We would like to not watch things that are unprofitable to watch, like
455         // dictionaries. Unfortunately, we can't do such things: a dictionary could get flattened,
456         // in which case it will start to appear watchable and so the DFG will think that it is
457         // watching it. We should come up with a comprehensive story for not watching things that
458         // aren't profitable to watch.
459         // https://bugs.webkit.org/show_bug.cgi?id=133625
460         
461         // - We don't watch Structures that either decided not to be watched, or whose predecessors
462         //   decided not to be watched. This happens either when a transition is fired while being
463         //   watched.
464         if (transitionWatchpointIsLikelyToBeFired())
465             return false;
466
467         // - Don't watch Structures that had been dictionaries.
468         if (hasBeenDictionary())
469             return false;
470         
471         return true;
472     }
473     
474     bool dfgShouldWatch() const
475     {
476         return dfgShouldWatchIfPossible() && transitionWatchpointSetIsStillValid();
477     }
478         
479     void addTransitionWatchpoint(Watchpoint* watchpoint) const
480     {
481         ASSERT(transitionWatchpointSetIsStillValid());
482         m_transitionWatchpointSet.add(watchpoint);
483     }
484     
485     void didTransitionFromThisStructure(DeferredStructureTransitionWatchpointFire* = nullptr) const;
486     
487     InlineWatchpointSet& transitionWatchpointSet() const
488     {
489         return m_transitionWatchpointSet;
490     }
491     
492     WatchpointSet* ensurePropertyReplacementWatchpointSet(VM&, PropertyOffset);
493     void startWatchingPropertyForReplacements(VM& vm, PropertyOffset offset)
494     {
495         ensurePropertyReplacementWatchpointSet(vm, offset);
496     }
497     void startWatchingPropertyForReplacements(VM&, PropertyName);
498     WatchpointSet* propertyReplacementWatchpointSet(PropertyOffset);
499     void didReplaceProperty(PropertyOffset);
500     void didCachePropertyReplacement(VM&, PropertyOffset);
501     
502     void startWatchingInternalPropertiesIfNecessary(VM& vm)
503     {
504         if (LIKELY(didWatchInternalProperties()))
505             return;
506         startWatchingInternalProperties(vm);
507     }
508     
509     void startWatchingInternalPropertiesIfNecessaryForEntireChain(VM& vm)
510     {
511         for (Structure* structure = this; structure; structure = structure->storedPrototypeStructure())
512             structure->startWatchingInternalPropertiesIfNecessary(vm);
513     }
514
515     bool hasInferredTypes() const
516     {
517         return !!m_inferredTypeTable;
518     }
519
520     InferredType* inferredTypeFor(UniquedStringImpl* uid)
521     {
522         if (InferredTypeTable* table = m_inferredTypeTable.get())
523             return table->get(uid);
524         return nullptr;
525     }
526
527     InferredType::Descriptor inferredTypeDescriptorFor(UniquedStringImpl* uid)
528     {
529         if (InferredType* result = inferredTypeFor(uid))
530             return result->descriptor();
531         return InferredType::Top;
532     }
533
534     // Call this when we know that this is a brand new property. Note that it's not enough for the
535     // property to be brand new to some object. It has to be brand new to the Structure.
536     ALWAYS_INLINE void willStoreValueForNewTransition(
537         VM& vm, PropertyName propertyName, JSValue value, bool shouldOptimize)
538     {
539         if (hasBeenDictionary() || (!shouldOptimize && !m_inferredTypeTable))
540             return;
541         willStoreValueSlow(vm, propertyName, value, shouldOptimize, InferredTypeTable::NewProperty);
542     }
543
544     // Call this when we know that this is a new property for the object, but not new for the
545     // structure. Therefore, under the InferredTypeTable's rules, absence of the property from the
546     // table means Top rather than Bottom.
547     ALWAYS_INLINE void willStoreValueForExistingTransition(
548         VM& vm, PropertyName propertyName, JSValue value, bool shouldOptimize)
549     {
550         if (hasBeenDictionary() || !m_inferredTypeTable)
551             return;
552         willStoreValueSlow(vm, propertyName, value, shouldOptimize, InferredTypeTable::NewProperty);
553     }
554
555     // Call this when we know that the inferred type table exists and has an entry for this property.
556     ALWAYS_INLINE void willStoreValueForReplace(
557         VM& vm, PropertyName propertyName, JSValue value, bool shouldOptimize)
558     {
559         if (hasBeenDictionary())
560             return;
561         willStoreValueSlow(vm, propertyName, value, shouldOptimize, InferredTypeTable::OldProperty);
562     }
563
564     PassRefPtr<StructureShape> toStructureShape(JSValue);
565     
566     // Determines if the two structures match enough that this one could be used for allocations
567     // of the other one.
568     bool canUseForAllocationsOf(Structure*);
569     
570     void dump(PrintStream&) const;
571     void dumpInContext(PrintStream&, DumpContext*) const;
572     void dumpBrief(PrintStream&, const CString&) const;
573     
574     static void dumpContextHeader(PrintStream&);
575     
576     DECLARE_EXPORT_INFO;
577
578 private:
579     typedef enum { 
580         NoneDictionaryKind = 0,
581         CachedDictionaryKind = 1,
582         UncachedDictionaryKind = 2
583     } DictionaryKind;
584
585 public:
586 #define DEFINE_BITFIELD(type, lowerName, upperName, width, offset) \
587     static const uint32_t s_##lowerName##Shift = offset;\
588     static const uint32_t s_##lowerName##Mask = ((1 << (width - 1)) | ((1 << (width - 1)) - 1));\
589     type lowerName() const { return static_cast<type>((m_bitField >> offset) & s_##lowerName##Mask); }\
590     void set##upperName(type newValue) \
591     {\
592         m_bitField &= ~(s_##lowerName##Mask << offset);\
593         m_bitField |= (newValue & s_##lowerName##Mask) << offset;\
594     }
595
596     DEFINE_BITFIELD(DictionaryKind, dictionaryKind, DictionaryKind, 2, 0);
597     DEFINE_BITFIELD(bool, isPinnedPropertyTable, IsPinnedPropertyTable, 1, 2);
598     DEFINE_BITFIELD(bool, hasGetterSetterProperties, HasGetterSetterProperties, 1, 3);
599     DEFINE_BITFIELD(bool, hasReadOnlyOrGetterSetterPropertiesExcludingProto, HasReadOnlyOrGetterSetterPropertiesExcludingProto, 1, 4);
600     DEFINE_BITFIELD(bool, isQuickPropertyAccessAllowedForEnumeration, IsQuickPropertyAccessAllowedForEnumeration, 1, 5);
601     DEFINE_BITFIELD(unsigned, attributesInPrevious, AttributesInPrevious, 14, 6);
602     DEFINE_BITFIELD(bool, didPreventExtensions, DidPreventExtensions, 1, 20);
603     DEFINE_BITFIELD(bool, didTransition, DidTransition, 1, 21);
604     DEFINE_BITFIELD(bool, staticFunctionsReified, StaticFunctionsReified, 1, 22);
605     DEFINE_BITFIELD(bool, hasRareData, HasRareData, 1, 23);
606     DEFINE_BITFIELD(bool, hasBeenFlattenedBefore, HasBeenFlattenedBefore, 1, 24);
607     DEFINE_BITFIELD(bool, hasCustomGetterSetterProperties, HasCustomGetterSetterProperties, 1, 25);
608     DEFINE_BITFIELD(bool, didWatchInternalProperties, DidWatchInternalProperties, 1, 26);
609     DEFINE_BITFIELD(bool, transitionWatchpointIsLikelyToBeFired, TransitionWatchpointIsLikelyToBeFired, 1, 27);
610     DEFINE_BITFIELD(bool, hasBeenDictionary, HasBeenDictionary, 1, 28);
611
612 private:
613     friend class LLIntOffsetsExtractor;
614
615     JS_EXPORT_PRIVATE Structure(VM&, JSGlobalObject*, JSValue prototype, const TypeInfo&, const ClassInfo*, IndexingType, unsigned inlineCapacity);
616     Structure(VM&);
617     Structure(VM&, Structure*, DeferredStructureTransitionWatchpointFire*);
618
619     static Structure* create(VM&, Structure*, DeferredStructureTransitionWatchpointFire* = nullptr);
620     
621     static Structure* addPropertyTransitionToExistingStructureImpl(Structure*, UniquedStringImpl* uid, unsigned attributes, PropertyOffset&);
622
623     // This will return the structure that has a usable property table, that property table,
624     // and the list of structures that we visited before we got to it. If it returns a
625     // non-null structure, it will also lock the structure that it returns; it is your job
626     // to unlock it.
627     void findStructuresAndMapForMaterialization(Vector<Structure*, 8>& structures, Structure*&, PropertyTable*&);
628     
629     static Structure* toDictionaryTransition(VM&, Structure*, DictionaryKind, DeferredStructureTransitionWatchpointFire* = nullptr);
630
631     PropertyOffset add(VM&, PropertyName, unsigned attributes);
632     PropertyOffset remove(PropertyName);
633
634     void createPropertyMap(const GCSafeConcurrentJITLocker&, VM&, unsigned keyCount = 0);
635     void checkConsistency();
636
637     WriteBarrier<PropertyTable>& propertyTable();
638     PropertyTable* takePropertyTableOrCloneIfPinned(VM&);
639     PropertyTable* copyPropertyTable(VM&);
640     PropertyTable* copyPropertyTableForPinning(VM&);
641     JS_EXPORT_PRIVATE void materializePropertyMap(VM&);
642     ALWAYS_INLINE void materializePropertyMapIfNecessary(VM& vm, DeferGC&)
643     {
644         ASSERT(!isCompilationThread());
645         ASSERT(structure()->classInfo() == info());
646         ASSERT(checkOffsetConsistency());
647         if (!propertyTable() && previousID())
648             materializePropertyMap(vm);
649     }
650     ALWAYS_INLINE void materializePropertyMapIfNecessary(VM& vm, PropertyTable*& table)
651     {
652         ASSERT(!isCompilationThread());
653         ASSERT(structure()->classInfo() == info());
654         ASSERT(checkOffsetConsistency());
655         table = propertyTable().get();
656         if (!table && previousID()) {
657             DeferGC deferGC(vm.heap);
658             materializePropertyMap(vm);
659             table = propertyTable().get();
660         }
661     }
662     void materializePropertyMapIfNecessaryForPinning(VM& vm, DeferGC&)
663     {
664         ASSERT(structure()->classInfo() == info());
665         checkOffsetConsistency();
666         if (!propertyTable())
667             materializePropertyMap(vm);
668     }
669
670     void setPreviousID(VM& vm, Structure* structure)
671     {
672         if (hasRareData())
673             rareData()->setPreviousID(vm, structure);
674         else
675             m_previousOrRareData.set(vm, this, structure);
676     }
677
678     void clearPreviousID()
679     {
680         if (hasRareData())
681             rareData()->clearPreviousID();
682         else
683             m_previousOrRareData.clear();
684     }
685
686     int transitionCount() const
687     {
688         // Since the number of transitions is always the same as m_offset, we keep the size of Structure down by not storing both.
689         return numberOfSlotsForLastOffset(m_offset, m_inlineCapacity);
690     }
691
692     bool isValid(JSGlobalObject*, StructureChain* cachedPrototypeChain) const;
693     bool isValid(ExecState*, StructureChain* cachedPrototypeChain) const;
694         
695     void pin();
696
697     Structure* previous() const
698     {
699         ASSERT(!hasRareData());
700         return static_cast<Structure*>(m_previousOrRareData.get());
701     }
702
703     StructureRareData* rareData() const
704     {
705         ASSERT(hasRareData());
706         return static_cast<StructureRareData*>(m_previousOrRareData.get());
707     }
708         
709     bool checkOffsetConsistency() const;
710
711     JS_EXPORT_PRIVATE void allocateRareData(VM&);
712     
713     void startWatchingInternalProperties(VM&);
714
715     JS_EXPORT_PRIVATE void willStoreValueSlow(
716         VM&, PropertyName, JSValue, bool, InferredTypeTable::StoredPropertyAge);
717
718     static const int s_maxTransitionLength = 64;
719     static const int s_maxTransitionLengthForNonEvalPutById = 512;
720
721     // These need to be properly aligned at the beginning of the 'Structure'
722     // part of the object.
723     StructureIDBlob m_blob;
724     TypeInfo::OutOfLineTypeFlags m_outOfLineTypeFlags;
725
726     WriteBarrier<JSGlobalObject> m_globalObject;
727     WriteBarrier<Unknown> m_prototype;
728     mutable WriteBarrier<StructureChain> m_cachedPrototypeChain;
729
730     WriteBarrier<JSCell> m_previousOrRareData;
731
732     RefPtr<UniquedStringImpl> m_nameInPrevious;
733
734     const ClassInfo* m_classInfo;
735
736     StructureTransitionTable m_transitionTable;
737
738     // Should be accessed through propertyTable(). During GC, it may be set to 0 by another thread.
739     // During a Heap Snapshot GC we avoid clearing the table so it is safe to use.
740     WriteBarrier<PropertyTable> m_propertyTableUnsafe;
741
742     WriteBarrier<InferredTypeTable> m_inferredTypeTable;
743
744     mutable InlineWatchpointSet m_transitionWatchpointSet;
745
746     COMPILE_ASSERT(firstOutOfLineOffset < 256, firstOutOfLineOffset_fits);
747
748     // m_offset does not account for anonymous slots
749     PropertyOffset m_offset;
750
751     uint8_t m_inlineCapacity;
752     
753     ConcurrentJITLock m_lock;
754     
755     uint32_t m_bitField;
756 };
757
758 } // namespace JSC
759
760 #endif // Structure_h