Demarcate code added due to lack of NSDMI for aggregates
[WebKit-https.git] / Source / JavaScriptCore / runtime / HasOwnPropertyCache.h
1 /*
2  * Copyright (C) 2016 Apple Inc. All rights reserved.
3  *
4  * Redistribution and use in source and binary forms, with or without
5  * modification, are permitted provided that the following conditions
6  * are met:
7  * 1. Redistributions of source code must retain the above copyright
8  *    notice, this list of conditions and the following disclaimer.
9  * 2. Redistributions in binary form must reproduce the above copyright
10  *    notice, this list of conditions and the following disclaimer in the
11  *    documentation and/or other materials provided with the distribution.
12  *
13  * THIS SOFTWARE IS PROVIDED BY APPLE INC. ``AS IS'' AND ANY
14  * EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
15  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
16  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL APPLE INC. OR
17  * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
18  * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
19  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
20  * PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY
21  * OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
22  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
23  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE. 
24  */
25
26 #pragma once
27
28 #include "JSObject.h"
29 #include "PropertySlot.h"
30 #include "Structure.h"
31
32 namespace JSC {
33
34 class HasOwnPropertyCache {
35     static const uint32_t size = 2 * 1024;
36     static_assert(!(size & (size - 1)), "size should be a power of two.");
37 public:
38     static const uint32_t mask = size - 1;
39
40     struct Entry {
41         static ptrdiff_t offsetOfStructureID() { return OBJECT_OFFSETOF(Entry, structureID); }
42         static ptrdiff_t offsetOfImpl() { return OBJECT_OFFSETOF(Entry, impl); }
43         static ptrdiff_t offsetOfResult() { return OBJECT_OFFSETOF(Entry, result); }
44
45 #if !COMPILER_SUPPORTS(NSDMI_FOR_AGGREGATES)
46         Entry() = default;
47         Entry(RefPtr<UniquedStringImpl>&& impl, StructureID structureID, bool result)
48             : impl { WTFMove(impl) }
49             , structureID { structureID }
50             , result { result }
51         {
52         }
53
54         Entry& operator=(Entry&& other) = default;
55 #endif
56
57         RefPtr<UniquedStringImpl> impl;
58         StructureID structureID { 0 };
59         bool result { false };
60     };
61
62     HasOwnPropertyCache() = delete;
63
64     void operator delete(void* cache)
65     {
66         static_cast<HasOwnPropertyCache*>(cache)->clear();
67         fastFree(cache);
68     }
69
70     static HasOwnPropertyCache* create()
71     {
72         size_t allocationSize = sizeof(Entry) * size;
73         HasOwnPropertyCache* result = static_cast<HasOwnPropertyCache*>(fastMalloc(allocationSize));
74         result->clearBuffer();
75         return result;
76     }
77
78     ALWAYS_INLINE static uint32_t hash(StructureID structureID, UniquedStringImpl* impl)
79     {
80         return bitwise_cast<uint32_t>(structureID) + impl->hash();
81     }
82
83     ALWAYS_INLINE std::optional<bool> get(Structure* structure, PropertyName propName)
84     {
85         UniquedStringImpl* impl = propName.uid();
86         StructureID id = structure->id();
87         uint32_t index = HasOwnPropertyCache::hash(id, impl) & mask;
88         Entry& entry = bitwise_cast<Entry*>(this)[index];
89         if (entry.structureID == id && entry.impl.get() == impl)
90             return entry.result;
91         return std::nullopt;
92     }
93
94     ALWAYS_INLINE void tryAdd(VM& vm, PropertySlot& slot, JSObject* object, PropertyName propName, bool result)
95     {
96         if (parseIndex(propName))
97             return;
98
99         if (!slot.isCacheable() && !slot.isUnset())
100             return;
101
102         if (object->type() == PureForwardingProxyType || object->type() == ImpureProxyType)
103             return;
104
105         Structure* structure = object->structure(vm);
106         if (!structure->typeInfo().prohibitsPropertyCaching()
107             && structure->propertyAccessesAreCacheable()
108             && (!slot.isUnset() || structure->propertyAccessesAreCacheableForAbsence())) {
109             if (structure->isDictionary()) {
110                 // FIXME: We should be able to flatten a dictionary object again.
111                 // https://bugs.webkit.org/show_bug.cgi?id=163092
112                 return;
113             }
114
115             ASSERT(!result == slot.isUnset());
116
117             UniquedStringImpl* impl = propName.uid();
118             StructureID id = structure->id();
119             uint32_t index = HasOwnPropertyCache::hash(id, impl) & mask;
120             bitwise_cast<Entry*>(this)[index] = Entry { RefPtr<UniquedStringImpl>(impl), id, result };
121         }
122     }
123
124     void clear()
125     {
126         Entry* buffer = bitwise_cast<Entry*>(this);
127         for (uint32_t i = 0; i < size; ++i)
128             buffer[i].Entry::~Entry();
129
130         clearBuffer();
131     }
132
133 private:
134     void clearBuffer()
135     {
136         Entry* buffer = bitwise_cast<Entry*>(this);
137         for (uint32_t i = 0; i < size; ++i)
138             new (&buffer[i]) Entry();
139     }
140 };
141
142 ALWAYS_INLINE HasOwnPropertyCache* VM::ensureHasOwnPropertyCache()
143 {
144     if (UNLIKELY(!m_hasOwnPropertyCache))
145         m_hasOwnPropertyCache = std::unique_ptr<HasOwnPropertyCache>(HasOwnPropertyCache::create());
146     return m_hasOwnPropertyCache.get();
147 }
148
149 } // namespace JSC