Revert last change, something weird happened when I went to land.
[WebKit-https.git] / Source / JavaScriptCore / bytecode / CodeBlock.h
1 /*
2  * Copyright (C) 2008, 2009, 2010 Apple Inc. All rights reserved.
3  * Copyright (C) 2008 Cameron Zwarich <cwzwarich@uwaterloo.ca>
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  *
9  * 1.  Redistributions of source code must retain the above copyright
10  *     notice, this list of conditions and the following disclaimer.
11  * 2.  Redistributions in binary form must reproduce the above copyright
12  *     notice, this list of conditions and the following disclaimer in the
13  *     documentation and/or other materials provided with the distribution.
14  * 3.  Neither the name of Apple Computer, Inc. ("Apple") nor the names of
15  *     its contributors may be used to endorse or promote products derived
16  *     from this software without specific prior written permission.
17  *
18  * THIS SOFTWARE IS PROVIDED BY APPLE AND ITS CONTRIBUTORS "AS IS" AND ANY
19  * EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED
20  * WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE
21  * DISCLAIMED. IN NO EVENT SHALL APPLE OR ITS CONTRIBUTORS BE LIABLE FOR ANY
22  * DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES
23  * (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
24  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND
25  * ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
26  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF
27  * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
28  */
29
30 #ifndef CodeBlock_h
31 #define CodeBlock_h
32
33 #include "EvalCodeCache.h"
34 #include "Instruction.h"
35 #include "JITCode.h"
36 #include "JSGlobalObject.h"
37 #include "JumpTable.h"
38 #include "Nodes.h"
39 #include "RegExp.h"
40 #include "UString.h"
41 #include <wtf/FastAllocBase.h>
42 #include <wtf/PassOwnPtr.h>
43 #include <wtf/RefPtr.h>
44 #include <wtf/Vector.h>
45
46 #if ENABLE(JIT)
47 #include "StructureStubInfo.h"
48 #endif
49
50 // Register numbers used in bytecode operations have different meaning according to their ranges:
51 //      0x80000000-0xFFFFFFFF  Negative indices from the CallFrame pointer are entries in the call frame, see RegisterFile.h.
52 //      0x00000000-0x3FFFFFFF  Forwards indices from the CallFrame pointer are local vars and temporaries with the function's callframe.
53 //      0x40000000-0x7FFFFFFF  Positive indices from 0x40000000 specify entries in the constant pool on the CodeBlock.
54 static const int FirstConstantRegisterIndex = 0x40000000;
55
56 namespace JSC {
57
58     enum HasSeenShouldRepatch {
59         hasSeenShouldRepatch
60     };
61
62     class ExecState;
63
64     enum CodeType { GlobalCode, EvalCode, FunctionCode };
65
66     inline int unmodifiedArgumentsRegister(int argumentsRegister) { return argumentsRegister - 1; }
67
68     static ALWAYS_INLINE int missingThisObjectMarker() { return std::numeric_limits<int>::max(); }
69
70     struct HandlerInfo {
71         uint32_t start;
72         uint32_t end;
73         uint32_t target;
74         uint32_t scopeDepth;
75 #if ENABLE(JIT)
76         CodeLocationLabel nativeCode;
77 #endif
78     };
79
80     struct ExpressionRangeInfo {
81         enum {
82             MaxOffset = (1 << 7) - 1, 
83             MaxDivot = (1 << 25) - 1
84         };
85         uint32_t instructionOffset : 25;
86         uint32_t divotPoint : 25;
87         uint32_t startOffset : 7;
88         uint32_t endOffset : 7;
89     };
90
91     struct LineInfo {
92         uint32_t instructionOffset;
93         int32_t lineNumber;
94     };
95
96 #if ENABLE(JIT)
97     struct CallLinkInfo {
98         CallLinkInfo()
99             : hasSeenShouldRepatch(false)
100         {
101         }
102
103         CodeLocationNearCall callReturnLocation;
104         CodeLocationDataLabelPtr hotPathBegin;
105         CodeLocationNearCall hotPathOther;
106         WriteBarrier<JSFunction> callee;
107         bool hasSeenShouldRepatch;
108         
109         void setUnlinked() { callee.clear(); }
110         bool isLinked() { return callee; }
111
112         bool seenOnce()
113         {
114             return hasSeenShouldRepatch;
115         }
116
117         void setSeen()
118         {
119             hasSeenShouldRepatch = true;
120         }
121     };
122
123     struct MethodCallLinkInfo {
124         MethodCallLinkInfo()
125         {
126         }
127
128         bool seenOnce()
129         {
130             ASSERT(!cachedStructure);
131             return cachedPrototypeStructure;
132         }
133
134         void setSeen()
135         {
136             ASSERT(!cachedStructure && !cachedPrototypeStructure);
137             // We use the values of cachedStructure & cachedPrototypeStructure to indicate the
138             // current state.
139             //     - In the initial state, both are null.
140             //     - Once this transition has been taken once, cachedStructure is
141             //       null and cachedPrototypeStructure is set to a nun-null value.
142             //     - Once the call is linked both structures are set to non-null values.
143             cachedPrototypeStructure.setWithoutWriteBarrier((Structure*)1);
144         }
145
146         CodeLocationCall callReturnLocation;
147         CodeLocationDataLabelPtr structureLabel;
148         WriteBarrier<Structure> cachedStructure;
149         WriteBarrier<Structure> cachedPrototypeStructure;
150     };
151
152     struct GlobalResolveInfo {
153         GlobalResolveInfo(unsigned bytecodeOffset)
154             : offset(0)
155             , bytecodeOffset(bytecodeOffset)
156         {
157         }
158
159         WriteBarrier<Structure> structure;
160         unsigned offset;
161         unsigned bytecodeOffset;
162     };
163
164     // This structure is used to map from a call return location
165     // (given as an offset in bytes into the JIT code) back to
166     // the bytecode index of the corresponding bytecode operation.
167     // This is then used to look up the corresponding handler.
168     struct CallReturnOffsetToBytecodeOffset {
169         CallReturnOffsetToBytecodeOffset(unsigned callReturnOffset, unsigned bytecodeOffset)
170             : callReturnOffset(callReturnOffset)
171             , bytecodeOffset(bytecodeOffset)
172         {
173         }
174
175         unsigned callReturnOffset;
176         unsigned bytecodeOffset;
177     };
178
179     // valueAtPosition helpers for the binarySearch algorithm.
180
181     inline void* getStructureStubInfoReturnLocation(StructureStubInfo* structureStubInfo)
182     {
183         return structureStubInfo->callReturnLocation.executableAddress();
184     }
185
186     inline void* getCallLinkInfoReturnLocation(CallLinkInfo* callLinkInfo)
187     {
188         return callLinkInfo->callReturnLocation.executableAddress();
189     }
190
191     inline void* getMethodCallLinkInfoReturnLocation(MethodCallLinkInfo* methodCallLinkInfo)
192     {
193         return methodCallLinkInfo->callReturnLocation.executableAddress();
194     }
195
196     inline unsigned getCallReturnOffset(CallReturnOffsetToBytecodeOffset* pc)
197     {
198         return pc->callReturnOffset;
199     }
200 #endif
201
202     class CodeBlock {
203         WTF_MAKE_FAST_ALLOCATED;
204         friend class JIT;
205     protected:
206         CodeBlock(ScriptExecutable* ownerExecutable, CodeType, JSGlobalObject*, PassRefPtr<SourceProvider>, unsigned sourceOffset, SymbolTable* symbolTable, bool isConstructor);
207
208         WriteBarrier<JSGlobalObject> m_globalObject;
209         Heap* m_heap;
210
211     public:
212         virtual ~CodeBlock();
213
214         void visitAggregate(SlotVisitor&);
215
216         static void dumpStatistics();
217
218 #if !defined(NDEBUG) || ENABLE_OPCODE_SAMPLING
219         void dump(ExecState*) const;
220         void printStructures(const Instruction*) const;
221         void printStructure(const char* name, const Instruction*, int operand) const;
222 #endif
223
224         bool isStrictMode() const { return m_isStrictMode; }
225
226         inline bool isKnownNotImmediate(int index)
227         {
228             if (index == m_thisRegister && !m_isStrictMode)
229                 return true;
230
231             if (isConstantRegisterIndex(index))
232                 return getConstant(index).isCell();
233
234             return false;
235         }
236
237         ALWAYS_INLINE bool isTemporaryRegisterIndex(int index)
238         {
239             return index >= m_numVars;
240         }
241
242         HandlerInfo* handlerForBytecodeOffset(unsigned bytecodeOffset);
243         int lineNumberForBytecodeOffset(unsigned bytecodeOffset);
244         void expressionRangeForBytecodeOffset(unsigned bytecodeOffset, int& divot, int& startOffset, int& endOffset);
245
246 #if ENABLE(JIT)
247
248         StructureStubInfo& getStubInfo(ReturnAddressPtr returnAddress)
249         {
250             return *(binarySearch<StructureStubInfo, void*, getStructureStubInfoReturnLocation>(m_structureStubInfos.begin(), m_structureStubInfos.size(), returnAddress.value()));
251         }
252
253         CallLinkInfo& getCallLinkInfo(ReturnAddressPtr returnAddress)
254         {
255             return *(binarySearch<CallLinkInfo, void*, getCallLinkInfoReturnLocation>(m_callLinkInfos.begin(), m_callLinkInfos.size(), returnAddress.value()));
256         }
257
258         MethodCallLinkInfo& getMethodCallLinkInfo(ReturnAddressPtr returnAddress)
259         {
260             return *(binarySearch<MethodCallLinkInfo, void*, getMethodCallLinkInfoReturnLocation>(m_methodCallLinkInfos.begin(), m_methodCallLinkInfos.size(), returnAddress.value()));
261         }
262
263         unsigned bytecodeOffset(ReturnAddressPtr returnAddress)
264         {
265             if (!m_rareData)
266                 return 1;
267             Vector<CallReturnOffsetToBytecodeOffset>& callIndices = m_rareData->m_callReturnIndexVector;
268             if (!callIndices.size())
269                 return 1;
270             return binarySearch<CallReturnOffsetToBytecodeOffset, unsigned, getCallReturnOffset>(callIndices.begin(), callIndices.size(), getJITCode().offsetOf(returnAddress.value()))->bytecodeOffset;
271         }
272 #endif
273 #if ENABLE(INTERPRETER)
274         unsigned bytecodeOffset(Instruction* returnAddress)
275         {
276             return static_cast<Instruction*>(returnAddress) - instructions().begin();
277         }
278 #endif
279
280         void setIsNumericCompareFunction(bool isNumericCompareFunction) { m_isNumericCompareFunction = isNumericCompareFunction; }
281         bool isNumericCompareFunction() { return m_isNumericCompareFunction; }
282
283         Vector<Instruction>& instructions() { return m_instructions; }
284         void discardBytecode() { m_instructions.clear(); }
285
286 #ifndef NDEBUG
287         unsigned instructionCount() { return m_instructionCount; }
288         void setInstructionCount(unsigned instructionCount) { m_instructionCount = instructionCount; }
289 #endif
290
291 #if ENABLE(JIT)
292         JITCode& getJITCode() { return m_isConstructor ? ownerExecutable()->generatedJITCodeForConstruct() : ownerExecutable()->generatedJITCodeForCall(); }
293         ExecutablePool* executablePool() { return getJITCode().getExecutablePool(); }
294 #endif
295
296         ScriptExecutable* ownerExecutable() const { return m_ownerExecutable.get(); }
297
298         void setGlobalData(JSGlobalData* globalData) { m_globalData = globalData; }
299
300         void setThisRegister(int thisRegister) { m_thisRegister = thisRegister; }
301         int thisRegister() const { return m_thisRegister; }
302
303         void setNeedsFullScopeChain(bool needsFullScopeChain) { m_needsFullScopeChain = needsFullScopeChain; }
304         bool needsFullScopeChain() const { return m_needsFullScopeChain; }
305         void setUsesEval(bool usesEval) { m_usesEval = usesEval; }
306         bool usesEval() const { return m_usesEval; }
307         
308         void setArgumentsRegister(int argumentsRegister)
309         {
310             ASSERT(argumentsRegister != -1);
311             m_argumentsRegister = argumentsRegister;
312             ASSERT(usesArguments());
313         }
314         int argumentsRegister()
315         {
316             ASSERT(usesArguments());
317             return m_argumentsRegister;
318         }
319         void setActivationRegister(int activationRegister)
320         {
321             m_activationRegister = activationRegister;
322         }
323         int activationRegister()
324         {
325             ASSERT(needsFullScopeChain());
326             return m_activationRegister;
327         }
328         bool usesArguments() const { return m_argumentsRegister != -1; }
329
330         CodeType codeType() const { return m_codeType; }
331
332         SourceProvider* source() const { return m_source.get(); }
333         unsigned sourceOffset() const { return m_sourceOffset; }
334
335         size_t numberOfJumpTargets() const { return m_jumpTargets.size(); }
336         void addJumpTarget(unsigned jumpTarget) { m_jumpTargets.append(jumpTarget); }
337         unsigned jumpTarget(int index) const { return m_jumpTargets[index]; }
338         unsigned lastJumpTarget() const { return m_jumpTargets.last(); }
339
340         void createActivation(CallFrame*);
341
342 #if ENABLE(INTERPRETER)
343         void addPropertyAccessInstruction(unsigned propertyAccessInstruction)
344         {
345             if (!m_globalData->canUseJIT())
346                 m_propertyAccessInstructions.append(propertyAccessInstruction);
347         }
348         void addGlobalResolveInstruction(unsigned globalResolveInstruction)
349         {
350             if (!m_globalData->canUseJIT())
351                 m_globalResolveInstructions.append(globalResolveInstruction);
352         }
353         bool hasGlobalResolveInstructionAtBytecodeOffset(unsigned bytecodeOffset);
354 #endif
355 #if ENABLE(JIT)
356         size_t numberOfStructureStubInfos() const { return m_structureStubInfos.size(); }
357         void addStructureStubInfo(const StructureStubInfo& stubInfo)
358         {
359             if (m_globalData->canUseJIT())
360                 m_structureStubInfos.append(stubInfo);
361         }
362         StructureStubInfo& structureStubInfo(int index) { return m_structureStubInfos[index]; }
363
364         void addGlobalResolveInfo(unsigned globalResolveInstruction)
365         {
366             if (m_globalData->canUseJIT())
367                 m_globalResolveInfos.append(GlobalResolveInfo(globalResolveInstruction));
368         }
369         GlobalResolveInfo& globalResolveInfo(int index) { return m_globalResolveInfos[index]; }
370         bool hasGlobalResolveInfoAtBytecodeOffset(unsigned bytecodeOffset);
371
372         size_t numberOfCallLinkInfos() const { return m_callLinkInfos.size(); }
373         void addCallLinkInfo() { m_callLinkInfos.append(CallLinkInfo()); }
374         CallLinkInfo& callLinkInfo(int index) { return m_callLinkInfos[index]; }
375
376         void addMethodCallLinkInfos(unsigned n) { m_methodCallLinkInfos.grow(n); }
377         MethodCallLinkInfo& methodCallLinkInfo(int index) { return m_methodCallLinkInfos[index]; }
378 #endif
379
380         // Exception handling support
381
382         size_t numberOfExceptionHandlers() const { return m_rareData ? m_rareData->m_exceptionHandlers.size() : 0; }
383         void addExceptionHandler(const HandlerInfo& hanler) { createRareDataIfNecessary(); return m_rareData->m_exceptionHandlers.append(hanler); }
384         HandlerInfo& exceptionHandler(int index) { ASSERT(m_rareData); return m_rareData->m_exceptionHandlers[index]; }
385
386         void addExpressionInfo(const ExpressionRangeInfo& expressionInfo)
387         {
388             createRareDataIfNecessary();
389             m_rareData->m_expressionInfo.append(expressionInfo);
390         }
391
392         void addLineInfo(unsigned bytecodeOffset, int lineNo)
393         {
394             createRareDataIfNecessary();
395             Vector<LineInfo>& lineInfo = m_rareData->m_lineInfo;
396             if (!lineInfo.size() || lineInfo.last().lineNumber != lineNo) {
397                 LineInfo info = { bytecodeOffset, lineNo };
398                 lineInfo.append(info);
399             }
400         }
401
402         bool hasExpressionInfo() { return m_rareData && m_rareData->m_expressionInfo.size(); }
403         bool hasLineInfo() { return m_rareData && m_rareData->m_lineInfo.size(); }
404         //  We only generate exception handling info if the user is debugging
405         // (and may want line number info), or if the function contains exception handler.
406         bool needsCallReturnIndices()
407         {
408             return m_rareData &&
409                 (m_rareData->m_expressionInfo.size() || m_rareData->m_lineInfo.size() || m_rareData->m_exceptionHandlers.size());
410         }
411
412 #if ENABLE(JIT)
413         Vector<CallReturnOffsetToBytecodeOffset>& callReturnIndexVector()
414         {
415             createRareDataIfNecessary();
416             return m_rareData->m_callReturnIndexVector;
417         }
418 #endif
419
420         // Constant Pool
421
422         size_t numberOfIdentifiers() const { return m_identifiers.size(); }
423         void addIdentifier(const Identifier& i) { return m_identifiers.append(i); }
424         Identifier& identifier(int index) { return m_identifiers[index]; }
425
426         size_t numberOfConstantRegisters() const { return m_constantRegisters.size(); }
427         void addConstant(JSValue v)
428         {
429             m_constantRegisters.append(WriteBarrier<Unknown>());
430             m_constantRegisters.last().set(m_globalObject->globalData(), m_ownerExecutable.get(), v);
431         }
432         WriteBarrier<Unknown>& constantRegister(int index) { return m_constantRegisters[index - FirstConstantRegisterIndex]; }
433         ALWAYS_INLINE bool isConstantRegisterIndex(int index) const { return index >= FirstConstantRegisterIndex; }
434         ALWAYS_INLINE JSValue getConstant(int index) const { return m_constantRegisters[index - FirstConstantRegisterIndex].get(); }
435
436         unsigned addFunctionDecl(FunctionExecutable* n)
437         {
438             unsigned size = m_functionDecls.size();
439             m_functionDecls.append(WriteBarrier<FunctionExecutable>());
440             m_functionDecls.last().set(m_globalObject->globalData(), m_ownerExecutable.get(), n);
441             return size;
442         }
443         FunctionExecutable* functionDecl(int index) { return m_functionDecls[index].get(); }
444         int numberOfFunctionDecls() { return m_functionDecls.size(); }
445         unsigned addFunctionExpr(FunctionExecutable* n)
446         {
447             unsigned size = m_functionExprs.size();
448             m_functionExprs.append(WriteBarrier<FunctionExecutable>());
449             m_functionExprs.last().set(m_globalObject->globalData(), m_ownerExecutable.get(), n);
450             return size;
451         }
452         FunctionExecutable* functionExpr(int index) { return m_functionExprs[index].get(); }
453
454         unsigned addRegExp(PassRefPtr<RegExp> r) { createRareDataIfNecessary(); unsigned size = m_rareData->m_regexps.size(); m_rareData->m_regexps.append(r); return size; }
455         RegExp* regexp(int index) const { ASSERT(m_rareData); return m_rareData->m_regexps[index].get(); }
456
457         JSGlobalObject* globalObject() { return m_globalObject.get(); }
458
459         // Jump Tables
460
461         size_t numberOfImmediateSwitchJumpTables() const { return m_rareData ? m_rareData->m_immediateSwitchJumpTables.size() : 0; }
462         SimpleJumpTable& addImmediateSwitchJumpTable() { createRareDataIfNecessary(); m_rareData->m_immediateSwitchJumpTables.append(SimpleJumpTable()); return m_rareData->m_immediateSwitchJumpTables.last(); }
463         SimpleJumpTable& immediateSwitchJumpTable(int tableIndex) { ASSERT(m_rareData); return m_rareData->m_immediateSwitchJumpTables[tableIndex]; }
464
465         size_t numberOfCharacterSwitchJumpTables() const { return m_rareData ? m_rareData->m_characterSwitchJumpTables.size() : 0; }
466         SimpleJumpTable& addCharacterSwitchJumpTable() { createRareDataIfNecessary(); m_rareData->m_characterSwitchJumpTables.append(SimpleJumpTable()); return m_rareData->m_characterSwitchJumpTables.last(); }
467         SimpleJumpTable& characterSwitchJumpTable(int tableIndex) { ASSERT(m_rareData); return m_rareData->m_characterSwitchJumpTables[tableIndex]; }
468
469         size_t numberOfStringSwitchJumpTables() const { return m_rareData ? m_rareData->m_stringSwitchJumpTables.size() : 0; }
470         StringJumpTable& addStringSwitchJumpTable() { createRareDataIfNecessary(); m_rareData->m_stringSwitchJumpTables.append(StringJumpTable()); return m_rareData->m_stringSwitchJumpTables.last(); }
471         StringJumpTable& stringSwitchJumpTable(int tableIndex) { ASSERT(m_rareData); return m_rareData->m_stringSwitchJumpTables[tableIndex]; }
472
473
474         SymbolTable* symbolTable() { return m_symbolTable; }
475         SharedSymbolTable* sharedSymbolTable() { ASSERT(m_codeType == FunctionCode); return static_cast<SharedSymbolTable*>(m_symbolTable); }
476
477         EvalCodeCache& evalCodeCache() { createRareDataIfNecessary(); return m_rareData->m_evalCodeCache; }
478
479         void shrinkToFit();
480
481         // FIXME: Make these remaining members private.
482
483         int m_numCalleeRegisters;
484         int m_numVars;
485         int m_numCapturedVars;
486         int m_numParameters;
487         bool m_isConstructor;
488
489     private:
490 #if !defined(NDEBUG) || ENABLE(OPCODE_SAMPLING)
491         void dump(ExecState*, const Vector<Instruction>::const_iterator& begin, Vector<Instruction>::const_iterator&) const;
492
493         CString registerName(ExecState*, int r) const;
494         void printUnaryOp(ExecState*, int location, Vector<Instruction>::const_iterator&, const char* op) const;
495         void printBinaryOp(ExecState*, int location, Vector<Instruction>::const_iterator&, const char* op) const;
496         void printConditionalJump(ExecState*, const Vector<Instruction>::const_iterator&, Vector<Instruction>::const_iterator&, int location, const char* op) const;
497         void printGetByIdOp(ExecState*, int location, Vector<Instruction>::const_iterator&, const char* op) const;
498         void printPutByIdOp(ExecState*, int location, Vector<Instruction>::const_iterator&, const char* op) const;
499 #endif
500         void visitStructures(SlotVisitor&, Instruction* vPC) const;
501
502         void createRareDataIfNecessary()
503         {
504             if (!m_rareData)
505                 m_rareData = adoptPtr(new RareData);
506         }
507
508         WriteBarrier<ScriptExecutable> m_ownerExecutable;
509         JSGlobalData* m_globalData;
510
511         Vector<Instruction> m_instructions;
512 #ifndef NDEBUG
513         unsigned m_instructionCount;
514 #endif
515
516         int m_thisRegister;
517         int m_argumentsRegister;
518         int m_activationRegister;
519
520         bool m_needsFullScopeChain;
521         bool m_usesEval;
522         bool m_isNumericCompareFunction;
523         bool m_isStrictMode;
524
525         CodeType m_codeType;
526
527         RefPtr<SourceProvider> m_source;
528         unsigned m_sourceOffset;
529
530 #if ENABLE(INTERPRETER)
531         Vector<unsigned> m_propertyAccessInstructions;
532         Vector<unsigned> m_globalResolveInstructions;
533 #endif
534 #if ENABLE(JIT)
535         Vector<StructureStubInfo> m_structureStubInfos;
536         Vector<GlobalResolveInfo> m_globalResolveInfos;
537         Vector<CallLinkInfo> m_callLinkInfos;
538         Vector<MethodCallLinkInfo> m_methodCallLinkInfos;
539 #endif
540
541         Vector<unsigned> m_jumpTargets;
542
543         // Constant Pool
544         Vector<Identifier> m_identifiers;
545         COMPILE_ASSERT(sizeof(Register) == sizeof(WriteBarrier<Unknown>), Register_must_be_same_size_as_WriteBarrier_Unknown);
546         Vector<WriteBarrier<Unknown> > m_constantRegisters;
547         Vector<WriteBarrier<FunctionExecutable> > m_functionDecls;
548         Vector<WriteBarrier<FunctionExecutable> > m_functionExprs;
549
550         SymbolTable* m_symbolTable;
551
552         struct RareData {
553            WTF_MAKE_FAST_ALLOCATED;
554         public:
555             Vector<HandlerInfo> m_exceptionHandlers;
556
557             // Rare Constants
558             Vector<RefPtr<RegExp> > m_regexps;
559
560             // Jump Tables
561             Vector<SimpleJumpTable> m_immediateSwitchJumpTables;
562             Vector<SimpleJumpTable> m_characterSwitchJumpTables;
563             Vector<StringJumpTable> m_stringSwitchJumpTables;
564
565             EvalCodeCache m_evalCodeCache;
566
567             // Expression info - present if debugging.
568             Vector<ExpressionRangeInfo> m_expressionInfo;
569             // Line info - present if profiling or debugging.
570             Vector<LineInfo> m_lineInfo;
571 #if ENABLE(JIT)
572             Vector<CallReturnOffsetToBytecodeOffset> m_callReturnIndexVector;
573 #endif
574         };
575 #if COMPILER(MSVC)
576         friend void WTF::deleteOwnedPtr<RareData>(RareData*);
577 #endif
578         OwnPtr<RareData> m_rareData;
579     };
580
581     // Program code is not marked by any function, so we make the global object
582     // responsible for marking it.
583
584     class GlobalCodeBlock : public CodeBlock {
585     public:
586         GlobalCodeBlock(ScriptExecutable* ownerExecutable, CodeType codeType, JSGlobalObject* globalObject, PassRefPtr<SourceProvider> sourceProvider, unsigned sourceOffset)
587             : CodeBlock(ownerExecutable, codeType, globalObject, sourceProvider, sourceOffset, &m_unsharedSymbolTable, false)
588         {
589         }
590
591     private:
592         SymbolTable m_unsharedSymbolTable;
593     };
594
595     class ProgramCodeBlock : public GlobalCodeBlock {
596     public:
597         ProgramCodeBlock(ProgramExecutable* ownerExecutable, CodeType codeType, JSGlobalObject* globalObject, PassRefPtr<SourceProvider> sourceProvider)
598             : GlobalCodeBlock(ownerExecutable, codeType, globalObject, sourceProvider, 0)
599         {
600         }
601     };
602
603     class EvalCodeBlock : public GlobalCodeBlock {
604     public:
605         EvalCodeBlock(EvalExecutable* ownerExecutable, JSGlobalObject* globalObject, PassRefPtr<SourceProvider> sourceProvider, int baseScopeDepth)
606             : GlobalCodeBlock(ownerExecutable, EvalCode, globalObject, sourceProvider, 0)
607             , m_baseScopeDepth(baseScopeDepth)
608         {
609         }
610
611         int baseScopeDepth() const { return m_baseScopeDepth; }
612
613         const Identifier& variable(unsigned index) { return m_variables[index]; }
614         unsigned numVariables() { return m_variables.size(); }
615         void adoptVariables(Vector<Identifier>& variables)
616         {
617             ASSERT(m_variables.isEmpty());
618             m_variables.swap(variables);
619         }
620
621     private:
622         int m_baseScopeDepth;
623         Vector<Identifier> m_variables;
624     };
625
626     class FunctionCodeBlock : public CodeBlock {
627     public:
628         // Rather than using the usual RefCounted::create idiom for SharedSymbolTable we just use new
629         // as we need to initialise the CodeBlock before we could initialise any RefPtr to hold the shared
630         // symbol table, so we just pass as a raw pointer with a ref count of 1.  We then manually deref
631         // in the destructor.
632         FunctionCodeBlock(FunctionExecutable* ownerExecutable, CodeType codeType, JSGlobalObject* globalObject, PassRefPtr<SourceProvider> sourceProvider, unsigned sourceOffset, bool isConstructor)
633             : CodeBlock(ownerExecutable, codeType, globalObject, sourceProvider, sourceOffset, SharedSymbolTable::create().leakRef(), isConstructor)
634         {
635         }
636         ~FunctionCodeBlock()
637         {
638             sharedSymbolTable()->deref();
639         }
640     };
641
642     inline Register& ExecState::r(int index)
643     {
644         CodeBlock* codeBlock = this->codeBlock();
645         if (codeBlock->isConstantRegisterIndex(index))
646             return *reinterpret_cast<Register*>(&codeBlock->constantRegister(index));
647         return this[index];
648     }
649
650     inline Register& ExecState::uncheckedR(int index)
651     {
652         ASSERT(index < FirstConstantRegisterIndex);
653         return this[index];
654     }
655     
656 } // namespace JSC
657
658 #endif // CodeBlock_h