[ES6] Implement tail calls in the LLInt and Baseline JIT
[WebKit-https.git] / Source / JavaScriptCore / assembler / MacroAssemblerARM.h
1 /*
2  * Copyright (C) 2008, 2013-2015 Apple Inc.
3  * Copyright (C) 2009, 2010 University of Szeged
4  * All rights reserved.
5  *
6  * Redistribution and use in source and binary forms, with or without
7  * modification, are permitted provided that the following conditions
8  * are met:
9  * 1. Redistributions of source code must retain the above copyright
10  *    notice, this list of conditions and the following disclaimer.
11  * 2. Redistributions in binary form must reproduce the above copyright
12  *    notice, this list of conditions and the following disclaimer in the
13  *    documentation and/or other materials provided with the distribution.
14  *
15  * THIS SOFTWARE IS PROVIDED BY APPLE INC. ``AS IS'' AND ANY
16  * EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
17  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
18  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL APPLE INC. OR
19  * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
20  * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
21  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
22  * PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY
23  * OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
24  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
25  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
26  */
27
28 #ifndef MacroAssemblerARM_h
29 #define MacroAssemblerARM_h
30
31 #if ENABLE(ASSEMBLER) && CPU(ARM_TRADITIONAL)
32
33 #include "ARMAssembler.h"
34 #include "AbstractMacroAssembler.h"
35
36 namespace JSC {
37
38 class MacroAssemblerARM : public AbstractMacroAssembler<ARMAssembler, MacroAssemblerARM> {
39     static const int DoubleConditionMask = 0x0f;
40     static const int DoubleConditionBitSpecial = 0x10;
41     COMPILE_ASSERT(!(DoubleConditionBitSpecial & DoubleConditionMask), DoubleConditionBitSpecial_should_not_interfere_with_ARMAssembler_Condition_codes);
42 public:
43     typedef ARMRegisters::FPRegisterID FPRegisterID;
44
45     enum RelationalCondition {
46         Equal = ARMAssembler::EQ,
47         NotEqual = ARMAssembler::NE,
48         Above = ARMAssembler::HI,
49         AboveOrEqual = ARMAssembler::CS,
50         Below = ARMAssembler::CC,
51         BelowOrEqual = ARMAssembler::LS,
52         GreaterThan = ARMAssembler::GT,
53         GreaterThanOrEqual = ARMAssembler::GE,
54         LessThan = ARMAssembler::LT,
55         LessThanOrEqual = ARMAssembler::LE
56     };
57
58     enum ResultCondition {
59         Overflow = ARMAssembler::VS,
60         Signed = ARMAssembler::MI,
61         PositiveOrZero = ARMAssembler::PL,
62         Zero = ARMAssembler::EQ,
63         NonZero = ARMAssembler::NE
64     };
65
66     enum DoubleCondition {
67         // These conditions will only evaluate to true if the comparison is ordered - i.e. neither operand is NaN.
68         DoubleEqual = ARMAssembler::EQ,
69         DoubleNotEqual = ARMAssembler::NE | DoubleConditionBitSpecial,
70         DoubleGreaterThan = ARMAssembler::GT,
71         DoubleGreaterThanOrEqual = ARMAssembler::GE,
72         DoubleLessThan = ARMAssembler::CC,
73         DoubleLessThanOrEqual = ARMAssembler::LS,
74         // If either operand is NaN, these conditions always evaluate to true.
75         DoubleEqualOrUnordered = ARMAssembler::EQ | DoubleConditionBitSpecial,
76         DoubleNotEqualOrUnordered = ARMAssembler::NE,
77         DoubleGreaterThanOrUnordered = ARMAssembler::HI,
78         DoubleGreaterThanOrEqualOrUnordered = ARMAssembler::CS,
79         DoubleLessThanOrUnordered = ARMAssembler::LT,
80         DoubleLessThanOrEqualOrUnordered = ARMAssembler::LE,
81     };
82
83     static const RegisterID stackPointerRegister = ARMRegisters::sp;
84     static const RegisterID framePointerRegister = ARMRegisters::fp;
85     static const RegisterID linkRegister = ARMRegisters::lr;
86
87     static const Scale ScalePtr = TimesFour;
88
89     void add32(RegisterID src, RegisterID dest)
90     {
91         m_assembler.adds(dest, dest, src);
92     }
93
94     void add32(RegisterID op1, RegisterID op2, RegisterID dest)
95     {
96         m_assembler.adds(dest, op1, op2);
97     }
98
99     void add32(TrustedImm32 imm, Address address)
100     {
101         load32(address, ARMRegisters::S1);
102         add32(imm, ARMRegisters::S1);
103         store32(ARMRegisters::S1, address);
104     }
105
106     void add32(TrustedImm32 imm, RegisterID dest)
107     {
108         m_assembler.adds(dest, dest, m_assembler.getImm(imm.m_value, ARMRegisters::S0));
109     }
110
111     void add32(AbsoluteAddress src, RegisterID dest)
112     {
113         move(TrustedImmPtr(src.m_ptr), ARMRegisters::S1);
114         m_assembler.dtrUp(ARMAssembler::LoadUint32, ARMRegisters::S1, ARMRegisters::S1, 0);
115         add32(ARMRegisters::S1, dest);
116     }
117
118     void add32(Address src, RegisterID dest)
119     {
120         load32(src, ARMRegisters::S1);
121         add32(ARMRegisters::S1, dest);
122     }
123
124     void add32(RegisterID src, TrustedImm32 imm, RegisterID dest)
125     {
126         m_assembler.adds(dest, src, m_assembler.getImm(imm.m_value, ARMRegisters::S0));
127     }
128
129     void and32(RegisterID src, RegisterID dest)
130     {
131         m_assembler.bitAnds(dest, dest, src);
132     }
133
134     void and32(RegisterID op1, RegisterID op2, RegisterID dest)
135     {
136         m_assembler.bitAnds(dest, op1, op2);
137     }
138
139     void and32(TrustedImm32 imm, RegisterID dest)
140     {
141         ARMWord w = m_assembler.getImm(imm.m_value, ARMRegisters::S0, true);
142         if (w & ARMAssembler::Op2InvertedImmediate)
143             m_assembler.bics(dest, dest, w & ~ARMAssembler::Op2InvertedImmediate);
144         else
145             m_assembler.bitAnds(dest, dest, w);
146     }
147
148     void and32(TrustedImm32 imm, RegisterID src, RegisterID dest)
149     {
150         ARMWord w = m_assembler.getImm(imm.m_value, ARMRegisters::S0, true);
151         if (w & ARMAssembler::Op2InvertedImmediate)
152             m_assembler.bics(dest, src, w & ~ARMAssembler::Op2InvertedImmediate);
153         else
154             m_assembler.bitAnds(dest, src, w);
155     }
156
157     void and32(Address src, RegisterID dest)
158     {
159         load32(src, ARMRegisters::S1);
160         and32(ARMRegisters::S1, dest);
161     }
162
163     void lshift32(RegisterID shiftAmount, RegisterID dest)
164     {
165         lshift32(dest, shiftAmount, dest);
166     }
167
168     void lshift32(RegisterID src, RegisterID shiftAmount, RegisterID dest)
169     {
170         ARMWord w = ARMAssembler::getOp2Byte(0x1f);
171         m_assembler.bitAnd(ARMRegisters::S0, shiftAmount, w);
172
173         m_assembler.movs(dest, m_assembler.lslRegister(src, ARMRegisters::S0));
174     }
175
176     void lshift32(TrustedImm32 imm, RegisterID dest)
177     {
178         m_assembler.movs(dest, m_assembler.lsl(dest, imm.m_value & 0x1f));
179     }
180
181     void lshift32(RegisterID src, TrustedImm32 imm, RegisterID dest)
182     {
183         m_assembler.movs(dest, m_assembler.lsl(src, imm.m_value & 0x1f));
184     }
185
186     void mul32(RegisterID op1, RegisterID op2, RegisterID dest)
187     {
188         if (op2 == dest) {
189             if (op1 == dest) {
190                 move(op2, ARMRegisters::S0);
191                 op2 = ARMRegisters::S0;
192             } else {
193                 // Swap the operands.
194                 RegisterID tmp = op1;
195                 op1 = op2;
196                 op2 = tmp;
197             }
198         }
199         m_assembler.muls(dest, op1, op2);
200     }
201
202     void mul32(RegisterID src, RegisterID dest)
203     {
204         mul32(src, dest, dest);
205     }
206
207     void mul32(TrustedImm32 imm, RegisterID src, RegisterID dest)
208     {
209         move(imm, ARMRegisters::S0);
210         m_assembler.muls(dest, src, ARMRegisters::S0);
211     }
212
213     void neg32(RegisterID srcDest)
214     {
215         m_assembler.rsbs(srcDest, srcDest, ARMAssembler::getOp2Byte(0));
216     }
217
218     void or32(RegisterID src, RegisterID dest)
219     {
220         m_assembler.orrs(dest, dest, src);
221     }
222
223     void or32(RegisterID src, AbsoluteAddress dest)
224     {
225         move(TrustedImmPtr(dest.m_ptr), ARMRegisters::S0);
226         load32(Address(ARMRegisters::S0), ARMRegisters::S1);
227         or32(src, ARMRegisters::S1);
228         store32(ARMRegisters::S1, ARMRegisters::S0);
229     }
230
231     void or32(TrustedImm32 imm, RegisterID dest)
232     {
233         m_assembler.orrs(dest, dest, m_assembler.getImm(imm.m_value, ARMRegisters::S0));
234     }
235
236     void or32(TrustedImm32 imm, RegisterID src, RegisterID dest)
237     {
238         m_assembler.orrs(dest, src, m_assembler.getImm(imm.m_value, ARMRegisters::S0));
239     }
240
241     void or32(RegisterID op1, RegisterID op2, RegisterID dest)
242     {
243         m_assembler.orrs(dest, op1, op2);
244     }
245
246     void rshift32(RegisterID shiftAmount, RegisterID dest)
247     {
248         rshift32(dest, shiftAmount, dest);
249     }
250
251     void rshift32(RegisterID src, RegisterID shiftAmount, RegisterID dest)
252     {
253         ARMWord w = ARMAssembler::getOp2Byte(0x1f);
254         m_assembler.bitAnd(ARMRegisters::S0, shiftAmount, w);
255
256         m_assembler.movs(dest, m_assembler.asrRegister(src, ARMRegisters::S0));
257     }
258
259     void rshift32(TrustedImm32 imm, RegisterID dest)
260     {
261         rshift32(dest, imm, dest);
262     }
263
264     void rshift32(RegisterID src, TrustedImm32 imm, RegisterID dest)
265     {
266         m_assembler.movs(dest, m_assembler.asr(src, imm.m_value & 0x1f));
267     }
268
269     void urshift32(RegisterID shiftAmount, RegisterID dest)
270     {
271         urshift32(dest, shiftAmount, dest);
272     }
273
274     void urshift32(RegisterID src, RegisterID shiftAmount, RegisterID dest)
275     {
276         ARMWord w = ARMAssembler::getOp2Byte(0x1f);
277         m_assembler.bitAnd(ARMRegisters::S0, shiftAmount, w);
278
279         m_assembler.movs(dest, m_assembler.lsrRegister(src, ARMRegisters::S0));
280     }
281
282     void urshift32(TrustedImm32 imm, RegisterID dest)
283     {
284         m_assembler.movs(dest, m_assembler.lsr(dest, imm.m_value & 0x1f));
285     }
286     
287     void urshift32(RegisterID src, TrustedImm32 imm, RegisterID dest)
288     {
289         m_assembler.movs(dest, m_assembler.lsr(src, imm.m_value & 0x1f));
290     }
291
292     void sub32(RegisterID src, RegisterID dest)
293     {
294         m_assembler.subs(dest, dest, src);
295     }
296
297     void sub32(TrustedImm32 imm, RegisterID dest)
298     {
299         m_assembler.subs(dest, dest, m_assembler.getImm(imm.m_value, ARMRegisters::S0));
300     }
301
302     void sub32(TrustedImm32 imm, Address address)
303     {
304         load32(address, ARMRegisters::S1);
305         sub32(imm, ARMRegisters::S1);
306         store32(ARMRegisters::S1, address);
307     }
308
309     void sub32(Address src, RegisterID dest)
310     {
311         load32(src, ARMRegisters::S1);
312         sub32(ARMRegisters::S1, dest);
313     }
314
315     void sub32(RegisterID src, TrustedImm32 imm, RegisterID dest)
316     {
317         m_assembler.subs(dest, src, m_assembler.getImm(imm.m_value, ARMRegisters::S0));
318     }
319
320     void xor32(RegisterID src, RegisterID dest)
321     {
322         m_assembler.eors(dest, dest, src);
323     }
324
325     void xor32(RegisterID op1, RegisterID op2, RegisterID dest)
326     {
327         m_assembler.eors(dest, op1, op2);
328     }
329
330     void xor32(TrustedImm32 imm, RegisterID dest)
331     {
332         if (imm.m_value == -1)
333             m_assembler.mvns(dest, dest);
334         else
335             m_assembler.eors(dest, dest, m_assembler.getImm(imm.m_value, ARMRegisters::S0));
336     }
337
338     void xor32(TrustedImm32 imm, RegisterID src, RegisterID dest)
339     {
340         if (imm.m_value == -1)
341             m_assembler.mvns(dest, src);
342         else    
343             m_assembler.eors(dest, src, m_assembler.getImm(imm.m_value, ARMRegisters::S0));
344     }
345
346     void countLeadingZeros32(RegisterID src, RegisterID dest)
347     {
348 #if WTF_ARM_ARCH_AT_LEAST(5)
349         m_assembler.clz(dest, src);
350 #else
351         UNUSED_PARAM(src);
352         UNUSED_PARAM(dest);
353         RELEASE_ASSERT_NOT_REACHED();
354 #endif
355     }
356
357     void load8(ImplicitAddress address, RegisterID dest)
358     {
359         m_assembler.dataTransfer32(ARMAssembler::LoadUint8, dest, address.base, address.offset);
360     }
361
362     void load8(BaseIndex address, RegisterID dest)
363     {
364         m_assembler.baseIndexTransfer32(ARMAssembler::LoadUint8, dest, address.base, address.index, static_cast<int>(address.scale), address.offset);
365     }
366
367     void load8(const void* address, RegisterID dest)
368     {
369         move(TrustedImmPtr(address), ARMRegisters::S0);
370         m_assembler.dataTransfer32(ARMAssembler::LoadUint8, dest, ARMRegisters::S0, 0);
371     }
372
373     void load8SignedExtendTo32(BaseIndex address, RegisterID dest)
374     {
375         m_assembler.baseIndexTransfer16(ARMAssembler::LoadInt8, dest, address.base, address.index, static_cast<int>(address.scale), address.offset);
376     }
377
378     void load16(ImplicitAddress address, RegisterID dest)
379     {
380         m_assembler.dataTransfer16(ARMAssembler::LoadUint16, dest, address.base, address.offset);
381     }
382
383     void load16(BaseIndex address, RegisterID dest)
384     {
385         m_assembler.baseIndexTransfer16(ARMAssembler::LoadUint16, dest, address.base, address.index, static_cast<int>(address.scale), address.offset);
386     }
387
388     void load16SignedExtendTo32(BaseIndex address, RegisterID dest)
389     {
390         m_assembler.baseIndexTransfer16(ARMAssembler::LoadInt16, dest, address.base, address.index, static_cast<int>(address.scale), address.offset);
391     }
392
393     void load32(ImplicitAddress address, RegisterID dest)
394     {
395         m_assembler.dataTransfer32(ARMAssembler::LoadUint32, dest, address.base, address.offset);
396     }
397
398     void load32(BaseIndex address, RegisterID dest)
399     {
400         m_assembler.baseIndexTransfer32(ARMAssembler::LoadUint32, dest, address.base, address.index, static_cast<int>(address.scale), address.offset);
401     }
402
403 #if CPU(ARMV5_OR_LOWER)
404     void load32WithUnalignedHalfWords(BaseIndex address, RegisterID dest);
405 #else
406     void load32WithUnalignedHalfWords(BaseIndex address, RegisterID dest)
407     {
408         load32(address, dest);
409     }
410 #endif
411
412     void load16Unaligned(BaseIndex address, RegisterID dest)
413     {
414         load16(address, dest);
415     }
416
417     void abortWithReason(AbortReason reason)
418     {
419         move(TrustedImm32(reason), ARMRegisters::S0);
420         breakpoint();
421     }
422
423     void abortWithReason(AbortReason reason, intptr_t misc)
424     {
425         move(TrustedImm32(misc), ARMRegisters::S1);
426         abortWithReason(reason);
427     }
428
429     ConvertibleLoadLabel convertibleLoadPtr(Address address, RegisterID dest)
430     {
431         ConvertibleLoadLabel result(this);
432         ASSERT(address.offset >= 0 && address.offset <= 255);
433         m_assembler.dtrUp(ARMAssembler::LoadUint32, dest, address.base, address.offset);
434         return result;
435     }
436
437     DataLabel32 load32WithAddressOffsetPatch(Address address, RegisterID dest)
438     {
439         DataLabel32 dataLabel(this);
440         m_assembler.ldrUniqueImmediate(ARMRegisters::S0, 0);
441         m_assembler.dtrUpRegister(ARMAssembler::LoadUint32, dest, address.base, ARMRegisters::S0);
442         return dataLabel;
443     }
444
445     static bool isCompactPtrAlignedAddressOffset(ptrdiff_t value)
446     {
447         return value >= -4095 && value <= 4095;
448     }
449
450     DataLabelCompact load32WithCompactAddressOffsetPatch(Address address, RegisterID dest)
451     {
452         DataLabelCompact dataLabel(this);
453         ASSERT(isCompactPtrAlignedAddressOffset(address.offset));
454         if (address.offset >= 0)
455             m_assembler.dtrUp(ARMAssembler::LoadUint32, dest, address.base, address.offset);
456         else
457             m_assembler.dtrDown(ARMAssembler::LoadUint32, dest, address.base, address.offset);
458         return dataLabel;
459     }
460
461     DataLabel32 store32WithAddressOffsetPatch(RegisterID src, Address address)
462     {
463         DataLabel32 dataLabel(this);
464         m_assembler.ldrUniqueImmediate(ARMRegisters::S0, 0);
465         m_assembler.dtrUpRegister(ARMAssembler::StoreUint32, src, address.base, ARMRegisters::S0);
466         return dataLabel;
467     }
468
469     void store8(RegisterID src, BaseIndex address)
470     {
471         m_assembler.baseIndexTransfer32(ARMAssembler::StoreUint8, src, address.base, address.index, static_cast<int>(address.scale), address.offset);
472     }
473
474     void store8(RegisterID src, ImplicitAddress address)
475     {
476         m_assembler.dtrUp(ARMAssembler::StoreUint8, src, address.base, address.offset);
477     }
478
479     void store8(RegisterID src, const void* address)
480     {
481         move(TrustedImmPtr(address), ARMRegisters::S0);
482         m_assembler.dtrUp(ARMAssembler::StoreUint8, src, ARMRegisters::S0, 0);
483     }
484
485     void store8(TrustedImm32 imm, ImplicitAddress address)
486     {
487         move(imm, ARMRegisters::S1);
488         store8(ARMRegisters::S1, address);
489     }
490
491     void store8(TrustedImm32 imm, const void* address)
492     {
493         move(TrustedImm32(reinterpret_cast<ARMWord>(address)), ARMRegisters::S0);
494         move(imm, ARMRegisters::S1);
495         m_assembler.dtrUp(ARMAssembler::StoreUint8, ARMRegisters::S1, ARMRegisters::S0, 0);
496     }
497
498     void store16(RegisterID src, BaseIndex address)
499     {
500         m_assembler.baseIndexTransfer16(ARMAssembler::StoreUint16, src, address.base, address.index, static_cast<int>(address.scale), address.offset);
501     }
502
503     void store32(RegisterID src, ImplicitAddress address)
504     {
505         m_assembler.dataTransfer32(ARMAssembler::StoreUint32, src, address.base, address.offset);
506     }
507
508     void store32(RegisterID src, BaseIndex address)
509     {
510         m_assembler.baseIndexTransfer32(ARMAssembler::StoreUint32, src, address.base, address.index, static_cast<int>(address.scale), address.offset);
511     }
512
513     void store32(TrustedImm32 imm, ImplicitAddress address)
514     {
515         move(imm, ARMRegisters::S1);
516         store32(ARMRegisters::S1, address);
517     }
518
519     void store32(TrustedImm32 imm, BaseIndex address)
520     {
521         move(imm, ARMRegisters::S1);
522         m_assembler.baseIndexTransfer32(ARMAssembler::StoreUint32, ARMRegisters::S1, address.base, address.index, static_cast<int>(address.scale), address.offset);
523     }
524
525     void store32(RegisterID src, const void* address)
526     {
527         m_assembler.ldrUniqueImmediate(ARMRegisters::S0, reinterpret_cast<ARMWord>(address));
528         m_assembler.dtrUp(ARMAssembler::StoreUint32, src, ARMRegisters::S0, 0);
529     }
530
531     void store32(TrustedImm32 imm, const void* address)
532     {
533         m_assembler.ldrUniqueImmediate(ARMRegisters::S0, reinterpret_cast<ARMWord>(address));
534         m_assembler.moveImm(imm.m_value, ARMRegisters::S1);
535         m_assembler.dtrUp(ARMAssembler::StoreUint32, ARMRegisters::S1, ARMRegisters::S0, 0);
536     }
537
538     void pop(RegisterID dest)
539     {
540         m_assembler.pop(dest);
541     }
542
543     void popPair(RegisterID dest1, RegisterID dest2)
544     {
545         m_assembler.pop(dest1);
546         m_assembler.pop(dest2);
547     }
548
549     void push(RegisterID src)
550     {
551         m_assembler.push(src);
552     }
553
554     void push(Address address)
555     {
556         load32(address, ARMRegisters::S1);
557         push(ARMRegisters::S1);
558     }
559
560     void push(TrustedImm32 imm)
561     {
562         move(imm, ARMRegisters::S0);
563         push(ARMRegisters::S0);
564     }
565
566     void pushPair(RegisterID src1, RegisterID src2)
567     {
568         m_assembler.push(src2);
569         m_assembler.push(src1);
570     }
571
572     void move(TrustedImm32 imm, RegisterID dest)
573     {
574         m_assembler.moveImm(imm.m_value, dest);
575     }
576
577     void move(RegisterID src, RegisterID dest)
578     {
579         if (src != dest)
580             m_assembler.mov(dest, src);
581     }
582
583     void move(TrustedImmPtr imm, RegisterID dest)
584     {
585         move(TrustedImm32(imm), dest);
586     }
587
588     void swap(RegisterID reg1, RegisterID reg2)
589     {
590         xor32(reg1, reg2);
591         xor32(reg2, reg1);
592         xor32(reg1, reg2);
593     }
594
595     void signExtend32ToPtr(RegisterID src, RegisterID dest)
596     {
597         if (src != dest)
598             move(src, dest);
599     }
600
601     void zeroExtend32ToPtr(RegisterID src, RegisterID dest)
602     {
603         if (src != dest)
604             move(src, dest);
605     }
606
607     Jump branch8(RelationalCondition cond, Address left, TrustedImm32 right)
608     {
609         load8(left, ARMRegisters::S1);
610         return branch32(cond, ARMRegisters::S1, right);
611     }
612
613     Jump branch8(RelationalCondition cond, BaseIndex left, TrustedImm32 right)
614     {
615         ASSERT(!(right.m_value & 0xFFFFFF00));
616         load8(left, ARMRegisters::S1);
617         return branch32(cond, ARMRegisters::S1, right);
618     }
619
620     Jump branch8(RelationalCondition cond, AbsoluteAddress left, TrustedImm32 right)
621     {
622         move(TrustedImmPtr(left.m_ptr), ARMRegisters::S1);
623         load8(Address(ARMRegisters::S1), ARMRegisters::S1);
624         return branch32(cond, ARMRegisters::S1, right);
625     }
626
627     Jump branch32(RelationalCondition cond, RegisterID left, RegisterID right, int useConstantPool = 0)
628     {
629         m_assembler.cmp(left, right);
630         return Jump(m_assembler.jmp(ARMCondition(cond), useConstantPool));
631     }
632
633     Jump branch32(RelationalCondition cond, RegisterID left, TrustedImm32 right, int useConstantPool = 0)
634     {
635         internalCompare32(left, right);
636         return Jump(m_assembler.jmp(ARMCondition(cond), useConstantPool));
637     }
638
639     Jump branch32(RelationalCondition cond, RegisterID left, Address right)
640     {
641         load32(right, ARMRegisters::S1);
642         return branch32(cond, left, ARMRegisters::S1);
643     }
644
645     Jump branch32(RelationalCondition cond, Address left, RegisterID right)
646     {
647         load32(left, ARMRegisters::S1);
648         return branch32(cond, ARMRegisters::S1, right);
649     }
650
651     Jump branch32(RelationalCondition cond, Address left, TrustedImm32 right)
652     {
653         load32(left, ARMRegisters::S1);
654         return branch32(cond, ARMRegisters::S1, right);
655     }
656
657     Jump branch32(RelationalCondition cond, BaseIndex left, TrustedImm32 right)
658     {
659         load32(left, ARMRegisters::S1);
660         return branch32(cond, ARMRegisters::S1, right);
661     }
662
663     Jump branch32WithUnalignedHalfWords(RelationalCondition cond, BaseIndex left, TrustedImm32 right)
664     {
665         load32WithUnalignedHalfWords(left, ARMRegisters::S1);
666         return branch32(cond, ARMRegisters::S1, right);
667     }
668
669     Jump branchTest8(ResultCondition cond, Address address, TrustedImm32 mask = TrustedImm32(-1))
670     {
671         load8(address, ARMRegisters::S1);
672         return branchTest32(cond, ARMRegisters::S1, mask);
673     }
674
675     Jump branchTest8(ResultCondition cond, BaseIndex address, TrustedImm32 mask = TrustedImm32(-1))
676     {
677         load8(address, ARMRegisters::S1);
678         return branchTest32(cond, ARMRegisters::S1, mask);
679     }
680
681     Jump branchTest8(ResultCondition cond, AbsoluteAddress address, TrustedImm32 mask = TrustedImm32(-1))
682     {
683         move(TrustedImmPtr(address.m_ptr), ARMRegisters::S1);
684         load8(Address(ARMRegisters::S1), ARMRegisters::S1);
685         return branchTest32(cond, ARMRegisters::S1, mask);
686     }
687
688     Jump branchTest32(ResultCondition cond, RegisterID reg, RegisterID mask)
689     {
690         ASSERT((cond == Zero) || (cond == NonZero));
691         m_assembler.tst(reg, mask);
692         return Jump(m_assembler.jmp(ARMCondition(cond)));
693     }
694
695     Jump branchTest32(ResultCondition cond, RegisterID reg, TrustedImm32 mask = TrustedImm32(-1))
696     {
697         ASSERT((cond == Zero) || (cond == NonZero));
698         ARMWord w = m_assembler.getImm(mask.m_value, ARMRegisters::S0, true);
699         if (w & ARMAssembler::Op2InvertedImmediate)
700             m_assembler.bics(ARMRegisters::S0, reg, w & ~ARMAssembler::Op2InvertedImmediate);
701         else
702             m_assembler.tst(reg, w);
703         return Jump(m_assembler.jmp(ARMCondition(cond)));
704     }
705
706     Jump branchTest32(ResultCondition cond, Address address, TrustedImm32 mask = TrustedImm32(-1))
707     {
708         load32(address, ARMRegisters::S1);
709         return branchTest32(cond, ARMRegisters::S1, mask);
710     }
711
712     Jump branchTest32(ResultCondition cond, BaseIndex address, TrustedImm32 mask = TrustedImm32(-1))
713     {
714         load32(address, ARMRegisters::S1);
715         return branchTest32(cond, ARMRegisters::S1, mask);
716     }
717
718     Jump jump()
719     {
720         return Jump(m_assembler.jmp());
721     }
722
723     void jump(RegisterID target)
724     {
725         m_assembler.bx(target);
726     }
727
728     void jump(Address address)
729     {
730         load32(address, ARMRegisters::pc);
731     }
732
733     void jump(AbsoluteAddress address)
734     {
735         move(TrustedImmPtr(address.m_ptr), ARMRegisters::S0);
736         load32(Address(ARMRegisters::S0, 0), ARMRegisters::pc);
737     }
738
739     void moveDoubleToInts(FPRegisterID src, RegisterID dest1, RegisterID dest2)
740     {
741         m_assembler.vmov(dest1, dest2, src);
742     }
743
744     void moveIntsToDouble(RegisterID src1, RegisterID src2, FPRegisterID dest, FPRegisterID)
745     {
746         m_assembler.vmov(dest, src1, src2);
747     }
748
749     Jump branchAdd32(ResultCondition cond, RegisterID src, RegisterID dest)
750     {
751         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero)
752             || (cond == NonZero) || (cond == PositiveOrZero));
753         add32(src, dest);
754         return Jump(m_assembler.jmp(ARMCondition(cond)));
755     }
756
757     Jump branchAdd32(ResultCondition cond, RegisterID op1, RegisterID op2, RegisterID dest)
758     {
759         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero)
760             || (cond == NonZero) || (cond == PositiveOrZero));
761         add32(op1, op2, dest);
762         return Jump(m_assembler.jmp(ARMCondition(cond)));
763     }
764
765     Jump branchAdd32(ResultCondition cond, TrustedImm32 imm, RegisterID dest)
766     {
767         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero)
768             || (cond == NonZero) || (cond == PositiveOrZero));
769         add32(imm, dest);
770         return Jump(m_assembler.jmp(ARMCondition(cond)));
771     }
772
773     Jump branchAdd32(ResultCondition cond, RegisterID src, TrustedImm32 imm, RegisterID dest)
774     {
775         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero)
776             || (cond == NonZero) || (cond == PositiveOrZero));
777         add32(src, imm, dest);
778         return Jump(m_assembler.jmp(ARMCondition(cond)));
779     }
780
781     Jump branchAdd32(ResultCondition cond, TrustedImm32 imm, AbsoluteAddress dest)
782     {
783         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero)
784             || (cond == NonZero) || (cond == PositiveOrZero));
785         add32(imm, dest);
786         return Jump(m_assembler.jmp(ARMCondition(cond)));
787     }
788
789     Jump branchAdd32(ResultCondition cond, Address src, RegisterID dest)
790     {
791         load32(src, ARMRegisters::S0);
792         return branchAdd32(cond, dest, ARMRegisters::S0, dest);
793     }
794     void mull32(RegisterID op1, RegisterID op2, RegisterID dest)
795     {
796         if (op2 == dest) {
797             if (op1 == dest) {
798                 move(op2, ARMRegisters::S0);
799                 op2 = ARMRegisters::S0;
800             } else {
801                 // Swap the operands.
802                 RegisterID tmp = op1;
803                 op1 = op2;
804                 op2 = tmp;
805             }
806         }
807         m_assembler.mull(ARMRegisters::S1, dest, op1, op2);
808         m_assembler.cmp(ARMRegisters::S1, m_assembler.asr(dest, 31));
809     }
810
811     Jump branchMul32(ResultCondition cond, RegisterID src1, RegisterID src2, RegisterID dest)
812     {
813         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero) || (cond == NonZero));
814         if (cond == Overflow) {
815             mull32(src1, src2, dest);
816             cond = NonZero;
817         }
818         else
819             mul32(src1, src2, dest);
820         return Jump(m_assembler.jmp(ARMCondition(cond)));
821     }
822
823     Jump branchMul32(ResultCondition cond, RegisterID src, RegisterID dest)
824     {
825         return branchMul32(cond, src, dest, dest);
826     }
827
828     Jump branchMul32(ResultCondition cond, TrustedImm32 imm, RegisterID src, RegisterID dest)
829     {
830         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero) || (cond == NonZero));
831         if (cond == Overflow) {
832             move(imm, ARMRegisters::S0);
833             mull32(ARMRegisters::S0, src, dest);
834             cond = NonZero;
835         }
836         else
837             mul32(imm, src, dest);
838         return Jump(m_assembler.jmp(ARMCondition(cond)));
839     }
840
841     Jump branchSub32(ResultCondition cond, RegisterID src, RegisterID dest)
842     {
843         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero) || (cond == NonZero));
844         sub32(src, dest);
845         return Jump(m_assembler.jmp(ARMCondition(cond)));
846     }
847
848     Jump branchSub32(ResultCondition cond, TrustedImm32 imm, RegisterID dest)
849     {
850         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero) || (cond == NonZero));
851         sub32(imm, dest);
852         return Jump(m_assembler.jmp(ARMCondition(cond)));
853     }
854
855     Jump branchSub32(ResultCondition cond, RegisterID src, TrustedImm32 imm, RegisterID dest)
856     {
857         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero) || (cond == NonZero));
858         sub32(src, imm, dest);
859         return Jump(m_assembler.jmp(ARMCondition(cond)));
860     }
861
862     Jump branchSub32(ResultCondition cond, RegisterID op1, RegisterID op2, RegisterID dest)
863     {
864         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero) || (cond == NonZero));
865         m_assembler.subs(dest, op1, op2);
866         return Jump(m_assembler.jmp(ARMCondition(cond)));
867     }
868
869     Jump branchNeg32(ResultCondition cond, RegisterID srcDest)
870     {
871         ASSERT((cond == Overflow) || (cond == Signed) || (cond == Zero) || (cond == NonZero));
872         neg32(srcDest);
873         return Jump(m_assembler.jmp(ARMCondition(cond)));
874     }
875
876     Jump branchOr32(ResultCondition cond, RegisterID src, RegisterID dest)
877     {
878         ASSERT((cond == Signed) || (cond == Zero) || (cond == NonZero));
879         or32(src, dest);
880         return Jump(m_assembler.jmp(ARMCondition(cond)));
881     }
882
883     PatchableJump patchableJump()
884     {
885         return PatchableJump(m_assembler.jmp(ARMAssembler::AL, 1));
886     }
887
888     PatchableJump patchableBranch32(RelationalCondition cond, RegisterID reg, TrustedImm32 imm)
889     {
890         internalCompare32(reg, imm);
891         Jump jump(m_assembler.loadBranchTarget(ARMRegisters::S1, ARMCondition(cond), true));
892         m_assembler.bx(ARMRegisters::S1, ARMCondition(cond));
893         return PatchableJump(jump);
894     }
895
896     void breakpoint()
897     {
898         m_assembler.bkpt(0);
899     }
900
901     Call nearCall()
902     {
903         m_assembler.loadBranchTarget(ARMRegisters::S1, ARMAssembler::AL, true);
904         return Call(m_assembler.blx(ARMRegisters::S1), Call::LinkableNear);
905     }
906
907     Call nearTailCall()
908     {
909         return Call(m_assembler.jmp(), Call::LinkableNearTail);
910     }
911
912     Call call(RegisterID target)
913     {
914         return Call(m_assembler.blx(target), Call::None);
915     }
916
917     void call(Address address)
918     {
919         call32(address.base, address.offset);
920     }
921
922     void ret()
923     {
924         m_assembler.bx(linkRegister);
925     }
926
927     void compare32(RelationalCondition cond, RegisterID left, RegisterID right, RegisterID dest)
928     {
929         m_assembler.cmp(left, right);
930         m_assembler.mov(dest, ARMAssembler::getOp2Byte(0));
931         m_assembler.mov(dest, ARMAssembler::getOp2Byte(1), ARMCondition(cond));
932     }
933
934     void compare32(RelationalCondition cond, RegisterID left, TrustedImm32 right, RegisterID dest)
935     {
936         m_assembler.cmp(left, m_assembler.getImm(right.m_value, ARMRegisters::S0));
937         m_assembler.mov(dest, ARMAssembler::getOp2Byte(0));
938         m_assembler.mov(dest, ARMAssembler::getOp2Byte(1), ARMCondition(cond));
939     }
940
941     void compare8(RelationalCondition cond, Address left, TrustedImm32 right, RegisterID dest)
942     {
943         load8(left, ARMRegisters::S1);
944         compare32(cond, ARMRegisters::S1, right, dest);
945     }
946
947     void test32(ResultCondition cond, RegisterID reg, TrustedImm32 mask, RegisterID dest)
948     {
949         if (mask.m_value == -1)
950             m_assembler.tst(reg, reg);
951         else
952             m_assembler.tst(reg, m_assembler.getImm(mask.m_value, ARMRegisters::S0));
953         m_assembler.mov(dest, ARMAssembler::getOp2Byte(0));
954         m_assembler.mov(dest, ARMAssembler::getOp2Byte(1), ARMCondition(cond));
955     }
956
957     void test32(ResultCondition cond, Address address, TrustedImm32 mask, RegisterID dest)
958     {
959         load32(address, ARMRegisters::S1);
960         test32(cond, ARMRegisters::S1, mask, dest);
961     }
962
963     void test8(ResultCondition cond, Address address, TrustedImm32 mask, RegisterID dest)
964     {
965         load8(address, ARMRegisters::S1);
966         test32(cond, ARMRegisters::S1, mask, dest);
967     }
968
969     void add32(TrustedImm32 imm, RegisterID src, RegisterID dest)
970     {
971         m_assembler.add(dest, src, m_assembler.getImm(imm.m_value, ARMRegisters::S0));
972     }
973
974     void add32(TrustedImm32 imm, AbsoluteAddress address)
975     {
976         load32(address.m_ptr, ARMRegisters::S1);
977         add32(imm, ARMRegisters::S1);
978         store32(ARMRegisters::S1, address.m_ptr);
979     }
980
981     void add64(TrustedImm32 imm, AbsoluteAddress address)
982     {
983         ARMWord tmp;
984
985         move(TrustedImmPtr(address.m_ptr), ARMRegisters::S1);
986         m_assembler.dtrUp(ARMAssembler::LoadUint32, ARMRegisters::S0, ARMRegisters::S1, 0);
987
988         if ((tmp = ARMAssembler::getOp2(imm.m_value)) != ARMAssembler::InvalidImmediate)
989             m_assembler.adds(ARMRegisters::S0, ARMRegisters::S0, tmp);
990         else if ((tmp = ARMAssembler::getOp2(-imm.m_value)) != ARMAssembler::InvalidImmediate)
991             m_assembler.subs(ARMRegisters::S0, ARMRegisters::S0, tmp);
992         else {
993             m_assembler.adds(ARMRegisters::S0, ARMRegisters::S0, m_assembler.getImm(imm.m_value, ARMRegisters::S1));
994             move(TrustedImmPtr(address.m_ptr), ARMRegisters::S1);
995         }
996         m_assembler.dtrUp(ARMAssembler::StoreUint32, ARMRegisters::S0, ARMRegisters::S1, 0);
997
998         m_assembler.dtrUp(ARMAssembler::LoadUint32, ARMRegisters::S0, ARMRegisters::S1, sizeof(ARMWord));
999         if (imm.m_value >= 0)
1000             m_assembler.adc(ARMRegisters::S0, ARMRegisters::S0, ARMAssembler::getOp2Byte(0));
1001         else
1002             m_assembler.sbc(ARMRegisters::S0, ARMRegisters::S0, ARMAssembler::getOp2Byte(0));
1003         m_assembler.dtrUp(ARMAssembler::StoreUint32, ARMRegisters::S0, ARMRegisters::S1, sizeof(ARMWord));
1004     }
1005
1006     void sub32(TrustedImm32 imm, AbsoluteAddress address)
1007     {
1008         load32(address.m_ptr, ARMRegisters::S1);
1009         sub32(imm, ARMRegisters::S1);
1010         store32(ARMRegisters::S1, address.m_ptr);
1011     }
1012
1013     void load32(const void* address, RegisterID dest)
1014     {
1015         m_assembler.ldrUniqueImmediate(ARMRegisters::S0, reinterpret_cast<ARMWord>(address));
1016         m_assembler.dtrUp(ARMAssembler::LoadUint32, dest, ARMRegisters::S0, 0);
1017     }
1018
1019     Jump branch32(RelationalCondition cond, AbsoluteAddress left, RegisterID right)
1020     {
1021         load32(left.m_ptr, ARMRegisters::S1);
1022         return branch32(cond, ARMRegisters::S1, right);
1023     }
1024
1025     Jump branch32(RelationalCondition cond, AbsoluteAddress left, TrustedImm32 right)
1026     {
1027         load32(left.m_ptr, ARMRegisters::S1);
1028         return branch32(cond, ARMRegisters::S1, right);
1029     }
1030
1031     void relativeTableJump(RegisterID index, int scale)
1032     {
1033         ASSERT(scale >= 0 && scale <= 31);
1034         m_assembler.add(ARMRegisters::pc, ARMRegisters::pc, m_assembler.lsl(index, scale));
1035
1036         // NOP the default prefetching
1037         m_assembler.mov(ARMRegisters::r0, ARMRegisters::r0);
1038     }
1039
1040     Call call()
1041     {
1042         ensureSpace(2 * sizeof(ARMWord), sizeof(ARMWord));
1043         m_assembler.loadBranchTarget(ARMRegisters::S1, ARMAssembler::AL, true);
1044         return Call(m_assembler.blx(ARMRegisters::S1), Call::Linkable);
1045     }
1046
1047     Call tailRecursiveCall()
1048     {
1049         return Call::fromTailJump(jump());
1050     }
1051
1052     Call makeTailRecursiveCall(Jump oldJump)
1053     {
1054         return Call::fromTailJump(oldJump);
1055     }
1056
1057     DataLabelPtr moveWithPatch(TrustedImmPtr initialValue, RegisterID dest)
1058     {
1059         DataLabelPtr dataLabel(this);
1060         m_assembler.ldrUniqueImmediate(dest, reinterpret_cast<ARMWord>(initialValue.m_value));
1061         return dataLabel;
1062     }
1063
1064     DataLabel32 moveWithPatch(TrustedImm32 initialValue, RegisterID dest)
1065     {
1066         DataLabel32 dataLabel(this);
1067         m_assembler.ldrUniqueImmediate(dest, static_cast<ARMWord>(initialValue.m_value));
1068         return dataLabel;
1069     }
1070
1071     Jump branchPtrWithPatch(RelationalCondition cond, RegisterID left, DataLabelPtr& dataLabel, TrustedImmPtr initialRightValue = TrustedImmPtr(0))
1072     {
1073         ensureSpace(3 * sizeof(ARMWord), 2 * sizeof(ARMWord));
1074         dataLabel = moveWithPatch(initialRightValue, ARMRegisters::S1);
1075         Jump jump = branch32(cond, left, ARMRegisters::S1, true);
1076         return jump;
1077     }
1078
1079     Jump branchPtrWithPatch(RelationalCondition cond, Address left, DataLabelPtr& dataLabel, TrustedImmPtr initialRightValue = TrustedImmPtr(0))
1080     {
1081         load32(left, ARMRegisters::S1);
1082         ensureSpace(3 * sizeof(ARMWord), 2 * sizeof(ARMWord));
1083         dataLabel = moveWithPatch(initialRightValue, ARMRegisters::S0);
1084         Jump jump = branch32(cond, ARMRegisters::S0, ARMRegisters::S1, true);
1085         return jump;
1086     }
1087
1088     Jump branch32WithPatch(RelationalCondition cond, Address left, DataLabel32& dataLabel, TrustedImm32 initialRightValue = TrustedImm32(0))
1089     {
1090         load32(left, ARMRegisters::S1);
1091         ensureSpace(3 * sizeof(ARMWord), 2 * sizeof(ARMWord));
1092         dataLabel = moveWithPatch(initialRightValue, ARMRegisters::S0);
1093         Jump jump = branch32(cond, ARMRegisters::S0, ARMRegisters::S1, true);
1094         return jump;
1095     }
1096
1097     DataLabelPtr storePtrWithPatch(TrustedImmPtr initialValue, ImplicitAddress address)
1098     {
1099         DataLabelPtr dataLabel = moveWithPatch(initialValue, ARMRegisters::S1);
1100         store32(ARMRegisters::S1, address);
1101         return dataLabel;
1102     }
1103
1104     DataLabelPtr storePtrWithPatch(ImplicitAddress address)
1105     {
1106         return storePtrWithPatch(TrustedImmPtr(0), address);
1107     }
1108
1109     // Floating point operators
1110     static bool supportsFloatingPoint()
1111     {
1112         return s_isVFPPresent;
1113     }
1114
1115     static bool supportsFloatingPointTruncate()
1116     {
1117         return false;
1118     }
1119
1120     static bool supportsFloatingPointSqrt()
1121     {
1122         return s_isVFPPresent;
1123     }
1124     static bool supportsFloatingPointAbs() { return false; }
1125
1126     void loadFloat(BaseIndex address, FPRegisterID dest)
1127     {
1128         m_assembler.baseIndexTransferFloat(ARMAssembler::LoadFloat, dest, address.base, address.index, static_cast<int>(address.scale), address.offset);
1129     }
1130
1131     void loadDouble(ImplicitAddress address, FPRegisterID dest)
1132     {
1133         m_assembler.dataTransferFloat(ARMAssembler::LoadDouble, dest, address.base, address.offset);
1134     }
1135
1136     void loadDouble(BaseIndex address, FPRegisterID dest)
1137     {
1138         m_assembler.baseIndexTransferFloat(ARMAssembler::LoadDouble, dest, address.base, address.index, static_cast<int>(address.scale), address.offset);
1139     }
1140
1141     void loadDouble(TrustedImmPtr address, FPRegisterID dest)
1142     {
1143         move(TrustedImm32(reinterpret_cast<ARMWord>(address.m_value)), ARMRegisters::S0);
1144         m_assembler.doubleDtrUp(ARMAssembler::LoadDouble, dest, ARMRegisters::S0, 0);
1145     }
1146
1147     void storeFloat(FPRegisterID src, BaseIndex address)
1148     {
1149         m_assembler.baseIndexTransferFloat(ARMAssembler::StoreFloat, src, address.base, address.index, static_cast<int>(address.scale), address.offset);
1150     }
1151
1152     void storeDouble(FPRegisterID src, ImplicitAddress address)
1153     {
1154         m_assembler.dataTransferFloat(ARMAssembler::StoreDouble, src, address.base, address.offset);
1155     }
1156
1157     void storeDouble(FPRegisterID src, BaseIndex address)
1158     {
1159         m_assembler.baseIndexTransferFloat(ARMAssembler::StoreDouble, src, address.base, address.index, static_cast<int>(address.scale), address.offset);
1160     }
1161
1162     void storeDouble(FPRegisterID src, TrustedImmPtr address)
1163     {
1164         move(TrustedImm32(reinterpret_cast<ARMWord>(address.m_value)), ARMRegisters::S0);
1165         m_assembler.dataTransferFloat(ARMAssembler::StoreDouble, src, ARMRegisters::S0, 0);
1166     }
1167
1168     void moveDouble(FPRegisterID src, FPRegisterID dest)
1169     {
1170         if (src != dest)
1171             m_assembler.vmov_f64(dest, src);
1172     }
1173
1174     void addDouble(FPRegisterID src, FPRegisterID dest)
1175     {
1176         m_assembler.vadd_f64(dest, dest, src);
1177     }
1178
1179     void addDouble(FPRegisterID op1, FPRegisterID op2, FPRegisterID dest)
1180     {
1181         m_assembler.vadd_f64(dest, op1, op2);
1182     }
1183
1184     void addDouble(Address src, FPRegisterID dest)
1185     {
1186         loadDouble(src, ARMRegisters::SD0);
1187         addDouble(ARMRegisters::SD0, dest);
1188     }
1189
1190     void addDouble(AbsoluteAddress address, FPRegisterID dest)
1191     {
1192         loadDouble(TrustedImmPtr(address.m_ptr), ARMRegisters::SD0);
1193         addDouble(ARMRegisters::SD0, dest);
1194     }
1195
1196     void divDouble(FPRegisterID src, FPRegisterID dest)
1197     {
1198         m_assembler.vdiv_f64(dest, dest, src);
1199     }
1200
1201     void divDouble(FPRegisterID op1, FPRegisterID op2, FPRegisterID dest)
1202     {
1203         m_assembler.vdiv_f64(dest, op1, op2);
1204     }
1205
1206     void divDouble(Address src, FPRegisterID dest)
1207     {
1208         RELEASE_ASSERT_NOT_REACHED(); // Untested
1209         loadDouble(src, ARMRegisters::SD0);
1210         divDouble(ARMRegisters::SD0, dest);
1211     }
1212
1213     void subDouble(FPRegisterID src, FPRegisterID dest)
1214     {
1215         m_assembler.vsub_f64(dest, dest, src);
1216     }
1217
1218     void subDouble(FPRegisterID op1, FPRegisterID op2, FPRegisterID dest)
1219     {
1220         m_assembler.vsub_f64(dest, op1, op2);
1221     }
1222
1223     void subDouble(Address src, FPRegisterID dest)
1224     {
1225         loadDouble(src, ARMRegisters::SD0);
1226         subDouble(ARMRegisters::SD0, dest);
1227     }
1228
1229     void mulDouble(FPRegisterID src, FPRegisterID dest)
1230     {
1231         m_assembler.vmul_f64(dest, dest, src);
1232     }
1233
1234     void mulDouble(Address src, FPRegisterID dest)
1235     {
1236         loadDouble(src, ARMRegisters::SD0);
1237         mulDouble(ARMRegisters::SD0, dest);
1238     }
1239
1240     void mulDouble(FPRegisterID op1, FPRegisterID op2, FPRegisterID dest)
1241     {
1242         m_assembler.vmul_f64(dest, op1, op2);
1243     }
1244
1245     void sqrtDouble(FPRegisterID src, FPRegisterID dest)
1246     {
1247         m_assembler.vsqrt_f64(dest, src);
1248     }
1249     
1250     void absDouble(FPRegisterID src, FPRegisterID dest)
1251     {
1252         m_assembler.vabs_f64(dest, src);
1253     }
1254
1255     void negateDouble(FPRegisterID src, FPRegisterID dest)
1256     {
1257         m_assembler.vneg_f64(dest, src);
1258     }
1259
1260     void convertInt32ToDouble(RegisterID src, FPRegisterID dest)
1261     {
1262         m_assembler.vmov_vfp32(dest << 1, src);
1263         m_assembler.vcvt_f64_s32(dest, dest << 1);
1264     }
1265
1266     void convertInt32ToDouble(Address src, FPRegisterID dest)
1267     {
1268         load32(src, ARMRegisters::S1);
1269         convertInt32ToDouble(ARMRegisters::S1, dest);
1270     }
1271
1272     void convertInt32ToDouble(AbsoluteAddress src, FPRegisterID dest)
1273     {
1274         move(TrustedImmPtr(src.m_ptr), ARMRegisters::S1);
1275         load32(Address(ARMRegisters::S1), ARMRegisters::S1);
1276         convertInt32ToDouble(ARMRegisters::S1, dest);
1277     }
1278
1279     void convertFloatToDouble(FPRegisterID src, FPRegisterID dst)
1280     {
1281         m_assembler.vcvt_f64_f32(dst, src);
1282     }
1283
1284     void convertDoubleToFloat(FPRegisterID src, FPRegisterID dst)
1285     {
1286         m_assembler.vcvt_f32_f64(dst, src);
1287     }
1288
1289     Jump branchDouble(DoubleCondition cond, FPRegisterID left, FPRegisterID right)
1290     {
1291         m_assembler.vcmp_f64(left, right);
1292         m_assembler.vmrs_apsr();
1293         if (cond & DoubleConditionBitSpecial)
1294             m_assembler.cmp(ARMRegisters::S0, ARMRegisters::S0, ARMAssembler::VS);
1295         return Jump(m_assembler.jmp(static_cast<ARMAssembler::Condition>(cond & ~DoubleConditionMask)));
1296     }
1297
1298     // Truncates 'src' to an integer, and places the resulting 'dest'.
1299     // If the result is not representable as a 32 bit value, branch.
1300     // May also branch for some values that are representable in 32 bits
1301     // (specifically, in this case, INT_MIN).
1302     enum BranchTruncateType { BranchIfTruncateFailed, BranchIfTruncateSuccessful };
1303     Jump branchTruncateDoubleToInt32(FPRegisterID src, RegisterID dest, BranchTruncateType branchType = BranchIfTruncateFailed)
1304     {
1305         truncateDoubleToInt32(src, dest);
1306
1307         m_assembler.add(ARMRegisters::S0, dest, ARMAssembler::getOp2Byte(1));
1308         m_assembler.bic(ARMRegisters::S0, ARMRegisters::S0, ARMAssembler::getOp2Byte(1));
1309
1310         ARMWord w = ARMAssembler::getOp2(0x80000000);
1311         ASSERT(w != ARMAssembler::InvalidImmediate);
1312         m_assembler.cmp(ARMRegisters::S0, w);
1313         return Jump(m_assembler.jmp(branchType == BranchIfTruncateFailed ? ARMAssembler::EQ : ARMAssembler::NE));
1314     }
1315
1316     Jump branchTruncateDoubleToUint32(FPRegisterID src, RegisterID dest, BranchTruncateType branchType = BranchIfTruncateFailed)
1317     {
1318         truncateDoubleToUint32(src, dest);
1319
1320         m_assembler.add(ARMRegisters::S0, dest, ARMAssembler::getOp2Byte(1));
1321         m_assembler.bic(ARMRegisters::S0, ARMRegisters::S0, ARMAssembler::getOp2Byte(1));
1322
1323         m_assembler.cmp(ARMRegisters::S0, ARMAssembler::getOp2Byte(0));
1324         return Jump(m_assembler.jmp(branchType == BranchIfTruncateFailed ? ARMAssembler::EQ : ARMAssembler::NE));
1325     }
1326
1327     // Result is undefined if the value is outside of the integer range.
1328     void truncateDoubleToInt32(FPRegisterID src, RegisterID dest)
1329     {
1330         m_assembler.vcvt_s32_f64(ARMRegisters::SD0 << 1, src);
1331         m_assembler.vmov_arm32(dest, ARMRegisters::SD0 << 1);
1332     }
1333
1334     void truncateDoubleToUint32(FPRegisterID src, RegisterID dest)
1335     {
1336         m_assembler.vcvt_u32_f64(ARMRegisters::SD0 << 1, src);
1337         m_assembler.vmov_arm32(dest, ARMRegisters::SD0 << 1);
1338     }
1339
1340     // Convert 'src' to an integer, and places the resulting 'dest'.
1341     // If the result is not representable as a 32 bit value, branch.
1342     // May also branch for some values that are representable in 32 bits
1343     // (specifically, in this case, 0).
1344     void branchConvertDoubleToInt32(FPRegisterID src, RegisterID dest, JumpList& failureCases, FPRegisterID, bool negZeroCheck = true)
1345     {
1346         m_assembler.vcvt_s32_f64(ARMRegisters::SD0 << 1, src);
1347         m_assembler.vmov_arm32(dest, ARMRegisters::SD0 << 1);
1348
1349         // Convert the integer result back to float & compare to the original value - if not equal or unordered (NaN) then jump.
1350         m_assembler.vcvt_f64_s32(ARMRegisters::SD0, ARMRegisters::SD0 << 1);
1351         failureCases.append(branchDouble(DoubleNotEqualOrUnordered, src, ARMRegisters::SD0));
1352
1353         // If the result is zero, it might have been -0.0, and 0.0 equals to -0.0
1354         if (negZeroCheck)
1355             failureCases.append(branchTest32(Zero, dest));
1356     }
1357
1358     Jump branchDoubleNonZero(FPRegisterID reg, FPRegisterID scratch)
1359     {
1360         m_assembler.mov(ARMRegisters::S0, ARMAssembler::getOp2Byte(0));
1361         convertInt32ToDouble(ARMRegisters::S0, scratch);
1362         return branchDouble(DoubleNotEqual, reg, scratch);
1363     }
1364
1365     Jump branchDoubleZeroOrNaN(FPRegisterID reg, FPRegisterID scratch)
1366     {
1367         m_assembler.mov(ARMRegisters::S0, ARMAssembler::getOp2Byte(0));
1368         convertInt32ToDouble(ARMRegisters::S0, scratch);
1369         return branchDouble(DoubleEqualOrUnordered, reg, scratch);
1370     }
1371
1372     // Invert a relational condition, e.g. == becomes !=, < becomes >=, etc.
1373     static RelationalCondition invert(RelationalCondition cond)
1374     {
1375         ASSERT((static_cast<uint32_t>(cond & 0x0fffffff)) == 0 && static_cast<uint32_t>(cond) < static_cast<uint32_t>(ARMAssembler::AL));
1376         return static_cast<RelationalCondition>(cond ^ 0x10000000);
1377     }
1378
1379     void nop()
1380     {
1381         m_assembler.nop();
1382     }
1383
1384     void memoryFence()
1385     {
1386         m_assembler.dmbSY();
1387     }
1388
1389     static FunctionPtr readCallTarget(CodeLocationCall call)
1390     {
1391         return FunctionPtr(reinterpret_cast<void(*)()>(ARMAssembler::readCallTarget(call.dataLocation())));
1392     }
1393
1394     static void replaceWithJump(CodeLocationLabel instructionStart, CodeLocationLabel destination)
1395     {
1396         ARMAssembler::replaceWithJump(instructionStart.dataLocation(), destination.dataLocation());
1397     }
1398     
1399     static ptrdiff_t maxJumpReplacementSize()
1400     {
1401         ARMAssembler::maxJumpReplacementSize();
1402         return 0;
1403     }
1404
1405     static bool canJumpReplacePatchableBranchPtrWithPatch() { return false; }
1406     static bool canJumpReplacePatchableBranch32WithPatch() { return false; }
1407
1408     static CodeLocationLabel startOfPatchableBranch32WithPatchOnAddress(CodeLocationDataLabel32)
1409     {
1410         UNREACHABLE_FOR_PLATFORM();
1411         return CodeLocationLabel();
1412     }
1413
1414     static CodeLocationLabel startOfPatchableBranchPtrWithPatchOnAddress(CodeLocationDataLabelPtr)
1415     {
1416         UNREACHABLE_FOR_PLATFORM();
1417         return CodeLocationLabel();
1418     }
1419
1420     static CodeLocationLabel startOfBranchPtrWithPatchOnRegister(CodeLocationDataLabelPtr label)
1421     {
1422         return label.labelAtOffset(0);
1423     }
1424
1425     static void revertJumpReplacementToBranchPtrWithPatch(CodeLocationLabel instructionStart, RegisterID reg, void* initialValue)
1426     {
1427         ARMAssembler::revertBranchPtrWithPatch(instructionStart.dataLocation(), reg, reinterpret_cast<uintptr_t>(initialValue) & 0xffff);
1428     }
1429
1430     static void revertJumpReplacementToPatchableBranch32WithPatch(CodeLocationLabel, Address, int32_t)
1431     {
1432         UNREACHABLE_FOR_PLATFORM();
1433     }
1434
1435     static void revertJumpReplacementToPatchableBranchPtrWithPatch(CodeLocationLabel, Address, void*)
1436     {
1437         UNREACHABLE_FOR_PLATFORM();
1438     }
1439
1440     static void repatchCall(CodeLocationCall call, CodeLocationLabel destination)
1441     {
1442         ARMAssembler::relinkCall(call.dataLocation(), destination.executableAddress());
1443     }
1444
1445     static void repatchCall(CodeLocationCall call, FunctionPtr destination)
1446     {
1447         ARMAssembler::relinkCall(call.dataLocation(), destination.executableAddress());
1448     }
1449
1450 #if ENABLE(MASM_PROBE)
1451     void probe(ProbeFunction, void* arg1 = 0, void* arg2 = 0);
1452 #endif // ENABLE(MASM_PROBE)
1453
1454 protected:
1455     ARMAssembler::Condition ARMCondition(RelationalCondition cond)
1456     {
1457         return static_cast<ARMAssembler::Condition>(cond);
1458     }
1459
1460     ARMAssembler::Condition ARMCondition(ResultCondition cond)
1461     {
1462         return static_cast<ARMAssembler::Condition>(cond);
1463     }
1464
1465     void ensureSpace(int insnSpace, int constSpace)
1466     {
1467         m_assembler.ensureSpace(insnSpace, constSpace);
1468     }
1469
1470     int sizeOfConstantPool()
1471     {
1472         return m_assembler.sizeOfConstantPool();
1473     }
1474
1475     void call32(RegisterID base, int32_t offset)
1476     {
1477         load32(Address(base, offset), ARMRegisters::S1);
1478         m_assembler.blx(ARMRegisters::S1);
1479     }
1480
1481 private:
1482     friend class LinkBuffer;
1483     friend class RepatchBuffer;
1484
1485     void internalCompare32(RegisterID left, TrustedImm32 right)
1486     {
1487         ARMWord tmp = (static_cast<unsigned>(right.m_value) == 0x80000000) ? ARMAssembler::InvalidImmediate : m_assembler.getOp2(-right.m_value);
1488         if (tmp != ARMAssembler::InvalidImmediate)
1489             m_assembler.cmn(left, tmp);
1490         else
1491             m_assembler.cmp(left, m_assembler.getImm(right.m_value, ARMRegisters::S0));
1492     }
1493
1494     static void linkCall(void* code, Call call, FunctionPtr function)
1495     {
1496         if (call.isFlagSet(Call::Tail))
1497             ARMAssembler::linkJump(code, call.m_label, function.value());
1498         else
1499             ARMAssembler::linkCall(code, call.m_label, function.value());
1500     }
1501
1502
1503 #if ENABLE(MASM_PROBE)
1504     inline TrustedImm32 trustedImm32FromPtr(void* ptr)
1505     {
1506         return TrustedImm32(TrustedImmPtr(ptr));
1507     }
1508
1509     inline TrustedImm32 trustedImm32FromPtr(ProbeFunction function)
1510     {
1511         return TrustedImm32(TrustedImmPtr(reinterpret_cast<void*>(function)));
1512     }
1513
1514     inline TrustedImm32 trustedImm32FromPtr(void (*function)())
1515     {
1516         return TrustedImm32(TrustedImmPtr(reinterpret_cast<void*>(function)));
1517     }
1518 #endif
1519
1520     static const bool s_isVFPPresent;
1521 };
1522
1523 }
1524
1525 #endif // ENABLE(ASSEMBLER) && CPU(ARM_TRADITIONAL)
1526
1527 #endif // MacroAssemblerARM_h