Upstream version 8.37.186.0
[platform/framework/web/crosswalk.git] / src / v8 / src / deoptimizer.h
1 // Copyright 2012 the V8 project authors. All rights reserved.
2 // Use of this source code is governed by a BSD-style license that can be
3 // found in the LICENSE file.
4
5 #ifndef V8_DEOPTIMIZER_H_
6 #define V8_DEOPTIMIZER_H_
7
8 #include "src/v8.h"
9
10 #include "src/allocation.h"
11 #include "src/macro-assembler.h"
12 #include "src/zone-inl.h"
13
14
15 namespace v8 {
16 namespace internal {
17
18
19 static inline double read_double_value(Address p) {
20 #ifdef V8_HOST_CAN_READ_UNALIGNED
21   return Memory::double_at(p);
22 #else  // V8_HOST_CAN_READ_UNALIGNED
23   // Prevent gcc from using load-double (mips ldc1) on (possibly)
24   // non-64-bit aligned address.
25   union conversion {
26     double d;
27     uint32_t u[2];
28   } c;
29   c.u[0] = *reinterpret_cast<uint32_t*>(p);
30   c.u[1] = *reinterpret_cast<uint32_t*>(p + 4);
31   return c.d;
32 #endif  // V8_HOST_CAN_READ_UNALIGNED
33 }
34
35 static inline simd128_value_t read_simd128_value(Address p) {
36   return *reinterpret_cast<simd128_value_t*>(p);
37 }
38
39 class FrameDescription;
40 class TranslationIterator;
41 class DeoptimizedFrameInfo;
42
43 template<typename T>
44 class HeapNumberMaterializationDescriptor BASE_EMBEDDED {
45  public:
46   HeapNumberMaterializationDescriptor(T destination, double value)
47       : destination_(destination), value_(value) { }
48
49   T destination() const { return destination_; }
50   double value() const { return value_; }
51
52  private:
53   T destination_;
54   double value_;
55 };
56
57
58 template<typename T>
59 class SIMD128MaterializationDescriptor BASE_EMBEDDED {
60  public:
61   SIMD128MaterializationDescriptor(T destination, simd128_value_t value)
62       : destination_(destination), value_(value) { }
63
64   T destination() const { return destination_; }
65   simd128_value_t value() const { return value_; }
66
67  private:
68   T destination_;
69   simd128_value_t value_;
70 };
71
72
73 class ObjectMaterializationDescriptor BASE_EMBEDDED {
74  public:
75   ObjectMaterializationDescriptor(
76       Address slot_address, int frame, int length, int duplicate, bool is_args)
77       : slot_address_(slot_address),
78         jsframe_index_(frame),
79         object_length_(length),
80         duplicate_object_(duplicate),
81         is_arguments_(is_args) { }
82
83   Address slot_address() const { return slot_address_; }
84   int jsframe_index() const { return jsframe_index_; }
85   int object_length() const { return object_length_; }
86   int duplicate_object() const { return duplicate_object_; }
87   bool is_arguments() const { return is_arguments_; }
88
89   // Only used for allocated receivers in DoComputeConstructStubFrame.
90   void patch_slot_address(intptr_t slot) {
91     slot_address_ = reinterpret_cast<Address>(slot);
92   }
93
94  private:
95   Address slot_address_;
96   int jsframe_index_;
97   int object_length_;
98   int duplicate_object_;
99   bool is_arguments_;
100 };
101
102
103 class OptimizedFunctionVisitor BASE_EMBEDDED {
104  public:
105   virtual ~OptimizedFunctionVisitor() {}
106
107   // Function which is called before iteration of any optimized functions
108   // from given native context.
109   virtual void EnterContext(Context* context) = 0;
110
111   virtual void VisitFunction(JSFunction* function) = 0;
112
113   // Function which is called after iteration of all optimized functions
114   // from given native context.
115   virtual void LeaveContext(Context* context) = 0;
116 };
117
118
119 class Deoptimizer : public Malloced {
120  public:
121   enum BailoutType {
122     EAGER,
123     LAZY,
124     SOFT,
125     // This last bailout type is not really a bailout, but used by the
126     // debugger to deoptimize stack frames to allow inspection.
127     DEBUGGER
128   };
129
130   static const int kBailoutTypesWithCodeEntry = SOFT + 1;
131
132   struct JumpTableEntry : public ZoneObject {
133     inline JumpTableEntry(Address entry,
134                           Deoptimizer::BailoutType type,
135                           bool frame)
136         : label(),
137           address(entry),
138           bailout_type(type),
139           needs_frame(frame) { }
140     Label label;
141     Address address;
142     Deoptimizer::BailoutType bailout_type;
143     bool needs_frame;
144   };
145
146   static bool TraceEnabledFor(BailoutType deopt_type,
147                               StackFrame::Type frame_type);
148   static const char* MessageFor(BailoutType type);
149
150   int output_count() const { return output_count_; }
151
152   Handle<JSFunction> function() const { return Handle<JSFunction>(function_); }
153   Handle<Code> compiled_code() const { return Handle<Code>(compiled_code_); }
154   BailoutType bailout_type() const { return bailout_type_; }
155
156   // Number of created JS frames. Not all created frames are necessarily JS.
157   int jsframe_count() const { return jsframe_count_; }
158
159   static Deoptimizer* New(JSFunction* function,
160                           BailoutType type,
161                           unsigned bailout_id,
162                           Address from,
163                           int fp_to_sp_delta,
164                           Isolate* isolate);
165   static Deoptimizer* Grab(Isolate* isolate);
166
167   // The returned object with information on the optimized frame needs to be
168   // freed before another one can be generated.
169   static DeoptimizedFrameInfo* DebuggerInspectableFrame(JavaScriptFrame* frame,
170                                                         int jsframe_index,
171                                                         Isolate* isolate);
172   static void DeleteDebuggerInspectableFrame(DeoptimizedFrameInfo* info,
173                                              Isolate* isolate);
174
175   // Makes sure that there is enough room in the relocation
176   // information of a code object to perform lazy deoptimization
177   // patching. If there is not enough room a new relocation
178   // information object is allocated and comments are added until it
179   // is big enough.
180   static void EnsureRelocSpaceForLazyDeoptimization(Handle<Code> code);
181
182   // Deoptimize the function now. Its current optimized code will never be run
183   // again and any activations of the optimized code will get deoptimized when
184   // execution returns.
185   static void DeoptimizeFunction(JSFunction* function);
186
187   // Deoptimize all code in the given isolate.
188   static void DeoptimizeAll(Isolate* isolate);
189
190   // Deoptimize code associated with the given global object.
191   static void DeoptimizeGlobalObject(JSObject* object);
192
193   // Deoptimizes all optimized code that has been previously marked
194   // (via code->set_marked_for_deoptimization) and unlinks all functions that
195   // refer to that code.
196   static void DeoptimizeMarkedCode(Isolate* isolate);
197
198   // Visit all the known optimized functions in a given isolate.
199   static void VisitAllOptimizedFunctions(
200       Isolate* isolate, OptimizedFunctionVisitor* visitor);
201
202   // The size in bytes of the code required at a lazy deopt patch site.
203   static int patch_size();
204
205   ~Deoptimizer();
206
207   void MaterializeHeapObjects(JavaScriptFrameIterator* it);
208
209   void MaterializeHeapNumbersForDebuggerInspectableFrame(
210       Address parameters_top,
211       uint32_t parameters_size,
212       Address expressions_top,
213       uint32_t expressions_size,
214       DeoptimizedFrameInfo* info);
215
216   static void ComputeOutputFrames(Deoptimizer* deoptimizer);
217
218
219   enum GetEntryMode {
220     CALCULATE_ENTRY_ADDRESS,
221     ENSURE_ENTRY_CODE
222   };
223
224
225   static Address GetDeoptimizationEntry(
226       Isolate* isolate,
227       int id,
228       BailoutType type,
229       GetEntryMode mode = ENSURE_ENTRY_CODE);
230   static int GetDeoptimizationId(Isolate* isolate,
231                                  Address addr,
232                                  BailoutType type);
233   static int GetOutputInfo(DeoptimizationOutputData* data,
234                            BailoutId node_id,
235                            SharedFunctionInfo* shared);
236
237   // Code generation support.
238   static int input_offset() { return OFFSET_OF(Deoptimizer, input_); }
239   static int output_count_offset() {
240     return OFFSET_OF(Deoptimizer, output_count_);
241   }
242   static int output_offset() { return OFFSET_OF(Deoptimizer, output_); }
243
244   static int has_alignment_padding_offset() {
245     return OFFSET_OF(Deoptimizer, has_alignment_padding_);
246   }
247
248   static int GetDeoptimizedCodeCount(Isolate* isolate);
249
250   static const int kNotDeoptimizationEntry = -1;
251
252   // Generators for the deoptimization entry code.
253   class EntryGenerator BASE_EMBEDDED {
254    public:
255     EntryGenerator(MacroAssembler* masm, BailoutType type)
256         : masm_(masm), type_(type) { }
257     virtual ~EntryGenerator() { }
258
259     void Generate();
260
261    protected:
262     MacroAssembler* masm() const { return masm_; }
263     BailoutType type() const { return type_; }
264     Isolate* isolate() const { return masm_->isolate(); }
265
266     virtual void GeneratePrologue() { }
267
268    private:
269     MacroAssembler* masm_;
270     Deoptimizer::BailoutType type_;
271   };
272
273   class TableEntryGenerator : public EntryGenerator {
274    public:
275     TableEntryGenerator(MacroAssembler* masm, BailoutType type,  int count)
276         : EntryGenerator(masm, type), count_(count) { }
277
278    protected:
279     virtual void GeneratePrologue();
280
281    private:
282     int count() const { return count_; }
283
284     int count_;
285   };
286
287   int ConvertJSFrameIndexToFrameIndex(int jsframe_index);
288
289   static size_t GetMaxDeoptTableSize();
290
291   static void EnsureCodeForDeoptimizationEntry(Isolate* isolate,
292                                                BailoutType type,
293                                                int max_entry_id);
294
295   Isolate* isolate() const { return isolate_; }
296
297  private:
298   static const int kMinNumberOfEntries = 64;
299   static const int kMaxNumberOfEntries = 16384;
300
301   Deoptimizer(Isolate* isolate,
302               JSFunction* function,
303               BailoutType type,
304               unsigned bailout_id,
305               Address from,
306               int fp_to_sp_delta,
307               Code* optimized_code);
308   Code* FindOptimizedCode(JSFunction* function, Code* optimized_code);
309   void PrintFunctionName();
310   void DeleteFrameDescriptions();
311
312   void DoComputeOutputFrames();
313   void DoComputeJSFrame(TranslationIterator* iterator, int frame_index);
314   void DoComputeArgumentsAdaptorFrame(TranslationIterator* iterator,
315                                       int frame_index);
316   void DoComputeConstructStubFrame(TranslationIterator* iterator,
317                                    int frame_index);
318   void DoComputeAccessorStubFrame(TranslationIterator* iterator,
319                                   int frame_index,
320                                   bool is_setter_stub_frame);
321   void DoComputeCompiledStubFrame(TranslationIterator* iterator,
322                                   int frame_index);
323
324   // Translate object, store the result into an auxiliary array
325   // (deferred_objects_tagged_values_).
326   void DoTranslateObject(TranslationIterator* iterator,
327                          int object_index,
328                          int field_index);
329
330   // Translate value, store the result into the given frame slot.
331   void DoTranslateCommand(TranslationIterator* iterator,
332                           int frame_index,
333                           unsigned output_offset);
334
335   // Translate object, do not store the result anywhere (but do update
336   // the deferred materialization array).
337   void DoTranslateObjectAndSkip(TranslationIterator* iterator);
338
339   unsigned ComputeInputFrameSize() const;
340   unsigned ComputeFixedSize(JSFunction* function) const;
341
342   unsigned ComputeIncomingArgumentSize(JSFunction* function) const;
343   unsigned ComputeOutgoingArgumentSize() const;
344
345   Object* ComputeLiteral(int index) const;
346
347   void AddObjectStart(intptr_t slot_address, int argc, bool is_arguments);
348   void AddObjectDuplication(intptr_t slot, int object_index);
349   void AddObjectTaggedValue(intptr_t value);
350   void AddObjectDoubleValue(double value);
351   void AddObjectSIMD128Value(simd128_value_t value, int translation_opcode);
352   void AddDoubleValue(intptr_t slot_address, double value);
353   void AddSIMD128Value(intptr_t slot_address, simd128_value_t value,
354                        int translation_opcode);
355
356   bool ArgumentsObjectIsAdapted(int object_index) {
357     ObjectMaterializationDescriptor desc = deferred_objects_.at(object_index);
358     int reverse_jsframe_index = jsframe_count_ - desc.jsframe_index() - 1;
359     return jsframe_has_adapted_arguments_[reverse_jsframe_index];
360   }
361
362   Handle<JSFunction> ArgumentsObjectFunction(int object_index) {
363     ObjectMaterializationDescriptor desc = deferred_objects_.at(object_index);
364     int reverse_jsframe_index = jsframe_count_ - desc.jsframe_index() - 1;
365     return jsframe_functions_[reverse_jsframe_index];
366   }
367
368   // Helper function for heap object materialization.
369   Handle<Object> MaterializeNextHeapObject();
370   Handle<Object> MaterializeNextValue();
371
372   static void GenerateDeoptimizationEntries(
373       MacroAssembler* masm, int count, BailoutType type);
374
375   // Marks all the code in the given context for deoptimization.
376   static void MarkAllCodeForContext(Context* native_context);
377
378   // Visit all the known optimized functions in a given context.
379   static void VisitAllOptimizedFunctionsForContext(
380       Context* context, OptimizedFunctionVisitor* visitor);
381
382   // Deoptimizes all code marked in the given context.
383   static void DeoptimizeMarkedCodeForContext(Context* native_context);
384
385   // Patch the given code so that it will deoptimize itself.
386   static void PatchCodeForDeoptimization(Isolate* isolate, Code* code);
387
388   // Searches the list of known deoptimizing code for a Code object
389   // containing the given address (which is supposedly faster than
390   // searching all code objects).
391   Code* FindDeoptimizingCode(Address addr);
392
393   // Fill the input from from a JavaScript frame. This is used when
394   // the debugger needs to inspect an optimized frame. For normal
395   // deoptimizations the input frame is filled in generated code.
396   void FillInputFrame(Address tos, JavaScriptFrame* frame);
397
398   // Fill the given output frame's registers to contain the failure handler
399   // address and the number of parameters for a stub failure trampoline.
400   void SetPlatformCompiledStubRegisters(FrameDescription* output_frame,
401                                         CodeStubInterfaceDescriptor* desc);
402
403   // Fill the given output frame's simd128 registers with the original values
404   // from the input frame's simd128 registers.
405   void CopySIMD128Registers(FrameDescription* output_frame);
406
407   // Determines whether the input frame contains alignment padding by looking
408   // at the dynamic alignment state slot inside the frame.
409   bool HasAlignmentPadding(JSFunction* function);
410
411   Isolate* isolate_;
412   JSFunction* function_;
413   Code* compiled_code_;
414   unsigned bailout_id_;
415   BailoutType bailout_type_;
416   Address from_;
417   int fp_to_sp_delta_;
418   int has_alignment_padding_;
419
420   // Input frame description.
421   FrameDescription* input_;
422   // Number of output frames.
423   int output_count_;
424   // Number of output js frames.
425   int jsframe_count_;
426   // Array of output frame descriptions.
427   FrameDescription** output_;
428
429   // Deferred values to be materialized.
430   List<Object*> deferred_objects_tagged_values_;
431   List<HeapNumberMaterializationDescriptor<int> >
432       deferred_objects_double_values_;
433   List<SIMD128MaterializationDescriptor<int> >
434       deferred_objects_float32x4_values_;
435   List<SIMD128MaterializationDescriptor<int> >
436       deferred_objects_float64x2_values_;
437   List<SIMD128MaterializationDescriptor<int> >
438       deferred_objects_int32x4_values_;
439   List<ObjectMaterializationDescriptor> deferred_objects_;
440   List<HeapNumberMaterializationDescriptor<Address> > deferred_heap_numbers_;
441   List<SIMD128MaterializationDescriptor<Address> > deferred_float32x4s_;
442   List<SIMD128MaterializationDescriptor<Address> > deferred_float64x2s_;
443   List<SIMD128MaterializationDescriptor<Address> > deferred_int32x4s_;
444
445   // Key for lookup of previously materialized objects
446   Address stack_fp_;
447   Handle<FixedArray> previously_materialized_objects_;
448   int prev_materialized_count_;
449
450   // Output frame information. Only used during heap object materialization.
451   List<Handle<JSFunction> > jsframe_functions_;
452   List<bool> jsframe_has_adapted_arguments_;
453
454   // Materialized objects. Only used during heap object materialization.
455   List<Handle<Object> >* materialized_values_;
456   List<Handle<Object> >* materialized_objects_;
457   int materialization_value_index_;
458   int materialization_object_index_;
459
460 #ifdef DEBUG
461   DisallowHeapAllocation* disallow_heap_allocation_;
462 #endif  // DEBUG
463
464   CodeTracer::Scope* trace_scope_;
465
466   static const int table_entry_size_;
467
468   friend class FrameDescription;
469   friend class DeoptimizedFrameInfo;
470 };
471
472
473 class FrameDescription {
474  public:
475   FrameDescription(uint32_t frame_size,
476                    JSFunction* function);
477
478   void* operator new(size_t size, uint32_t frame_size) {
479     // Subtracts kPointerSize, as the member frame_content_ already supplies
480     // the first element of the area to store the frame.
481     return malloc(size + frame_size - kPointerSize);
482   }
483
484   void operator delete(void* pointer, uint32_t frame_size) {
485     free(pointer);
486   }
487
488   void operator delete(void* description) {
489     free(description);
490   }
491
492   uint32_t GetFrameSize() const {
493     ASSERT(static_cast<uint32_t>(frame_size_) == frame_size_);
494     return static_cast<uint32_t>(frame_size_);
495   }
496
497   JSFunction* GetFunction() const { return function_; }
498
499   unsigned GetOffsetFromSlotIndex(int slot_index);
500
501   intptr_t GetFrameSlot(unsigned offset) {
502     return *GetFrameSlotPointer(offset);
503   }
504
505   double GetDoubleFrameSlot(unsigned offset) {
506     intptr_t* ptr = GetFrameSlotPointer(offset);
507     return read_double_value(reinterpret_cast<Address>(ptr));
508   }
509
510   simd128_value_t GetSIMD128FrameSlot(unsigned offset) {
511     intptr_t* ptr = GetFrameSlotPointer(offset);
512     return read_simd128_value(reinterpret_cast<Address>(ptr));
513   }
514
515   void SetFrameSlot(unsigned offset, intptr_t value) {
516     *GetFrameSlotPointer(offset) = value;
517   }
518
519   void SetCallerPc(unsigned offset, intptr_t value);
520
521   void SetCallerFp(unsigned offset, intptr_t value);
522
523   void SetCallerConstantPool(unsigned offset, intptr_t value);
524
525   intptr_t GetRegister(unsigned n) const {
526 #if DEBUG
527     // This convoluted ASSERT is needed to work around a gcc problem that
528     // improperly detects an array bounds overflow in optimized debug builds
529     // when using a plain ASSERT.
530     if (n >= ARRAY_SIZE(registers_)) {
531       ASSERT(false);
532       return 0;
533     }
534 #endif
535     return registers_[n];
536   }
537
538   double GetDoubleRegister(unsigned n) const;
539
540   simd128_value_t GetSIMD128Register(unsigned n) const {
541     ASSERT(n < ARRAY_SIZE(simd128_registers_));
542     return simd128_registers_[n];
543   }
544
545   void SetRegister(unsigned n, intptr_t value) {
546     ASSERT(n < ARRAY_SIZE(registers_));
547     registers_[n] = value;
548   }
549
550   void SetDoubleRegister(unsigned n, double value);
551
552   void SetSIMD128Register(unsigned n, simd128_value_t value) {
553     ASSERT(n < ARRAY_SIZE(simd128_registers_));
554     simd128_registers_[n] = value;
555   }
556
557   intptr_t GetTop() const { return top_; }
558   void SetTop(intptr_t top) { top_ = top; }
559
560   intptr_t GetPc() const { return pc_; }
561   void SetPc(intptr_t pc) { pc_ = pc; }
562
563   intptr_t GetFp() const { return fp_; }
564   void SetFp(intptr_t fp) { fp_ = fp; }
565
566   intptr_t GetContext() const { return context_; }
567   void SetContext(intptr_t context) { context_ = context; }
568
569   intptr_t GetConstantPool() const { return constant_pool_; }
570   void SetConstantPool(intptr_t constant_pool) {
571     constant_pool_ = constant_pool;
572   }
573
574   Smi* GetState() const { return state_; }
575   void SetState(Smi* state) { state_ = state; }
576
577   void SetContinuation(intptr_t pc) { continuation_ = pc; }
578
579   StackFrame::Type GetFrameType() const { return type_; }
580   void SetFrameType(StackFrame::Type type) { type_ = type; }
581
582   // Get the incoming arguments count.
583   int ComputeParametersCount();
584
585   // Get a parameter value for an unoptimized frame.
586   Object* GetParameter(int index);
587
588   // Get the expression stack height for a unoptimized frame.
589   unsigned GetExpressionCount();
590
591   // Get the expression stack value for an unoptimized frame.
592   Object* GetExpression(int index);
593
594   static int registers_offset() {
595     return OFFSET_OF(FrameDescription, registers_);
596   }
597
598   static int simd128_registers_offset() {
599     return OFFSET_OF(FrameDescription, simd128_registers_);
600   }
601
602   static int frame_size_offset() {
603     return OFFSET_OF(FrameDescription, frame_size_);
604   }
605
606   static int pc_offset() {
607     return OFFSET_OF(FrameDescription, pc_);
608   }
609
610   static int state_offset() {
611     return OFFSET_OF(FrameDescription, state_);
612   }
613
614   static int continuation_offset() {
615     return OFFSET_OF(FrameDescription, continuation_);
616   }
617
618   static int frame_content_offset() {
619     return OFFSET_OF(FrameDescription, frame_content_);
620   }
621
622  private:
623   static const uint32_t kZapUint32 = 0xbeeddead;
624
625   // Frame_size_ must hold a uint32_t value.  It is only a uintptr_t to
626   // keep the variable-size array frame_content_ of type intptr_t at
627   // the end of the structure aligned.
628   uintptr_t frame_size_;  // Number of bytes.
629   JSFunction* function_;
630   intptr_t registers_[Register::kNumRegisters];
631   simd128_value_t simd128_registers_[SIMD128Register::kMaxNumRegisters];
632   intptr_t top_;
633   intptr_t pc_;
634   intptr_t fp_;
635   intptr_t context_;
636   intptr_t constant_pool_;
637   StackFrame::Type type_;
638   Smi* state_;
639
640   // Continuation is the PC where the execution continues after
641   // deoptimizing.
642   intptr_t continuation_;
643
644   // This must be at the end of the object as the object is allocated larger
645   // than it's definition indicate to extend this array.
646   intptr_t frame_content_[1];
647
648   intptr_t* GetFrameSlotPointer(unsigned offset) {
649     ASSERT(offset < frame_size_);
650     return reinterpret_cast<intptr_t*>(
651         reinterpret_cast<Address>(this) + frame_content_offset() + offset);
652   }
653
654   int ComputeFixedSize();
655 };
656
657
658 class DeoptimizerData {
659  public:
660   explicit DeoptimizerData(MemoryAllocator* allocator);
661   ~DeoptimizerData();
662
663   void Iterate(ObjectVisitor* v);
664
665  private:
666   MemoryAllocator* allocator_;
667   int deopt_entry_code_entries_[Deoptimizer::kBailoutTypesWithCodeEntry];
668   MemoryChunk* deopt_entry_code_[Deoptimizer::kBailoutTypesWithCodeEntry];
669
670   DeoptimizedFrameInfo* deoptimized_frame_info_;
671
672   Deoptimizer* current_;
673
674   friend class Deoptimizer;
675
676   DISALLOW_COPY_AND_ASSIGN(DeoptimizerData);
677 };
678
679
680 class TranslationBuffer BASE_EMBEDDED {
681  public:
682   explicit TranslationBuffer(Zone* zone) : contents_(256, zone) { }
683
684   int CurrentIndex() const { return contents_.length(); }
685   void Add(int32_t value, Zone* zone);
686
687   Handle<ByteArray> CreateByteArray(Factory* factory);
688
689  private:
690   ZoneList<uint8_t> contents_;
691 };
692
693
694 class TranslationIterator BASE_EMBEDDED {
695  public:
696   TranslationIterator(ByteArray* buffer, int index)
697       : buffer_(buffer), index_(index) {
698     ASSERT(index >= 0 && index < buffer->length());
699   }
700
701   int32_t Next();
702
703   bool HasNext() const { return index_ < buffer_->length(); }
704
705   void Skip(int n) {
706     for (int i = 0; i < n; i++) Next();
707   }
708
709  private:
710   ByteArray* buffer_;
711   int index_;
712 };
713
714
715 #define TRANSLATION_OPCODE_LIST(V)                                             \
716   V(BEGIN)                                                                     \
717   V(JS_FRAME)                                                                  \
718   V(CONSTRUCT_STUB_FRAME)                                                      \
719   V(GETTER_STUB_FRAME)                                                         \
720   V(SETTER_STUB_FRAME)                                                         \
721   V(ARGUMENTS_ADAPTOR_FRAME)                                                   \
722   V(COMPILED_STUB_FRAME)                                                       \
723   V(DUPLICATED_OBJECT)                                                         \
724   V(ARGUMENTS_OBJECT)                                                          \
725   V(CAPTURED_OBJECT)                                                           \
726   V(REGISTER)                                                                  \
727   V(INT32_REGISTER)                                                            \
728   V(UINT32_REGISTER)                                                           \
729   V(DOUBLE_REGISTER)                                                           \
730   V(FLOAT32x4_REGISTER)                                                        \
731   V(FLOAT64x2_REGISTER)                                                        \
732   V(INT32x4_REGISTER)                                                          \
733   V(STACK_SLOT)                                                                \
734   V(INT32_STACK_SLOT)                                                          \
735   V(UINT32_STACK_SLOT)                                                         \
736   V(DOUBLE_STACK_SLOT)                                                         \
737   V(FLOAT32x4_STACK_SLOT)                                                      \
738   V(FLOAT64x2_STACK_SLOT)                                                      \
739   V(INT32x4_STACK_SLOT)                                                        \
740   V(LITERAL)
741
742
743 class Translation BASE_EMBEDDED {
744  public:
745 #define DECLARE_TRANSLATION_OPCODE_ENUM(item) item,
746   enum Opcode {
747     TRANSLATION_OPCODE_LIST(DECLARE_TRANSLATION_OPCODE_ENUM)
748     LAST = LITERAL
749   };
750 #undef DECLARE_TRANSLATION_OPCODE_ENUM
751
752   Translation(TranslationBuffer* buffer, int frame_count, int jsframe_count,
753               Zone* zone)
754       : buffer_(buffer),
755         index_(buffer->CurrentIndex()),
756         zone_(zone) {
757     buffer_->Add(BEGIN, zone);
758     buffer_->Add(frame_count, zone);
759     buffer_->Add(jsframe_count, zone);
760   }
761
762   int index() const { return index_; }
763
764   // Commands.
765   void BeginJSFrame(BailoutId node_id, int literal_id, unsigned height);
766   void BeginCompiledStubFrame();
767   void BeginArgumentsAdaptorFrame(int literal_id, unsigned height);
768   void BeginConstructStubFrame(int literal_id, unsigned height);
769   void BeginGetterStubFrame(int literal_id);
770   void BeginSetterStubFrame(int literal_id);
771   void BeginArgumentsObject(int args_length);
772   void BeginCapturedObject(int length);
773   void DuplicateObject(int object_index);
774   void StoreRegister(Register reg);
775   void StoreInt32Register(Register reg);
776   void StoreUint32Register(Register reg);
777   void StoreDoubleRegister(DoubleRegister reg);
778   void StoreSIMD128Register(SIMD128Register reg, Opcode opcode);
779   void StoreStackSlot(int index);
780   void StoreInt32StackSlot(int index);
781   void StoreUint32StackSlot(int index);
782   void StoreDoubleStackSlot(int index);
783   void StoreSIMD128StackSlot(int index, Opcode opcode);
784   void StoreLiteral(int literal_id);
785   void StoreArgumentsObject(bool args_known, int args_index, int args_length);
786
787   Zone* zone() const { return zone_; }
788
789   static int NumberOfOperandsFor(Opcode opcode);
790
791 #if defined(OBJECT_PRINT) || defined(ENABLE_DISASSEMBLER)
792   static const char* StringFor(Opcode opcode);
793 #endif
794
795   // A literal id which refers to the JSFunction itself.
796   static const int kSelfLiteralId = -239;
797
798  private:
799   TranslationBuffer* buffer_;
800   int index_;
801   Zone* zone_;
802 };
803
804
805 class SlotRef BASE_EMBEDDED {
806  public:
807   enum SlotRepresentation {
808     UNKNOWN,
809     TAGGED,
810     INT32,
811     UINT32,
812     DOUBLE,
813     FLOAT32x4,
814     FLOAT64x2,
815     INT32x4,
816     LITERAL,
817     DEFERRED_OBJECT,   // Object captured by the escape analysis.
818                        // The number of nested objects can be obtained
819                        // with the DeferredObjectLength() method
820                        // (the SlotRefs of the nested objects follow
821                        // this SlotRef in the depth-first order.)
822     DUPLICATE_OBJECT,  // Duplicated object of a deferred object.
823     ARGUMENTS_OBJECT   // Arguments object - only used to keep indexing
824                        // in sync, it should not be materialized.
825   };
826
827   SlotRef()
828       : addr_(NULL), representation_(UNKNOWN) { }
829
830   SlotRef(Address addr, SlotRepresentation representation)
831       : addr_(addr), representation_(representation) { }
832
833   SlotRef(Isolate* isolate, Object* literal)
834       : literal_(literal, isolate), representation_(LITERAL) { }
835
836   static SlotRef NewArgumentsObject(int length) {
837     SlotRef slot;
838     slot.representation_ = ARGUMENTS_OBJECT;
839     slot.deferred_object_length_ = length;
840     return slot;
841   }
842
843   static SlotRef NewDeferredObject(int length) {
844     SlotRef slot;
845     slot.representation_ = DEFERRED_OBJECT;
846     slot.deferred_object_length_ = length;
847     return slot;
848   }
849
850   SlotRepresentation Representation() { return representation_; }
851
852   static SlotRef NewDuplicateObject(int id) {
853     SlotRef slot;
854     slot.representation_ = DUPLICATE_OBJECT;
855     slot.duplicate_object_id_ = id;
856     return slot;
857   }
858
859   int GetChildrenCount() {
860     if (representation_ == DEFERRED_OBJECT ||
861         representation_ == ARGUMENTS_OBJECT) {
862       return deferred_object_length_;
863     } else {
864       return 0;
865     }
866   }
867
868   int DuplicateObjectId() { return duplicate_object_id_; }
869
870   Handle<Object> GetValue(Isolate* isolate);
871
872  private:
873   Address addr_;
874   Handle<Object> literal_;
875   SlotRepresentation representation_;
876   int deferred_object_length_;
877   int duplicate_object_id_;
878 };
879
880 class SlotRefValueBuilder BASE_EMBEDDED {
881  public:
882   SlotRefValueBuilder(
883       JavaScriptFrame* frame,
884       int inlined_frame_index,
885       int formal_parameter_count);
886
887   void Prepare(Isolate* isolate);
888   Handle<Object> GetNext(Isolate* isolate, int level);
889   void Finish(Isolate* isolate);
890
891   int args_length() { return args_length_; }
892
893  private:
894   List<Handle<Object> > materialized_objects_;
895   Handle<FixedArray> previously_materialized_objects_;
896   int prev_materialized_count_;
897   Address stack_frame_id_;
898   List<SlotRef> slot_refs_;
899   int current_slot_;
900   int args_length_;
901   int first_slot_index_;
902
903   static SlotRef ComputeSlotForNextArgument(
904       Translation::Opcode opcode,
905       TranslationIterator* iterator,
906       DeoptimizationInputData* data,
907       JavaScriptFrame* frame);
908
909   Handle<Object> GetPreviouslyMaterialized(Isolate* isolate, int length);
910
911   static Address SlotAddress(JavaScriptFrame* frame, int slot_index) {
912     if (slot_index >= 0) {
913       const int offset = JavaScriptFrameConstants::kLocal0Offset;
914       return frame->fp() + offset - (slot_index * kPointerSize);
915     } else {
916       const int offset = JavaScriptFrameConstants::kLastParameterOffset;
917       return frame->fp() + offset - ((slot_index + 1) * kPointerSize);
918     }
919   }
920
921   Handle<Object> GetDeferredObject(Isolate* isolate);
922 };
923
924 class MaterializedObjectStore {
925  public:
926   explicit MaterializedObjectStore(Isolate* isolate) : isolate_(isolate) {
927   }
928
929   Handle<FixedArray> Get(Address fp);
930   void Set(Address fp, Handle<FixedArray> materialized_objects);
931   void Remove(Address fp);
932
933  private:
934   Isolate* isolate() { return isolate_; }
935   Handle<FixedArray> GetStackEntries();
936   Handle<FixedArray> EnsureStackEntries(int size);
937
938   int StackIdToIndex(Address fp);
939
940   Isolate* isolate_;
941   List<Address> frame_fps_;
942 };
943
944
945 // Class used to represent an unoptimized frame when the debugger
946 // needs to inspect a frame that is part of an optimized frame. The
947 // internally used FrameDescription objects are not GC safe so for use
948 // by the debugger frame information is copied to an object of this type.
949 // Represents parameters in unadapted form so their number might mismatch
950 // formal parameter count.
951 class DeoptimizedFrameInfo : public Malloced {
952  public:
953   DeoptimizedFrameInfo(Deoptimizer* deoptimizer,
954                        int frame_index,
955                        bool has_arguments_adaptor,
956                        bool has_construct_stub);
957   virtual ~DeoptimizedFrameInfo();
958
959   // GC support.
960   void Iterate(ObjectVisitor* v);
961
962   // Return the number of incoming arguments.
963   int parameters_count() { return parameters_count_; }
964
965   // Return the height of the expression stack.
966   int expression_count() { return expression_count_; }
967
968   // Get the frame function.
969   JSFunction* GetFunction() {
970     return function_;
971   }
972
973   // Check if this frame is preceded by construct stub frame.  The bottom-most
974   // inlined frame might still be called by an uninlined construct stub.
975   bool HasConstructStub() {
976     return has_construct_stub_;
977   }
978
979   // Get an incoming argument.
980   Object* GetParameter(int index) {
981     ASSERT(0 <= index && index < parameters_count());
982     return parameters_[index];
983   }
984
985   // Get an expression from the expression stack.
986   Object* GetExpression(int index) {
987     ASSERT(0 <= index && index < expression_count());
988     return expression_stack_[index];
989   }
990
991   int GetSourcePosition() {
992     return source_position_;
993   }
994
995  private:
996   // Set an incoming argument.
997   void SetParameter(int index, Object* obj) {
998     ASSERT(0 <= index && index < parameters_count());
999     parameters_[index] = obj;
1000   }
1001
1002   // Set an expression on the expression stack.
1003   void SetExpression(int index, Object* obj) {
1004     ASSERT(0 <= index && index < expression_count());
1005     expression_stack_[index] = obj;
1006   }
1007
1008   JSFunction* function_;
1009   bool has_construct_stub_;
1010   int parameters_count_;
1011   int expression_count_;
1012   Object** parameters_;
1013   Object** expression_stack_;
1014   int source_position_;
1015
1016   friend class Deoptimizer;
1017 };
1018
1019 } }  // namespace v8::internal
1020
1021 #endif  // V8_DEOPTIMIZER_H_