Upstream version 8.37.186.0
[platform/framework/web/crosswalk.git] / src / v8 / src / lithium.h
1 // Copyright 2012 the V8 project authors. All rights reserved.
2 // Use of this source code is governed by a BSD-style license that can be
3 // found in the LICENSE file.
4
5 #ifndef V8_LITHIUM_H_
6 #define V8_LITHIUM_H_
7
8 #include <set>
9
10 #include "src/allocation.h"
11 #include "src/hydrogen.h"
12 #include "src/safepoint-table.h"
13 #include "src/zone-allocator.h"
14
15 namespace v8 {
16 namespace internal {
17
18 #define LITHIUM_OPERAND_LIST(V)                     \
19   V(ConstantOperand,    CONSTANT_OPERAND,     128)  \
20   V(StackSlot,          STACK_SLOT,           128)  \
21   V(DoubleStackSlot,    DOUBLE_STACK_SLOT,    128)  \
22   V(Float32x4StackSlot, FLOAT32x4_STACK_SLOT, 128)  \
23   V(Float64x2StackSlot, FLOAT64x2_STACK_SLOT, 128)  \
24   V(Int32x4StackSlot,   INT32x4_STACK_SLOT,   128)  \
25   V(Register,           REGISTER,             16)   \
26   V(DoubleRegister,     DOUBLE_REGISTER,      16)   \
27   V(Float32x4Register,  FLOAT32x4_REGISTER,   16)   \
28   V(Float64x2Register,  FLOAT64x2_REGISTER,   16)   \
29   V(Int32x4Register,    INT32x4_REGISTER,     16)
30
31
32 class LOperand : public ZoneObject {
33  public:
34   enum Kind {
35     INVALID,
36     UNALLOCATED,
37     CONSTANT_OPERAND,
38     STACK_SLOT,
39     DOUBLE_STACK_SLOT,
40     FLOAT32x4_STACK_SLOT,
41     FLOAT64x2_STACK_SLOT,
42     INT32x4_STACK_SLOT,
43     REGISTER,
44     DOUBLE_REGISTER,
45     FLOAT32x4_REGISTER,
46     FLOAT64x2_REGISTER,
47     INT32x4_REGISTER
48   };
49
50   LOperand() : value_(KindField::encode(INVALID)) { }
51
52   Kind kind() const { return KindField::decode(value_); }
53   int index() const { return static_cast<int>(value_) >> kKindFieldWidth; }
54 #define LITHIUM_OPERAND_PREDICATE(name, type, number) \
55   bool Is##name() const { return kind() == type; }
56   LITHIUM_OPERAND_LIST(LITHIUM_OPERAND_PREDICATE)
57   LITHIUM_OPERAND_PREDICATE(Unallocated, UNALLOCATED, 0)
58   LITHIUM_OPERAND_PREDICATE(Ignored, INVALID, 0)
59 #undef LITHIUM_OPERAND_PREDICATE
60   bool IsSIMD128Register() const {
61     return kind() == FLOAT32x4_REGISTER || kind() == FLOAT64x2_REGISTER ||
62            kind() == INT32x4_REGISTER;
63   }
64   bool IsSIMD128StackSlot() const {
65     return kind() == FLOAT32x4_STACK_SLOT || kind() == FLOAT64x2_STACK_SLOT ||
66            kind() == INT32x4_STACK_SLOT;
67   }
68   bool Equals(LOperand* other) const {
69     return value_ == other->value_ || (index() == other->index() &&
70         ((IsSIMD128Register() && other->IsSIMD128Register()) ||
71          (IsSIMD128StackSlot() && other->IsSIMD128StackSlot())));
72   }
73
74   void PrintTo(StringStream* stream);
75   void ConvertTo(Kind kind, int index) {
76     value_ = KindField::encode(kind);
77     value_ |= index << kKindFieldWidth;
78     ASSERT(this->index() == index);
79   }
80
81   // Calls SetUpCache()/TearDownCache() for each subclass.
82   static void SetUpCaches();
83   static void TearDownCaches();
84
85  protected:
86   static const int kKindFieldWidth = 4;
87   class KindField : public BitField<Kind, 0, kKindFieldWidth> { };
88
89   LOperand(Kind kind, int index) { ConvertTo(kind, index); }
90
91   unsigned value_;
92 };
93
94
95 class LUnallocated : public LOperand {
96  public:
97   enum BasicPolicy {
98     FIXED_SLOT,
99     EXTENDED_POLICY
100   };
101
102   enum ExtendedPolicy {
103     NONE,
104     ANY,
105     FIXED_REGISTER,
106     FIXED_DOUBLE_REGISTER,
107     MUST_HAVE_REGISTER,
108     MUST_HAVE_DOUBLE_REGISTER,
109     WRITABLE_REGISTER,
110     SAME_AS_FIRST_INPUT
111   };
112
113   // Lifetime of operand inside the instruction.
114   enum Lifetime {
115     // USED_AT_START operand is guaranteed to be live only at
116     // instruction start. Register allocator is free to assign the same register
117     // to some other operand used inside instruction (i.e. temporary or
118     // output).
119     USED_AT_START,
120
121     // USED_AT_END operand is treated as live until the end of
122     // instruction. This means that register allocator will not reuse it's
123     // register for any other operand inside instruction.
124     USED_AT_END
125   };
126
127   explicit LUnallocated(ExtendedPolicy policy) : LOperand(UNALLOCATED, 0) {
128     value_ |= BasicPolicyField::encode(EXTENDED_POLICY);
129     value_ |= ExtendedPolicyField::encode(policy);
130     value_ |= LifetimeField::encode(USED_AT_END);
131   }
132
133   LUnallocated(BasicPolicy policy, int index) : LOperand(UNALLOCATED, 0) {
134     ASSERT(policy == FIXED_SLOT);
135     value_ |= BasicPolicyField::encode(policy);
136     value_ |= index << FixedSlotIndexField::kShift;
137     ASSERT(this->fixed_slot_index() == index);
138   }
139
140   LUnallocated(ExtendedPolicy policy, int index) : LOperand(UNALLOCATED, 0) {
141     ASSERT(policy == FIXED_REGISTER || policy == FIXED_DOUBLE_REGISTER);
142     value_ |= BasicPolicyField::encode(EXTENDED_POLICY);
143     value_ |= ExtendedPolicyField::encode(policy);
144     value_ |= LifetimeField::encode(USED_AT_END);
145     value_ |= FixedRegisterField::encode(index);
146   }
147
148   LUnallocated(ExtendedPolicy policy, Lifetime lifetime)
149       : LOperand(UNALLOCATED, 0) {
150     value_ |= BasicPolicyField::encode(EXTENDED_POLICY);
151     value_ |= ExtendedPolicyField::encode(policy);
152     value_ |= LifetimeField::encode(lifetime);
153   }
154
155   LUnallocated* CopyUnconstrained(Zone* zone) {
156     LUnallocated* result = new(zone) LUnallocated(ANY);
157     result->set_virtual_register(virtual_register());
158     return result;
159   }
160
161   static LUnallocated* cast(LOperand* op) {
162     ASSERT(op->IsUnallocated());
163     return reinterpret_cast<LUnallocated*>(op);
164   }
165
166   // The encoding used for LUnallocated operands depends on the policy that is
167   // stored within the operand. The FIXED_SLOT policy uses a compact encoding
168   // because it accommodates a larger pay-load.
169   //
170   // For FIXED_SLOT policy:
171   //     +-------------------------------------------+
172   //     |       slot_index      |  vreg  | 0 | 0001 |
173   //     +-------------------------------------------+
174   //
175   // For all other (extended) policies:
176   //     +-------------------------------------------+
177   //     |  reg_index  | L | PPP |  vreg  | 1 | 0001 |    L ... Lifetime
178   //     +-------------------------------------------+    P ... Policy
179   //
180   // The slot index is a signed value which requires us to decode it manually
181   // instead of using the BitField utility class.
182
183   // The superclass has a KindField.
184   STATIC_ASSERT(kKindFieldWidth == 4);
185
186   // BitFields for all unallocated operands.
187   class BasicPolicyField     : public BitField<BasicPolicy,     4,  1> {};
188   class VirtualRegisterField : public BitField<unsigned,        5, 18> {};
189
190   // BitFields specific to BasicPolicy::FIXED_SLOT.
191   class FixedSlotIndexField  : public BitField<int,            23,  9> {};
192
193   // BitFields specific to BasicPolicy::EXTENDED_POLICY.
194   class ExtendedPolicyField  : public BitField<ExtendedPolicy, 23,  3> {};
195   class LifetimeField        : public BitField<Lifetime,       26,  1> {};
196   class FixedRegisterField   : public BitField<int,            27,  5> {};
197
198   static const int kMaxVirtualRegisters = VirtualRegisterField::kMax + 1;
199   static const int kFixedSlotIndexWidth = FixedSlotIndexField::kSize;
200   static const int kMaxFixedSlotIndex = (1 << (kFixedSlotIndexWidth - 1)) - 1;
201   static const int kMinFixedSlotIndex = -(1 << (kFixedSlotIndexWidth - 1));
202
203   // Predicates for the operand policy.
204   bool HasAnyPolicy() const {
205     return basic_policy() == EXTENDED_POLICY &&
206         extended_policy() == ANY;
207   }
208   bool HasFixedPolicy() const {
209     return basic_policy() == FIXED_SLOT ||
210         extended_policy() == FIXED_REGISTER ||
211         extended_policy() == FIXED_DOUBLE_REGISTER;
212   }
213   bool HasRegisterPolicy() const {
214     return basic_policy() == EXTENDED_POLICY && (
215         extended_policy() == WRITABLE_REGISTER ||
216         extended_policy() == MUST_HAVE_REGISTER);
217   }
218   bool HasDoubleRegisterPolicy() const {
219     return basic_policy() == EXTENDED_POLICY &&
220         extended_policy() == MUST_HAVE_DOUBLE_REGISTER;
221   }
222   bool HasSameAsInputPolicy() const {
223     return basic_policy() == EXTENDED_POLICY &&
224         extended_policy() == SAME_AS_FIRST_INPUT;
225   }
226   bool HasFixedSlotPolicy() const {
227     return basic_policy() == FIXED_SLOT;
228   }
229   bool HasFixedRegisterPolicy() const {
230     return basic_policy() == EXTENDED_POLICY &&
231         extended_policy() == FIXED_REGISTER;
232   }
233   bool HasFixedDoubleRegisterPolicy() const {
234     return basic_policy() == EXTENDED_POLICY &&
235         extended_policy() == FIXED_DOUBLE_REGISTER;
236   }
237   bool HasWritableRegisterPolicy() const {
238     return basic_policy() == EXTENDED_POLICY &&
239         extended_policy() == WRITABLE_REGISTER;
240   }
241
242   // [basic_policy]: Distinguish between FIXED_SLOT and all other policies.
243   BasicPolicy basic_policy() const {
244     return BasicPolicyField::decode(value_);
245   }
246
247   // [extended_policy]: Only for non-FIXED_SLOT. The finer-grained policy.
248   ExtendedPolicy extended_policy() const {
249     ASSERT(basic_policy() == EXTENDED_POLICY);
250     return ExtendedPolicyField::decode(value_);
251   }
252
253   // [fixed_slot_index]: Only for FIXED_SLOT.
254   int fixed_slot_index() const {
255     ASSERT(HasFixedSlotPolicy());
256     return static_cast<int>(value_) >> FixedSlotIndexField::kShift;
257   }
258
259   // [fixed_register_index]: Only for FIXED_REGISTER or FIXED_DOUBLE_REGISTER.
260   int fixed_register_index() const {
261     ASSERT(HasFixedRegisterPolicy() || HasFixedDoubleRegisterPolicy());
262     return FixedRegisterField::decode(value_);
263   }
264
265   // [virtual_register]: The virtual register ID for this operand.
266   int virtual_register() const {
267     return VirtualRegisterField::decode(value_);
268   }
269   void set_virtual_register(unsigned id) {
270     value_ = VirtualRegisterField::update(value_, id);
271   }
272
273   // [lifetime]: Only for non-FIXED_SLOT.
274   bool IsUsedAtStart() {
275     ASSERT(basic_policy() == EXTENDED_POLICY);
276     return LifetimeField::decode(value_) == USED_AT_START;
277   }
278 };
279
280
281 class LMoveOperands V8_FINAL BASE_EMBEDDED {
282  public:
283   LMoveOperands(LOperand* source, LOperand* destination)
284       : source_(source), destination_(destination) {
285   }
286
287   LOperand* source() const { return source_; }
288   void set_source(LOperand* operand) { source_ = operand; }
289
290   LOperand* destination() const { return destination_; }
291   void set_destination(LOperand* operand) { destination_ = operand; }
292
293   // The gap resolver marks moves as "in-progress" by clearing the
294   // destination (but not the source).
295   bool IsPending() const {
296     return destination_ == NULL && source_ != NULL;
297   }
298
299   // True if this move a move into the given destination operand.
300   bool Blocks(LOperand* operand) const {
301     return !IsEliminated() && source()->Equals(operand);
302   }
303
304   // A move is redundant if it's been eliminated, if its source and
305   // destination are the same, or if its destination is unneeded.
306   bool IsRedundant() const {
307     return IsEliminated() || source_->Equals(destination_) || IsIgnored();
308   }
309
310   bool IsIgnored() const {
311     return destination_ != NULL && destination_->IsIgnored();
312   }
313
314   // We clear both operands to indicate move that's been eliminated.
315   void Eliminate() { source_ = destination_ = NULL; }
316   bool IsEliminated() const {
317     ASSERT(source_ != NULL || destination_ == NULL);
318     return source_ == NULL;
319   }
320
321  private:
322   LOperand* source_;
323   LOperand* destination_;
324 };
325
326
327 template<LOperand::Kind kOperandKind, int kNumCachedOperands>
328 class LSubKindOperand V8_FINAL : public LOperand {
329  public:
330   static LSubKindOperand* Create(int index, Zone* zone) {
331     ASSERT(index >= 0);
332     if (index < kNumCachedOperands) return &cache[index];
333     return new(zone) LSubKindOperand(index);
334   }
335
336   static LSubKindOperand* cast(LOperand* op) {
337     ASSERT(op->kind() == kOperandKind);
338     return reinterpret_cast<LSubKindOperand*>(op);
339   }
340
341   static void SetUpCache();
342   static void TearDownCache();
343
344  private:
345   static LSubKindOperand* cache;
346
347   LSubKindOperand() : LOperand() { }
348   explicit LSubKindOperand(int index) : LOperand(kOperandKind, index) { }
349 };
350
351
352 #define LITHIUM_TYPEDEF_SUBKIND_OPERAND_CLASS(name, type, number)   \
353 typedef LSubKindOperand<LOperand::type, number> L##name;
354 LITHIUM_OPERAND_LIST(LITHIUM_TYPEDEF_SUBKIND_OPERAND_CLASS)
355 #undef LITHIUM_TYPEDEF_SUBKIND_OPERAND_CLASS
356
357
358 class LParallelMove V8_FINAL : public ZoneObject {
359  public:
360   explicit LParallelMove(Zone* zone) : move_operands_(4, zone) { }
361
362   void AddMove(LOperand* from, LOperand* to, Zone* zone) {
363     move_operands_.Add(LMoveOperands(from, to), zone);
364   }
365
366   bool IsRedundant() const;
367
368   const ZoneList<LMoveOperands>* move_operands() const {
369     return &move_operands_;
370   }
371
372   void PrintDataTo(StringStream* stream) const;
373
374  private:
375   ZoneList<LMoveOperands> move_operands_;
376 };
377
378
379 class LPointerMap V8_FINAL : public ZoneObject {
380  public:
381   explicit LPointerMap(Zone* zone)
382       : pointer_operands_(8, zone),
383         untagged_operands_(0, zone),
384         lithium_position_(-1) { }
385
386   const ZoneList<LOperand*>* GetNormalizedOperands() {
387     for (int i = 0; i < untagged_operands_.length(); ++i) {
388       RemovePointer(untagged_operands_[i]);
389     }
390     untagged_operands_.Clear();
391     return &pointer_operands_;
392   }
393   int lithium_position() const { return lithium_position_; }
394
395   void set_lithium_position(int pos) {
396     ASSERT(lithium_position_ == -1);
397     lithium_position_ = pos;
398   }
399
400   void RecordPointer(LOperand* op, Zone* zone);
401   void RemovePointer(LOperand* op);
402   void RecordUntagged(LOperand* op, Zone* zone);
403   void PrintTo(StringStream* stream);
404
405  private:
406   ZoneList<LOperand*> pointer_operands_;
407   ZoneList<LOperand*> untagged_operands_;
408   int lithium_position_;
409 };
410
411
412 class LEnvironment V8_FINAL : public ZoneObject {
413  public:
414   LEnvironment(Handle<JSFunction> closure,
415                FrameType frame_type,
416                BailoutId ast_id,
417                int parameter_count,
418                int argument_count,
419                int value_count,
420                LEnvironment* outer,
421                HEnterInlined* entry,
422                Zone* zone)
423       : closure_(closure),
424         frame_type_(frame_type),
425         arguments_stack_height_(argument_count),
426         deoptimization_index_(Safepoint::kNoDeoptimizationIndex),
427         translation_index_(-1),
428         ast_id_(ast_id),
429         translation_size_(value_count),
430         parameter_count_(parameter_count),
431         pc_offset_(-1),
432         values_(value_count, zone),
433         is_tagged_(value_count, zone),
434         is_uint32_(value_count, zone),
435         object_mapping_(0, zone),
436         outer_(outer),
437         entry_(entry),
438         zone_(zone),
439         has_been_used_(false) { }
440
441   Handle<JSFunction> closure() const { return closure_; }
442   FrameType frame_type() const { return frame_type_; }
443   int arguments_stack_height() const { return arguments_stack_height_; }
444   int deoptimization_index() const { return deoptimization_index_; }
445   int translation_index() const { return translation_index_; }
446   BailoutId ast_id() const { return ast_id_; }
447   int translation_size() const { return translation_size_; }
448   int parameter_count() const { return parameter_count_; }
449   int pc_offset() const { return pc_offset_; }
450   const ZoneList<LOperand*>* values() const { return &values_; }
451   LEnvironment* outer() const { return outer_; }
452   HEnterInlined* entry() { return entry_; }
453   Zone* zone() const { return zone_; }
454
455   bool has_been_used() const { return has_been_used_; }
456   void set_has_been_used() { has_been_used_ = true; }
457
458   void AddValue(LOperand* operand,
459                 Representation representation,
460                 bool is_uint32) {
461     values_.Add(operand, zone());
462     if (representation.IsSmiOrTagged()) {
463       ASSERT(!is_uint32);
464       is_tagged_.Add(values_.length() - 1, zone());
465     }
466
467     if (is_uint32) {
468       is_uint32_.Add(values_.length() - 1, zone());
469     }
470   }
471
472   bool HasTaggedValueAt(int index) const {
473     return is_tagged_.Contains(index);
474   }
475
476   bool HasUint32ValueAt(int index) const {
477     return is_uint32_.Contains(index);
478   }
479
480   void AddNewObject(int length, bool is_arguments) {
481     uint32_t encoded = LengthOrDupeField::encode(length) |
482                        IsArgumentsField::encode(is_arguments) |
483                        IsDuplicateField::encode(false);
484     object_mapping_.Add(encoded, zone());
485   }
486
487   void AddDuplicateObject(int dupe_of) {
488     uint32_t encoded = LengthOrDupeField::encode(dupe_of) |
489                        IsDuplicateField::encode(true);
490     object_mapping_.Add(encoded, zone());
491   }
492
493   int ObjectDuplicateOfAt(int index) {
494     ASSERT(ObjectIsDuplicateAt(index));
495     return LengthOrDupeField::decode(object_mapping_[index]);
496   }
497
498   int ObjectLengthAt(int index) {
499     ASSERT(!ObjectIsDuplicateAt(index));
500     return LengthOrDupeField::decode(object_mapping_[index]);
501   }
502
503   bool ObjectIsArgumentsAt(int index) {
504     ASSERT(!ObjectIsDuplicateAt(index));
505     return IsArgumentsField::decode(object_mapping_[index]);
506   }
507
508   bool ObjectIsDuplicateAt(int index) {
509     return IsDuplicateField::decode(object_mapping_[index]);
510   }
511
512   void Register(int deoptimization_index,
513                 int translation_index,
514                 int pc_offset) {
515     ASSERT(!HasBeenRegistered());
516     deoptimization_index_ = deoptimization_index;
517     translation_index_ = translation_index;
518     pc_offset_ = pc_offset;
519   }
520   bool HasBeenRegistered() const {
521     return deoptimization_index_ != Safepoint::kNoDeoptimizationIndex;
522   }
523
524   void PrintTo(StringStream* stream);
525
526   // Marker value indicating a de-materialized object.
527   static LOperand* materialization_marker() { return NULL; }
528
529   // Encoding used for the object_mapping map below.
530   class LengthOrDupeField : public BitField<int,   0, 30> { };
531   class IsArgumentsField  : public BitField<bool, 30,  1> { };
532   class IsDuplicateField  : public BitField<bool, 31,  1> { };
533
534  private:
535   Handle<JSFunction> closure_;
536   FrameType frame_type_;
537   int arguments_stack_height_;
538   int deoptimization_index_;
539   int translation_index_;
540   BailoutId ast_id_;
541   int translation_size_;
542   int parameter_count_;
543   int pc_offset_;
544
545   // Value array: [parameters] [locals] [expression stack] [de-materialized].
546   //              |>--------- translation_size ---------<|
547   ZoneList<LOperand*> values_;
548   GrowableBitVector is_tagged_;
549   GrowableBitVector is_uint32_;
550
551   // Map with encoded information about materialization_marker operands.
552   ZoneList<uint32_t> object_mapping_;
553
554   LEnvironment* outer_;
555   HEnterInlined* entry_;
556   Zone* zone_;
557   bool has_been_used_;
558 };
559
560
561 // Iterates over the non-null, non-constant operands in an environment.
562 class ShallowIterator V8_FINAL BASE_EMBEDDED {
563  public:
564   explicit ShallowIterator(LEnvironment* env)
565       : env_(env),
566         limit_(env != NULL ? env->values()->length() : 0),
567         current_(0) {
568     SkipUninteresting();
569   }
570
571   bool Done() { return current_ >= limit_; }
572
573   LOperand* Current() {
574     ASSERT(!Done());
575     ASSERT(env_->values()->at(current_) != NULL);
576     return env_->values()->at(current_);
577   }
578
579   void Advance() {
580     ASSERT(!Done());
581     ++current_;
582     SkipUninteresting();
583   }
584
585   LEnvironment* env() { return env_; }
586
587  private:
588   bool ShouldSkip(LOperand* op) {
589     return op == NULL || op->IsConstantOperand();
590   }
591
592   // Skip until something interesting, beginning with and including current_.
593   void SkipUninteresting() {
594     while (current_ < limit_ && ShouldSkip(env_->values()->at(current_))) {
595       ++current_;
596     }
597   }
598
599   LEnvironment* env_;
600   int limit_;
601   int current_;
602 };
603
604
605 // Iterator for non-null, non-constant operands incl. outer environments.
606 class DeepIterator V8_FINAL BASE_EMBEDDED {
607  public:
608   explicit DeepIterator(LEnvironment* env)
609       : current_iterator_(env) {
610     SkipUninteresting();
611   }
612
613   bool Done() { return current_iterator_.Done(); }
614
615   LOperand* Current() {
616     ASSERT(!current_iterator_.Done());
617     ASSERT(current_iterator_.Current() != NULL);
618     return current_iterator_.Current();
619   }
620
621   void Advance() {
622     current_iterator_.Advance();
623     SkipUninteresting();
624   }
625
626  private:
627   void SkipUninteresting() {
628     while (current_iterator_.env() != NULL && current_iterator_.Done()) {
629       current_iterator_ = ShallowIterator(current_iterator_.env()->outer());
630     }
631   }
632
633   ShallowIterator current_iterator_;
634 };
635
636
637 class LPlatformChunk;
638 class LGap;
639 class LLabel;
640
641 // Superclass providing data and behavior common to all the
642 // arch-specific LPlatformChunk classes.
643 class LChunk : public ZoneObject {
644  public:
645   static LChunk* NewChunk(HGraph* graph);
646
647   void AddInstruction(LInstruction* instruction, HBasicBlock* block);
648   LConstantOperand* DefineConstantOperand(HConstant* constant);
649   HConstant* LookupConstant(LConstantOperand* operand) const;
650   Representation LookupLiteralRepresentation(LConstantOperand* operand) const;
651
652   int ParameterAt(int index);
653   int GetParameterStackSlot(int index) const;
654   int spill_slot_count() const { return spill_slot_count_; }
655   CompilationInfo* info() const { return info_; }
656   HGraph* graph() const { return graph_; }
657   Isolate* isolate() const { return graph_->isolate(); }
658   const ZoneList<LInstruction*>* instructions() const { return &instructions_; }
659   void AddGapMove(int index, LOperand* from, LOperand* to);
660   LGap* GetGapAt(int index) const;
661   bool IsGapAt(int index) const;
662   int NearestGapPos(int index) const;
663   void MarkEmptyBlocks();
664   const ZoneList<LPointerMap*>* pointer_maps() const { return &pointer_maps_; }
665   LLabel* GetLabel(int block_id) const;
666   int LookupDestination(int block_id) const;
667   Label* GetAssemblyLabel(int block_id) const;
668
669   const ZoneList<Handle<JSFunction> >* inlined_closures() const {
670     return &inlined_closures_;
671   }
672
673   void AddInlinedClosure(Handle<JSFunction> closure) {
674     inlined_closures_.Add(closure, zone());
675   }
676
677   void AddDeprecationDependency(Handle<Map> map) {
678     ASSERT(!map->is_deprecated());
679     if (!map->CanBeDeprecated()) return;
680     ASSERT(!info_->IsStub());
681     deprecation_dependencies_.insert(map);
682   }
683
684   void AddStabilityDependency(Handle<Map> map) {
685     ASSERT(map->is_stable());
686     if (!map->CanTransition()) return;
687     ASSERT(!info_->IsStub());
688     stability_dependencies_.insert(map);
689   }
690
691   Zone* zone() const { return info_->zone(); }
692
693   Handle<Code> Codegen();
694
695   void set_allocated_double_registers(BitVector* allocated_registers);
696   BitVector* allocated_double_registers() {
697     return allocated_double_registers_;
698   }
699
700  protected:
701   LChunk(CompilationInfo* info, HGraph* graph);
702
703   int spill_slot_count_;
704
705  private:
706   typedef std::less<Handle<Map> > MapLess;
707   typedef zone_allocator<Handle<Map> > MapAllocator;
708   typedef std::set<Handle<Map>, MapLess, MapAllocator> MapSet;
709
710   void CommitDependencies(Handle<Code> code) const;
711
712   CompilationInfo* info_;
713   HGraph* const graph_;
714   BitVector* allocated_double_registers_;
715   ZoneList<LInstruction*> instructions_;
716   ZoneList<LPointerMap*> pointer_maps_;
717   ZoneList<Handle<JSFunction> > inlined_closures_;
718   MapSet deprecation_dependencies_;
719   MapSet stability_dependencies_;
720 };
721
722
723 class LChunkBuilderBase BASE_EMBEDDED {
724  public:
725   explicit LChunkBuilderBase(Zone* zone)
726       : argument_count_(0),
727         zone_(zone) { }
728
729   virtual ~LChunkBuilderBase() { }
730
731  protected:
732   // An input operand in register, stack slot or a constant operand.
733   // Will not be moved to a register even if one is freely available.
734   virtual MUST_USE_RESULT LOperand* UseAny(HValue* value) = 0;
735
736   LEnvironment* CreateEnvironment(HEnvironment* hydrogen_env,
737                                   int* argument_index_accumulator,
738                                   ZoneList<HValue*>* objects_to_materialize);
739   void AddObjectToMaterialize(HValue* value,
740                               ZoneList<HValue*>* objects_to_materialize,
741                               LEnvironment* result);
742
743   Zone* zone() const { return zone_; }
744
745   int argument_count_;
746
747  private:
748   Zone* zone_;
749 };
750
751
752 int StackSlotOffset(int index);
753
754 enum NumberUntagDMode {
755   NUMBER_CANDIDATE_IS_SMI,
756   NUMBER_CANDIDATE_IS_ANY_TAGGED
757 };
758
759
760 class LPhase : public CompilationPhase {
761  public:
762   LPhase(const char* name, LChunk* chunk)
763       : CompilationPhase(name, chunk->info()),
764         chunk_(chunk) { }
765   ~LPhase();
766
767  private:
768   LChunk* chunk_;
769
770   DISALLOW_COPY_AND_ASSIGN(LPhase);
771 };
772
773
774 } }  // namespace v8::internal
775
776 #endif  // V8_LITHIUM_H_