PPC: Limit unbound label tracking to branch references.
[platform/upstream/v8.git] / src / ppc / assembler-ppc-inl.h
1 // Copyright (c) 1994-2006 Sun Microsystems Inc.
2 // All Rights Reserved.
3 //
4 // Redistribution and use in source and binary forms, with or without
5 // modification, are permitted provided that the following conditions
6 // are met:
7 //
8 // - Redistributions of source code must retain the above copyright notice,
9 // this list of conditions and the following disclaimer.
10 //
11 // - Redistribution in binary form must reproduce the above copyright
12 // notice, this list of conditions and the following disclaimer in the
13 // documentation and/or other materials provided with the
14 // distribution.
15 //
16 // - Neither the name of Sun Microsystems or the names of contributors may
17 // be used to endorse or promote products derived from this software without
18 // specific prior written permission.
19 //
20 // THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
21 // "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
22 // LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS
23 // FOR A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE
24 // COPYRIGHT OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT,
25 // INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES
26 // (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR
27 // SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
28 // HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT,
29 // STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
30 // ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED
31 // OF THE POSSIBILITY OF SUCH DAMAGE.
32
33 // The original source code covered by the above license above has been modified
34 // significantly by Google Inc.
35 // Copyright 2014 the V8 project authors. All rights reserved.
36
37 #ifndef V8_PPC_ASSEMBLER_PPC_INL_H_
38 #define V8_PPC_ASSEMBLER_PPC_INL_H_
39
40 #include "src/ppc/assembler-ppc.h"
41
42 #include "src/assembler.h"
43 #include "src/debug.h"
44
45
46 namespace v8 {
47 namespace internal {
48
49
50 bool CpuFeatures::SupportsCrankshaft() { return true; }
51
52
53 void RelocInfo::apply(intptr_t delta, ICacheFlushMode icache_flush_mode) {
54   // absolute code pointer inside code object moves with the code object.
55   if (IsInternalReference(rmode_)) {
56     // Jump table entry
57     Address target = Memory::Address_at(pc_);
58     Memory::Address_at(pc_) = target + delta;
59   } else {
60     // mov sequence
61     DCHECK(IsInternalReferenceEncoded(rmode_));
62     Address target = Assembler::target_address_at(pc_, host_);
63     Assembler::set_target_address_at(pc_, host_, target + delta,
64                                      icache_flush_mode);
65   }
66 }
67
68
69 Address RelocInfo::target_internal_reference() {
70   if (IsInternalReference(rmode_)) {
71     // Jump table entry
72     return Memory::Address_at(pc_);
73   } else {
74     // mov sequence
75     DCHECK(IsInternalReferenceEncoded(rmode_));
76     return Assembler::target_address_at(pc_, host_);
77   }
78 }
79
80
81 Address RelocInfo::target_internal_reference_address() {
82   DCHECK(IsInternalReference(rmode_) || IsInternalReferenceEncoded(rmode_));
83   return reinterpret_cast<Address>(pc_);
84 }
85
86
87 Address RelocInfo::target_address() {
88   DCHECK(IsCodeTarget(rmode_) || IsRuntimeEntry(rmode_));
89   return Assembler::target_address_at(pc_, host_);
90 }
91
92
93 Address RelocInfo::target_address_address() {
94   DCHECK(IsCodeTarget(rmode_) || IsRuntimeEntry(rmode_) ||
95          rmode_ == EMBEDDED_OBJECT || rmode_ == EXTERNAL_REFERENCE);
96
97   if (FLAG_enable_embedded_constant_pool &&
98       Assembler::IsConstantPoolLoadStart(pc_)) {
99     // We return the PC for embedded constant pool since this function is used
100     // by the serializer and expects the address to reside within the code
101     // object.
102     return reinterpret_cast<Address>(pc_);
103   }
104
105   // Read the address of the word containing the target_address in an
106   // instruction stream.
107   // The only architecture-independent user of this function is the serializer.
108   // The serializer uses it to find out how many raw bytes of instruction to
109   // output before the next target.
110   // For an instruction like LIS/ORI where the target bits are mixed into the
111   // instruction bits, the size of the target will be zero, indicating that the
112   // serializer should not step forward in memory after a target is resolved
113   // and written.
114   return reinterpret_cast<Address>(pc_);
115 }
116
117
118 Address RelocInfo::constant_pool_entry_address() {
119   if (FLAG_enable_embedded_constant_pool) {
120     Address constant_pool = host_->constant_pool();
121     DCHECK(constant_pool);
122     ConstantPoolEntry::Access access;
123     if (Assembler::IsConstantPoolLoadStart(pc_, &access))
124       return Assembler::target_constant_pool_address_at(
125           pc_, constant_pool, access, ConstantPoolEntry::INTPTR);
126   }
127   UNREACHABLE();
128   return NULL;
129 }
130
131
132 int RelocInfo::target_address_size() { return Assembler::kSpecialTargetSize; }
133
134
135 void RelocInfo::set_target_address(Address target,
136                                    WriteBarrierMode write_barrier_mode,
137                                    ICacheFlushMode icache_flush_mode) {
138   DCHECK(IsCodeTarget(rmode_) || IsRuntimeEntry(rmode_));
139   Assembler::set_target_address_at(pc_, host_, target, icache_flush_mode);
140   if (write_barrier_mode == UPDATE_WRITE_BARRIER && host() != NULL &&
141       IsCodeTarget(rmode_)) {
142     Object* target_code = Code::GetCodeFromTargetAddress(target);
143     host()->GetHeap()->incremental_marking()->RecordWriteIntoCode(
144         host(), this, HeapObject::cast(target_code));
145   }
146 }
147
148
149 Address Assembler::break_address_from_return_address(Address pc) {
150   return target_address_from_return_address(pc);
151 }
152
153
154 Address Assembler::target_address_from_return_address(Address pc) {
155 // Returns the address of the call target from the return address that will
156 // be returned to after a call.
157 // Call sequence is :
158 //  mov   ip, @ call address
159 //  mtlr  ip
160 //  blrl
161 //                      @ return address
162   int len;
163   ConstantPoolEntry::Access access;
164   if (FLAG_enable_embedded_constant_pool &&
165       IsConstantPoolLoadEnd(pc - 3 * kInstrSize, &access)) {
166     len = (access == ConstantPoolEntry::OVERFLOWED) ? 2 : 1;
167   } else {
168     len = kMovInstructionsNoConstantPool;
169   }
170   return pc - (len + 2) * kInstrSize;
171 }
172
173
174 Address Assembler::return_address_from_call_start(Address pc) {
175   int len;
176   ConstantPoolEntry::Access access;
177   if (FLAG_enable_embedded_constant_pool &&
178       IsConstantPoolLoadStart(pc, &access)) {
179     len = (access == ConstantPoolEntry::OVERFLOWED) ? 2 : 1;
180   } else {
181     len = kMovInstructionsNoConstantPool;
182   }
183   return pc + (len + 2) * kInstrSize;
184 }
185
186
187 Object* RelocInfo::target_object() {
188   DCHECK(IsCodeTarget(rmode_) || rmode_ == EMBEDDED_OBJECT);
189   return reinterpret_cast<Object*>(Assembler::target_address_at(pc_, host_));
190 }
191
192
193 Handle<Object> RelocInfo::target_object_handle(Assembler* origin) {
194   DCHECK(IsCodeTarget(rmode_) || rmode_ == EMBEDDED_OBJECT);
195   return Handle<Object>(
196       reinterpret_cast<Object**>(Assembler::target_address_at(pc_, host_)));
197 }
198
199
200 void RelocInfo::set_target_object(Object* target,
201                                   WriteBarrierMode write_barrier_mode,
202                                   ICacheFlushMode icache_flush_mode) {
203   DCHECK(IsCodeTarget(rmode_) || rmode_ == EMBEDDED_OBJECT);
204   Assembler::set_target_address_at(
205       pc_, host_, reinterpret_cast<Address>(target), icache_flush_mode);
206   if (write_barrier_mode == UPDATE_WRITE_BARRIER && host() != NULL &&
207       target->IsHeapObject()) {
208     host()->GetHeap()->incremental_marking()->RecordWrite(
209         host(), &Memory::Object_at(pc_), HeapObject::cast(target));
210   }
211 }
212
213
214 Address RelocInfo::target_external_reference() {
215   DCHECK(rmode_ == EXTERNAL_REFERENCE);
216   return Assembler::target_address_at(pc_, host_);
217 }
218
219
220 Address RelocInfo::target_runtime_entry(Assembler* origin) {
221   DCHECK(IsRuntimeEntry(rmode_));
222   return target_address();
223 }
224
225
226 void RelocInfo::set_target_runtime_entry(Address target,
227                                          WriteBarrierMode write_barrier_mode,
228                                          ICacheFlushMode icache_flush_mode) {
229   DCHECK(IsRuntimeEntry(rmode_));
230   if (target_address() != target)
231     set_target_address(target, write_barrier_mode, icache_flush_mode);
232 }
233
234
235 Handle<Cell> RelocInfo::target_cell_handle() {
236   DCHECK(rmode_ == RelocInfo::CELL);
237   Address address = Memory::Address_at(pc_);
238   return Handle<Cell>(reinterpret_cast<Cell**>(address));
239 }
240
241
242 Cell* RelocInfo::target_cell() {
243   DCHECK(rmode_ == RelocInfo::CELL);
244   return Cell::FromValueAddress(Memory::Address_at(pc_));
245 }
246
247
248 void RelocInfo::set_target_cell(Cell* cell, WriteBarrierMode write_barrier_mode,
249                                 ICacheFlushMode icache_flush_mode) {
250   DCHECK(rmode_ == RelocInfo::CELL);
251   Address address = cell->address() + Cell::kValueOffset;
252   Memory::Address_at(pc_) = address;
253   if (write_barrier_mode == UPDATE_WRITE_BARRIER && host() != NULL) {
254     // TODO(1550) We are passing NULL as a slot because cell can never be on
255     // evacuation candidate.
256     host()->GetHeap()->incremental_marking()->RecordWrite(host(), NULL, cell);
257   }
258 }
259
260
261 static const int kNoCodeAgeInstructions =
262     FLAG_enable_embedded_constant_pool ? 7 : 6;
263 static const int kCodeAgingInstructions =
264     Assembler::kMovInstructionsNoConstantPool + 3;
265 static const int kNoCodeAgeSequenceInstructions =
266     ((kNoCodeAgeInstructions >= kCodeAgingInstructions)
267          ? kNoCodeAgeInstructions
268          : kCodeAgingInstructions);
269 static const int kNoCodeAgeSequenceNops =
270     (kNoCodeAgeSequenceInstructions - kNoCodeAgeInstructions);
271 static const int kCodeAgingSequenceNops =
272     (kNoCodeAgeSequenceInstructions - kCodeAgingInstructions);
273 static const int kCodeAgingTargetDelta = 1 * Assembler::kInstrSize;
274 static const int kNoCodeAgeSequenceLength =
275     (kNoCodeAgeSequenceInstructions * Assembler::kInstrSize);
276
277
278 Handle<Object> RelocInfo::code_age_stub_handle(Assembler* origin) {
279   UNREACHABLE();  // This should never be reached on PPC.
280   return Handle<Object>();
281 }
282
283
284 Code* RelocInfo::code_age_stub() {
285   DCHECK(rmode_ == RelocInfo::CODE_AGE_SEQUENCE);
286   return Code::GetCodeFromTargetAddress(
287       Assembler::target_address_at(pc_ + kCodeAgingTargetDelta, host_));
288 }
289
290
291 void RelocInfo::set_code_age_stub(Code* stub,
292                                   ICacheFlushMode icache_flush_mode) {
293   DCHECK(rmode_ == RelocInfo::CODE_AGE_SEQUENCE);
294   Assembler::set_target_address_at(pc_ + kCodeAgingTargetDelta, host_,
295                                    stub->instruction_start(),
296                                    icache_flush_mode);
297 }
298
299
300 Address RelocInfo::call_address() {
301   DCHECK((IsJSReturn(rmode()) && IsPatchedReturnSequence()) ||
302          (IsDebugBreakSlot(rmode()) && IsPatchedDebugBreakSlotSequence()));
303   // The pc_ offset of 0 assumes patched return sequence per
304   // BreakLocation::SetDebugBreakAtReturn(), or debug break
305   // slot per BreakLocation::SetDebugBreakAtSlot().
306   return Assembler::target_address_at(pc_, host_);
307 }
308
309
310 void RelocInfo::set_call_address(Address target) {
311   DCHECK((IsJSReturn(rmode()) && IsPatchedReturnSequence()) ||
312          (IsDebugBreakSlot(rmode()) && IsPatchedDebugBreakSlotSequence()));
313   Assembler::set_target_address_at(pc_, host_, target);
314   if (host() != NULL) {
315     Object* target_code = Code::GetCodeFromTargetAddress(target);
316     host()->GetHeap()->incremental_marking()->RecordWriteIntoCode(
317         host(), this, HeapObject::cast(target_code));
318   }
319 }
320
321
322 Object* RelocInfo::call_object() { return *call_object_address(); }
323
324
325 void RelocInfo::set_call_object(Object* target) {
326   *call_object_address() = target;
327 }
328
329
330 Object** RelocInfo::call_object_address() {
331   DCHECK((IsJSReturn(rmode()) && IsPatchedReturnSequence()) ||
332          (IsDebugBreakSlot(rmode()) && IsPatchedDebugBreakSlotSequence()));
333   return reinterpret_cast<Object**>(pc_ + 2 * Assembler::kInstrSize);
334 }
335
336
337 void RelocInfo::WipeOut() {
338   DCHECK(IsEmbeddedObject(rmode_) || IsCodeTarget(rmode_) ||
339          IsRuntimeEntry(rmode_) || IsExternalReference(rmode_) ||
340          IsInternalReference(rmode_) || IsInternalReferenceEncoded(rmode_));
341   if (IsInternalReference(rmode_)) {
342     // Jump table entry
343     Memory::Address_at(pc_) = NULL;
344   } else if (IsInternalReferenceEncoded(rmode_)) {
345     // mov sequence
346     // Currently used only by deserializer, no need to flush.
347     Assembler::set_target_address_at(pc_, host_, NULL, SKIP_ICACHE_FLUSH);
348   } else {
349     Assembler::set_target_address_at(pc_, host_, NULL);
350   }
351 }
352
353
354 bool RelocInfo::IsPatchedReturnSequence() {
355   //
356   // The patched return sequence is defined by
357   // BreakLocation::SetDebugBreakAtReturn()
358   // FIXED_SEQUENCE
359
360   Instr instr0 = Assembler::instr_at(pc_);
361   Instr instr1 = Assembler::instr_at(pc_ + 1 * Assembler::kInstrSize);
362 #if V8_TARGET_ARCH_PPC64
363   Instr instr3 = Assembler::instr_at(pc_ + (3 * Assembler::kInstrSize));
364   Instr instr4 = Assembler::instr_at(pc_ + (4 * Assembler::kInstrSize));
365   Instr binstr = Assembler::instr_at(pc_ + (7 * Assembler::kInstrSize));
366 #else
367   Instr binstr = Assembler::instr_at(pc_ + 4 * Assembler::kInstrSize);
368 #endif
369   bool patched_return =
370       ((instr0 & kOpcodeMask) == ADDIS && (instr1 & kOpcodeMask) == ORI &&
371 #if V8_TARGET_ARCH_PPC64
372        (instr3 & kOpcodeMask) == ORIS && (instr4 & kOpcodeMask) == ORI &&
373 #endif
374        (binstr == 0x7d821008));  // twge r2, r2
375
376   // printf("IsPatchedReturnSequence: %d\n", patched_return);
377   return patched_return;
378 }
379
380
381 bool RelocInfo::IsPatchedDebugBreakSlotSequence() {
382   Instr current_instr = Assembler::instr_at(pc_);
383   return !Assembler::IsNop(current_instr, Assembler::DEBUG_BREAK_NOP);
384 }
385
386
387 void RelocInfo::Visit(Isolate* isolate, ObjectVisitor* visitor) {
388   RelocInfo::Mode mode = rmode();
389   if (mode == RelocInfo::EMBEDDED_OBJECT) {
390     visitor->VisitEmbeddedPointer(this);
391   } else if (RelocInfo::IsCodeTarget(mode)) {
392     visitor->VisitCodeTarget(this);
393   } else if (mode == RelocInfo::CELL) {
394     visitor->VisitCell(this);
395   } else if (mode == RelocInfo::EXTERNAL_REFERENCE) {
396     visitor->VisitExternalReference(this);
397   } else if (mode == RelocInfo::INTERNAL_REFERENCE ||
398              mode == RelocInfo::INTERNAL_REFERENCE_ENCODED) {
399     visitor->VisitInternalReference(this);
400   } else if (RelocInfo::IsCodeAgeSequence(mode)) {
401     visitor->VisitCodeAgeSequence(this);
402   } else if (((RelocInfo::IsJSReturn(mode) && IsPatchedReturnSequence()) ||
403               (RelocInfo::IsDebugBreakSlot(mode) &&
404                IsPatchedDebugBreakSlotSequence())) &&
405              isolate->debug()->has_break_points()) {
406     visitor->VisitDebugTarget(this);
407   } else if (IsRuntimeEntry(mode)) {
408     visitor->VisitRuntimeEntry(this);
409   }
410 }
411
412
413 template <typename StaticVisitor>
414 void RelocInfo::Visit(Heap* heap) {
415   RelocInfo::Mode mode = rmode();
416   if (mode == RelocInfo::EMBEDDED_OBJECT) {
417     StaticVisitor::VisitEmbeddedPointer(heap, this);
418   } else if (RelocInfo::IsCodeTarget(mode)) {
419     StaticVisitor::VisitCodeTarget(heap, this);
420   } else if (mode == RelocInfo::CELL) {
421     StaticVisitor::VisitCell(heap, this);
422   } else if (mode == RelocInfo::EXTERNAL_REFERENCE) {
423     StaticVisitor::VisitExternalReference(this);
424   } else if (mode == RelocInfo::INTERNAL_REFERENCE ||
425              mode == RelocInfo::INTERNAL_REFERENCE_ENCODED) {
426     StaticVisitor::VisitInternalReference(this);
427   } else if (RelocInfo::IsCodeAgeSequence(mode)) {
428     StaticVisitor::VisitCodeAgeSequence(heap, this);
429   } else if (heap->isolate()->debug()->has_break_points() &&
430              ((RelocInfo::IsJSReturn(mode) && IsPatchedReturnSequence()) ||
431               (RelocInfo::IsDebugBreakSlot(mode) &&
432                IsPatchedDebugBreakSlotSequence()))) {
433     StaticVisitor::VisitDebugTarget(heap, this);
434   } else if (IsRuntimeEntry(mode)) {
435     StaticVisitor::VisitRuntimeEntry(this);
436   }
437 }
438
439 Operand::Operand(intptr_t immediate, RelocInfo::Mode rmode) {
440   rm_ = no_reg;
441   imm_ = immediate;
442   rmode_ = rmode;
443 }
444
445 Operand::Operand(const ExternalReference& f) {
446   rm_ = no_reg;
447   imm_ = reinterpret_cast<intptr_t>(f.address());
448   rmode_ = RelocInfo::EXTERNAL_REFERENCE;
449 }
450
451 Operand::Operand(Smi* value) {
452   rm_ = no_reg;
453   imm_ = reinterpret_cast<intptr_t>(value);
454   rmode_ = kRelocInfo_NONEPTR;
455 }
456
457 Operand::Operand(Register rm) {
458   rm_ = rm;
459   rmode_ = kRelocInfo_NONEPTR;  // PPC -why doesn't ARM do this?
460 }
461
462 void Assembler::CheckBuffer() {
463   if (buffer_space() <= kGap) {
464     GrowBuffer();
465   }
466 }
467
468 void Assembler::TrackBranch() {
469   DCHECK(!trampoline_emitted_);
470   int count = tracked_branch_count_++;
471   if (count == 0) {
472     // We leave space (kMaxBlockTrampolineSectionSize)
473     // for BlockTrampolinePoolScope buffer.
474     next_trampoline_check_ =
475         pc_offset() + kMaxCondBranchReach - kMaxBlockTrampolineSectionSize;
476   } else {
477     next_trampoline_check_ -= kTrampolineSlotsSize;
478   }
479 }
480
481 void Assembler::UntrackBranch() {
482   DCHECK(!trampoline_emitted_);
483   DCHECK(tracked_branch_count_ > 0);
484   int count = --tracked_branch_count_;
485   if (count == 0) {
486     // Reset
487     next_trampoline_check_ = kMaxInt;
488   } else {
489     next_trampoline_check_ += kTrampolineSlotsSize;
490   }
491 }
492
493 void Assembler::CheckTrampolinePoolQuick() {
494   if (pc_offset() >= next_trampoline_check_) {
495     CheckTrampolinePool();
496   }
497 }
498
499 void Assembler::emit(Instr x) {
500   CheckBuffer();
501   *reinterpret_cast<Instr*>(pc_) = x;
502   pc_ += kInstrSize;
503   CheckTrampolinePoolQuick();
504 }
505
506 bool Operand::is_reg() const { return rm_.is_valid(); }
507
508
509 // Fetch the 32bit value from the FIXED_SEQUENCE lis/ori
510 Address Assembler::target_address_at(Address pc, Address constant_pool) {
511   if (FLAG_enable_embedded_constant_pool && constant_pool) {
512     ConstantPoolEntry::Access access;
513     if (IsConstantPoolLoadStart(pc, &access))
514       return Memory::Address_at(target_constant_pool_address_at(
515           pc, constant_pool, access, ConstantPoolEntry::INTPTR));
516   }
517
518   Instr instr1 = instr_at(pc);
519   Instr instr2 = instr_at(pc + kInstrSize);
520   // Interpret 2 instructions generated by lis/ori
521   if (IsLis(instr1) && IsOri(instr2)) {
522 #if V8_TARGET_ARCH_PPC64
523     Instr instr4 = instr_at(pc + (3 * kInstrSize));
524     Instr instr5 = instr_at(pc + (4 * kInstrSize));
525     // Assemble the 64 bit value.
526     uint64_t hi = (static_cast<uint32_t>((instr1 & kImm16Mask) << 16) |
527                    static_cast<uint32_t>(instr2 & kImm16Mask));
528     uint64_t lo = (static_cast<uint32_t>((instr4 & kImm16Mask) << 16) |
529                    static_cast<uint32_t>(instr5 & kImm16Mask));
530     return reinterpret_cast<Address>((hi << 32) | lo);
531 #else
532     // Assemble the 32 bit value.
533     return reinterpret_cast<Address>(((instr1 & kImm16Mask) << 16) |
534                                      (instr2 & kImm16Mask));
535 #endif
536   }
537
538   UNREACHABLE();
539   return NULL;
540 }
541
542
543 #if V8_TARGET_ARCH_PPC64
544 const int kLoadIntptrOpcode = LD;
545 #else
546 const int kLoadIntptrOpcode = LWZ;
547 #endif
548
549 // Constant pool load sequence detection:
550 // 1) REGULAR access:
551 //    load <dst>, kConstantPoolRegister + <offset>
552 //
553 // 2) OVERFLOWED access:
554 //    addis <scratch>, kConstantPoolRegister, <offset_high>
555 //    load <dst>, <scratch> + <offset_low>
556 bool Assembler::IsConstantPoolLoadStart(Address pc,
557                                         ConstantPoolEntry::Access* access) {
558   Instr instr = instr_at(pc);
559   int opcode = instr & kOpcodeMask;
560   if (!GetRA(instr).is(kConstantPoolRegister)) return false;
561   bool overflowed = (opcode == ADDIS);
562 #ifdef DEBUG
563   if (overflowed) {
564     opcode = instr_at(pc + kInstrSize) & kOpcodeMask;
565   }
566   DCHECK(opcode == kLoadIntptrOpcode || opcode == LFD);
567 #endif
568   if (access) {
569     *access = (overflowed ? ConstantPoolEntry::OVERFLOWED
570                           : ConstantPoolEntry::REGULAR);
571   }
572   return true;
573 }
574
575
576 bool Assembler::IsConstantPoolLoadEnd(Address pc,
577                                       ConstantPoolEntry::Access* access) {
578   Instr instr = instr_at(pc);
579   int opcode = instr & kOpcodeMask;
580   bool overflowed = false;
581   if (!(opcode == kLoadIntptrOpcode || opcode == LFD)) return false;
582   if (!GetRA(instr).is(kConstantPoolRegister)) {
583     instr = instr_at(pc - kInstrSize);
584     opcode = instr & kOpcodeMask;
585     if ((opcode != ADDIS) || !GetRA(instr).is(kConstantPoolRegister)) {
586       return false;
587     }
588     overflowed = true;
589   }
590   if (access) {
591     *access = (overflowed ? ConstantPoolEntry::OVERFLOWED
592                           : ConstantPoolEntry::REGULAR);
593   }
594   return true;
595 }
596
597
598 int Assembler::GetConstantPoolOffset(Address pc,
599                                      ConstantPoolEntry::Access access,
600                                      ConstantPoolEntry::Type type) {
601   bool overflowed = (access == ConstantPoolEntry::OVERFLOWED);
602 #ifdef DEBUG
603   ConstantPoolEntry::Access access_check =
604       static_cast<ConstantPoolEntry::Access>(-1);
605   DCHECK(IsConstantPoolLoadStart(pc, &access_check));
606   DCHECK(access_check == access);
607 #endif
608   int offset;
609   if (overflowed) {
610     offset = (instr_at(pc) & kImm16Mask) << 16;
611     offset += SIGN_EXT_IMM16(instr_at(pc + kInstrSize) & kImm16Mask);
612     DCHECK(!is_int16(offset));
613   } else {
614     offset = SIGN_EXT_IMM16((instr_at(pc) & kImm16Mask));
615   }
616   return offset;
617 }
618
619
620 void Assembler::PatchConstantPoolAccessInstruction(
621     int pc_offset, int offset, ConstantPoolEntry::Access access,
622     ConstantPoolEntry::Type type) {
623   Address pc = buffer_ + pc_offset;
624   bool overflowed = (access == ConstantPoolEntry::OVERFLOWED);
625   CHECK(overflowed != is_int16(offset));
626 #ifdef DEBUG
627   ConstantPoolEntry::Access access_check =
628       static_cast<ConstantPoolEntry::Access>(-1);
629   DCHECK(IsConstantPoolLoadStart(pc, &access_check));
630   DCHECK(access_check == access);
631 #endif
632   if (overflowed) {
633     int hi_word = static_cast<int>(offset >> 16);
634     int lo_word = static_cast<int>(offset & 0xffff);
635     if (lo_word & 0x8000) hi_word++;
636
637     Instr instr1 = instr_at(pc);
638     Instr instr2 = instr_at(pc + kInstrSize);
639     instr1 &= ~kImm16Mask;
640     instr1 |= (hi_word & kImm16Mask);
641     instr2 &= ~kImm16Mask;
642     instr2 |= (lo_word & kImm16Mask);
643     instr_at_put(pc, instr1);
644     instr_at_put(pc + kInstrSize, instr2);
645   } else {
646     Instr instr = instr_at(pc);
647     instr &= ~kImm16Mask;
648     instr |= (offset & kImm16Mask);
649     instr_at_put(pc, instr);
650   }
651 }
652
653
654 Address Assembler::target_constant_pool_address_at(
655     Address pc, Address constant_pool, ConstantPoolEntry::Access access,
656     ConstantPoolEntry::Type type) {
657   Address addr = constant_pool;
658   DCHECK(addr);
659   addr += GetConstantPoolOffset(pc, access, type);
660   return addr;
661 }
662
663
664 // This sets the branch destination (which gets loaded at the call address).
665 // This is for calls and branches within generated code.  The serializer
666 // has already deserialized the mov instructions etc.
667 // There is a FIXED_SEQUENCE assumption here
668 void Assembler::deserialization_set_special_target_at(
669     Address instruction_payload, Code* code, Address target) {
670   set_target_address_at(instruction_payload, code, target);
671 }
672
673
674 void Assembler::deserialization_set_target_internal_reference_at(
675     Address pc, Address target, RelocInfo::Mode mode) {
676   if (RelocInfo::IsInternalReferenceEncoded(mode)) {
677     Code* code = NULL;
678     set_target_address_at(pc, code, target, SKIP_ICACHE_FLUSH);
679   } else {
680     Memory::Address_at(pc) = target;
681   }
682 }
683
684
685 // This code assumes the FIXED_SEQUENCE of lis/ori
686 void Assembler::set_target_address_at(Address pc, Address constant_pool,
687                                       Address target,
688                                       ICacheFlushMode icache_flush_mode) {
689   if (FLAG_enable_embedded_constant_pool && constant_pool) {
690     ConstantPoolEntry::Access access;
691     if (IsConstantPoolLoadStart(pc, &access)) {
692       Memory::Address_at(target_constant_pool_address_at(
693           pc, constant_pool, access, ConstantPoolEntry::INTPTR)) = target;
694       return;
695     }
696   }
697
698   Instr instr1 = instr_at(pc);
699   Instr instr2 = instr_at(pc + kInstrSize);
700   // Interpret 2 instructions generated by lis/ori
701   if (IsLis(instr1) && IsOri(instr2)) {
702 #if V8_TARGET_ARCH_PPC64
703     Instr instr4 = instr_at(pc + (3 * kInstrSize));
704     Instr instr5 = instr_at(pc + (4 * kInstrSize));
705     // Needs to be fixed up when mov changes to handle 64-bit values.
706     uint32_t* p = reinterpret_cast<uint32_t*>(pc);
707     uintptr_t itarget = reinterpret_cast<uintptr_t>(target);
708
709     instr5 &= ~kImm16Mask;
710     instr5 |= itarget & kImm16Mask;
711     itarget = itarget >> 16;
712
713     instr4 &= ~kImm16Mask;
714     instr4 |= itarget & kImm16Mask;
715     itarget = itarget >> 16;
716
717     instr2 &= ~kImm16Mask;
718     instr2 |= itarget & kImm16Mask;
719     itarget = itarget >> 16;
720
721     instr1 &= ~kImm16Mask;
722     instr1 |= itarget & kImm16Mask;
723     itarget = itarget >> 16;
724
725     *p = instr1;
726     *(p + 1) = instr2;
727     *(p + 3) = instr4;
728     *(p + 4) = instr5;
729     if (icache_flush_mode != SKIP_ICACHE_FLUSH) {
730       CpuFeatures::FlushICache(p, 5 * kInstrSize);
731     }
732 #else
733     uint32_t* p = reinterpret_cast<uint32_t*>(pc);
734     uint32_t itarget = reinterpret_cast<uint32_t>(target);
735     int lo_word = itarget & kImm16Mask;
736     int hi_word = itarget >> 16;
737     instr1 &= ~kImm16Mask;
738     instr1 |= hi_word;
739     instr2 &= ~kImm16Mask;
740     instr2 |= lo_word;
741
742     *p = instr1;
743     *(p + 1) = instr2;
744     if (icache_flush_mode != SKIP_ICACHE_FLUSH) {
745       CpuFeatures::FlushICache(p, 2 * kInstrSize);
746     }
747 #endif
748     return;
749   }
750   UNREACHABLE();
751 }
752 }
753 }  // namespace v8::internal
754
755 #endif  // V8_PPC_ASSEMBLER_PPC_INL_H_