Restore "[ThinLTO] Ensure we always select the same function copy to import"
authorTeresa Johnson <tejohnson@google.com>
Mon, 16 Jul 2018 15:30:27 +0000 (15:30 +0000)
committerTeresa Johnson <tejohnson@google.com>
Mon, 16 Jul 2018 15:30:27 +0000 (15:30 +0000)
commitd68935c5ac4da578d82936e4d1dfcd0574ef8366
tree5aea4ce9e0b918412f7ab5b7bab11303aad2a926
parent484aabc81897b724441afc5a030ebb41c9684a72
Restore "[ThinLTO] Ensure we always select the same function copy to import"

This reverts commit r337081, therefore restoring r337050 (and fix in
r337059), with test fix for bot failure described after the original
description below.

In order to always import the same copy of a linkonce function,
even when encountering it with different thresholds (a higher one then a
lower one), keep track of the summary we decided to import.
This ensures that the backend only gets a single definition to import
for each GUID, so that it doesn't need to choose one.

Move the largest threshold the GUID was considered for import into the
current module out of the ImportMap (which is part of a larger map
maintained across the whole index), and into a new map just maintained
for the current module we are computing imports for. This saves some
memory since we no longer have the thresholds maintained across the
whole index (and throughout the in-process backends when doing a normal
non-distributed ThinLTO build), at the cost of some additional
information being maintained for each invocation of ComputeImportForModule
(the selected summary pointer for each import).

There is an additional map lookup for each callee being considered for
importing, however, this was able to subsume a map lookup in the
Worklist iteration that invokes computeImportForFunction. We also are
able to avoid calling selectCallee if we already failed to import at the
same or higher threshold.

I compared the run time and peak memory for the SPEC2006 471.omnetpp
benchmark (running in-process ThinLTO backends), as well as for a large
internal benchmark with a distributed ThinLTO build (so just looking at
the thin link time/memory). Across a number of runs with and without
this change there was no significant change in the time and memory.

(I tried a few other variations of the change but they also didn't
improve time or peak memory).

The new commit removes a test that no longer makes sense
(Transforms/FunctionImport/hotness_based_import2.ll), as exposed by the
reverse-iteration bot. The test depends on the order of processing the
summary call edges, and actually depended on the old problematic
behavior of selecting more than one summary for a given GUID when
encountered with different thresholds. There was no guarantee even
before that we would eventually pick the linkonce copy with the hottest
call edges, it just happened to work with the test and the old code, and
there was no guarantee that we would end up importing the selected
version of the copy that had the hottest call edges (since the backend
would effectively import only one of the selected copies).

Reviewers: davidxl

Subscribers: mehdi_amini, inglorion, llvm-commits

Differential Revision: https://reviews.llvm.org/D48670

llvm-svn: 337184
llvm/include/llvm/Transforms/IPO/FunctionImport.h
llvm/lib/LTO/LTO.cpp
llvm/lib/Transforms/IPO/FunctionImport.cpp
llvm/test/Transforms/FunctionImport/Inputs/funcimport_resolved1.ll [new file with mode: 0644]
llvm/test/Transforms/FunctionImport/Inputs/funcimport_resolved2.ll [new file with mode: 0644]
llvm/test/Transforms/FunctionImport/Inputs/hotness_based_import2.ll [deleted file]
llvm/test/Transforms/FunctionImport/funcimport_resolved.ll [new file with mode: 0644]
llvm/test/Transforms/FunctionImport/hotness_based_import2.ll [deleted file]
llvm/tools/llvm-link/llvm-link.cpp