Cache workspace size in the BenchmarkCache. (#15742)
authormwootton <michael.wootton@amd.com>
Tue, 8 Jan 2019 20:23:30 +0000 (12:23 -0800)
committerFacebook Github Bot <facebook-github-bot@users.noreply.github.com>
Tue, 8 Jan 2019 21:10:15 +0000 (13:10 -0800)
commit734eb31035c45079a3b4a6a2aac28fb7a28773cf
treea4e2b5dc1332576e83b4a095ed49c01d4307490b
parent1bc47c0d86f88800bab5484762df52ad1c6d5d62
Cache workspace size in the BenchmarkCache. (#15742)

Summary:
Cache the workspace size information for MIOpen for a given configuration as opposed to inquiring it every time. This reduces overhead significantly as inquiring the workspace size forces a full read of the performance database in MIOpen and this database has grown significantly in recent releases. This caching gets us back to ideal performance.
Pull Request resolved: https://github.com/pytorch/pytorch/pull/15742

Differential Revision: D13598932

Pulled By: bddppq

fbshipit-source-id: 4e65d247b71dec828293cf0562aac3fbd4fad83a
aten/src/ATen/native/miopen/Conv_miopen.cpp