Upstream version 5.34.104.0
[platform/framework/web/crosswalk.git] / src / tools / perf / benchmarks / dom_perf.py
1 # Copyright (c) 2013 The Chromium Authors. All rights reserved.
2 # Use of this source code is governed by a BSD-style license that can be
3 # found in the LICENSE file.
4
5 import json
6 import math
7 import os
8
9 from telemetry import test
10 from telemetry.core import util
11 from telemetry.page import page_measurement
12 from telemetry.page import page_set
13 from telemetry.value import merge_values
14
15
16 def _GeometricMean(values):
17   """Compute a rounded geometric mean from an array of values."""
18   if not values:
19     return None
20   # To avoid infinite value errors, make sure no value is less than 0.001.
21   new_values = []
22   for value in values:
23     if value > 0.001:
24       new_values.append(value)
25     else:
26       new_values.append(0.001)
27   # Compute the sum of the log of the values.
28   log_sum = sum(map(math.log, new_values))
29   # Raise e to that sum over the number of values.
30   mean = math.pow(math.e, (log_sum / len(new_values)))
31   # Return the rounded mean.
32   return int(round(mean))
33
34
35 SCORE_UNIT = 'score (bigger is better)'
36 SCORE_TRACE_NAME = 'score'
37
38
39 class _DomPerfMeasurement(page_measurement.PageMeasurement):
40   @property
41   def results_are_the_same_on_every_page(self):
42     return False
43
44   def MeasurePage(self, page, tab, results):
45     try:
46       def _IsDone():
47         return tab.GetCookieByName('__domperf_finished') == '1'
48       util.WaitFor(_IsDone, 600)
49
50       data = json.loads(tab.EvaluateJavaScript('__domperf_result'))
51       for suite in data['BenchmarkSuites']:
52         # Skip benchmarks that we didn't actually run this time around.
53         if len(suite['Benchmarks']) or suite['score']:
54           results.Add(SCORE_TRACE_NAME, SCORE_UNIT,
55                       suite['score'], suite['name'], 'unimportant')
56     finally:
57       tab.EvaluateJavaScript('document.cookie = "__domperf_finished=0"')
58
59   def DidRunTest(self, browser, results):
60     # Now give the geometric mean as the total for the combined runs.
61     combined = merge_values.MergeLikeValuesFromDifferentPages(
62         results.all_page_specific_values,
63         group_by_name_suffix=True)
64     combined_score = [x for x in combined if x.name == SCORE_TRACE_NAME][0]
65     total = _GeometricMean(combined_score.values)
66     results.AddSummary(SCORE_TRACE_NAME, SCORE_UNIT, total, 'Total')
67
68
69 @test.Disabled('android', 'linux')
70 class DomPerf(test.Test):
71   """A suite of JavaScript benchmarks for exercising the browser's DOM.
72
73   The final score is computed as the geometric mean of the individual results.
74   Scores are not comparable across benchmark suite versions and higher scores
75   means better performance: Bigger is better!"""
76   test = _DomPerfMeasurement
77
78   def CreatePageSet(self, options):
79     dom_perf_dir = os.path.join(util.GetChromiumSrcDir(), 'data', 'dom_perf')
80     base_page = 'file://run.html?reportInJS=1&run='
81     return page_set.PageSet.FromDict({
82         'pages': [
83           { 'url': base_page + 'Accessors' },
84           { 'url': base_page + 'CloneNodes' },
85           { 'url': base_page + 'CreateNodes' },
86           { 'url': base_page + 'DOMDivWalk' },
87           { 'url': base_page + 'DOMTable' },
88           { 'url': base_page + 'DOMWalk' },
89           { 'url': base_page + 'Events' },
90           { 'url': base_page + 'Get+Elements' },
91           { 'url': base_page + 'GridSort' },
92           { 'url': base_page + 'Template' }
93           ]
94         }, dom_perf_dir)