Revert "[Tizen] Added 'make clean' on each profile build."
[platform/core/uifw/dali-adaptor.git] / automated-tests / README.md
index b6a20e4..2175d07 100644 (file)
@@ -3,7 +3,7 @@ Testing environment   {#auto_testing}
 
 The new test environment from Tizen is the Web-TCT test suite. This was written for testing web components, but can easily be used for testing Dali.
 
-Each of the DALi repositories, **dali-core**, **dali-adaptor** and **dali-toolkit**, have their own test suites under the `automated-tests` folder. Within the src folder are a number of secondary folders - these correspond to 'managed' tests (for testing the frozen API for products), unmanaged tests (tests for other APIs) and internal (for desktop testing only)
+Each of the DALi repositories, **dali-core**, **dali-adaptor** and **dali-toolkit**, have their own test suites under the `automated-tests` folder. Within the src folder are a number of secondary folders - these correspond to 'API' tests  and internal (for desktop testing only)
 
 Installation
 ------------
@@ -78,25 +78,34 @@ Or without cleaning down the build area (Useful for fast build/run/debug cycles)
 Executing the tests
 -------------------
 
+To see a list of all of the options:
+
+    ./execute.sh -h
+
 To execute tests, cd into automated-tests and run
 
     ./execute.sh
 
-This will execute dali, dali-unmanaged and dali-internal test sets. Note that the output summary for the first will be printed before running the second.
+This will execute dali and dali-internal test sets. Note that the output summary for the first will be printed before running the second.
 
-To execute a subset of tests, you can run individual test sets, e.g.
+By default the tests execute in parallel, which is faster but does not produce any test case output files.  Use this to execute the tests in series and log test output to stdout/err
 
-    ./execute.sh dali-adaptor
+    ./execute.sh -S
 
-or for finer granularity, specify a test source file:
+To use test kit lite, (which is very slow),
 
-    ./execute.sh dali-adaptor-internal utc-Dali-GifLoader.cpp
+    ./execute.sh -s
 
-To see the results, you can open the summary.xml in firefox.
+To see the test kit lite results, copy the style folder from web-tct_2.2.1_r1/tools/tct-mgr/style into automated-tests and run
 
     firefox --new-window summary.xml
 
-To get coverage output, run
+To execute a subset of tests, you can run individual test sets, e.g.
+
+    ./execute.sh dali-adaptor
+
+To get coverage output (you need to first build dali libraries with
+--coverage), run
 
     ./coverage.sh
 
@@ -130,7 +139,7 @@ To execute tests, cd into automated-tests and run
 
     tct-mgr
 
-This will bring up the java test suite program. You should see the Plan pane with a list of all tests in. Select the tct-dali-core-tests and tct-dali-unmanaged-tests. and you will be offered a dialog to choose a test plan: either create a new one or use temp.
+This will bring up the java test suite program. You should see the Plan pane with a list of all tests in. Select the tct-dali-core-tests. and you will be offered a dialog to choose a test plan: either create a new one or use temp.
 Select dali test suite, and click Run, then "Create a new plan", and call it "Dali-Core" or some such. It will now run the dali-test suite.
 
 You can find the output files under /opt/tct/manager/result/
@@ -144,11 +153,6 @@ To Managed API
 
 If you are adding test cases for new or existing managed API (CAPI), you need to add your changes to the src/dali mirror, and copy your change to the managed test suite in core-api. You need to inform HQ of your update.
 
-To Unmanaged API
-----------------
-
-If you are adding test cases for unmanaged API, you need to add your changes to the src/dali-adaptor-unmanaged test suite.
-
 For internal API
 ----------------
 
@@ -182,7 +186,7 @@ Debugging
 On desktop, you can debug the tests by running gdb on the test program:
 
     $ cd automated-tests
-    $ gdb build/src/dali/tct-dali-core
+    $ gdb build/src/dali-adaptor/tct-dali-adaptor-core
     gdb> r <TestCase>
 
 replace `<TestCase>` with the name of the failing testcase.