Fix internal format/type for 3D + depth/stencil negative API tests.
authorKenneth Graunke <kenneth.w.graunke@intel.com>
Mon, 12 Sep 2016 19:37:08 +0000 (12:37 -0700)
committerKenneth Graunke <kenneth.w.graunke@intel.com>
Mon, 12 Sep 2016 19:38:46 +0000 (12:38 -0700)
commitae7f8e0a07730e693b24d3dc7a23d2372319145e
tree62f0268aa6a2cc0309efd373d8c401665794e253
parente0ef7118f8d98825b18d0ae2b0d7ec4e2ef7c3c7
Fix internal format/type for 3D + depth/stencil negative API tests.

According to the ES 3.2 specification:

   "Textures with a base internal format of DEPTH_COMPONENT, DEPTH_STENCIL
    or STENCIL_INDEX are supported by texture image specification commands
    only if target is TEXTURE_2D, TEXTURE_2D_MULTISAMPLE, TEXTURE_2D_ARRAY,
    TEXTURE_2D_MULTISAMPLE_ARRAY, TEXTURE_CUBE_MAP or TEXTURE_CUBE_MAP_ARRAY.
    Using these formats in conjunction with any other target will result in
    an INVALID_OPERATION error."

This subtest tried to check the above error condition, but it specified
GL_DEPTH_STENCIL / GL_DEPTH_COMPONENT as format, rather than internalFormat.
Since the above text calls out "base internal format", we should specify
it as internalFormat.

We also change GL_DEPTH_STENCIL to use GL_UNSIGNED_INT_24_8 rather than
GL_UNSIGNED_BYTE, as that combination was illegal for a different reason
than the one the test intended to check.
modules/gles31/functional/es31fNegativeTextureApiTests.cpp