Comply with Trademark rules for use of Neon, Arm and Mali
authorSheri Zhang <sheri.zhang@arm.com>
Wed, 10 Feb 2021 15:32:38 +0000 (15:32 +0000)
committerGiorgio Arena <giorgio.arena@arm.com>
Mon, 22 Feb 2021 11:15:41 +0000 (11:15 +0000)
Full trademarks available in README.md

Resolves: COMPMID-4257

Signed-off-by: Sheri Zhang <sheri.zhang@arm.com>
Change-Id: Ibfba2adf2eef3449433f467464ebd87d7198474d
Signed-off-by: Michele Di Giorgio <michele.digiorgio@arm.com>
Reviewed-on: https://review.mlplatform.org/c/ml/ComputeLibrary/+/5116
Reviewed-by: Georgios Pinitas <georgios.pinitas@arm.com>
Comments-Addressed: Arm Jenkins <bsgcomp@arm.com>
Tested-by: Arm Jenkins <bsgcomp@arm.com>
275 files changed:
README.md
SConstruct
arm_compute/core/ITensor.h
arm_compute/graph/TypePrinter.h
arm_compute/graph/Types.h
arm_compute/graph/Utils.h
arm_compute/graph/backends/NEON/NEDeviceBackend.h
arm_compute/graph/backends/NEON/NEFunctionFactory.h
arm_compute/graph/backends/NEON/NESubTensorHandle.h
arm_compute/graph/backends/NEON/NETensorHandle.h
arm_compute/runtime/CL/functions/CLGEMMLowpOutputStage.h
arm_compute/runtime/CL/functions/CLHarrisCorners.h
arm_compute/runtime/IFunction.h
arm_compute/runtime/ITransformWeights.h
arm_compute/runtime/NEON/INEOperator.h
arm_compute/runtime/NEON/INESimpleFunction.h
arm_compute/runtime/NEON/INESimpleFunctionNoBorder.h
arm_compute/runtime/NEON/NEFunctions.h
arm_compute/runtime/NEON/NEScheduler.h
arm_compute/runtime/NEON/functions/NEArgMinMaxLayer.h
arm_compute/runtime/NEON/functions/NEBox3x3.h
arm_compute/runtime/NEON/functions/NECannyEdge.h
arm_compute/runtime/NEON/functions/NEConvolution.h
arm_compute/runtime/NEON/functions/NEConvolutionLayer.h
arm_compute/runtime/NEON/functions/NEDeconvolutionLayer.h
arm_compute/runtime/NEON/functions/NEDepthwiseConvolutionLayer.h
arm_compute/runtime/NEON/functions/NEDerivative.h
arm_compute/runtime/NEON/functions/NEDilate.h
arm_compute/runtime/NEON/functions/NEDirectConvolutionLayer.h
arm_compute/runtime/NEON/functions/NEEqualizeHistogram.h
arm_compute/runtime/NEON/functions/NEErode.h
arm_compute/runtime/NEON/functions/NEFFT1D.h
arm_compute/runtime/NEON/functions/NEFFT2D.h
arm_compute/runtime/NEON/functions/NEFFTConvolutionLayer.h
arm_compute/runtime/NEON/functions/NEFastCorners.h
arm_compute/runtime/NEON/functions/NEFullyConnectedLayer.h
arm_compute/runtime/NEON/functions/NEGEMM.h
arm_compute/runtime/NEON/functions/NEGEMMConv2d.h
arm_compute/runtime/NEON/functions/NEGEMMConvolutionLayer.h
arm_compute/runtime/NEON/functions/NEGEMMLowpMatrixMultiplyCore.h
arm_compute/runtime/NEON/functions/NEGEMMLowpOutputStage.h
arm_compute/runtime/NEON/functions/NEGaussian3x3.h
arm_compute/runtime/NEON/functions/NEGaussian5x5.h
arm_compute/runtime/NEON/functions/NEGaussianPyramid.h
arm_compute/runtime/NEON/functions/NEHOGDescriptor.h
arm_compute/runtime/NEON/functions/NEHOGDetector.h
arm_compute/runtime/NEON/functions/NEHOGGradient.h
arm_compute/runtime/NEON/functions/NEHOGMultiDetection.h
arm_compute/runtime/NEON/functions/NEHarrisCorners.h
arm_compute/runtime/NEON/functions/NELSTMLayerQuantized.h
arm_compute/runtime/NEON/functions/NELaplacianPyramid.h
arm_compute/runtime/NEON/functions/NELaplacianReconstruct.h
arm_compute/runtime/NEON/functions/NEMaxUnpoolingLayer.h
arm_compute/runtime/NEON/functions/NEMeanStdDev.h
arm_compute/runtime/NEON/functions/NEMedian3x3.h
arm_compute/runtime/NEON/functions/NEMinMaxLocation.h
arm_compute/runtime/NEON/functions/NENonLinearFilter.h
arm_compute/runtime/NEON/functions/NENonMaximaSuppression3x3.h
arm_compute/runtime/NEON/functions/NENormalizationLayer.h
arm_compute/runtime/NEON/functions/NEOpticalFlow.h
arm_compute/runtime/NEON/functions/NEPadLayer.h
arm_compute/runtime/NEON/functions/NEPermute.h
arm_compute/runtime/NEON/functions/NEPoolingLayer.h
arm_compute/runtime/NEON/functions/NEQLSTMLayer.h
arm_compute/runtime/NEON/functions/NEQuantizationLayer.h
arm_compute/runtime/NEON/functions/NEROIAlignLayer.h
arm_compute/runtime/NEON/functions/NEROIPoolingLayer.h
arm_compute/runtime/NEON/functions/NEReductionOperation.h
arm_compute/runtime/NEON/functions/NERemap.h
arm_compute/runtime/NEON/functions/NEScharr3x3.h
arm_compute/runtime/NEON/functions/NESobel3x3.h
arm_compute/runtime/NEON/functions/NESobel5x5.h
arm_compute/runtime/NEON/functions/NESobel7x7.h
arm_compute/runtime/NEON/functions/NESpaceToBatchLayer.h
arm_compute/runtime/NEON/functions/NESpaceToDepthLayer.h
arm_compute/runtime/NEON/functions/NETranspose.h
arm_compute/runtime/NEON/functions/NEWinogradConvolutionLayer.h
docs/00_introduction.dox
docs/01_library.dox
docs/02_tests.dox
docs/04_adding_operator.dox
docs/06_functions_list.dox
docs/07_errata.dox
docs/ComputeLibrary.dir
examples/neon_cnn.cpp
examples/neon_copy_objects.cpp
examples/neoncl_scale_median_gaussian.cpp
scripts/include_functions_kernels.py [changed mode: 0755->0644]
src/core/CL/cl_kernels/helpers_asymm.h
src/core/NEON/INEKernel.h
src/core/NEON/INESimpleKernel.h
src/core/NEON/NEKernels.h
src/core/NEON/kernels/NEBatchNormalizationLayerKernel.cpp
src/core/NEON/kernels/NEBox3x3Kernel.h
src/core/NEON/kernels/NECannyEdgeKernel.h
src/core/NEON/kernels/NEChannelShuffleLayerKernel.cpp
src/core/NEON/kernels/NECol2ImKernel.cpp
src/core/NEON/kernels/NECol2ImKernel.h
src/core/NEON/kernels/NEConvertFullyConnectedWeightsKernel.cpp
src/core/NEON/kernels/NEConvertQuantizedSignednessKernel.h
src/core/NEON/kernels/NEConvolutionKernel.cpp
src/core/NEON/kernels/NEDerivativeKernel.cpp
src/core/NEON/kernels/NEDirectConvolutionLayerKernel.cpp
src/core/NEON/kernels/NEDirectConvolutionLayerKernel.h
src/core/NEON/kernels/NEDirectConvolutionLayerOutputStageKernel.cpp
src/core/NEON/kernels/NEDirectConvolutionLayerOutputStageKernel.h
src/core/NEON/kernels/NEFastCornersKernel.h
src/core/NEON/kernels/NEFillBorderKernel.cpp
src/core/NEON/kernels/NEGEMMInterleave4x4Kernel.cpp
src/core/NEON/kernels/NEGEMMInterleave4x4Kernel.h
src/core/NEON/kernels/NEGEMMLowpMatrixMultiplyKernel.h
src/core/NEON/kernels/NEGEMMLowpOffsetContributionKernel.h
src/core/NEON/kernels/NEGEMMLowpOffsetContributionOutputStageKernel.h
src/core/NEON/kernels/NEGEMMLowpQuantizeDownInt32ScaleKernel.h
src/core/NEON/kernels/NEGEMMLowpQuantizeDownInt32ToInt16ScaleByFixedPointKernel.h
src/core/NEON/kernels/NEGEMMLowpQuantizeDownInt32ToInt8ScaleByFixedPointKernel.h
src/core/NEON/kernels/NEGEMMLowpQuantizeDownInt32ToUint8ScaleByFixedPointKernel.h
src/core/NEON/kernels/NEGEMMLowpReductionKernel.h
src/core/NEON/kernels/NEGEMMMatrixAdditionKernel.h
src/core/NEON/kernels/NEGEMMMatrixMultiplyKernel.h
src/core/NEON/kernels/NEGEMMTranspose1xWKernel.cpp
src/core/NEON/kernels/NEGEMMTranspose1xWKernel.h
src/core/NEON/kernels/NEGatherKernel.h
src/core/NEON/kernels/NEGaussian3x3Kernel.h
src/core/NEON/kernels/NEGaussian5x5Kernel.h
src/core/NEON/kernels/NEGaussianPyramidKernel.h
src/core/NEON/kernels/NEHOGDescriptorKernel.h
src/core/NEON/kernels/NEHOGDetectorKernel.h
src/core/NEON/kernels/NEHarrisCornersKernel.h
src/core/NEON/kernels/NEIm2ColKernel.cpp
src/core/NEON/kernels/NEInstanceNormalizationLayerKernel.cpp
src/core/NEON/kernels/NELKTrackerKernel.h
src/core/NEON/kernels/NENonMaximaSuppression3x3Kernel.h
src/core/NEON/kernels/NENormalizationLayerKernel.cpp
src/core/NEON/kernels/NEPadLayerKernel.h
src/core/NEON/kernels/NEQLSTMLayerNormalizationKernel.h
src/core/NEON/kernels/NERangeKernel.cpp
src/core/NEON/kernels/NEReductionOperationKernel.cpp
src/core/NEON/kernels/NEReductionOperationKernel.h
src/core/NEON/kernels/NERemapKernel.h
src/core/NEON/kernels/NEReorgLayerKernel.cpp
src/core/NEON/kernels/NEReverseKernel.cpp
src/core/NEON/kernels/NEScaleKernel.h
src/core/NEON/kernels/NEStackLayerKernel.cpp
src/core/NEON/kernels/NEStackLayerKernel.h
src/core/NEON/kernels/NEThresholdKernel.cpp
src/core/NEON/kernels/NETileKernel.h
src/core/NEON/kernels/NETransposeKernel.cpp
src/core/NEON/kernels/NETransposeKernel.h
src/core/NEON/kernels/NEWeightsReshapeKernel.cpp
src/core/NEON/kernels/NEWeightsReshapeKernel.h
src/core/NEON/kernels/NEWinogradConvolutionLayerKernel.h
src/core/NEON/kernels/arm_gemm/gemm_fp32.cpp
src/core/NEON/kernels/arm_gemm/interleave_indirect.cpp
src/core/NEON/kernels/batchnormalization/impl/NEON/fp16.cpp
src/core/NEON/kernels/batchnormalization/impl/NEON/fp32.cpp
src/core/NEON/kernels/detail/NEActivationFunctionDetail.h
src/core/NEON/wrapper/traits.h
src/core/cpu/kernels/CpuConcatenateBatchKernel.cpp
src/core/cpu/kernels/CpuConcatenateDepthKernel.cpp
src/core/cpu/kernels/CpuConcatenateHeightKernel.cpp
src/core/cpu/kernels/CpuConcatenateWidthKernel.cpp
src/core/cpu/kernels/CpuReshapeKernel.cpp
src/core/cpu/kernels/activation/NEON/fp16.cpp
src/core/cpu/kernels/activation/NEON/fp32.cpp
src/core/cpu/kernels/add/neon/list.h
src/core/cpu/kernels/pooling/neon/quantized.h
src/core/cpu/kernels/softmax/impl/NEON/list.h
src/core/cpu/kernels/sub/neon/list.h
src/graph/backends/NEON/NEDeviceBackend.cpp
src/graph/backends/NEON/NEFunctionFactory.cpp
src/graph/backends/NEON/NENodeValidator.cpp
src/runtime/NEON/functions/NEConvolutionLayer.cpp
src/runtime/NEON/functions/NEGEMMAssemblyDispatch.cpp
src/runtime/NEON/functions/NEGEMMConv2d.cpp
src/runtime/NEON/functions/NEGEMMConvolutionLayer.cpp
src/runtime/cpu/operators/CpuPooling.h
tests/benchmark/NEON/Scale.cpp
tests/benchmark/fixtures/ScaleLayerFixture.h
tests/datasets/ScaleValidationDataset.h
tests/framework/SConscript
tests/validation/GLES_COMPUTE/Scale.cpp
tests/validation/NEON/AbsoluteDifference.cpp
tests/validation/NEON/Accumulate.cpp
tests/validation/NEON/ActivationLayer.cpp
tests/validation/NEON/ArgMinMax.cpp
tests/validation/NEON/ArithmeticAddition.cpp
tests/validation/NEON/ArithmeticSubtraction.cpp
tests/validation/NEON/BatchNormalizationLayer.cpp
tests/validation/NEON/BatchToSpaceLayer.cpp
tests/validation/NEON/BitwiseAnd.cpp
tests/validation/NEON/BitwiseNot.cpp
tests/validation/NEON/BitwiseOr.cpp
tests/validation/NEON/BitwiseXor.cpp
tests/validation/NEON/BoundingBoxTransform.cpp
tests/validation/NEON/Cast.cpp
tests/validation/NEON/ChannelCombine.cpp
tests/validation/NEON/ChannelExtract.cpp
tests/validation/NEON/ChannelShuffle.cpp
tests/validation/NEON/ColorConvert.cpp
tests/validation/NEON/ConvertFullyConnectedWeights.cpp
tests/validation/NEON/Convolution.cpp
tests/validation/NEON/ConvolutionLayer.cpp
tests/validation/NEON/Copy.cpp
tests/validation/NEON/CropResize.cpp
tests/validation/NEON/DeconvolutionLayer.cpp
tests/validation/NEON/DepthConvertLayer.cpp
tests/validation/NEON/DepthToSpaceLayer.cpp
tests/validation/NEON/DepthwiseConvolutionLayer.cpp
tests/validation/NEON/DepthwiseConvolutionLayerNative.cpp
tests/validation/NEON/DequantizationLayer.cpp
tests/validation/NEON/Derivative.cpp
tests/validation/NEON/DetectionPostProcessLayer.cpp
tests/validation/NEON/Dilate.cpp
tests/validation/NEON/DilatedConvolutionLayer.cpp
tests/validation/NEON/DirectConvolutionLayer.cpp
tests/validation/NEON/ElementwiseAbsoluteValue.cpp
tests/validation/NEON/ElementwiseDivision.cpp
tests/validation/NEON/ElementwiseExpLayer.cpp
tests/validation/NEON/ElementwiseLog.cpp
tests/validation/NEON/ElementwiseMax.cpp
tests/validation/NEON/ElementwiseMin.cpp
tests/validation/NEON/ElementwiseNegation.cpp
tests/validation/NEON/ElementwisePower.cpp
tests/validation/NEON/ElementwiseRound.cpp
tests/validation/NEON/ElementwiseRsqrtLayer.cpp
tests/validation/NEON/ElementwiseSin.cpp
tests/validation/NEON/ElementwiseSquareDiff.cpp
tests/validation/NEON/FFT.cpp
tests/validation/NEON/Fill.cpp
tests/validation/NEON/Flatten.cpp
tests/validation/NEON/FuseBatchNormalization.cpp
tests/validation/NEON/GEMMLowp.cpp
tests/validation/NEON/Gather.cpp
tests/validation/NEON/GenerateProposalsLayer.cpp
tests/validation/NEON/HOGDetector.cpp
tests/validation/NEON/Im2Col.cpp
tests/validation/NEON/InstanceNormalizationLayer.cpp
tests/validation/NEON/L2NormalizeLayer.cpp
tests/validation/NEON/LSTMLayer.cpp
tests/validation/NEON/LSTMLayerQuantized.cpp
tests/validation/NEON/Logical.cpp
tests/validation/NEON/MaxUnpoolingLayer.cpp
tests/validation/NEON/MeanStdDevNormalizationLayer.cpp
tests/validation/NEON/MinMaxLocation.cpp
tests/validation/NEON/NormalizationLayer.cpp
tests/validation/NEON/PReluLayer.cpp
tests/validation/NEON/PadLayer.cpp
tests/validation/NEON/PoolingLayer.cpp
tests/validation/NEON/PriorBoxLayer.cpp
tests/validation/NEON/QLSTMLayerNormalization.cpp
tests/validation/NEON/QuantizationLayer.cpp
tests/validation/NEON/RNNLayer.cpp
tests/validation/NEON/ROIAlignLayer.cpp
tests/validation/NEON/Range.cpp
tests/validation/NEON/ReduceMean.cpp
tests/validation/NEON/ReductionOperation.cpp
tests/validation/NEON/ReorgLayer.cpp
tests/validation/NEON/Reverse.cpp
tests/validation/NEON/Scale.cpp
tests/validation/NEON/Select.cpp
tests/validation/NEON/Slice.cpp
tests/validation/NEON/SpaceToBatchLayer.cpp
tests/validation/NEON/SpaceToDepthLayer.cpp
tests/validation/NEON/Split.cpp
tests/validation/NEON/StackLayer.cpp
tests/validation/NEON/StridedSlice.cpp
tests/validation/NEON/Tile.cpp
tests/validation/NEON/UNIT/DynamicTensor.cpp
tests/validation/NEON/UNIT/RuntimeContext.cpp
tests/validation/NEON/Unstack.cpp
tests/validation/fixtures/DepthConvertLayerFixture.h
tests/validation/reference/UtilsQuantizedAsymm.h
utils/CommonGraphOptions.h
utils/GraphUtils.h

index b07c9807b958850ad31eb7ab961c9937ced9b388..e44f3a50450f762c2ee0b9b8f8c43d6117b1965b 100644 (file)
--- a/README.md
+++ b/README.md
@@ -29,7 +29,30 @@ Documentation (API, changelogs, build guide, contribution guide, errata, etc.) a
 
 Binaries available at https://github.com/ARM-software/ComputeLibrary/releases.
 
-License & Contributions: The software is provided under MIT license. Contributions to this project are accepted under the same license.
+### Supported Architectures/Technologies
+
+- Arm® CPUs:
+    - Arm® Cortex®-A processor family using Arm® Neonâ„¢ technology
+    - Arm® Cortex®-R processor family with Armv8-R AArch64 architecture using Arm® Neonâ„¢ technology
+    - Arm® Cortex®-X1 processor using Arm® Neonâ„¢ technology
+
+- Arm® Maliâ„¢ GPUs:
+    - Arm® Maliâ„¢-G processor family
+    - Arm® Maliâ„¢-T processor family
+
+- x86
+
+### Supported OS
+
+- Androidâ„¢
+- Bare Metal
+- Linux®
+- macOS®
+- Tizenâ„¢
+
+## License and Contributions
+
+The software is provided under MIT license. Contributions to this project are accepted under the same license.
 
 ### Public mailing list
 For technical discussion, the ComputeLibrary project has a public mailing list: acl-dev@lists.linaro.org
@@ -44,3 +67,16 @@ To indicate that you agree to the the terms of the DCO, you "sign off" your cont
 ```Signed-off-by: John Doe <john.doe@example.org>```
 
 You must use your real name, no pseudonyms or anonymous contributions are accepted.
+
+## Trademarks and Copyrights
+
+Android is a trademark of Google LLC.
+
+Arm, Cortex and Mali are registered trademarks or trademarks of Arm Limited (or its subsidiaries) in the US and/or elsewhere.
+
+Linux® is the registered trademark of Linus Torvalds in the U.S. and other countries.
+
+Mac and macOS are trademarks of Apple Inc., registered in the U.S. and other
+countries.
+
+Tizen is a registered trademark of The Linux Foundation.
index 5d2002a45d126804e470a80581aa8a50f88598d7..274326f67953d22bfc53cc8c1387d1a2bdf66cab 100644 (file)
@@ -124,7 +124,7 @@ if env['build'] == "embed_only":
     Return()
 
 if env['neon'] and 'x86' in env['arch']:
-    print("Cannot compile NEON for x86")
+    print("Cannot compile Neon for x86")
     Exit(1)
 
 if env['set_soname'] and not version_at_least(SCons.__version__, "2.4"):
@@ -290,7 +290,7 @@ if not GetOption("help"):
             print("GCC 6.2.1 or newer is required to compile armv8.2-a code")
             Exit(1)
         elif env['arch'] == 'arm64-v8a' and not version_at_least(compiler_ver, '4.9'):
-            print("GCC 4.9 or newer is required to compile NEON code for AArch64")
+            print("GCC 4.9 or newer is required to compile Neon code for AArch64")
             Exit(1)
 
         if version_at_least(compiler_ver, '6.1'):
index 272b83d9c2bae5db34a0ea20726e1c551ff492f3..abcec60b7911e87d552222c080ca9a2a2adffc9a 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2019 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -32,7 +32,7 @@ namespace arm_compute
 {
 class Coordinates;
 
-/** Interface for NEON tensor */
+/** Interface for Neon tensor */
 class ITensor
 {
 public:
index 62bacae89f008a36461d61fd25f273aba6cca926..7caebd0684328d08c24ab7c2bcdae7eada585515 100644 (file)
@@ -43,7 +43,7 @@ inline ::std::ostream &operator<<(::std::ostream &os, const Target &target)
             os << "UNSPECIFIED";
             break;
         case Target::NEON:
-            os << "NEON";
+            os << "Neon";
             break;
         case Target::CL:
             os << "CL";
index b891c1772fcc77f73419154c01491ae108586889..81ef61f06328e400ba7c1e67b134d1b427dd522e 100644 (file)
@@ -94,7 +94,7 @@ struct GraphConfig
 enum class Target
 {
     UNSPECIFIED, /**< Unspecified Target */
-    NEON,        /**< NEON capable target device */
+    NEON,        /**< Neon capable target device */
     CL,          /**< OpenCL capable target device */
     GC,          /**< GLES compute capable target device */
 };
index b1be51ee301701bbcd3da2e322ac7aac0cb13443..e32ac29f35c36309ab609b0360601fde855ffb43 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -76,7 +76,7 @@ bool is_target_supported(Target target);
 /** Returns default target for execution
  *
  * @note If an OpenCL backend exists then OpenCL is returned,
- *       else if the NEON backend exists returns NEON as target.
+ *       else if the Neon backend exists returns Neon as target.
  *       If no backends are registered an error is raised.
  *
  * @return Default target
index d0c8c272033b6c0bfb4a9d09e16a513b8f2a5461..01d2be010a11c44f3a227e558fad0424e5c70c29 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -34,7 +34,7 @@ namespace graph
 {
 namespace backends
 {
-/** NEON device backend */
+/** Neon device backend */
 class NEDeviceBackend final : public IDeviceBackend
 {
 public:
@@ -54,7 +54,7 @@ public:
     std::shared_ptr<arm_compute::IWeightsManager> create_weights_manager() override;
 
 private:
-    Allocator _allocator; /**< NEON backend allocator */
+    Allocator _allocator; /**< Neon backend allocator */
 };
 } // namespace backends
 } // namespace graph
index 5d0e175fb0f9fae7661a73172bff98135da324b4..4dd1f1f5ca1368b6dd5d2cbbf835922878a37bf1 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -38,7 +38,7 @@ class GraphContext;
 
 namespace backends
 {
-/** Factory for generating NEON backend functions **/
+/** Factory for generating Neon backend functions **/
 class NEFunctionFactory final
 {
 public:
index 259be7822cc52aac0db77685d2af7eb66514c771..534f1c4e06354b349ba3bcb149a3b1eb7acf007b 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -34,7 +34,7 @@ namespace graph
 {
 namespace backends
 {
-/** NEON Sub-Tensor handle interface object **/
+/** Neon Sub-Tensor handle interface object **/
 class NESubTensorHandle final : public ITensorHandle
 {
 public:
index 86aba302a5655ec048f30c51dd2162319ec37b8c..211990fe6cba90ef66732e79533f84bb27867ec0 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -34,7 +34,7 @@ namespace graph
 {
 namespace backends
 {
-/** NEON Tensor handle interface object **/
+/** Neon Tensor handle interface object **/
 class NETensorHandle final : public ITensorHandle
 {
 public:
index a4edab9b8f2ab5de89beca834461be2a26073d0d..0f051ecffd2b6bb88984fb3b9daf1f6347dcd499 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -222,7 +222,7 @@ public:
  *
  * ((FixedPointMul(input[i][k] + bias[k], result_fixedpoint_multiplier)) >> result_shift) + result_offset_after_shift
  *
- *  This function calls the following NEON kernels:
+ *  This function calls the following CL kernels:
  *
  * -# @ref CLGEMMLowpQuantizeDownInt32ScaleByFixedPointKernel
  *
index fc25c218adddeaf159ab237dc3b0a6d9ad85fbc3..7f4a456eb34cdf6114e218c84c83ceb676e4eee4 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -44,7 +44,7 @@ class CLFillBorderKernel;
 class ICLTensor;
 using ICLImage = ICLTensor;
 
-/** Basic function to execute harris corners detection. This function calls the following CL and NEON kernels and functions:
+/** Basic function to execute harris corners detection. This function calls the following CL and Neon kernels and functions:
  *
  * @note Requires CPU support for the kernels: CPPCornerCandidatesKernel and CPPSortEuclideanDistanceKernel.
  *
index 265427e6680ce18c981a3f047df2a4aea39a320f..2aec0c007f5441e86a36e7d0a065eba3ea7134f3 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2019 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -34,7 +34,7 @@ public:
     virtual ~IFunction() = default;
     /** Run the kernels contained in the function
      *
-     * For NEON kernels:
+     * For Neon kernels:
      * - Multi-threading is used for the kernels which are parallelisable.
      * - By default std::thread::hardware_concurrency() threads are used.
      *
index 9392be05e528a8eb17d28ac91435c6acfe3b720d..4fb2f89418d50c6e7f982ce6108f866271a6a2f0 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -37,7 +37,7 @@ class ITensor;
  * to generate a unique id. We use the following conversion using an unsigned 32bit value:
  *
  * Lower two bits store the target:
- * 00 -> NEON
+ * 00 -> Neon
  * 01 -> CL
  * 10 -> GLES
  * 11 -> Unused
index a5ffc749405462d75f1faad1cfd9d62a3ad057b4..b21dc49b20956ba68782943f6850788166bd7997 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2020 Arm Limited.
+ * Copyright (c) 2020-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -37,7 +37,7 @@ class ICPPKernel;
 using INEKernel = ICPPKernel;
 namespace experimental
 {
-/** Basic interface for functions which have a single async NEON kernel */
+/** Basic interface for functions which have a single async Neon kernel */
 class INEOperator : public IOperator
 {
 public:
index 979a0f7f076310ffef6e355ec2589cc99b79414b..8c7cf6512c78b0b28045175da34b2914842e717d 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 class ICPPKernel;
 class NEFillBorderKernel;
 using INEKernel = ICPPKernel;
-/** Basic interface for functions which have a single NEON kernel */
+/** Basic interface for functions which have a single Neon kernel */
 class INESimpleFunction : public IFunction
 {
 public:
index 9df0d785267d80e5e2ff0ad538a817d646a8caad..52bd5f333b235951706564b67cb2c1767f96498b 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 {
 class ICPPKernel;
 using INEKernel = ICPPKernel;
-/** Basic interface for functions which have a single NEON kernel and no border */
+/** Basic interface for functions which have a single Neon kernel and no border */
 class INESimpleFunctionNoBorder : public IFunction
 {
 public:
index b7d05f907864fead54e27264340fdd5efc474315..e876e3916f3f90ec2b67c868e6f6b48cd750026d 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -24,7 +24,7 @@
 #ifndef ARM_COMPUTE_NEFUNCTIONS_H
 #define ARM_COMPUTE_NEFUNCTIONS_H
 
-/* Header regrouping all the NEON functions */
+/* Header regrouping all the Neon functions */
 #include "arm_compute/runtime/NEON/functions/NEAbsoluteDifference.h"
 #include "arm_compute/runtime/NEON/functions/NEAccumulate.h"
 #include "arm_compute/runtime/NEON/functions/NEActivationLayer.h"
index 13aa51f3d4258176181c329b958f76ddbdfe49aa..542142a30accd97fe0f55edfe35f56b37b9ffa33 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2019 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -28,7 +28,7 @@
 
 namespace arm_compute
 {
-/** NEON Scheduler */
+/** Neon Scheduler */
 using NEScheduler = Scheduler;
 }
 #endif /*ARM_COMPUTE_NESCHEDULER_H */
index 4b13d1f44e081579eed7e251eb15f2366417c382..8235185a8e0cd7021b689091920df68c28921352 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -37,7 +37,7 @@ class ITensor;
 /** Function to calculate the index of the minimum or maximum values in a
  *  tensor based on an axis.
  *
- *  This function calls the following NEON kernels:
+ *  This function calls the following Neon kernels:
  *
  * -# @ref NEReductionOperationKernel
  * -# @ref NEFillBorderKernel
index d65c2be885d8221ee156540677f4f749b3777dea..b45cf946e4bdd2610d4cfa6eab97dcf552e11ffe 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute box filter 3x3. This function calls the following NEON kernels:
+/** Basic function to execute box filter 3x3. This function calls the following Neon kernels:
  *
  *  -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  *  -# @ref NEBox3x3Kernel
index 7cdb8ee38e26be6f9db5a0655a404758614a7ac3..2d8bac1db94dd39d92a8647a608b2297261a7a7e 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -41,7 +41,7 @@ class NEFillBorderKernel;
 class NEEdgeNonMaxSuppressionKernel;
 class NEEdgeTraceKernel;
 
-/** Basic function to execute canny edge on NEON. This function calls the following NEON kernels and functions:
+/** Basic function to execute canny edge on Neon. This function calls the following Neon kernels and functions:
  *
  *  -# @ref NEFillBorderKernel (if border_mode == REPLICATE or border_mode == CONSTANT)
  *  -# @ref NESobel3x3 (if gradient_size == 3) or
index afd654a5953e2b9b2ae55001eaea098460b7654e..f2d7ae80907716380a5c794965f5df382fd12ed7 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -45,7 +45,7 @@ class NESeparableConvolutionHorKernel;
 template <unsigned int matrix_size>
 class NESeparableConvolutionVertKernel;
 
-/** Basic function to execute convolution of size 3x3. This function calls the following NEON kernels:
+/** Basic function to execute convolution of size 3x3. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEConvolution3x3Kernel
@@ -80,7 +80,7 @@ public:
     void configure(ITensor *input, ITensor *output, const int16_t *conv, uint32_t scale, BorderMode border_mode, uint8_t constant_border_value = 0);
 };
 
-/** Basic function to execute convolution of size 5x5, 7x7, 9x9. This function calls the following NEON kernels:
+/** Basic function to execute convolution of size 5x5, 7x7, 9x9. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEConvolutionKernel or<br/>
@@ -136,7 +136,7 @@ using NEConvolution7x7 = NEConvolutionSquare<7>;
 /** Basic function to run 9x9 convolution. */
 using NEConvolution9x9 = NEConvolutionSquare<9>;
 
-/** Basic function to execute non-square convolution. This function calls the following NEON kernels:
+/** Basic function to execute non-square convolution. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEConvolutionRectangleKernel or<br/>
index a061dc7b0457e0c4b1b1fa54ea24c2f97826115f..a387255b6c5be4f229ef8acaadd9940293f50df5 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -37,7 +37,7 @@ namespace arm_compute
 // Forward declarations
 class ITensor;
 
-/** Basic function to simulate a convolution layer. This function calls one of the following NEON functions:
+/** Basic function to simulate a convolution layer. This function calls one of the following Neon functions:
  * -# @ref NEGEMMConvolutionLayer     (executed only in case GEMM is required for the operation)
  * -# @ref NEWinogradConvolutionLayer (executed only in case Winograd is required for the operation)
  * -# @ref NEDirectConvolutionLayer   (executed only in case Direct Convolution is required for the operation)
@@ -158,4 +158,4 @@ private:
     std::unique_ptr<IFunction>      _function; /**< Function to run */
 };
 } // namespace arm_compute
-#endif /* ARM_COMPUTE_NECONVOLUTIONLAYER_H */
\ No newline at end of file
+#endif /* ARM_COMPUTE_NECONVOLUTIONLAYER_H */
index 97b1a47f64dbc466e9f5e4c4d70a8480dcb7d31e..02a0f784ecffa76cd089389fa549d8d28aece4a8 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -64,7 +64,7 @@ namespace arm_compute
  * The weights used by Deconvolution are supposed to be the same as the ones used for Convolution. Therefore, it will be necessary to use the weights in the
  * reverse order to perform an actual convolution. This is achieved by using @ref NEReverse.
  *
- * This function calls the following NEON kernels/functions:
+ * This function calls the following Neon kernels/functions:
  *
  * -# @ref CPPUpsample
  * -# @ref NEConvolutionLayer
index dc70aec7fffc43d61c4ccc7cf1e802c93cb8e443..98fffe0b33ce4c990cd11f544c24abe383b79968 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -110,7 +110,7 @@ private:
                                                                           const PadStrideInfo &conv_info, unsigned int depth_multiplier = 1,
                                                                           ActivationLayerInfo act_info = ActivationLayerInfo(), const Size2D &dilation = Size2D(1U, 1U));
 
-    /** Basic function to execute optimized depthwise convolution routines. This function calls the following NEON kernels:
+    /** Basic function to execute optimized depthwise convolution routines. This function calls the following Neon kernels:
     *
     * @note At the moment 3x3 and 5x5 convolution of stride 1, 2 are supported
     *
@@ -192,7 +192,7 @@ private:
         bool                                   _is_prepared;
     };
 
-    /** Basic function to execute a generic depthwise convolution. This function calls the following NEON kernel:
+    /** Basic function to execute a generic depthwise convolution. This function calls the following Neon kernel:
      *
      * -# @ref NEDepthwiseConvolutionLayerNativeKernel
      *
@@ -270,4 +270,4 @@ private:
     NEDepthwiseConvolutionLayerGeneric           _func_generic;
 };
 } // namespace arm_compute
-#endif /* ARM_COMPUTE_NEDEPTHWISECONVOLUTION_H */
\ No newline at end of file
+#endif /* ARM_COMPUTE_NEDEPTHWISECONVOLUTION_H */
index b14e38a23aee3296a38f9d650fe2a9374cf9b913..c1e110b55b39c53c38c8aa4d6cd2160f06a76508 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -35,7 +35,7 @@ class ITensor;
 class NEDerivativeKernel;
 class NEFillBorderKernel;
 
-/** Basic function to execute first order derivative operator. This function calls the following NEON kernels:
+/** Basic function to execute first order derivative operator. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEDerivativeKernel
index 1f2bcb50ea22959f6d4d2df13bf8c524736d6d03..6c119d0d754b62aeb8fa969bf36f1c21f9dca844 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute dilate. This function calls the following NEON kernels:
+/** Basic function to execute dilate. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEDilateKernel
index 5b6ed55be207b787234b0316c8cb958c3a4c5de3..ff0c3054d8bfea8610a84d2fcd13ef24e985d89b 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -41,7 +41,7 @@ class NEFillBorderKernel;
 
 /** Function to run the direct convolution.
  *
- *  This function calls the following NEON kernels:
+ *  This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel for the input
  * -# @ref NEDirectConvolutionLayerOutputStageKernel
index e81b4ce33ae3635891b699c38cb84c8317dd3415..5d5065181048d524a0c466e43d04205052c596d7 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -38,7 +38,7 @@ class NECumulativeDistributionKernel;
 class NETableLookupKernel;
 using IImage = ITensor;
 
-/** Basic function to execute histogram equalization. This function calls the following NEON kernels:
+/** Basic function to execute histogram equalization. This function calls the following Neon kernels:
  *
  * -# @ref NEHistogramKernel
  * -# @ref NECumulativeDistributionKernel
index b81da4e5b6c3a2a1a907f5a4da14066d5bdafc9d..461bc878c92ac6fc16f7e76a3b0fccda3f866e10 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute erode. This function calls the following NEON kernels:
+/** Basic function to execute erode. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEErodeKernel
index 4b6cc3fd18ad7cd5f513073397953491db3438c7..04e8f81b69b6d40664f00cb59fc6af6d40cd85e4 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -40,7 +40,7 @@ class NEFFTDigitReverseKernel;
 class NEFFTRadixStageKernel;
 class NEFFTScaleKernel;
 
-/** Basic function to execute one dimensional FFT. This function calls the following NEON kernels:
+/** Basic function to execute one dimensional FFT. This function calls the following Neon kernels:
  *
  * -# @ref NEFFTDigitReverseKernel Performs digit reverse
  * -# @ref NEFFTRadixStageKernel   A list of FFT kernels depending on the radix decomposition
index 18e72c1a2f76f1aee17a60f57d7cd5f03a96e625..218401b429ce1a7a22b369cca53066765f7f9569 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -36,7 +36,7 @@ namespace arm_compute
 // Forward declaration
 class ITensor;
 
-/** Basic function to execute two dimensional FFT. This function calls the following NEON kernels:
+/** Basic function to execute two dimensional FFT. This function calls the following Neon kernels:
  *
  * -# @ref NEFFT1D 1D FFT is performed on the first given axis
  * -# @ref NEFFT1D 1D FFT is performed on the second given axis
index b181e05c1ac749caceec2170ffe668af0e122876..8967363e7f59cb0247b50cf7b47df683f74956ef 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -43,7 +43,7 @@ namespace arm_compute
 // Forward declarations
 class ITensor;
 
-/** Basic function to execute FFT-based convolution on NEON. This function calls the following NEON functions/kernels:
+/** Basic function to execute FFT-based convolution on Neon. This function calls the following Neon functions/kernels:
  *
  *  -# @ref NEPermute                        Permute input if NHWC(only NCHW is supported).
  *  -# @ref NEPadLayer                       Pad input.
@@ -84,7 +84,7 @@ public:
      *                              Data types supported: Same as @p input.
      * @param[in]  conv_info        Contains padding and stride information described in @ref PadStrideInfo.
      * @param[in]  act_info         (Optional) Activation layer information in case of a fused activation.
-     * @param[in]  enable_fast_math (Optional) Enable fast math computation. Unused for NEON backend.
+     * @param[in]  enable_fast_math (Optional) Enable fast math computation. Unused for Neon backend.
      */
     void configure(ITensor *input, const ITensor *weights, const ITensor *biases, ITensor *output, const PadStrideInfo &conv_info,
                    const ActivationLayerInfo &act_info = ActivationLayerInfo(), bool enable_fast_math = false);
@@ -101,7 +101,7 @@ public:
      *                             Data types supported: Same as @p input.
      * @param[in] conv_info        Contains padding and stride information described in @ref PadStrideInfo.
      * @param[in] act_info         (Optional) Activation layer information in case of a fused activation.
-     * @param[in] enable_fast_math (Optional) Enable fast math computation. Unused for NEON backend.
+     * @param[in] enable_fast_math (Optional) Enable fast math computation. Unused for Neon backend.
      *
      * @return a status
      */
index e86a87eb7e14857ce4e8ff8f3186856e58bf0ea4..c66aeedccaf32ff73a97dc498e9e98ac24e4cca7 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -43,7 +43,7 @@ class NEFillBorderKernel;
 class NEFillArrayKernel;
 using IImage = ITensor;
 
-/** Basic function to execute fast corners. This function call the following NEON kernels:
+/** Basic function to execute fast corners. This function call the following Neon kernels:
  *
  * -# @ref NEFastCornersKernel
  * -# @ref NENonMaximaSuppression3x3Kernel (executed if nonmax_suppression == true)
index 4a192688c72bf62bf50521bc7e68c18bfad2fb45..ffea02670f9350011310cf3c1440351c4e5afdec 100644 (file)
@@ -36,7 +36,7 @@
 
 namespace arm_compute
 {
-/** Basic function to reshape the weights of Fully Connected layer with NEON. This function calls the following kernels:
+/** Basic function to reshape the weights of Fully Connected layer with Neon. This function calls the following kernels:
  *
  * @note  The fully connected layer accepts "weights" tensors only with 2 dimensions.
  */
@@ -111,7 +111,7 @@ private:
 };
 } // namespace weights_transformations
 
-/** Basic function to compute a Fully Connected layer on NEON. This function calls the following NEON kernels:
+/** Basic function to compute a Fully Connected layer on Neon. This function calls the following Neon kernels:
  *  -# @ref NEIm2ColKernel (called when the input comes from a convolutional layer)
  *  -# @ref NEFullyConnectedLayerReshapeWeights (if @p are_weights_reshaped is set to false and transpose_weights is set to true ) (called once)
  *  -# @ref NEGEMMMatrixMultiplyKernel or @ref NEGEMMLowpMatrixMultiplyCore (if quantized asymmetric)
index c67154c13a8cb95f12cb4294c900739381a355c1..6f7951eecec15e20cb60532102789d145fb87ce3 100644 (file)
@@ -43,7 +43,7 @@ class NEGEMMMatrixMultiplyKernel;
 class NEGEMMTranspose1xWKernel;
 class NEGEMMAssemblyDispatch;
 
-/** Basic function to execute GEMM on NEON. This function calls the following NEON kernels:
+/** Basic function to execute GEMM on Neon. This function calls the following Neon kernels:
  *
  * If optimized assembly is available:
  *  -# @ref NEGEMMAssemblyDispatch
index 2b3c162eab231ff40ad76d2f2d48f0777ba6e776..2bd233f520e3ccfbe7b82a35b5f5147cdd3736cb 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2020 Arm Limited.
+ * Copyright (c) 2020-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -38,7 +38,7 @@ namespace arm_compute
 class ITensor;
 class NEGEMMAssemblyDispatch;
 
-/** Basic function to compute the convolution layer. This function calls the following NEON kernels/functions:
+/** Basic function to compute the convolution layer. This function calls the following Neon kernels/functions:
  *
  * Supports only NHWC data layout
  *
index 65c2ef7e0b48f9330f3ec839e280f753b406d744..18ccc9f0150efb164b3f7a6ecb421a138da73527 100644 (file)
@@ -150,7 +150,7 @@ private:
 };
 } // namespace weights_transformations
 
-/** Basic function to compute the convolution layer. This function calls the following NEON kernels/functions:
+/** Basic function to compute the convolution layer. This function calls the following Neon kernels/functions:
  *
  * -# @ref NEIm2ColKernel
  * -# @ref NEGEMM (if the data type is BFLOAT16/FP16/FP32)
index 8eea9d7d248dd613f2e68ccb8886459f38d0459e..821b498dadd6040448e843605f1f931cf9311546 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -47,7 +47,7 @@ class NEGEMMLowpMatrixBReductionKernel;
 class NEGEMMTranspose1xWKernel;
 class NEGEMMAssemblyDispatch;
 
-/** Basic function to execute GEMMLowpMatrixMultiplyCore on NEON. This function calls the following NEON kernels if the DOT product instruction is not available:
+/** Basic function to execute GEMMLowpMatrixMultiplyCore on Neon. This function calls the following Neon kernels if the DOT product instruction is not available:
  *
  *  -# @ref NEGEMMInterleave4x4Kernel
  *  -# @ref NEGEMMTranspose1xWKernel
index 6977d27cb63f3d12f081a03826a27b4a895d3008..79b427ea6f993e788147ebaa020ba9b829938c4a 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -27,7 +27,7 @@
 #include "arm_compute/core/Types.h"
 #include "arm_compute/runtime/NEON/INESimpleFunctionNoBorder.h"
 
-/** This file contains all available output stages for GEMMLowp on NEON.
+/** This file contains all available output stages for GEMMLowp on Neon.
  *
  *  In gemmlowp, the "output stage" is the process that takes a final int32 accumulator value (the output of @ref NEGEMMLowpMatrixMultiplyCore),
  *  and processes it to obtain the final ASYMM8 value.
@@ -40,7 +40,7 @@ namespace arm_compute
 class ITensor;
 class ITensorInfo;
 
-/** Basic function to execute NEGEMMLowpQuantizeDownInt32ToUint8ScaleByFixedPoint on NEON.
+/** Basic function to execute NEGEMMLowpQuantizeDownInt32ToUint8ScaleByFixedPoint on Neon.
  *
  *  NEGEMMLowpQuantizeDownInt32ToUint8ScaleByFixedPoint depends on 3 parameters:
  *
@@ -61,7 +61,7 @@ class ITensorInfo;
  *
  * ((FixedPointMul(input[i][k] + bias[k], result_fixedpoint_multiplier)) >> result_shift) + result_offset_after_shift
  *
- *  This function calls the following NEON kernels:
+ *  This function calls the following Neon kernels:
  *
  * -# @ref NEGEMMLowpQuantizeDownInt32ToUint8ScaleByFixedPointKernel
  *
@@ -112,7 +112,7 @@ public:
      */
     static Status validate(const ITensorInfo *input, const ITensorInfo *bias, const ITensorInfo *output, int min = std::numeric_limits<int32_t>::lowest(), int max = std::numeric_limits<int32_t>::max());
 };
-/** Basic function to execute NEGEMMLowpQuantizeDownInt32ToInt8ScaleByFixedPoint on NEON.
+/** Basic function to execute NEGEMMLowpQuantizeDownInt32ToInt8ScaleByFixedPoint on Neon.
  *
  *  NEGEMMLowpQuantizeDownInt32ToInt8ScaleByFixedPoint depends on 3 parameters:
  *
@@ -133,7 +133,7 @@ public:
  *
  * ((FixedPointMul(input[i][k] + bias[k], result_fixedpoint_multiplier)) >> result_shift) + result_offset_after_shift
  *
- *  This function calls the following NEON kernels:
+ *  This function calls the following Neon kernels:
  *
  * -# @ref NEGEMMLowpQuantizeDownInt32ToInt8ScaleByFixedPointKernel
  *
@@ -184,7 +184,7 @@ public:
      */
     static Status validate(const ITensorInfo *input, const ITensorInfo *bias, const ITensorInfo *output, int min = std::numeric_limits<int32_t>::lowest(), int max = std::numeric_limits<int32_t>::max());
 };
-/** Basic function to execute NEGEMMLowpQuantizeDownInt32ToInt16ScaleByFixedPoint on NEON.
+/** Basic function to execute NEGEMMLowpQuantizeDownInt32ToInt16ScaleByFixedPoint on Neon.
  *
  *  NEGEMMLowpQuantizeDownInt32ToInt16ScaleByFixedPoint depends on 2 parameters:
  *
@@ -205,7 +205,7 @@ public:
  *
  * ((FixedPointMul(input[i][k] + bias[k], result_fixedpoint_multiplier)) >> result_shift) + result_offset_after_shift
  *
- *  This function calls the following NEON kernels:
+ *  This function calls the following Neon kernels:
  *
  * -# @ref NEGEMMLowpQuantizeDownInt32ToInt16ScaleByFixedPointKernel
  *
@@ -256,9 +256,9 @@ public:
     static Status validate(const ITensorInfo *input, const ITensorInfo *bias, const ITensorInfo *output, int min = std::numeric_limits<int32_t>::lowest(), int max = std::numeric_limits<int32_t>::max());
 };
 
-/** Basic function to execute GEMMLowpQuantizeDown kernels on NEON.
+/** Basic function to execute GEMMLowpQuantizeDown kernels on Neon.
  *
- *  This function calls the following NEON kernels:
+ *  This function calls the following Neon kernels:
  *
  * -# @ref NEGEMMLowpQuantizeDownInt32ScaleKernel
  * -# @ref NEGEMMLowpQuantizeDownInt32ToUint8ScaleByFixedPointKernel
index 9341c76d85b3ec23044bd3f319ee25206abd4be4..8edf558db84e1e3c5c4ca300c68f51a326b8169e 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute gaussian filter 3x3. This function calls the following NEON kernels:
+/** Basic function to execute gaussian filter 3x3. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEGaussian3x3Kernel
index 51ebee3e8e09376408b1452266420bec78674042..8ad9e9a7ed13bdfc739594337b288e74ea0d64ef 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -40,7 +40,7 @@ class NEGaussian5x5HorKernel;
 class NEGaussian5x5VertKernel;
 class NEFillBorderKernel;
 
-/** Basic function to execute gaussian filter 5x5. This function calls the following NEON kernels:
+/** Basic function to execute gaussian filter 5x5. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEGaussian5x5HorKernel
index f5a1272b53e908bb28e07cfda73e345cc1a0334f..76a277782d1aa497a56e90c3a79eed7bac4eee15 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -79,7 +79,7 @@ protected:
     Pyramid        _tmp;
 };
 
-/** Basic function to execute gaussian pyramid with HALF scale factor. This function calls the following NEON kernels:
+/** Basic function to execute gaussian pyramid with HALF scale factor. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEGaussianPyramidHorKernel
@@ -116,7 +116,7 @@ private:
     std::vector<std::unique_ptr<NEGaussianPyramidVertKernel>> _vertical_reduction;
 };
 
-/** Basic function to execute gaussian pyramid with ORB scale factor. This function calls the following NEON kernels and functions:
+/** Basic function to execute gaussian pyramid with ORB scale factor. This function calls the following Neon kernels and functions:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEGaussian5x5
index a2d42fedf8a30c16fa887436f9c0bf81fa955900..4f8d8a5f61cef88a5275be8ceaa62e0bb617ace9 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -38,7 +38,7 @@ class IHOG;
 class NEHOGOrientationBinningKernel;
 class NEHOGBlockNormalizationKernel;
 
-/** Basic function to calculate HOG descriptor. This function calls the following NEON kernels:
+/** Basic function to calculate HOG descriptor. This function calls the following Neon kernels:
  *
  * -# @ref NEHOGGradient
  * -# @ref NEHOGOrientationBinningKernel
index 644851ee92467849204563e2d41dc5f866a6ef10..aea1d9f7416e29e41304144ba5b1a1ea81d59bbd 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -32,7 +32,7 @@ namespace arm_compute
 {
 class ITensor;
 class ITensorInfo;
-/** Basic function to execute HOG detector based on linear SVM. This function calls the following NEON kernel:
+/** Basic function to execute HOG detector based on linear SVM. This function calls the following Neon kernel:
  *
  * -# @ref NEHOGDetectorKernel
  *
index 426bc4b23cd2ad611a222e757a5fce709882873c..16c1d24bcac311b3f5132729466a5d0ceaa1b2fb 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -39,7 +39,7 @@ namespace arm_compute
 class ITensor;
 class ICPPKernel;
 
-/** Basic function to calculate the gradient for HOG. This function calls the following NEON kernels:
+/** Basic function to calculate the gradient for HOG. This function calls the following Neon kernels:
  *
  * -# @ref NEDerivative
  * -# NEMagnitudePhaseKernel
index f370dd29ab89ac08e5fa2e84b4c46c003a7d4028..5b54d709e201a20625477518364ac8db494c8769 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -41,7 +41,7 @@ namespace arm_compute
 class NEHOGOrientationBinningKernel;
 class NEHOGBlockNormalizationKernel;
 
-/** Basic function to detect multiple objects (or the same object at different scales) on the same input image using HOG. This function calls the following NEON kernels:
+/** Basic function to detect multiple objects (or the same object at different scales) on the same input image using HOG. This function calls the following Neon kernels:
  *
  * -# @ref NEHOGGradient
  * -# @ref NEHOGOrientationBinningKernel
index 477b843aeef11459fb3ea34b641dc40bf75ede36..424d08573756d1e9db31790bf7d3dda139858328 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -44,7 +44,7 @@ class NEFillBorderKernel;
 class INEHarrisScoreKernel;
 using IImage = ITensor;
 
-/** Basic function to execute harris corners detection. This function calls the following NEON kernels and functions:
+/** Basic function to execute harris corners detection. This function calls the following Neon kernels and functions:
  *
  * -# @ref NESobel3x3 (if gradient_size == 3) or<br/>
  *    @ref NESobel5x5 (if gradient_size == 5) or<br/>
index a354a4df7b39a25818095bc094026c57c9d1aa84..a59dcf88cc5245daf1351946247192a0ab40ef13 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -47,7 +47,7 @@ class ITensor;
 
 /** Basic function to run @ref NELSTMLayerQuantized
  *
- * This function calls the following NEON functions/kernels:
+ * This function calls the following Neon functions/kernels:
  *
  * -# @ref NEGEMMLowpMatrixMultiplyCore                          Quantized matrix multiplication core. Accumulators are 32-bit integers
  * -# @ref NEGEMMLowpQuantizeDownInt32ToInt16ScaleByFixedPoint   Convert 32-bit integers into QSYMM16
index 9ca30141a675127ba3379f41ead936d161a0a14d..7c8f378d82390b8fa9ab67ed09e5ed1644a2c747 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -40,7 +40,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute laplacian pyramid. This function calls the following NEON kernels and functions:
+/** Basic function to execute laplacian pyramid. This function calls the following Neon kernels and functions:
  *
  * -# @ref NEGaussianPyramidHalf
  * -# @ref NEGaussian5x5
index 8e0a3efff01383b3b565b29f57743a620077fbfb..9397dd182856c646f3de6768e5d2e26023406b45 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -39,7 +39,7 @@ namespace arm_compute
 class ITensor;
 using IImage = ITensor;
 
-/** Basic function to execute laplacian reconstruction. This function calls the following NEON kernels and functions:
+/** Basic function to execute laplacian reconstruction. This function calls the following Neon kernels and functions:
  *
  * -# @ref NEArithmeticAddition
  * -# @ref NEScale
index 9626ca6f66534944edc4c8dd07c938befeff45dc..7b1f7e9ca1e1da9199abf5cc7f925e35a9d40e50 100644 (file)
@@ -35,7 +35,7 @@ class ITensorInfo;
 class NEFill;
 class NEMaxUnpoolingLayerKernel;
 
-/** Function to perform MaxUnpooling. This function calls the following NEON kernels:
+/** Function to perform MaxUnpooling. This function calls the following Neon kernels:
  *
  * -# @ref NEFill
  * -# @ref NEMaxUnpoolingLayerKernel
index 875c3630c187f9e5431c36bd3dbcce76d2ad8ba7..ce7bb8c5ee88472ad39abbc4b4e12063b6eace5e 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -36,7 +36,7 @@ namespace arm_compute
 class NEMeanStdDevKernel;
 class NEFillBorderKernel;
 
-/** Basic function to execute mean and std deviation. This function calls the following NEON kernels:
+/** Basic function to execute mean and std deviation. This function calls the following Neon kernels:
  *
  * @ref NEMeanStdDevKernel
  *
index 7e1ec905c65a33a6595fb8e07f5b672427ef68f1..90ee9ae5ef455dbf1d42e011e87d67adf72cf098 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute median filter. This function calls the following NEON kernels:
+/** Basic function to execute median filter. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEMedian3x3Kernel
index 312d1cb668c69697dd0cff1079d2b6b050673c45..e1f765ebd4d8930e954ea1843fe9d83516f09eed 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -38,7 +38,7 @@ class NEMinMaxKernel;
 class NEMinMaxLocationKernel;
 using IImage = ITensor;
 
-/** Basic function to execute min and max location. This function calls the following NEON kernels:
+/** Basic function to execute min and max location. This function calls the following Neon kernels:
  *
  * -# NEMinMaxKernel
  * -# NEMinMaxLocationKernel
index 86423507364b73795383b3b635d58838d11e6893..1cd523c4dd2e9efc4e6e5af15207e66609a4b21c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute non linear filter. This function calls the following NEON kernels:
+/** Basic function to execute non linear filter. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NENonLinearFilterKernel
index 5b71d52e3e5de4e277c855510c70d2fdf0c44b30..2fff72d2ed53345420346a7a3bd899bbc59dff03 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -31,7 +31,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute non-maxima suppression over a 3x3 window. This function calls the following NEON kernels:
+/** Basic function to execute non-maxima suppression over a 3x3 window. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NENonMaximaSuppression3x3Kernel
index 6519f9b4e6f70e7b8618988d6a8da06c44c6d819..fbc2f6f95b25dbaa65c2de5f9b6583904e116331 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -39,7 +39,7 @@ namespace arm_compute
 class ITensor;
 class NENormalizationLayerKernel;
 
-/** Basic function to compute a normalization layer. This function calls the following NEON kernels:
+/** Basic function to compute a normalization layer. This function calls the following Neon kernels:
  *
  * -# @ref NEPixelWiseMultiplication
  * -# @ref NEFillBorderKernel
index d1624ec68ac982dab4ce22c9f6262d2024f31853..34f466b81ce956ca93f34b98ecb5e02148b8ac09 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -45,7 +45,7 @@ class NELKTrackerKernel;
 
 /** Array of LK Internel Keypoints */
 using LKInternalKeypointArray = Array<NELKInternalKeypoint>;
-/** Basic function to execute optical flow. This function calls the following NEON kernels and functions:
+/** Basic function to execute optical flow. This function calls the following Neon kernels and functions:
  *
  * -# @ref NEScharr3x3
  * -# @ref NELKTrackerKernel
index ede97582025de321a84530e7d79ac46db976b787..242625604f17ccad66ad3f805a63f73a95d84732 100644 (file)
@@ -38,7 +38,7 @@ namespace arm_compute
 {
 class NEPadLayerKernel;
 
-/** Basic function to pad a tensor. This function calls the following NEON functions/kernels:
+/** Basic function to pad a tensor. This function calls the following Neon functions/kernels:
  *
  *  - For padding mode = PaddingMode::CONSTANT:
  *      -# @ref NEPadLayerKernel
index e2e50f464f28f2d256a5eb985fef2e1d5579f337..cf7e25213b02793096dfc780c9af0decf12133c2 100644 (file)
@@ -52,7 +52,7 @@ public:
     NEPermute &operator=(const NEPermute &) = delete;
     /** Default move assignment operator */
     NEPermute &operator=(NEPermute &&);
-    /** Configure the permute NEON kernel
+    /** Configure the permute Neon kernel
      *
      * @note Arbitrary permutation vectors are supported with rank not greater than 4
      *
index 91b3a709f41019212255b682f634b848d7a7acf8..e374348f983a89bd093bafc5503608fa0e6233e4 100644 (file)
@@ -36,7 +36,7 @@ namespace arm_compute
 class ITensor;
 class ITensorInfo;
 
-/** Basic function to simulate a pooling layer with the specified pooling operation. This function calls the following NEON kernels:
+/** Basic function to simulate a pooling layer with the specified pooling operation. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if padding size is different from zero)
  * -# @ref cpu::kernels::CpuPoolingKernel
index 743a32c47d0a05ce3b7df32ced6cfdb64c629204..954aceba1ab6268bb060f055107440ecdc8cb118 100644 (file)
@@ -47,7 +47,7 @@ class NEGEMMLowpMatrixAReductionKernel;
 
 /** Basic function to run @ref NEQLSTMLayer
  *
- * This function calls the following NEON functions/kernels:
+ * This function calls the following Neon functions/kernels:
  *
  * -# @ref NEActivationLayer                                     Activation functions (tanh and logistic)
  * -# @ref NEArithmeticAddition                                  Elementwise addition
index 36302f47416cdd9073e2d7af02ab6a5369a8c101..8b0532beea3dcc51e2344957c508e25dbccb1d89 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -35,7 +35,7 @@ namespace arm_compute
 class ITensor;
 class ITensorInfo;
 
-/** Basic function to simulate a quantization layer. This function calls the following NEON kernels:
+/** Basic function to simulate a quantization layer. This function calls the following Neon kernels:
  *
  *
  * -# @ref NEQuantizationLayerKernel
index ea3be18932dea691c6d63937e06f7a417cb31b0f..9d934588fb49de60dfd861dc503f8d7edd9bd935 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -34,7 +34,7 @@ class ITensorInfo;
 
 /** Basic function to run @ref NEROIAlignLayerKernel.
  *
- * This function calls the following NEON kernels:
+ * This function calls the following Neon kernels:
  * -# @ref NEROIAlignLayerKernel
  *
  */
index 0b9b4f75fcf6d82de5b47c244e2ef289b7e325c5..a912669f57c0616ae5249d67076a228348646244 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -37,7 +37,7 @@ class ROIPoolingLayerInfo;
 
 /** Basic function to run @ref NEROIPoolingLayerKernel.
  *
- * This function calls the following NEON kernels:
+ * This function calls the following Neon kernels:
  * -# @ref NEROIPoolingLayerKernel
  *
  */
index 8186e2e3553720945e52f1fc5dca4635e5a48b23..f30cc810f1fd6caf53426d1cb3993dce40023903 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -35,7 +35,7 @@ namespace arm_compute
 class ITensor;
 class NEReductionOperationKernel;
 
-/** Basic function to simulate a reduction operation. This function calls the following NEON kernels:
+/** Basic function to simulate a reduction operation. This function calls the following Neon kernels:
  *
  * -# @ref NEReshapeLayer
  * -# @ref NEReductionOperationKernel
index 86f366a69757c404bab310a5fac03bad588255bc..84d0f2ee920e72f8df241758a46ef937f72c5519 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -34,7 +34,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute remap. This function calls the following NEON kernels:
+/** Basic function to execute remap. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NERemapKernel
index 8dd8a80287be430e906ebaf99f024b5dbbb139b7..e5ed1c7c5a85b9e348e538d957661d0b1d9b77c5 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute scharr 3x3 filter. This function calls the following NEON kernels:
+/** Basic function to execute scharr 3x3 filter. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NEScharr3x3Kernel
index 89a2e07570687ceb7be7b9a1330015d768359cdb..bc5f5e45453bd0c08ac859889353c7550d9a894b 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Basic function to execute sobel 3x3 filter. This function calls the following NEON kernels:
+/** Basic function to execute sobel 3x3 filter. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NESobel3x3Kernel
index 79e653b3955c50e9fc7a87f8886106a0f1825d58..e64558c451a4db2a10c21601426da10dfe7283fa 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -40,7 +40,7 @@ class NESobel5x5HorKernel;
 class NESobel5x5VertKernel;
 class NEFillBorderKernel;
 
-/** Basic function to execute sobel 5x5 filter. This function calls the following NEON kernels:
+/** Basic function to execute sobel 5x5 filter. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NESobel5x5HorKernel
index 7395bb0198c4a31ede31d0183810eac437427a50..6419d67b5623bb17fdbb266cdc9159d2297fb36d 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -40,7 +40,7 @@ class NESobel7x7HorKernel;
 class NESobel7x7VertKernel;
 class NEFillBorderKernel;
 
-/** Basic function to execute sobel 7x7 filter. This function calls the following NEON kernels:
+/** Basic function to execute sobel 7x7 filter. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if border_mode == CONSTANT or border_mode == REPLICATE)
  * -# @ref NESobel7x7HorKernel
index 6a38dfba1e025b75e2c6047944cd69c17cdb3e6d..aeeaefcc38ab01da0fa08f770664f69ae3db501c 100644 (file)
@@ -36,7 +36,7 @@ class ITensorInfo;
 class NESpaceToBatchLayerKernel;
 class NEFill;
 
-/** Basic function to spatial divide a tensor. This function calls the following NEON kernels/functions:
+/** Basic function to spatial divide a tensor. This function calls the following Neon kernels/functions:
  *
  *  -# @ref NEFill
  *  -# @ref NESpaceToBatchLayerKernel
index 1e7aae215db8a481c5a57cdb3e72bc249796474f..d76fc48204823b45169ea9828b6b0e613f1a2204 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -35,7 +35,7 @@ class ITensor;
 class ITensorInfo;
 class NESpaceToDepthLayerKernel;
 
-/** This function calls the following NEON kernels/functions:
+/** This function calls the following Neon kernels/functions:
  *
  *  -# @ref NESpaceToDepthLayerKernel
  */
index 2651bdd7276038fa6238d8a2b5301bc457a46edf..fac1d406fbb55b80c4e65273ac1abf08bf907f3a 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -32,7 +32,7 @@ namespace arm_compute
 class ITensor;
 class ITensorInfo;
 
-/** Basic function to transpose a matrix on NEON. This function calls the following NEON kernel:
+/** Basic function to transpose a matrix on Neon. This function calls the following Neon kernel:
  *
  *  -# @ref NETransposeKernel
  *
index 6b61e7031b27d00ae3e00bf2859c6753693a548d..e41cdbd0acff1626ea132ca60c2c102618dcdbf4 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -42,7 +42,7 @@ namespace arm_compute
 class ITensor;
 class ICPPKernel;
 
-/** Basic function to simulate a convolution layer. This function calls the following NEON kernels:
+/** Basic function to simulate a convolution layer. This function calls the following Neon kernels:
  * -# @ref NEWinogradLayerTransformWeightsKernel (executed only once in the first call to the run() method )
  * -# @ref NEWinogradLayerTransformInputKernel
  * -# @ref NEWinogradLayerTransformOutputKernel
index 45824b1f4254ccbbffb31aa2b0a831587d1bb309..389757e9d9124bbf85fc86cab0efa9ed89f066d4 100644 (file)
@@ -27,12 +27,12 @@ namespace arm_compute
 
 @tableofcontents
 
-The Computer Vision and Machine Learning library is a set of functions optimised for both ARM CPUs and GPUs using SIMD technologies.
+The Computer Vision and Machine Learning library is a set of functions optimised for both Arm CPUs and GPUs using SIMD technologies.
 
 Several builds of the library are available using various configurations:
- - OS: Linux, Android, macOS or bare metal.
- - Architecture: armv7a (32bit) or arm64-v8a (64bit)
- - Technology: NEON / OpenCL / GLES_COMPUTE / NEON and OpenCL and GLES_COMPUTE
+ - OS: Android or Linux.
+ - Architecture: armv7a (32bit) or arm64-v8a (64bit).
+ - Technology: Neon / OpenCL / Neon and OpenCL.
  - Debug / Asserts / Release: Use a build with asserts enabled to debug your application and enable extra validation. Once you are sure your application works as expected you can switch to a release build of the library for maximum performance.
 
 @section S0_1_contact Contact / Support
@@ -161,11 +161,11 @@ v20.11 Public major release
    - @ref CLLogicalNot
    - @ref CLLogicalAnd
    - @ref CLLogicalOr
- - New NEON kernels / functions:
+ - New Neon kernels / functions:
    - @ref NELogicalNot
    - @ref NELogicalAnd
    - @ref NELogicalOr
- - Removed padding from NEON kernels:
+ - Removed padding from Neon kernels:
    - @ref NEComplexPixelWiseMultiplicationKernel
    - @ref NENonMaximaSuppression3x3Kernel
    - @ref NERemapKernel
@@ -315,7 +315,7 @@ v20.11 Public major release
      - CLWarpAffineKernel
      - CLWarpPerspective
      - CLWarpPerspectiveKernel
- - Deprecated NEON kernels / functions (If a kernel is used only by the function that is being deprecated, the kernel is deprecated together):
+ - Deprecated Neon kernels / functions (If a kernel is used only by the function that is being deprecated, the kernel is deprecated together):
      - NELocallyConnectedLayer
      - NELocallyConnectedMatrixMultiplyKernel
      - NEAbsoluteDifference
@@ -449,7 +449,7 @@ v20.08 Public major release
    - @ref CLScaleKernel
  - New OpenCL kernels / functions:
    - @ref CLMaxUnpoolingLayerKernel
- - New NEON kernels / functions:
+ - New Neon kernels / functions:
    - @ref NEMaxUnpoolingLayerKernel
  - New graph example:
    - graph_yolov3_output_detector
@@ -485,7 +485,7 @@ v20.08 Public major release
  - Removed OpenCL kernels / functions:
    - CLGEMMLowpQuantizeDownInt32ToUint8Scale
    - CLGEMMLowpQuantizeDownInt32ToUint8ScaleByFloat
- - Removed NEON kernels / functions:
+ - Removed Neon kernels / functions:
    - NEGEMMLowpQuantizeDownInt32ToUint8Scale
    - NEGEMMMatrixAccumulateBiasesKernel
  - Deprecated functions / interfaces:
@@ -551,7 +551,7 @@ v20.05 Public major release
  - New OpenCL kernels / functions:
      - @ref CLQLSTMLayer
      - @ref CLQLSTMLayerNormalizationKernel
- - New NEON kernels / functions:
+ - New Neon kernels / functions:
      - @ref NEQLSTMLayer
      - @ref NEQLSTMLayerNormalizationKernel
  - Added HARD_SWISH support in:
@@ -560,20 +560,20 @@ v20.05 Public major release
  - Deprecated OpenCL kernels / functions:
      - CLGEMMLowpQuantizeDownInt32ToUint8Scale
      - CLGEMMLowpQuantizeDownInt32ToUint8ScaleByFloat
- - Deprecated NEON kernels / functions:
+ - Deprecated Neon kernels / functions:
      - NEGEMMLowpQuantizeDownInt32ToUint8Scale
  - Removed CPP kernels / functions:
      - CPPFlipWeightsKernel
  - Removed PoolingLayerInfo constructors without Data Layout.
  - Removed CLDepthwiseConvolutionLayer3x3
  - Removed NEDepthwiseConvolutionLayerOptimized
- - Added support for Winograd 3x3,4x4 on NEON FP16:
+ - Added support for Winograd 3x3,4x4 on Neon FP16:
      - @ref NEWinogradConvolutionLayer
      - @ref NEWinogradLayerTransformInputKernel
      - @ref NEWinogradLayerTransformOutputKernel
      - @ref NEWinogradLayerTransformWeightsKernel
  - Added CLCompileContext
- - Added NEON GEMM kernel with 2D window support
+ - Added Neon GEMM kernel with 2D window support
 
 v20.02.1 Maintenance release
  - Added Android-NN build script.
@@ -611,14 +611,14 @@ v20.02 Public major release
  - New OpenCL kernels / functions:
      - @ref CLFill
      - CLGEMMLowpQuantizeDownInt32ToInt8ScaleByFixedPointKernel / @ref CLGEMMLowpQuantizeDownInt32ToInt8ScaleByFixedPoint
- - New NEON kernels / functions:
+ - New Neon kernels / functions:
      - @ref NEFill
      - @ref NEGEMMLowpQuantizeDownInt32ToInt8ScaleByFixedPointKernel / @ref NEGEMMLowpQuantizeDownInt32ToInt8ScaleByFixedPoint
- - Deprecated NEON functions / interfaces:
+ - Deprecated Neon functions / interfaces:
      - CLDepthwiseConvolutionLayer3x3
      - NEDepthwiseConvolutionLayerOptimized
      - PoolingLayerInfo constructors without Data Layout.
- - Added support for quantization with multiplier greater than 1 on NEON and CL.
+ - Added support for quantization with multiplier greater than 1 on Neon and CL.
  - Added support for quantized inputs of type QASYMM8_SIGNED and QASYMM8 to @ref CLQuantizationLayer.
  - Added the ability to build bootcode for bare metal.
  - Added support for generating synthetic QASYMM8 graphs.
@@ -643,7 +643,7 @@ v19.11 Public major release
     - CLDepthwiseSeparableConvolutionLayer
     - CLDepthwiseVectorToTensorKernel
     - CLDirectConvolutionLayerOutputStageKernel
- - Deprecated NEON kernels / functions:
+ - Deprecated Neon kernels / functions:
     - NEDepthwiseWeightsReshapeKernel
     - NEDepthwiseIm2ColKernel
     - NEDepthwiseSeparableConvolutionLayer
@@ -654,7 +654,7 @@ v19.11 Public major release
     - @ref CLDepthwiseConvolutionLayerNativeKernel to replace the old generic depthwise convolution (see Deprecated
       OpenCL kernels / functions)
     - @ref CLLogSoftmaxLayer
- - New NEON kernels / functions:
+ - New Neon kernels / functions:
     - @ref NEBoundingBoxTransformKernel / @ref NEBoundingBoxTransform
     - @ref NEComputeAllAnchorsKernel / NEComputeAllAnchors
     - @ref NEDetectionPostProcessLayer
@@ -693,8 +693,8 @@ v19.11 Public major release
  - Replaced the calls to CLCopyKernel and CLMemsetKernel with @ref CLPadLayer in @ref CLGenerateProposalsLayer.
  - Improved performance for CL Inception V3 - FP16.
  - Improved accuracy for CL Inception V3 - FP16 by enabling FP32 accumulator (mixed-precision).
- - Improved NEON performance by enabling fusing batch normalization with convolution and depth-wise convolution layer.
- - Improved NEON performance for MobileNet-SSD by improving the output detection performance.
+ - Improved Neon performance by enabling fusing batch normalization with convolution and depth-wise convolution layer.
+ - Improved Neon performance for MobileNet-SSD by improving the output detection performance.
  - Optimized @ref CLPadLayer.
  - Optimized CL generic depthwise convolution layer by introducing @ref CLDepthwiseConvolutionLayerNativeKernel.
  - Reduced memory consumption by implementing weights sharing.
@@ -710,7 +710,7 @@ v19.08.1 Public maintenance release
 v19.08 Public major release
  - Various bug fixes.
  - Various optimisations.
- - Deprecated NEON functions
+ - Deprecated Neon functions
     - NEDepthConcatenateLayer
     - NEWidthConcatenateLayer
  - Deprecated OpenCL kernels / functions
@@ -718,7 +718,7 @@ v19.08 Public major release
     - CLGEMMInterleave4x4Kernel / CLGEMMInterleave4x4
     - CLGEMMTranspose1xWKernel / CLGEMMTranspose1xW
     - CLWidthConcatenateLayer
- - New NEON kernels / functions:
+ - New Neon kernels / functions:
     - @ref NEAbsLayer
     - @ref NECast
     - @ref NEElementwisePower
@@ -757,15 +757,15 @@ v19.08 Public major release
  - Added support for REDUCE_MIN and REDUCE_MAX in @ref ReductionOperation
  - Enable the fusion of batch normalization with convolution and depthwise convolution layer for FP32 in the graph API (OpenCL only)
  - Added support for fusing activation function and broadcast addition with the matrix multiplication for FP32 (OpenCL only)
- - Re-factored the depthwise convolution layer kernel on NEON for generic cases
- - Added an optimized depthwise convolution layer kernel for 5x5 filters (NEON only)
+ - Re-factored the depthwise convolution layer kernel on Neon for generic cases
+ - Added an optimized depthwise convolution layer kernel for 5x5 filters (Neon only)
  - Added support to enable OpenCL kernel cache. Added example showing how to load the prebuilt OpenCL kernels from a binary cache file
  - Altered @ref QuantizationInfo interface to support per-channel quantization.
  - The CLDepthwiseConvolutionLayer3x3 will be included by @ref CLDepthwiseConvolutionLayer to accommodate for future optimizations.
  - The NEDepthwiseConvolutionLayerOptimized will be included by @ref NEDepthwiseConvolutionLayer to accommodate for future optimizations.
  - Removed inner_border_right and inner_border_top parameters from @ref CLDeconvolutionLayer interface
  - Removed inner_border_right and inner_border_top parameters from @ref NEDeconvolutionLayer interface
- - Optimized the NEON assembly kernel for GEMMLowp. The new implementation fuses the output stage and quantization with the matrix multiplication kernel
+ - Optimized the Neon assembly kernel for GEMMLowp. The new implementation fuses the output stage and quantization with the matrix multiplication kernel
 
 v19.05 Public major release
  - Various bug fixes.
@@ -822,7 +822,7 @@ v19.05 Public major release
  - Add support for QASYMM8 in NEArithmeticSubtractionKernel.
  - Add support for QASYMM8 in NEPixelWiseMultiplicationKernel.
  - Add support for QASYMM8 NEDeconvolution.
- - Add support for DequantizationLayer for NEON/CL.
+ - Add support for DequantizationLayer for Neon/CL.
  - Add support for dilation in CLDepthwiseConvolution.
  - Fuse offset contribution with the output stage when we use NEGEMMLowpMatrixMultiplyCore.
  - Optimize CLDeconvolution.
@@ -898,7 +898,7 @@ v19.02 Public major release
     - @ref NESoftmaxLayer
  - Fused activation in @ref CLWinogradConvolutionLayer
  - Extented @ref NEPermute to support more cases
- - Added NEON/SVE GEMM Hybrid kernels
+ - Added Neon/SVE GEMM Hybrid kernels
  - Added u8 and s8 hybrid assembly kernels
  - Introduced GEMM strategy name in NEGEMMAssemblyWrapper
  - Improved @ref CLTuner
@@ -1012,7 +1012,7 @@ v18.05 Public major release
  - Removed arm_compute::NEGEMMLowpAArch64A53Kernel / arm_compute::NEGEMMLowpAArch64Kernel / arm_compute::NEGEMMLowpAArch64V8P4Kernel / arm_compute::NEGEMMInterleavedBlockedKernel / arm_compute::NEGEMMLowpAssemblyMatrixMultiplyCore / arm_compute::NEHGEMMAArch64FP16Kernel
  - Added NEGEMMAssemblyWrapper and AssemblyKernelGlue which are used to execute assembly kernels in neon functions.
  - Minor changes to the CPUInfo type to make it compatible with the new assembly gemm interface.
- - Moved neon assembly kernels to the folder src/core/NEON/kernels/arm_gemm.
+ - Moved neon assembly kernels to the folder src/core/Neon/kernels/arm_gemm.
  - Improved doxygen documentation.
  - Improved memory management for layer's transitions.
  - Added support for NHWC data layout in tensors.
@@ -1043,7 +1043,7 @@ v18.05 Public major release
  - Port mobilenet example to NHWC data layout.
  - Enabled Winograd method in @ref CLConvolutionLayer.
  - Renamed NEWinogradLayer to @ref NEWinogradConvolutionLayer.
- - Updated @ref NEWinogradConvolutionLayer to use highly optimised assembly kernels in src/core/NEON/kernels/arm_gemm.
+ - Updated @ref NEWinogradConvolutionLayer to use highly optimised assembly kernels in src/core/Neon/kernels/arm_gemm.
  - Added memory manager support in GLES functions.
  - Major refactoring of the graph API.
  - Added GLES backend in the graph API.
@@ -1053,7 +1053,7 @@ v18.05 Public major release
  - Replaced NEDeconvolutionLayerUpsampleKernel with @ref NEScaleKernel in @ref NEDeconvolutionLayer.
  - Added fast maths flag in @ref CLConvolutionLayer.
  - Added new tests and benchmarks in validation and benchmark frameworks
- - Merge Activation layer with Convolution Layer (NEON. CL, GLES)
+ - Merge Activation layer with Convolution Layer (Neon. CL, GLES)
  - Added support to OpenCL 2.0 SVM
  - Added support to import memory in OpenCL tensors.
  - Added the prepare() method to perform any one off pre-processing before running the function.
@@ -1072,7 +1072,7 @@ v18.03 Public maintenance release
  - Renamed NEWinogradLayer.cpp to @ref NEWinogradConvolutionLayer
 
 v18.02 Public major release
- - Various NEON / OpenCL / GLES optimisations.
+ - Various Neon / OpenCL / GLES optimisations.
  - Various bug fixes.
  - Changed default number of threads on big LITTLE systems.
  - Refactored examples and added:
@@ -1097,7 +1097,7 @@ v18.02 Public major release
  - Added support for non-square pooling to @ref NEPoolingLayer and @ref CLPoolingLayer
  - New OpenCL kernels / functions:
     - CLDirectConvolutionLayerOutputStageKernel
- - New NEON kernels / functions
+ - New Neon kernels / functions
     - Added name() method to all kernels.
     - Added support for Winograd 5x5.
     - NEPermuteKernel / @ref NEPermute
@@ -1124,9 +1124,9 @@ v18.01 Public maintenance release
     - @ref GCGEMMInterleave4x4Kernel
     - @ref GCGEMMTranspose1xWKernel
     - @ref GCIm2ColKernel
- - Refactored NEON Winograd (NEWinogradLayerKernel)
+ - Refactored Neon Winograd (NEWinogradLayerKernel)
  - Added @ref NEDirectConvolutionLayerOutputStageKernel
- - Added QASYMM8 support to the following NEON kernels:
+ - Added QASYMM8 support to the following Neon kernels:
     - NEDepthwiseConvolutionLayer3x3Kernel
     - @ref NEFillBorderKernel
     - NEPoolingLayerKernel
@@ -1141,7 +1141,7 @@ v17.12 Public major release
  - Introduced logging interface
  - Introduced opencl timer
  - Reworked GEMMLowp interface
- - Added new NEON assembly kernels for GEMMLowp, SGEMM and HGEMM
+ - Added new Neon assembly kernels for GEMMLowp, SGEMM and HGEMM
  - Added validation method for most Machine Learning kernels / functions
  - Added new graph examples such as googlenet, mobilenet, squeezenet, vgg16 and vgg19
  - Added sgemm example for OpenCL
@@ -1168,7 +1168,7 @@ v17.12 Public major release
     - @ref GCLogits1DMaxKernel / @ref GCLogits1DShiftExpSumKernel / @ref GCLogits1DNormKernel / @ref GCSoftmaxLayer
     - @ref GCTransposeKernel / @ref GCTranspose
 
- - New NEON kernels / functions
+ - New Neon kernels / functions
     - arm_compute::NEGEMMLowpAArch64A53Kernel / arm_compute::NEGEMMLowpAArch64Kernel / arm_compute::NEGEMMLowpAArch64V8P4Kernel / arm_compute::NEGEMMInterleavedBlockedKernel / arm_compute::NEGEMMLowpAssemblyMatrixMultiplyCore
     - arm_compute::NEHGEMMAArch64FP16Kernel
     - NEDepthwiseConvolutionLayer3x3Kernel / NEDepthwiseIm2ColKernel / NEGEMMMatrixVectorMultiplyKernel / NEDepthwiseVectorToTensorKernel / @ref NEDepthwiseConvolutionLayer
@@ -1180,7 +1180,7 @@ v17.12 Public major release
     - @ref CLGEMMLowpOffsetContributionKernel / @ref CLGEMMLowpMatrixAReductionKernel / @ref CLGEMMLowpMatrixBReductionKernel / @ref CLGEMMLowpMatrixMultiplyCore
     - CLGEMMLowpQuantizeDownInt32ToUint8ScaleByFixedPointKernel / @ref CLGEMMLowpQuantizeDownInt32ToUint8ScaleByFixedPoint
 
- - New graph nodes for NEON and OpenCL
+ - New graph nodes for Neon and OpenCL
     - graph::BranchLayer
     - graph::DepthConvertLayer
     - graph::DepthwiseConvolutionLayer
@@ -1204,8 +1204,8 @@ v17.09 Public major release
  - Experimental Graph support: initial implementation of a simple stream API to easily chain machine learning layers.
  - Memory Manager (@ref BlobLifetimeManager, @ref BlobMemoryPool, @ref ILifetimeManager, @ref IMemoryGroup, @ref IMemoryManager, @ref IMemoryPool, @ref IPoolManager, @ref MemoryManagerOnDemand, @ref PoolManager)
  - New validation and benchmark frameworks (Boost and Google frameworks replaced by homemade framework).
- - Most machine learning functions support both fixed point 8 and 16 bit (QS8, QS16) for both NEON and OpenCL.
- - New NEON kernels / functions:
+ - Most machine learning functions support both fixed point 8 and 16 bit (QS8, QS16) for both Neon and OpenCL.
+ - New Neon kernels / functions:
     - arm_compute::NEGEMMAssemblyBaseKernel arm_compute::NEGEMMAArch64Kernel
     - @ref NEDequantizationLayerKernel / @ref NEDequantizationLayer
     - NEFloorKernel / @ref NEFloor
@@ -1231,12 +1231,12 @@ v17.09 Public major release
 
 v17.06 Public major release
  - Various bug fixes
- - Added support for fixed point 8 bit (QS8) to the various NEON machine learning kernels.
+ - Added support for fixed point 8 bit (QS8) to the various Neon machine learning kernels.
  - Added unit tests and benchmarks (AlexNet, LeNet)
  - Added support for sub tensors.
  - Added infrastructure to provide GPU specific optimisation for some OpenCL kernels.
- - Added @ref OMPScheduler (OpenMP) scheduler for NEON
- - Added @ref SingleThreadScheduler scheduler for NEON (For bare metal)
+ - Added @ref OMPScheduler (OpenMP) scheduler for Neon
+ - Added @ref SingleThreadScheduler scheduler for Neon (For bare metal)
  - User can specify his own scheduler by implementing the @ref IScheduler interface.
  - New OpenCL kernels / functions:
     - @ref CLBatchNormalizationLayerKernel / @ref CLBatchNormalizationLayer
@@ -1246,7 +1246,7 @@ v17.06 Public major release
     - @ref CLWeightsReshapeKernel / @ref CLConvolutionLayerReshapeWeights
  - New C++ kernels:
     - @ref CPPDetectionWindowNonMaximaSuppressionKernel
- - New NEON kernels / functions:
+ - New Neon kernels / functions:
     - @ref NEBatchNormalizationLayerKernel / @ref NEBatchNormalizationLayer
     - NEDepthConcatenateLayerKernel / NEDepthConcatenateLayer
     - @ref NEDirectConvolutionLayerKernel / @ref NEDirectConvolutionLayer
@@ -1284,11 +1284,11 @@ v17.04 Public bug fixes release
 
 v17.03.1 First Major public release of the sources
  - Renamed the library to arm_compute
- - New CPP target introduced for C++ kernels shared between NEON and CL functions.
+ - New CPP target introduced for C++ kernels shared between Neon and CL functions.
  - New padding calculation interface introduced and ported most kernels / functions to use it.
  - New OpenCL kernels / functions:
    - CLGEMMLowpMatrixMultiplyKernel / CLGEMMLowp
- - New NEON kernels / functions:
+ - New Neon kernels / functions:
    - @ref NENormalizationLayerKernel / @ref NENormalizationLayer
    - @ref NETransposeKernel / @ref NETranspose
    - NELogits1DMaxKernel, NELogits1DShiftExpSumKernel, NELogits1DNormKernel / @ref NESoftmaxLayer
@@ -1305,7 +1305,7 @@ v17.03 Sources preview
    - @ref CLLKTrackerInitKernel, @ref CLLKTrackerStage0Kernel, @ref CLLKTrackerStage1Kernel, @ref CLLKTrackerFinalizeKernel / @ref CLOpticalFlow
    - @ref CLNormalizationLayerKernel / @ref CLNormalizationLayer
    - @ref CLLaplacianPyramid, @ref CLLaplacianReconstruct
- - New NEON kernels / functions:
+ - New Neon kernels / functions:
    - NEActivationLayerKernel / @ref NEActivationLayer
    - GEMM refactoring + FP16 support (Requires armv8.2 CPU): @ref NEGEMMInterleave4x4Kernel, @ref NEGEMMTranspose1xWKernel, @ref NEGEMMMatrixMultiplyKernel, @ref NEGEMMMatrixAdditionKernel / @ref NEGEMM
    - NEPoolingLayerKernel / @ref NEPoolingLayer
@@ -1319,7 +1319,7 @@ v17.02.1 Sources preview
    - @ref CLGaussianPyramidHorKernel, @ref CLGaussianPyramidVertKernel / @ref CLGaussianPyramid, @ref CLGaussianPyramidHalf, @ref CLGaussianPyramidOrb
    - @ref CLMinMaxKernel, @ref CLMinMaxLocationKernel / @ref CLMinMaxLocation
    - @ref CLNonLinearFilterKernel / @ref CLNonLinearFilter
- - New NEON FP16 kernels (Requires armv8.2 CPU)
+ - New Neon FP16 kernels (Requires armv8.2 CPU)
    - @ref NEAccumulateWeightedFP16Kernel
    - @ref NEBox3x3FP16Kernel
    - @ref NENonMaximaSuppression3x3FP16Kernel
@@ -1331,7 +1331,7 @@ v17.02 Sources preview
    - @ref CLDerivativeKernel / @ref CLChannelExtract
    - @ref CLFastCornersKernel / @ref CLFastCorners
    - @ref CLMeanStdDevKernel / @ref CLMeanStdDev
- - New NEON kernels / functions:
+ - New Neon kernels / functions:
    - HOG / SVM: @ref NEHOGOrientationBinningKernel, @ref NEHOGBlockNormalizationKernel, @ref NEHOGDetectorKernel, NEHOGNonMaximaSuppressionKernel / @ref NEHOGDescriptor, @ref NEHOGDetector, @ref NEHOGGradient, @ref NEHOGMultiDetection
    - @ref NENonLinearFilterKernel / @ref NENonLinearFilter
  - Introduced a CLScheduler to manage the default context and command queue used by the runtime library and create synchronisation events.
@@ -1524,11 +1524,11 @@ To see the build options available simply run ```scons -h```:
 @b arch: The x86_32 and x86_64 targets can only be used with neon=0 and opencl=1.
 
 @b os: Choose the operating system you are targeting: Linux, Android or bare metal.
-@note bare metal can only be used for NEON (not OpenCL), only static libraries get built and NEON's multi-threading support is disabled.
+@note bare metal can only be used for Neon (not OpenCL), only static libraries get built and Neon's multi-threading support is disabled.
 
 @b build: you can either build directly on your device (native) or cross compile from your desktop machine (cross-compile). In both cases make sure the compiler is available in your path.
 
-@note If you want to natively compile for 32bit on a 64bit ARM device running a 64bit OS then you will have to use cross-compile too.
+@note If you want to natively compile for 32bit on a 64bit Arm device running a 64bit OS then you will have to use cross-compile too.
 
 There is also an 'embed_only' option which will generate all the .embed files for the OpenCL kernels and / or OpenGLES compute shaders. This might be useful if using a different build system to compile the library.
 
@@ -1536,7 +1536,7 @@ In addittion the option 'compress_kernels' will compress the embedded OpenCL ker
 
 @b Werror: If you are compiling using the same toolchains as the ones used in this guide then there shouldn't be any warning and therefore you should be able to keep Werror=1. If with a different compiler version the library fails to build because of warnings interpreted as errors then, if you are sure the warnings are not important, you might want to try to build with Werror=0 (But please do report the issue on Github).
 
-@b opencl / @b neon / @b gles_compute: Choose which SIMD technology you want to target. (NEON for ARM Cortex-A CPUs or OpenCL / GLES_COMPUTE for ARM Mali GPUs)
+@b opencl / @b neon / @b gles_compute: Choose which SIMD technology you want to target. (Neon for Arm Cortex-A CPUs or OpenCL / GLES_COMPUTE for Arm Mali GPUs)
 
 @b embed_kernels: For OpenCL / GLES_COMPUTE only: set embed_kernels=1 if you want the OpenCL / GLES_COMPUTE kernels to be built in the library's binaries instead of being read from separate ".cl" / ".cs" files. If embed_kernels is set to 0 then the application can set the path to the folder containing the OpenCL / GLES_COMPUTE kernel files by calling CLKernelLibrary::init() / GCKernelLibrary::init(). By default the path is set to "./cl_kernels" / "./cs_shaders".
 
@@ -1564,11 +1564,11 @@ Example:
 
 @b mali: Enable the collection of Mali hardware counters to measure execution time in benchmark tests. (Your device needs to have a Mali driver that supports it)
 
-@b openmp Build in the OpenMP scheduler for NEON.
+@b openmp Build in the OpenMP scheduler for Neon.
 
 @note Only works when building with g++ not clang++
 
-@b cppthreads Build in the C++11 scheduler for NEON.
+@b cppthreads Build in the C++11 scheduler for Neon.
 
 @sa Scheduler::set
 
@@ -1582,12 +1582,12 @@ In order to use this option, the external tests directory must have the followin
         â”‚   â”œâ”€â”€ CL
         â”‚   â”œâ”€â”€ datasets
         â”‚   â”œâ”€â”€ fixtures
-        â”‚   â””── NEON
+        â”‚   â””── Neon
         â””── validation
          Â Â  â”œâ”€â”€ CL
         Â  Â  â”œâ”€â”€ datasets
         Â  Â  â”œâ”€â”€ fixtures
-        Â  Â  â””── NEON
+        Â  Â  â””── Neon
 
 Then, build the library with `external_tests_dir=<PATH_TO_EXTERNAL_TESTS_DIR>`.
 
@@ -1600,7 +1600,7 @@ For Linux, the library was successfully built and tested using the following Lin
  - gcc-linaro-6.3.1-2017.05-x86_64_arm-linux-gnueabihf
  - gcc-linaro-6.3.1-2017.05-x86_64_aarch64-linux-gnu
 
-To cross-compile the library in debug mode, with NEON only support, for Linux 32bit:
+To cross-compile the library in debug mode, with Neon only support, for Linux 32bit:
 
        scons Werror=1 -j8 debug=1 neon=1 opencl=0 os=linux arch=armv7a
 
@@ -1612,12 +1612,12 @@ To cross-compile the library in asserts mode, with GLES_COMPUTE only support, fo
 
        scons Werror=1 -j8 debug=0 asserts=1 neon=0 opencl=0 gles_compute=1 embed_kernels=1 os=linux arch=arm64-v8a
 
-You can also compile the library natively on an ARM device by using <b>build=native</b>:
+You can also compile the library natively on an Arm device by using <b>build=native</b>:
 
        scons Werror=1 -j8 debug=0 neon=1 opencl=0 os=linux arch=arm64-v8a build=native
        scons Werror=1 -j8 debug=0 neon=1 opencl=0 os=linux arch=armv7a build=native
 
-@note g++ for ARM is mono-arch, therefore if you want to compile for Linux 32bit on a Linux 64bit platform you will have to use a cross compiler.
+@note g++ for Arm is mono-arch, therefore if you want to compile for Linux 32bit on a Linux 64bit platform you will have to use a cross compiler.
 
 For example on a 64bit Debian based system you would have to install <b>g++-arm-linux-gnueabihf</b>
 
@@ -1637,11 +1637,11 @@ The examples get automatically built by scons as part of the build process of th
 
 @note The following command lines assume the arm_compute libraries are present in the current directory or in the system library path. If this is not the case you can specify the location of the pre-built libraries with the compiler option -L. When building the OpenCL example the commands below assume that the CL headers are located in the include folder where the command is executed.
 
-To cross compile a NEON example for Linux 32bit:
+To cross compile a Neon example for Linux 32bit:
 
        arm-linux-gnueabihf-g++ examples/neon_convolution.cpp utils/Utils.cpp -I. -Iinclude -std=c++14 -mfpu=neon -L. -larm_compute -larm_compute_core -o neon_convolution
 
-To cross compile a NEON example for Linux 64bit:
+To cross compile a Neon example for Linux 64bit:
 
        aarch64-linux-gnu-g++ examples/neon_convolution.cpp utils/Utils.cpp -I. -Iinclude -std=c++14 -L. -larm_compute -larm_compute_core -o neon_convolution
 
@@ -1679,21 +1679,21 @@ i.e. to cross compile the "graph_lenet" example for Linux 64bit:
 
 @note If compiling using static libraries, this order must be followed when linking: arm_compute_graph_static, arm_compute, arm_compute_core
 
-To compile natively (i.e directly on an ARM device) for NEON for Linux 32bit:
+To compile natively (i.e directly on an Arm device) for Neon for Linux 32bit:
 
        g++ examples/neon_convolution.cpp utils/Utils.cpp -I. -Iinclude -std=c++14 -mfpu=neon -larm_compute -larm_compute_core -o neon_convolution
 
-To compile natively (i.e directly on an ARM device) for NEON for Linux 64bit:
+To compile natively (i.e directly on an Arm device) for Neon for Linux 64bit:
 
        g++ examples/neon_convolution.cpp utils/Utils.cpp -I. -Iinclude -std=c++14 -larm_compute -larm_compute_core -o neon_convolution
 
 (notice the only difference with the 32 bit command is that we don't need the -mfpu option)
 
-To compile natively (i.e directly on an ARM device) for OpenCL for Linux 32bit or Linux 64bit:
+To compile natively (i.e directly on an Arm device) for OpenCL for Linux 32bit or Linux 64bit:
 
        g++ examples/cl_convolution.cpp utils/Utils.cpp -I. -Iinclude -std=c++14 -larm_compute -larm_compute_core -o cl_convolution -DARM_COMPUTE_CL
 
-To compile natively (i.e directly on an ARM device) for GLES for Linux 32bit or Linux 64bit:
+To compile natively (i.e directly on an Arm device) for GLES for Linux 32bit or Linux 64bit:
 
        g++ examples/gc_absdiff.cpp utils/Utils.cpp -I. -Iinclude/ -L. -larm_compute -larm_compute_core -std=c++14 -DARM_COMPUTE_GC -Iinclude/linux/ -o gc_absdiff
 
@@ -1768,7 +1768,7 @@ Here is a guide to <a href="https://developer.android.com/ndk/guides/standalone_
 
 @subsubsection S3_3_1_library How to build the library ?
 
-To cross-compile the library in debug mode, with NEON only support, for Android 32bit:
+To cross-compile the library in debug mode, with Neon only support, for Android 32bit:
 
        CXX=clang++ CC=clang scons Werror=1 -j8 debug=1 neon=1 opencl=0 os=android arch=armv7a
 
@@ -1788,7 +1788,7 @@ The examples get automatically built by scons as part of the build process of th
 
 Once you've got your Android standalone toolchain built and added to your path you can do the following:
 
-To cross compile a NEON example:
+To cross compile a Neon example:
 
        #32 bit:
        arm-linux-androideabi-clang++ examples/neon_convolution.cpp utils/Utils.cpp -I. -Iinclude -std=c++14 -larm_compute-static -larm_compute_core-static -L. -o neon_convolution_arm -static-libstdc++ -pie
@@ -1850,7 +1850,7 @@ And finally to run the example:
 For example:
        adb shell /data/local/tmp/graph_lenet --help
 
-In this case the first argument of LeNet (like all the graph examples) is the target (i.e 0 to run on NEON, 1 to run on OpenCL if available, 2 to run on OpenCL using the CLTuner), the second argument is the path to the folder containing the npy files for the weights and finally the third argument is the number of batches to run.
+In this case the first argument of LeNet (like all the graph examples) is the target (i.e 0 to run on Neon, 1 to run on OpenCL if available, 2 to run on OpenCL using the CLTuner), the second argument is the path to the folder containing the npy files for the weights and finally the third argument is the number of batches to run.
 
 @subsection S3_4_macos Building for macOS
 
@@ -1874,7 +1874,7 @@ Download linaro for <a href="https://releases.linaro.org/components/toolchain/bi
 
 @subsubsection S3_5_1_library How to build the library ?
 
-To cross-compile the library with NEON support for baremetal arm64-v8a:
+To cross-compile the library with Neon support for baremetal arm64-v8a:
 
        scons Werror=1 -j8 debug=0 neon=1 opencl=0 os=bare_metal arch=arm64-v8a build=cross_compile cppthreads=0 openmp=0 standalone=1
 
index 742a2465823ae6d32b1fa5837eaa7cef18a9e8b6..848b060e9f081053b9eb2771d406f50d98042dd6 100644 (file)
@@ -38,10 +38,10 @@ The Core library is a low level collection of algorithms implementations, it is
 The Runtime library is a very basic wrapper around the Core library which can be used for quick prototyping, it is basic in the sense that:
 
 - It allocates images and tensors by using standard malloc().
-- It multi-threads NEON code in a very basic way using a very simple pool of threads.
+- It multi-threads Neon code in a very basic way using a very simple pool of threads.
 - For OpenCL it uses the default CLScheduler command queue for all mapping operations and kernels.
 
-For maximum performance, it is expected that the users would re-implement an equivalent to the runtime library which suits better their needs (With a more clever multi-threading strategy, load-balancing between NEON and OpenCL, etc.)
+For maximum performance, it is expected that the users would re-implement an equivalent to the runtime library which suits better their needs (With a more clever multi-threading strategy, load-balancing between Neon and OpenCL, etc.)
 
 @section S4_1_2 Data-type and Data-layout support
 
@@ -62,7 +62,7 @@ where N = batches, C = channels, H = height, W = width
 @section S4_1_3 Fast-math support
 
 Compute Library supports different types of convolution methods, fast-math flag is only used for the Winograd algorithm.
-When the fast-math flag is enabled, both NEON and CL convolution layers will try to dispatch the fastest implementation available, which may introduce a drop in accuracy as well. The different scenarios involving the fast-math flag are presented below:
+When the fast-math flag is enabled, both Neon and CL convolution layers will try to dispatch the fastest implementation available, which may introduce a drop in accuracy as well. The different scenarios involving the fast-math flag are presented below:
 - For FP32:
     - no-fast-math: Only supports Winograd 3x3,3x1,1x3,5x1,1x5,7x1,1x7
     - fast-math: Supports Winograd 3x3,3x1,1x3,5x1,1x5,7x1,1x7,5x5,7x7
@@ -116,7 +116,7 @@ kernel.run( q, max_window ); // Enqueue the kernel to process the full window on
 q.finish();
 @endcode
 
-NEON / CPP kernels:
+Neon / CPP kernels:
 
 @code{.cpp}
 //Create a kernel object:
@@ -131,7 +131,7 @@ kernel.run( max_window ); // Run the kernel on the full window
 
 @subsection S4_2_3 Multi-threading
 
-The previous section shows how to run a NEON / CPP kernel in the current thread, however if your system has several CPU cores, you will probably want the kernel to use several cores. Here is how this can be done:
+The previous section shows how to run a Neon / CPP kernel in the current thread, however if your system has several CPU cores, you will probably want the kernel to use several cores. Here is how this can be done:
 
 @code{.cpp}
     ThreadInfo info;
@@ -181,7 +181,7 @@ The previous section shows how to run a NEON / CPP kernel in the current thread,
     }
 @endcode
 
-This is a very basic implementation which was originally used in the NEON runtime library by all the NEON functions.
+This is a very basic implementation which was originally used in the Neon runtime library by all the Neon functions.
 
 @sa CPPScheduler
 
@@ -228,11 +228,11 @@ In order to block until all the jobs in the CLScheduler's command queue are done
 For example:
 @snippet cl_events.cpp OpenCL events
 
-@subsection S4_4_2_cl_neon OpenCL / NEON interoperability
+@subsection S4_4_2_cl_neon OpenCL / Neon interoperability
 
-You can mix OpenCL and NEON kernels and functions. However it is the user's responsibility to handle the mapping/unmapping of OpenCL objects, for example:
+You can mix OpenCL and Neon kernels and functions. However it is the user's responsibility to handle the mapping/unmapping of OpenCL objects, for example:
 
-@snippet neoncl_scale_median_gaussian.cpp NEON / OpenCL Interop
+@snippet neoncl_scale_median_gaussian.cpp Neon / OpenCL Interop
 
 @sa main_neoncl_scale_median_gaussian
 
@@ -256,7 +256,7 @@ You have 3 types of @ref BorderMode :
 - @ref BorderMode::REPLICATE : Neighbor pixels outside of the image are treated as having the same value as the closest valid pixel.
 - @ref BorderMode::CONSTANT : Neighbor pixels outside of the image are treated as having the same constant value. (The user can choose what this value should be).
 
-Moreover both OpenCL and NEON use vector loads and stores instructions to access the data in buffers, so in order to avoid having special cases to handle for the borders all the images and tensors used in this library must be padded.
+Moreover both OpenCL and Neon use vector loads and stores instructions to access the data in buffers, so in order to avoid having special cases to handle for the borders all the images and tensors used in this library must be padded.
 
 @subsubsection padding Padding
 
@@ -483,7 +483,7 @@ conv2.run();
 
 The implemented @ref TensorAllocator and @ref CLTensorAllocator objects provide an interface capable of importing existing memory to a tensor as backing memory.
 
-A simple NEON example can be the following:
+A simple Neon example can be the following:
 @code{.cpp}
 // External backing memory
 void* external_ptr = ...;
@@ -550,6 +550,6 @@ Consequently, this will allow finer control of these services among pipelines wh
 This feature introduces some changes to our API.
 All the kernels/functions will now accept a Runtime Context object which will allow the function to use the mentioned services.
 
-Finally, we will try to adapt our code-base progressively to use the new mechanism but will continue supporting the legacy mechanism to allow a smooth transition. Changes will apply to all our three backends: NEON, OpenCL and OpenGL ES.
+Finally, we will try to adapt our code-base progressively to use the new mechanism but will continue supporting the legacy mechanism to allow a smooth transition. Changes will apply to all our three backends: Neon, OpenCL and OpenGL ES.
 */
 } // namespace arm_compute
index c46e1f5663d8a93577c72c6e1746ee55488794af..0aee8e59d879bda73077b52c310d470536179260 100644 (file)
@@ -371,7 +371,7 @@ To run the OpenCL precommit validation tests:
 
        LD_LIBRARY_PATH=. ./arm_compute_validation --mode=precommit --filter="^CL.*"
 
-To run the NEON precommit benchmark tests with PMU and Wall Clock timer in miliseconds instruments enabled:
+To run the Neon precommit benchmark tests with PMU and Wall Clock timer in miliseconds instruments enabled:
 
        LD_LIBRARY_PATH=. ./arm_compute_benchmark --mode=precommit --filter="^NEON.*" --instruments="pmu,wall_clock_timer_ms" --iterations=10
 
index f311fb4d510aa425cb3c6e0cc65581beb18c05c9..1b4b5759644327b09298a9af79b457973121381c 100644 (file)
@@ -71,12 +71,12 @@ Similarly, all common functions that process shapes, like calculating output sha
 
 
 @subsection S4_1_2_add_kernel Add a kernel
-As we mentioned at the beginning, the kernel is the implementation of the operator or algorithm partially using a specific programming language related to the backend we want to use. Adding a kernel in the library means implementing the algorithm in a SIMD technology like NEON or OpenCL. All kernels in Compute Library must implement a common interface IKernel or one of the specific subinterfaces.
+As we mentioned at the beginning, the kernel is the implementation of the operator or algorithm partially using a specific programming language related to the backend we want to use. Adding a kernel in the library means implementing the algorithm in a SIMD technology like Neon or OpenCL. All kernels in Compute Library must implement a common interface IKernel or one of the specific subinterfaces.
 IKernel is the common interface for all the kernels in the core library, it contains the main methods for configure and run the kernel itself, such as window()  that return the maximum window the kernel can be executed on or is_parallelisable() for indicate whether or not the kernel is parallelizable. If the kernel is parallelizable then the window returned by the window() method can be split into sub-windows which can then be run in parallel, in the other case, only the window returned by window() can be passed to the run method.
 There are specific interfaces for OpenCL and Neon: @ref ICLKernel, INEKernel (using INEKernel = @ref ICPPKernel).
 
 - @ref ICLKernel is the common interface for all the OpenCL kernels. It implements the inherited methods and adds all the methods necessary to configure the CL kernel, such as set/return the Local-Workgroup-Size hint, add single, array or tensor argument, set the targeted GPU architecture according to the CL device. All these methods are used during the configuration and the run of the operator.
-- INEKernel inherits from @ref IKernel as well and it's the common interface for all kernels implemented in NEON, it adds just the run and the name methods.
+- INEKernel inherits from @ref IKernel as well and it's the common interface for all kernels implemented in Neon, it adds just the run and the name methods.
 
 There are two others implementation of @ref IKernel called @ref ICLSimpleKernel and INESimpleKernel, they are the interface for simple kernels that have just one input tensor and one output tensor.
 Creating a new kernel implies adding new files:
@@ -120,10 +120,10 @@ For OpenCL:
 @snippet src/core/gpu/cl/kernels/ClReshapeKernel.cpp ClReshapeKernel Kernel
 The run will call the function defined in the .cl file.
 
-For the NEON backend case:
+For the Neon backend case:
 @snippet src/core/cpu/kernels/CpuReshapeKernel.cpp NEReshapeLayerKernel Kernel
 
-In the NEON case, there is no need to add an extra file and we implement the kernel in the same NEReshapeLayerKernel.cpp file.
+In the Neon case, there is no need to add an extra file and we implement the kernel in the same NEReshapeLayerKernel.cpp file.
 If the tests are already in place, the new kernel can be tested using the existing tests by adding the configure and run of the kernel to the compute_target() in the fixture.
 
 
@@ -137,13 +137,13 @@ If the tests are already in place, the new kernel can be tested using the existi
 - (sub[n].start() - max[n].start()) % max[n].step() == 0
 - (sub[n].end() - sub[n].start()) % max[n].step() == 0
 
-@ref CPPScheduler::schedule provides a sample implementation that is used for NEON kernels.
-%Memory management is the other aspect that the runtime layer is supposed to handle. %Memory management of the tensors is abstracted using TensorAllocator. Each tensor holds a pointer to a TensorAllocator object, which is used to allocate and free the memory at runtime. The implementation that is currently supported in Compute Library allows memory blocks, required to be fulfilled for a given operator, to be grouped together under a @ref MemoryGroup. Each group can be acquired and released. The underlying implementation of memory groups vary depending on whether NEON or CL is used. The memory group class uses memory pool to provide the required memory. It also uses the memory manager to manage the lifetime and a IPoolManager to manage the memory pools registered with the memory manager.
+@ref CPPScheduler::schedule provides a sample implementation that is used for Neon kernels.
+%Memory management is the other aspect that the runtime layer is supposed to handle. %Memory management of the tensors is abstracted using TensorAllocator. Each tensor holds a pointer to a TensorAllocator object, which is used to allocate and free the memory at runtime. The implementation that is currently supported in Compute Library allows memory blocks, required to be fulfilled for a given operator, to be grouped together under a @ref MemoryGroup. Each group can be acquired and released. The underlying implementation of memory groups vary depending on whether Neon or CL is used. The memory group class uses memory pool to provide the required memory. It also uses the memory manager to manage the lifetime and a IPoolManager to manage the memory pools registered with the memory manager.
 
 
 We have seen the various interfaces for a kernel in the core library, the same structure the same file structure design exists in the runtime module. IFunction is the base class for all the functions, it has two child interfaces: ICLSimpleFunction and INESimpleFunction that are used as base class for functions which call a single kernel.
 
-The new operator has to implement %validate(), configure() and run(), these methods will call the respective function in the kernel considering that the multi-threading is used for the kernels which are parallelizable, by default std::thread::hardware_concurrency() threads are used. For NEON function can be used CPPScheduler::set_num_threads() to manually set the number of threads, whereas for OpenCL kernels all the kernels are enqueued on the queue associated with CLScheduler and the queue is then flushed.
+The new operator has to implement %validate(), configure() and run(), these methods will call the respective function in the kernel considering that the multi-threading is used for the kernels which are parallelizable, by default std::thread::hardware_concurrency() threads are used. For Neon function can be used CPPScheduler::set_num_threads() to manually set the number of threads, whereas for OpenCL kernels all the kernels are enqueued on the queue associated with CLScheduler and the queue is then flushed.
 For the runtime functions, there is an extra method implemented: prepare(), this method prepares the function for the run, it does all the heavy operations that are done only once (reshape the weight, release the memory not necessary after the reshape, etc). The prepare method can be called standalone or in the first run, if not called before, after then the function will be marked as prepared.
 The files we add are:
 
@@ -214,7 +214,7 @@ void CLAddReshapeLayer::run()
 
 @endcode
 
-For NEON:
+For Neon:
 
 @code{.cpp}
 using namespace arm_compute;
index 61712a29f52f39c2cdc09e4423444f3374a2db9e..96dce94a8916dcea09b73861a30742a1c1b99f7a 100644 (file)
@@ -29,7 +29,7 @@ namespace arm_compute
 
 @tableofcontents
 
-@section S6_1 NEON functions
+@section S6_1 Neon functions
 
 - @ref IFunction
     - @ref INESimpleFunction
index 994b8c5bd74e5e737aab965e596595075b0528d8..7436f14bbc085420d3a4a6affa20c38ce892c58e 100644 (file)
@@ -42,7 +42,7 @@ namespace arm_compute
         - Mali DDK r1p0 - r8p0, and
         - Linux kernel >= 4.4
 
-- On Android with arm64-v8a/arm64-v8.2-a architecture, NEON validation tests can fail when compiled using Android Ndk
+- On Android with arm64-v8a/arm64-v8.2-a architecture, Neon validation tests can fail when compiled using Android Ndk
   >= r18b in debug mode (https://github.com/android/ndk/issues/1135).
     - Versions Affected: >= v19.11
     - OSs Affected: Android
index 7733e531cd5f7399f4c08177914e89457c5c6aaa..8b77ed4f0207cb554564bccedc5882fc53c4077e 100644 (file)
  */
 
 /** @dir src/core/NEON
- *  @brief NEON backend core: kernels and utilities.
+ *  @brief Neon backend core: kernels and utilities.
  */
 
 /** @file src/core/NEON/NEKernels.h
- *  @brief Includes all the NEON kernels at once
+ *  @brief Includes all the Neon kernels at once
  */
 
 /** @dir src/core/NEON/kernels
- *  @brief Folder containing all the NEON kernels
+ *  @brief Folder containing all the Neon kernels
  */
 
 /** @dir arm_compute/core/utils
  */
 
 /** @dir arm_compute/graph/backends/NEON
- *  @brief NEON specific operations
+ *  @brief Neon specific operations
  */
 
 /** @dir arm_compute/graph/detail
  */
 
 /** @file arm_compute/runtime/CPP/CPPScheduler.h
- *  @brief Basic pool of threads to execute CPP/NEON code on several cores in parallel.
+ *  @brief Basic pool of threads to execute CPP/Neon code on several cores in parallel.
  */
 
 /** @dir arm_compute/runtime/CPP/functions
  */
 
 /** @dir arm_compute/runtime/NEON
- *  @brief NEON backend runtime interface.
+ *  @brief Neon backend runtime interface.
  */
 
 /** @file arm_compute/runtime/NEON/NEFunctions.h
- *  @brief Includes all the NEON functions at once.
+ *  @brief Includes all the Neon functions at once.
  */
 
 /** @dir arm_compute/runtime/NEON/functions
- *  @brief Folder containing all the NEON functions.
+ *  @brief Folder containing all the Neon functions.
  */
 
 /** @dir arm_compute/runtime/OMP
  *  -# cl_*.cpp --> OpenCL examples
  *  -# gc_*.cpp --> GLES compute shaders examples
  *  -# graph_*.cpp --> Graph examples
- *  -# neoncl_*.cpp --> NEON / OpenCL interoperability examples
- *  -# neon_*.cpp --> NEON examples
+ *  -# neoncl_*.cpp --> Neon / OpenCL interoperability examples
+ *  -# neon_*.cpp --> Neon examples
  */
 
 /** @dir examples/gemm_tuner
  */
 
 /** @dir src/core/NEON/wrapper
- *  @brief NEON wrapper used to simplify code
+ *  @brief Neon wrapper used to simplify code
  */
 
 /** @file src/core/NEON/wrapper/traits.h
- *  @brief Traits defined on NEON vectors
+ *  @brief Traits defined on Neon vectors
  */
 
 /** @file src/core/NEON/wrapper/wrapper.h
  */
 
 /** @dir src/core/NEON/wrapper/intrinsics
- *  @brief NEON intrinsics wrappers
+ *  @brief Neon intrinsics wrappers
  */
 
 /** @dir src/core/NEON/wrapper/scalar
  */
 
 /** @dir tests/NEON
- *  @brief NEON accessors.
+ *  @brief Neon accessors.
  */
 
 /** @dir tests/benchmark
  */
 
 /** @dir tests/benchmark/NEON
- *  @brief NEON benchmarking tests.
+ *  @brief Neon benchmarking tests.
  */
 
 /** @dir tests/benchmark_examples
  */
 
 /** @dir tests/validation/NEON
- *  @brief NEON validation tests.
+ *  @brief Neon validation tests.
  */
 
 /** @dir tests/validation/reference
index 339c8c1a811db5cff4bf47f545f5ee206d4d015b..11bb0884bddf3e5c16c54e8dcd33c4cce7637d20 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -257,7 +257,7 @@ private:
     Tensor out_fc0{};
     Tensor out_softmax{};
 
-    // NEON allocator
+    // Neon allocator
     Allocator allocator{};
 
     // Memory groups
index 2fbc128cdd79b934e1ff6a8886185cec040ee49c..824e419cf726600c867f1b5ace57c2742f0da344 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2018 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -140,7 +140,7 @@ public:
     }
     void do_run() override
     {
-        // Run NEON softmax:
+        // Run Neon softmax:
         softmax.run();
     }
     void do_teardown() override
index 948aff23bb0748781ec830742cdab00687e0faf0..2580a35f24688f145e6e6112f385522550a0d9ac 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -36,7 +36,7 @@
 using namespace arm_compute;
 using namespace utils;
 
-/** Example demonstrating how to use both CL and NEON functions in the same pipeline
+/** Example demonstrating how to use both CL and Neon functions in the same pipeline
  *
  * @param[in] argc Number of arguments
  * @param[in] argv Arguments ( [optional] Path to PPM image to process )
@@ -46,7 +46,7 @@ class NEONCLScaleMedianGaussianExample : public Example
 public:
     bool do_setup(int argc, char **argv) override
     {
-        /** [NEON / OpenCL Interop] */
+        /** [Neon / OpenCL Interop] */
         PPMLoader ppm;
 
         CLScheduler::get().default_init();
@@ -88,7 +88,7 @@ public:
             ppm.fill_image(src);
             const std::string output_filename = std::string(argv[1]) + "_out.ppm";
         }
-        /** [NEON / OpenCL Interop] */
+        /** [Neon / OpenCL Interop] */
 
         return true;
     }
@@ -97,11 +97,11 @@ public:
         // Enqueue and flush the OpenCL kernel:
         scale.run();
 
-        // Do a blocking map of the input and output buffers of the NEON function:
+        // Do a blocking map of the input and output buffers of the Neon function:
         scale_median.map();
         median_gauss.map();
 
-        // Run the NEON function:
+        // Run the Neon function:
         median.run();
 
         // Unmap the output buffer before it's used again by OpenCL:
old mode 100755 (executable)
new mode 100644 (file)
index 4db47ea..19f140e
@@ -9,7 +9,7 @@ src_path ="src"
 Target = collections.namedtuple('Target', 'name prefix basepath')
 
 core_targets = [
-    Target("NEON", "NE", src_path),             # NEON kernels are under src
+    Target("NEON", "NE", src_path),             # Neon kernels are under src
     Target("CL", "CL", src_path),               # CL kernels are under src
     Target("CPP", "CPP", armcv_path),           # CPP kernels are under arm_compute
     Target("GLES_COMPUTE", "GC", armcv_path)    # GLES kernels are under arm_compute
index 59c8fa606d9b0efc5297b8cd3cb3c544c74e0019..eea4458170f058c2887d417b4bb4c493a0d67931 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -192,7 +192,7 @@ inline float dequantize_qasymm8_signed(char input, float offset, float scale)
 
 /** Each bit of the result is set to the corresponding bit of either then_val or
  * else_val depending on whether the corresponding bit of if_mask is set.
- * Equivalent to the VBSL instruction in ARM NEON.
+ * Equivalent to the VBSL instruction in Arm Neon.
  *
  * @param[in] size Size of vector.
  *
@@ -320,7 +320,7 @@ inline float dequantize_qasymm8_signed(char input, float offset, float scale)
     }
 
 /** Calculates (a+b)/2, rounded to the nearest integer.
- * Equivalent to VRHADD in the ARM NEON instruction set.
+ * Equivalent to VRHADD in the Arm Neon instruction set.
  *
  * @param[in] size Size of vector.
  *
index 7ad20166d88abd748f68706c6cddaa82f2594fa2..dde8310ecf55c18b27a99cc39912a609a0147a43 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -28,7 +28,7 @@
 
 namespace arm_compute
 {
-/** Common interface for all kernels implemented in NEON. */
+/** Common interface for all kernels implemented in Neon. */
 using INEKernel = ICPPKernel;
 } // namespace arm_compute
 #endif /*ARM_COMPUTE_INEKERNEL_H */
index da32d6619e7d1e345f8a7fe23957cfca7b8565b3..d2b6de427b8f8c0547db8458e8699a83766da4c7 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -28,7 +28,7 @@
 
 namespace arm_compute
 {
-/** Interface for simple NEON kernels having 1 tensor input and 1 tensor output */
+/** Interface for simple Neon kernels having 1 tensor input and 1 tensor output */
 using INESimpleKernel = ICPPSimpleKernel;
 } // namespace arm_compute
 #endif /*ARM_COMPUTE_INESIMPLEKERNEL_H */
index 66309f9296237d61dd1302758690a6eb000ce4b4..b962c9eeee779013fa4aae4bdc4bce8f0f3a0f5c 100644 (file)
@@ -24,7 +24,7 @@
 #ifndef ARM_COMPUTE_NEKERNELS_H
 #define ARM_COMPUTE_NEKERNELS_H
 
-/* Header regrouping all the NEON kernels */
+/* Header regrouping all the Neon kernels */
 #include "src/core/NEON/kernels/NEAbsoluteDifferenceKernel.h"
 #include "src/core/NEON/kernels/NEAccumulateKernel.h"
 #include "src/core/NEON/kernels/NEBatchNormalizationLayerKernel.h"
index 6f2c72a970ae9c49f156a02a3c0fe3d14f4c31aa..7f707d7f1a89788c79eecc723de817b0945d503a 100644 (file)
@@ -148,7 +148,7 @@ validate_arguments(const ITensorInfo *input, const ITensorInfo *output, const IT
 template <typename T, bool fused_activation, typename F>
 void NEBatchNormalizationLayerKernel::batch_normalization_nchw(const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<T, wrapper::traits::BitWidth::W128>;
 
     const int  window_step_x  = 16 / sizeof(T);
@@ -164,7 +164,7 @@ void NEBatchNormalizationLayerKernel::batch_normalization_nchw(const Window &win
     F activation_functor(_act_info);
 
     // Hold information about the current feature map we are iterating.
-    // Only compute denominator and NEON vectors once per feature map.
+    // Only compute denominator and Neon vectors once per feature map.
     int slice = -1;
 
     const auto input_mean  = reinterpret_cast<const T *>(_mean->ptr_to_element(Coordinates(0, 0)));
index f6a64a7bb4c74d862d5218b48530d3833e588d55..4f9ac18219f5f2f898609b4110eefa3135c1102f 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform a Box 3x3 filter */
+/** Neon kernel to perform a Box 3x3 filter */
 class NEBox3x3Kernel : public INESimpleKernel
 {
 public:
@@ -63,7 +63,7 @@ public:
 };
 
 #ifdef __ARM_FEATURE_FP16_VECTOR_ARITHMETIC
-/** NEON kernel to perform a Box 3x3 filter for FP16 datatype
+/** Neon kernel to perform a Box 3x3 filter for FP16 datatype
  */
 class NEBox3x3FP16Kernel : public NEBox3x3Kernel
 {
@@ -88,7 +88,7 @@ public:
     void run(const Window &window, const ThreadInfo &info) override;
 };
 #else  /* __ARM_FEATURE_FP16_VECTOR_ARITHMETIC */
-/** NEON kernel to perform a Box 3x3 filter for FP16 datatype */
+/** Neon kernel to perform a Box 3x3 filter for FP16 datatype */
 using NEBox3x3FP16Kernel = NEBox3x3Kernel;
 #endif /* __ARM_FEATURE_FP16_VECTOR_ARITHMETIC */
 } // namespace arm_compute
index eff735259de9391cd6a697c6d84b60fc65f4e026..f1d24410f7b0ee0bcd4dbd2a7cbcd11287bbafae 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -85,7 +85,7 @@ protected:
     ITensor          *_phase;     /**< Destination tensor - Quantized phase */
 };
 
-/** NEON kernel to perform Non-Maxima suppression for Canny Edge.
+/** Neon kernel to perform Non-Maxima suppression for Canny Edge.
  *
  * @note This kernel is meant to be used alongside CannyEdge and performs a non-maxima suppression using magnitude and phase of input
  *       to characterize points as possible edges. Thus, at the end, each point will be set to EDGE, NO_EDGE or MAYBE.
@@ -148,7 +148,7 @@ private:
     int32_t                  _upper_thr; /**< Upper threshold used for the hysteresis */
 };
 
-/** NEON kernel to perform Edge tracing */
+/** Neon kernel to perform Edge tracing */
 class NEEdgeTraceKernel : public INEKernel
 {
 public:
index 6e16f24956c10c8e361c6ce5b80fe615dd8a7cf6..4a2213a30b6ce4934a3672bcae146b1be11f8581 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -40,7 +40,7 @@ namespace
 {
 Status validate_arguments(const ITensorInfo *input, const ITensorInfo *output, unsigned int num_groups)
 {
-    // Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    // Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_type() == DataType::UNKNOWN);
     ARM_COMPUTE_RETURN_ERROR_ON_DATA_LAYOUT_NOT_IN(input, DataLayout::NCHW, DataLayout::NHWC);
 
index 97b68d1321669cea44e3460b2032529ebb30e0bf..bbc86a9a05f614645970ccfb6f814c87215162c2 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -44,7 +44,7 @@ namespace
 {
 Status validate_arguments(const ITensorInfo *input, const ITensorInfo *output, const Size2D &convolved_dims)
 {
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_type() == DataType::UNKNOWN);
 
     // Validate configured output
index 59d1d741b6a98e3cee302365141bf9e28228cff6..00a519d2291115a71c666f291a6759e5ad7c504f 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -32,7 +32,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform col2im reshaping.
+/** Neon kernel to perform col2im reshaping.
  *
  * Rearranges each matrix column into image blocks. It's the inverse operation of @ref NEIm2ColKernel.
  *
index 597c283a9c9000041757baa5163bcb417ef47868..101d1384d0d8d34928cc8f1a966d1ef2eecf2a1e 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -69,7 +69,7 @@ Status NEConvertFullyConnectedWeightsKernel::validate(const ITensorInfo *input,
                                                       DataLayout data_layout)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(input);
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_type() == DataType::UNKNOWN);
     ARM_COMPUTE_RETURN_ERROR_ON(input->num_dimensions() != 2);
     ARM_COMPUTE_RETURN_ERROR_ON(input->dimension(1) != original_input_shape.total_size_lower(3));
index 39e53002381da69c49b11c70f2cf026582c1d26b..0be1fbe5aa6c8fbd3f06f83674ee4c296e2ce79e 100644 (file)
@@ -32,7 +32,7 @@ namespace arm_compute
 // Forward declarations
 class ITensor;
 
-/** NEON kernel to convert asymmetric signed to asymmetric signed and vice-versa */
+/** Neon kernel to convert asymmetric signed to asymmetric signed and vice-versa */
 class NEConvertQuantizedSignednessKernel : public INEKernel
 {
 public:
index bac27430f972ea510c60bc1e27f01fe8d39ead35..075de412038064398919bac3672cc77a9a3fc4f4 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -374,7 +374,7 @@ void NEConvolutionKernel<3>::convolution(const Window &win)
     Iterator input(_input, win);
     Iterator output(_output, win);
 
-    // Load the matrix's coefficients into NEON registers:
+    // Load the matrix's coefficients into Neon registers:
     const int16x4_t   mat00     = vld1_dup_s16(_convolution.data());
     const int16x4_t   mat01     = vld1_dup_s16(_convolution.data() + 1);
     const int16x4_t   mat02     = vld1_dup_s16(_convolution.data() + 2);
index 8d641a33b9c78bb794cb6852158761f38754f5f5..e5780ea26473285ab20579dd5f8e0c6b60a26ef7 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -83,11 +83,11 @@ void NEDerivativeKernel::configure(const ITensor *input, ITensor *output_x, ITen
     AccessWindowHorizontal out_x_access(output_x == nullptr ? nullptr : output_x->info(), 0, num_elems_processed_per_iteration);
     AccessWindowHorizontal out_y_access(output_y == nullptr ? nullptr : output_y->info(), 0, num_elems_processed_per_iteration);
 
-    // TODO(COMPMID-1503) Fix x-access input bug in NEON kernel instead of '+2'
+    // TODO(COMPMID-1503) Fix x-access input bug in Neon kernel instead of '+2'
     AccessWindowHorizontal in_x_access(input->info(), -border_size().left, num_elems_processed_per_iteration + 2);
     AccessWindowRectangle  in_y_access(input->info(), 0, -border_size().left, num_elems_processed_per_iteration, num_rows_read_per_iteration);
 
-    // TODO(COMPMID-1503) Fix x-access input bug in NEON kernel instead of '+2'
+    // TODO(COMPMID-1503) Fix x-access input bug in Neon kernel instead of '+2'
     AccessWindowRectangle in_xy_access(input->info(), -border_size().left, -border_size().top, num_elems_processed_per_iteration + 2, num_rows_read_per_iteration);
 
     if(run_der_x && run_der_y)
index 87b9fb1bf1e4290257849f72b0ea483dbc89972e..77742163fa3ac0805f6cdafa535d6eb83860f446 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -149,7 +149,7 @@ inline bool run_optim_small_tensor(const ITensor *t)
 
 // Optimized convolver for 1x1 kernels used only where input width and height are both <= 8
 // For big Z as in Input=7x7x832, this implementation is faster than the general code becuase it doesn't need to
-// store intermidiate results in memory. Temporary results are stored in NEON registers directly and then written to the output buffer.
+// store intermidiate results in memory. Temporary results are stored in Neon registers directly and then written to the output buffer.
 template <unsigned int stridex>
 class convolver_w1x1_i8x8_f32
 {
@@ -1381,4 +1381,4 @@ void NEDirectConvolutionLayerKernel::run(const Window &window, const ThreadInfo
         }
     }
 }
-} // namespace arm_compute
\ No newline at end of file
+} // namespace arm_compute
index 94c97cf5212b0b35d82b26d06a2a4d0790ffab88..58d385a1382db7e3339874243260e7d44a42d810 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON interface for Direct Convolution Layer kernel */
+/** Neon interface for Direct Convolution Layer kernel */
 class NEDirectConvolutionLayerKernel : public INEKernel
 {
 public:
index de5a88e8129eb5691ecd56469fe754da8240e50b..f072851240d17fa50924e40ddafe38bff7aa344d 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -93,7 +93,7 @@ typename std::enable_if<arm_compute::utils::traits::is_floating_point<T>::value,
 output_stage_nchw(ITensor *input, const ITensor *bias, const Window &window, ITensor *output,
                   int result_fixedpoint_multiplier, int result_shift, int result_offset_after_shift, bool has_bias)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<T, wrapper::traits::BitWidth::W128>;
 
     ARM_COMPUTE_ERROR_ON(input->info()->data_layout() == DataLayout::UNKNOWN);
index b1b88103bf53eb7d79b293afe2fdb33f7e003a1f..cd0710d0c162b94b2b6e4345f9a850f14a674a80 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@
 namespace arm_compute
 {
 class ITensor;
-/** NEON kernel to accumulate the biases, if provided, or downscale in case of quantized input.
+/** Neon kernel to accumulate the biases, if provided, or downscale in case of quantized input.
  *
  * @note We assume bias to be shared
  * @note For quantized computations (i.e. @p input of S32 type) the output data type for auto-initialization must be passed as part
index a4086afb0cdc40c2274a8a748968c9445712a5a9..f981d72a03692c85715b08df0531e0d96c11e4e7 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -34,7 +34,7 @@ namespace arm_compute
 class ITensor;
 using IImage = ITensor;
 
-/** NEON kernel to perform fast corners */
+/** Neon kernel to perform fast corners */
 class NEFastCornersKernel : public INEKernel
 {
 public:
index 10384d4176c35556da73aaf3c015c40f558e2f03..70178dffc0faf3b0a83be71a40f515f16f9a2ae0 100644 (file)
@@ -103,7 +103,7 @@ void NEFillBorderKernel::configure(ITensor *tensor, BorderSize border_size, Bord
 void NEFillBorderKernel::configure(ITensorInfo *tensor, BorderSize border_size, BorderMode border_mode, const PixelValue &constant_border_value)
 {
     ARM_COMPUTE_ERROR_ON_NULLPTR(tensor);
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_ERROR_ON(tensor->data_type() == DataType::UNKNOWN);
 
     _border_size           = border_size;
index 5d178ea85be6319f3cca423d9446b8ae07ef7003..6b2383f04368d765135778718461dc4de5bc6d37 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -47,7 +47,7 @@ namespace
 Status validate_arguments(const ITensorInfo *input, const ITensorInfo *output)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(input);
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_type() == DataType::UNKNOWN);
     ARM_COMPUTE_RETURN_ERROR_ON_MISMATCHING_DATA_TYPES(input, output);
 
index 85939ebae9366c1bb4ac68ca20cea46cc3d0656e..92fbd12a54cbd3a29a41a5f7c8628c3166ce5f76 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to interleave the elements of a matrix
+/** Neon kernel to interleave the elements of a matrix
  *
  * This function puts the values in a 4x4 block of Matrix A on the same row (Interleaved values)
  *
index 14d03fe3ebaa325ee5b32c04808ca8ec52c2ae84..dfdb7b3236d80f6b5b5460acef943d6c74b549bd 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to multiply matrices
+/** Neon kernel to multiply matrices
  *
  * @note @ref NEGEMMLowpMatrixMultiplyKernel low precision matrix product kernel
  *  This kernel performs the following computation:
index 0f37e584b9494888c66570ddcfef730fe1ad4a8e..9911ffc0f42a531a1f405f53c9cf2f3f4d15df8f 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel used to add the offset contribution after @ref NEGEMMLowpMatrixMultiplyKernel. The computation is performed in-place
+/** Neon kernel used to add the offset contribution after @ref NEGEMMLowpMatrixMultiplyKernel. The computation is performed in-place
  *
  * This kernel takes a final int32 accumulator value (the output of @ref NEGEMMLowpMatrixMultiplyKernel),
  * and adds to it the offset contribution of matrix A and matrix B in-place.
index 4c68fb09435380db467a1437de9208937a6fa1bd..39fbd8eb0e8630a95d369b8d21fea692f2a3b098 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel used to add the offset contribution and perform the output stage after @ref NEGEMMLowpMatrixMultiplyKernel.
+/** Neon kernel used to add the offset contribution and perform the output stage after @ref NEGEMMLowpMatrixMultiplyKernel.
  *
  * The computation is performed in-place
  *
index 42ef570f773193a08728c3ebc549a319e6e23334..63d80aaf1b27180e64abc7aa438287a22323ec2d 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2020 Arm Limited.
+ * Copyright (c) 2020-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel used to quantize down the int32 accumulator values of GEMMLowp to QASYMM8/QASYMM8_SIGNED
+/** Neon kernel used to quantize down the int32 accumulator values of GEMMLowp to QASYMM8/QASYMM8_SIGNED
  *
  * This kernel takes a final int32 accumulator value (the output of @ref NEGEMMLowpMatrixMultiplyKernel), and processes it to obtain the final QASYMM8/QASYMM8_SIGNED value.
  * The following computations will be performed by the kernel:
index d04e713cb8e0a1b7e5be617c46609466157135c5..8e92ba6ecaa02f657547fce95fc9946398efb975 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel used to quantize down the int32 accumulator values of GEMMLowp to QSYMM16
+/** Neon kernel used to quantize down the int32 accumulator values of GEMMLowp to QSYMM16
  *
  * This kernel takes a final int32 accumulator value (the output of @ref NEGEMMLowpMatrixMultiplyKernel), and processes it to obtain the final QSYMM16 value.
  * The following computations will be performed by the kernel:
index 55c07fbb5aa1f4b2db3507b2faed6d6f54fee3d4..9b51a3ba84c88fdd5984527415c38a75f2fbf251 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel used to quantize down the int32 accumulator values of GEMMLowp to QASYMM8_SIGNED
+/** Neon kernel used to quantize down the int32 accumulator values of GEMMLowp to QASYMM8_SIGNED
  *
  * This kernel takes a final int32 accumulator value (the output of @ref NEGEMMLowpMatrixMultiplyKernel), and processes it to obtain the final QASYMM8_SIGNED value.
  * The following computations will be performed by the kernel:
index 1a8de1c4416672ec33049213cf5e646d4d9efa3c..4d43afaab2f6ca33ad9c301117719b4a70dbe4e2 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel used to quantize down the int32 accumulator values of GEMMLowp to QASYMM8
+/** Neon kernel used to quantize down the int32 accumulator values of GEMMLowp to QASYMM8
  *
  * This kernel takes a final int32 accumulator value (the output of @ref NEGEMMLowpMatrixMultiplyKernel), and processes it to obtain the final QASYMM8 value.
  * The following computations will be performed by the kernel:
index 655658cb6c2939fc7de7be6de1c42cf512543d31..521adbfca4dd40b2320ef24e5e873e5cd157f76f 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -32,7 +32,7 @@ namespace arm_compute
 class ITensor;
 struct GEMMLowpReductionKernelInfo;
 
-/** Common interface for all NEON reduction kernels */
+/** Common interface for all Neon reduction kernels */
 class INEGEMMLowpReductionKernel : public INEKernel
 {
 public:
@@ -69,7 +69,7 @@ protected:
     bool           _mul_by_scalar;
 };
 
-/** NEON kernel used to compute the row-vectors of sums of all the entries in each row of Matrix A.
+/** Neon kernel used to compute the row-vectors of sums of all the entries in each row of Matrix A.
  *
  * @note This stage is needed to handle the offset of matrix product
  *       https://github.com/google/gemmlowp/blob/master/doc/low-precision.md
@@ -130,7 +130,7 @@ private:
     void run_internal(const Window &window);
 };
 
-/** NEON kernel used to compute the row-vectors of sums of all the entries in each column of Matrix B.
+/** Neon kernel used to compute the row-vectors of sums of all the entries in each column of Matrix B.
  *
  * @note This stage is needed to handle the offset of matrix product
  *       https://github.com/google/gemmlowp/blob/master/doc/low-precision.md
index 48377838d27565c9c887bcc4ad828483e257ffae..f9ff143e0702d08ea948b2ce67f21c575c4b3664 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform the in-place matrix addition between 2 matrices taking into account that the second matrix might be weighted by a scalar value beta:
+/** Neon kernel to perform the in-place matrix addition between 2 matrices taking into account that the second matrix might be weighted by a scalar value beta:
  *
  * @note [ MTX_OUT = MTX_0 + beta * MTX_1 ] with MTX_0 and MTX_1 of the same size
  *
index 1ea948de63d778a979fb2c85be806a18007ae4c5..e2945ee117bfce2d391c22061c84be2c554a507f 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to multiply two input matrices "A" and "B". All elements of the output matrix/vector will be multiplied by alpha after the matrix multiplication
+/** Neon kernel to multiply two input matrices "A" and "B". All elements of the output matrix/vector will be multiplied by alpha after the matrix multiplication
  *
  * @note If the output tensor is a matrix, the implementation assumes that the input tensors @p input0 and @p input1 are both matrices and reshaped respectively with @ref NEGEMMInterleave4x4Kernel" and @ref NEGEMMTranspose1xWKernel
  * @note If the output tensor is a vector and the data type is F32, the implementation assumes that the first input tensor @p input0 is a vector and the second input tensor @p input1 a matrix. The implementation also assumes that both tensors have not been reshaped
index 6d9f921b0239d17e02126677efbf8cad9cd6fa76..cea95749f87ab00eb8fdd9b804da41c884f9fd0a 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -51,7 +51,7 @@ Status validate_arguments(const ITensorInfo *input, const ITensorInfo *output)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(input);
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_type() == DataType::UNKNOWN);
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
 
     if(output->total_size() != 0)
     {
index 7120943a905a96977b54d0b846fa2c8cd322b00b..583588a1c192d62d06d9d8322b8cf2fcae5fedf8 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -31,7 +31,7 @@ namespace arm_compute
 // Forward declarations
 class ITensor;
 
-/** NEON kernel which transposes the elements of a matrix in chunks of 1xW, where W is equal to (16 / element size of the tensor)
+/** Neon kernel which transposes the elements of a matrix in chunks of 1xW, where W is equal to (16 / element size of the tensor)
  *
  * Following an example of how the transposition1xW works when the input data is F32
  *
index d81e34c39c17eb3a21088400fdc142c2f5c4501f..46b41b28e37433726de93da5ce4b876373fd3152 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 // Forward declarations
 class ITensor;
 
-/** Kernel to perform other operation on NEON */
+/** Kernel to perform other operation on Neon */
 class NEGatherKernel : public INEKernel
 {
 public:
index 8973b48e7adb0bb73459b466f1ce820c66eb3d69..7ceea2e7c153423e03d8d9731ed9c2e666aeda0c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform a Gaussian 3x3 filter */
+/** Neon kernel to perform a Gaussian 3x3 filter */
 class NEGaussian3x3Kernel : public INESimpleKernel
 {
 public:
index f4bca55637628ebf67f21b9da6aa9ee16e4513d9..2c7262f8277166f3c1e3c858722f33a506bb206a 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform a Gaussian 5x5 filter (horizontal pass) */
+/** Neon kernel to perform a Gaussian 5x5 filter (horizontal pass) */
 class NEGaussian5x5HorKernel : public INESimpleKernel
 {
 public:
@@ -67,7 +67,7 @@ private:
     BorderSize _border_size;
 };
 
-/** NEON kernel to perform a Gaussian 5x5 filter (vertical pass) */
+/** Neon kernel to perform a Gaussian 5x5 filter (vertical pass) */
 class NEGaussian5x5VertKernel : public INESimpleKernel
 {
 public:
index e852db2699a10506a4eeeaf50649e993ef8e3989..d94399053594599f9117929c311ccb3ec0c59618 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform a GaussianPyramid (horizontal pass) */
+/** Neon kernel to perform a GaussianPyramid (horizontal pass) */
 class NEGaussianPyramidHorKernel : public INESimpleKernel
 {
 public:
@@ -66,7 +66,7 @@ private:
     int _l2_load_offset;
 };
 
-/** NEON kernel to perform a GaussianPyramid (vertical pass) */
+/** Neon kernel to perform a GaussianPyramid (vertical pass) */
 class NEGaussianPyramidVertKernel : public INESimpleKernel
 {
 public:
index 7845bc2cdfc3274d39f8e0d847eba83b040d460a..e9cd47b0993b996e87ddfd7e9a6f7ac375a168ef 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -32,7 +32,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform HOG Orientation Binning */
+/** Neon kernel to perform HOG Orientation Binning */
 class NEHOGOrientationBinningKernel : public INEKernel
 {
 public:
@@ -91,7 +91,7 @@ private:
     float          _phase_scale;
 };
 
-/** NEON kernel to perform HOG block normalization */
+/** Neon kernel to perform HOG block normalization */
 class NEHOGBlockNormalizationKernel : public INEKernel
 {
 public:
index 45c28099c8cefc26139c90261e9402da965ccf92..e4c699fbfb8a26d4ae77d049baf505c038faebcc 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -33,7 +33,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform HOG detector kernel using linear SVM */
+/** Neon kernel to perform HOG detector kernel using linear SVM */
 class NEHOGDetectorKernel : public INEKernel
 {
 public:
index 4b794107a2c6d600ad2f39dee052e8fb21a160ce..85f80878cc56fbaf115cd504c239621bcf439cf9 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -76,7 +76,7 @@ protected:
     BorderSize    _border_size;     /**< Border size */
 };
 
-/** Template NEON kernel to perform Harris Score.
+/** Template Neon kernel to perform Harris Score.
  *  The implementation supports 3, 5, and 7 for the block_size
  */
 template <int32_t block_size>
index 72821c890d0b645106e4e48fe19dc22cd92abcdd..728cecd074ab303883bc719e636248f62893744b 100644 (file)
@@ -55,7 +55,7 @@ Status validate_arguments(const ITensorInfo *input, const ITensorInfo *output, c
     ARM_COMPUTE_RETURN_ERROR_ON_DATA_TYPE_CHANNEL_NOT_IN(input, 1, DataType::QASYMM8, DataType::QASYMM8_SIGNED, DataType::BFLOAT16, DataType::F16, DataType::F32);
     ARM_COMPUTE_RETURN_ERROR_ON(is_data_type_quantized(input->data_type()) && has_bias);
     ARM_COMPUTE_RETURN_ERROR_ON((dilation.x() < 1) || (dilation.y() < 1));
-    ARM_COMPUTE_RETURN_ERROR_ON_MSG(num_groups > 1, "Number of groups greater than one are not supported on NEON");
+    ARM_COMPUTE_RETURN_ERROR_ON_MSG(num_groups > 1, "Number of groups greater than one are not supported on Neon");
 
     // Since there's no implicit padding added, check the total input spatial dimensions (with conv paddings) are big enough for the kernel dimensions
     const unsigned int width_idx    = get_data_layout_dimension_index(input->data_layout(), DataLayoutDimension::WIDTH);
index 08bf6f0e761fdabcf6845082d40c88a541f040f6..a3f7d8d6342d652ea00e223beafdb0c290edef3b 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -82,7 +82,7 @@ inline float16x8_t vector_float_norm(const float16x8_t &inputs, const float32x4_
 template <typename T, typename AccType = T>
 void instance_normalization_nchw(ITensor *input, ITensor *output, float gamma, float beta, float epsilon, const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<T, wrapper::traits::BitWidth::W128>;
 
     // Clear X/Y dimensions on execution window as we handle the planes manually
index c24166c042d0434f503f4e0183735d16aa84e3d8..bc4f6ce29643537271ccef1855cd3a789c3634e1 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -37,7 +37,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Interface for NEON Array of Internal Key Points. */
+/** Interface for Neon Array of Internal Key Points. */
 using INELKInternalKeypointArray = IArray<NELKInternalKeypoint>;
 
 /** Interface for the Lucas-Kanade tracker kernel */
index d32dfecfeb7c91a82890ca695e108f21b4dd9909..7b0bc0c7206bc00c8a009019605f28641b39ed2b 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -32,7 +32,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** Interface to perform Non-Maxima suppression over a 3x3 window using NEON
+/** Interface to perform Non-Maxima suppression over a 3x3 window using Neon
  *
  * @note Used by @ref NEFastCorners and @ref NEHarrisCorners
  */
@@ -83,7 +83,7 @@ protected:
 };
 
 #ifdef __ARM_FEATURE_FP16_VECTOR_ARITHMETIC
-/** NEON kernel to perform Non-Maxima suppression 3x3 with intermediate results in FP16 if the input data type is FP32
+/** Neon kernel to perform Non-Maxima suppression 3x3 with intermediate results in FP16 if the input data type is FP32
  */
 class NENonMaximaSuppression3x3FP16Kernel : public NENonMaximaSuppression3x3Kernel
 {
@@ -101,7 +101,7 @@ public:
     void configure(const ITensor *input, ITensor *output, bool border_undefined);
 };
 #else  /* __ARM_FEATURE_FP16_VECTOR_ARITHMETIC */
-/** NEON kernel to perform Non-Maxima suppression 3x3 with intermediate results in FP16 if the input data type is FP32 */
+/** Neon kernel to perform Non-Maxima suppression 3x3 with intermediate results in FP16 if the input data type is FP32 */
 using NENonMaximaSuppression3x3FP16Kernel = NENonMaximaSuppression3x3Kernel;
 #endif /* __ARM_FEATURE_FP16_VECTOR_ARITHMETIC */
 } // namespace arm_compute
index 27464d5b42307ee2b4fa26e483518f49e75e315c..a7900ee074853776c41e2662ac0d6ba3caf7d0fc 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -173,7 +173,7 @@ void NENormalizationLayerKernel::configure(const ITensor *input, const ITensor *
 template <typename T, unsigned int S, unsigned int dim, bool do_2D_norm>
 void NENormalizationLayerKernel::normalize_float(const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_vector<T, S>::tag_type;
 
     Window win(window);
@@ -295,4 +295,4 @@ void NENormalizationLayerKernel::run(const Window &window, const ThreadInfo &inf
     // Run function
     (this->*_func)(window);
 }
-} // namespace arm_compute
\ No newline at end of file
+} // namespace arm_compute
index ec4bdffdcd0ab9eda7a95b03aa1e0f81a402eb76..af0dbfdc64656bcca735cbf6447636634475773f 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to add padding to a tensor
+/** Neon kernel to add padding to a tensor
  *
  * Add padding given padding information
  */
index ba68171a5977ebb780c704dc472d3d85f52b4ff7..5522ae889a3ac94ead6e9c8f550689edb2692389 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2020 Arm Limited.
+ * Copyright (c) 2020-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -31,7 +31,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform layer normalization */
+/** Neon kernel to perform layer normalization */
 class NEQLSTMLayerNormalizationKernel : public INEKernel
 {
 public:
index 8d11122ab29d4449b078bafcebfab69a8d0bfea0..f62c868dff0736774fa67647002af460fceba594 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -43,7 +43,7 @@ namespace
 template <typename T>
 void range_function(ITensor *output, float start, float step, const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_bitvector<T, wrapper::traits::BitWidth::W128>::tag_type;
 
     const auto step_vec  = wrapper::vdup_n(static_cast<T>(step), ExactTagType{});
@@ -189,4 +189,4 @@ void NERangeKernel::run(const Window &window, const ThreadInfo &info)
 
     (*_func)(_output, _start, _step, window);
 }
-} // namespace arm_compute
\ No newline at end of file
+} // namespace arm_compute
index 3d105cc60d06d24df9046bfada4be5a8cd6b22dc..001025bdf5147d085d6d7fc7fbbd3c6d0aac5e82 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -386,7 +386,7 @@ public:
 template <typename T, int S>
 struct RedOpX
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_vector<T, S>::tag_type;
 
     inline void operator()(const Window &in_window, Window &out_window, const ITensor *in, ITensor *out, const ReductionOperation op)
@@ -859,7 +859,7 @@ struct RedOpX_quantized
 template <typename T, int S>
 struct RedOpYZW
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_vector<T, S>::tag_type;
     using neon_vector  = typename wrapper::traits::neon_vector<T, S>::type;
 
@@ -1078,7 +1078,7 @@ struct RedOpYZW
 template <typename T, int S, int axis, ReductionOperation op>
 struct RedOpYZW_complex
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_vector<T, S>::tag_type;
     using neon_vector  = typename wrapper::traits::neon_vector<T, S>::type;
 
index dfc105adaea4064aa2dc53925335a5da57334168..c7ed0070bee92cb95e037b7e703e04f0da29bea6 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform a reduction operation
+/** Neon kernel to perform a reduction operation
  *
  * @note For ARG_MIN/ARG_MAX reduction, the default data type for an uninitialized
  *       output tensor is signed 32-bit integer (S32). It is the user's responsibility
index 8fe1ba58550468af1a4b4fae76996c45aad8ef15..adc7f4bdd57cecce1670b52b3c30c4e85322f6e1 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -31,7 +31,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform a remap on a tensor */
+/** Neon kernel to perform a remap on a tensor */
 class NERemapKernel : public INEKernel
 {
 public:
index 0dcb4396656c8d5a429d8ceff366664391ca6942..215debe10ffe8520bb6bbccdff9d854df743e86c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -42,7 +42,7 @@ namespace
 {
 Status validate_arguments(const ITensorInfo *input, const ITensorInfo *output, int32_t stride)
 {
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_type() == DataType::UNKNOWN);
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_layout() == DataLayout::UNKNOWN);
 
index 21c758053a2782718149bf6524d937e7e3f05e99..b2fce0f56df667f449f81e8fcc051702b3d7e57a 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -37,7 +37,7 @@ namespace
 Status validate_arguments(const ITensorInfo *input, const ITensorInfo *output, const ITensorInfo *axis)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(input, output, axis);
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_type() == DataType::UNKNOWN);
     ARM_COMPUTE_RETURN_ERROR_ON_DATA_TYPE_CHANNEL_NOT_IN(axis, 1, DataType::U32);
     ARM_COMPUTE_RETURN_ERROR_ON_MSG(axis->num_dimensions() > 1, "Axis must be a 1D tensor");
@@ -163,4 +163,4 @@ void NEReverseKernel::run(const Window &window, const ThreadInfo &info)
             ARM_COMPUTE_ERROR("Element size not supported");
     }
 }
-} // namespace arm_compute
\ No newline at end of file
+} // namespace arm_compute
index f6ee3fa4c579f51234b7d861dc64cd7b0c1e82e7..32fa8d7fb237fb4b56f6103bdb75139a70fce662 100644 (file)
@@ -31,7 +31,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform scaling on a tensor */
+/** Neon kernel to perform scaling on a tensor */
 class NEScaleKernel : public INEKernel
 {
 public:
index 55170a169a77cb1722d6ff4ea0990843f069c218..64310e7f7f30fee5f3f08e76efad5f7a004c8db9 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -44,7 +44,7 @@ namespace
 Status validate_arguments(const ITensorInfo *input, unsigned int axis, unsigned int idx_input, unsigned int num_tensors, const ITensorInfo *output)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(input, output);
-    // Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    // Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_type() == DataType::UNKNOWN);
     ARM_COMPUTE_RETURN_ERROR_ON(idx_input >= num_tensors);
     ARM_COMPUTE_RETURN_ERROR_ON(axis > input->num_dimensions());
index 9b0a039b888a69d829ab68b51168379f3276fa72..dc5c7d77ad6dd868d4bf074961ea4bb61ba042b7 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -32,7 +32,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to stacks a rank-R tensor into one with rank-(R+1) along the axis dimension.*/
+/** Neon kernel to stacks a rank-R tensor into one with rank-(R+1) along the axis dimension.*/
 class NEStackLayerKernel : public INEKernel
 {
 public:
index 183bb8db5caae509604ed20a0c41a2b33300e512..108f29f37767d91a8fa79f1d4d2532d54761edfa 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2016-2020 Arm Limited.
+ * Copyright (c) 2016-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -112,7 +112,7 @@ Status NEThresholdKernel::validate(const ITensorInfo *input, const ITensorInfo *
 
 inline void NEThresholdKernel::run_binary(const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using Type         = uint8_t;
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<Type, wrapper::traits::BitWidth::W128>;
 
@@ -158,7 +158,7 @@ inline void NEThresholdKernel::run_binary(const Window &window)
 
 inline void NEThresholdKernel::run_range(const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using Type         = uint8_t;
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<Type, wrapper::traits::BitWidth::W128>;
 
index 8dfea8bc2f86d7e43a7247aa39a2baa0e5879e16..e6ce9534e73cfeded1e6c982a4f7982f073013e6 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform a tile operation */
+/** Neon kernel to perform a tile operation */
 class NETileKernel : public INEKernel
 {
 public:
index 134831be4c6c5893fee5ac9d701981eed74cc780..980d90b476b7df9bcda13ac90039b9b7a469fd90 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -59,7 +59,7 @@ TensorShape transposed_tensor_shape(const TensorShape &in)
 Status validate_arguments(const ITensorInfo *input, const ITensorInfo *output)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(input);
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_type() == DataType::UNKNOWN);
 
     if(output->total_size() != 0)
@@ -125,7 +125,7 @@ void transpose_8bit_elements(const ITensor *in, ITensor *out, const Window &wind
 
     Iterator output(out, window_out);
 
-    // Run the NEON path if and only if the input is not a row-vector
+    // Run the Neon path if and only if the input is not a row-vector
     if(in->info()->dimension(1) != 1)
     {
         Iterator input(in, window_in);
@@ -264,7 +264,7 @@ void transpose_16bit_elements(const ITensor *in, ITensor *out, const Window &win
 
     Iterator output(out, window_out);
 
-    // Run the NEON path if and only if the input is not a row-vector
+    // Run the Neon path if and only if the input is not a row-vector
     if(in->info()->dimension(1) != 1)
     {
         Iterator input(in, window_in);
@@ -377,7 +377,7 @@ void transpose_32bit_elements(const ITensor *in, ITensor *out, const Window &win
 
     Iterator output(out, window_out);
 
-    // Run the NEON path if and only if the input is not a row-vector
+    // Run the Neon path if and only if the input is not a row-vector
     if(in->info()->dimension(1) != 1)
     {
         Iterator input(in, window_in);
index 73d2098fb32c856adb7c2e325a1756a1ccb292b2..88ece547e1b4c69aaa221b0f1dfdabfffe3dfe1c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel which transposes the elements of a matrix.
+/** Neon kernel which transposes the elements of a matrix.
  *
  * [width, height, batch] -> [height, width, batch]
  *
index 118655b7556d0372852f826629db87ee0911aefa..109652fb978997723da690ed006a00c9ff86c1c4 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -47,7 +47,7 @@ TensorShape get_output_shape(const ITensorInfo *input, bool has_bias)
 Status validate_arguments(const ITensorInfo *input, const ITensorInfo *biases, const ITensorInfo *output)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(input, output);
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(input->data_type() == DataType::UNKNOWN);
 
     if(biases != nullptr)
index 9678b79fda5729871fb6a33a70903902a02ebcbe..a4a9e287633114b8d528928b00de76e3904c9fe0 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -30,7 +30,7 @@ namespace arm_compute
 {
 class ITensor;
 
-/** NEON kernel to perform reshaping on the weights used by convolution and locally connected layer
+/** Neon kernel to perform reshaping on the weights used by convolution and locally connected layer
  *
  * Rearranges each 3-dimensional kernel to a single row leading to a matrix with linearized kernels.
  * In combination with the @ref NEIm2ColKernel can transform a convolution to a matrix multiplication.
index 2b87e512dc9562a41f782d530884daef2c918c09..3583735482359b5762bf562cb4b7dc596ae67046 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -35,7 +35,7 @@ namespace arm_compute
 // Forward declarations
 class ITensor;
 
-/** Interface for the NEON kernel to perform Winograd input transform. */
+/** Interface for the Neon kernel to perform Winograd input transform. */
 class INEWinogradLayerTransformInputKernel : public INEKernel
 {
 public:
@@ -96,7 +96,7 @@ public:
     }
 };
 
-/** NEON kernel to perform Winograd input transform. */
+/** Neon kernel to perform Winograd input transform. */
 template <typename T, int OutputTileRows, int OutputTileCols, int KernelRows, int KernelCols>
 class NEWinogradLayerTransformInputKernel : public INEWinogradLayerTransformInputKernel
 {
@@ -227,7 +227,7 @@ private:
     ITensor                        *_workspace;
 };
 
-/** Interface for the NEON kernel to perform Winograd output transform. */
+/** Interface for the Neon kernel to perform Winograd output transform. */
 class INEWinogradLayerTransformOutputKernel : public INEKernel
 {
 public:
@@ -310,7 +310,7 @@ public:
     }
 };
 
-/** NEON kernel to perform Winograd output transform. */
+/** Neon kernel to perform Winograd output transform. */
 template <typename T, int OutputTileRows, int OutputTileCols, int KernelRows, int KernelCols>
 class NEWinogradLayerTransformOutputKernel : public INEWinogradLayerTransformOutputKernel
 {
@@ -437,7 +437,7 @@ private:
     int                              _num_channels;
 };
 
-/** Interface for the NEON kernel to perform Winograd weights transform. */
+/** Interface for the Neon kernel to perform Winograd weights transform. */
 class INEWinogradLayerTransformWeightsKernel : public INEKernel
 {
 public:
@@ -495,7 +495,7 @@ public:
     static Status validate(const ITensorInfo *input, const ITensorInfo *weights);
 };
 
-/** NEON kernel to perform Winograd weights transform. */
+/** Neon kernel to perform Winograd weights transform. */
 template <typename T, int OutputTileRows, int OutputTileCols, int KernelRows, int KernelCols>
 class NEWinogradLayerTransformWeightsKernel final : public INEWinogradLayerTransformWeightsKernel
 {
@@ -577,7 +577,7 @@ private:
     int                               _num_input_channels;
 };
 
-/** NEON kernel to perform Winograd. */
+/** Neon kernel to perform Winograd. */
 template <typename TIn, typename TOut, int OutputTileRows, int OutputTileCols, int KernelRows, int KernelCols>
 class NEWinogradLayerConfiguration
 {
index c1e34d12f7ccbb2d16f253ae43cf89e998b656ef..b0e912d1889e11d9effab7c044b53f848fcd2218 100644 (file)
@@ -111,7 +111,7 @@ static const GemmImplementation<float, float> gemm_fp32_methods[] =
 },
 #endif // __ARM_FEATURE_SVE
 
-// NEON hybrid methods
+// Neon hybrid methods
 {
     GemmMethod::GEMM_HYBRID,
     "a64_smallK_hybrid_fp32_mla_8x4",
index 02d9486cc69408dd41af49ccfe3945230621772f..bb86d9e41dda4afdbd0324bd6120e7c99b5aaa18 100644 (file)
@@ -292,21 +292,21 @@ void Interleave(TOut *out, const TIn *in, size_t in_stride, const unsigned int y
 /* AArch32 */
 #ifdef __arm__
 /* FP32 */
-/* NEON implementation (height 6) */
+/* Neon implementation (height 6) */
 template void IndirectInterleave<6, 1, VLType::None>(float *, const float * const * const *, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void ConvolutionInterleave<6, 1, VLType::None>(float *, const float *, size_t, const convolver<float> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<6, 1, VLType::None>(float *, const float *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 
 /* FP16 */
 #if __ARM_FP16_ARGS
-/* NEON implementation using FP32 kernel (height 6) */
+/* Neon implementation using FP32 kernel (height 6) */
 template void IndirectInterleave<6, 1, VLType::None>(float *, const __fp16 * const * const *, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void ConvolutionInterleave<6, 1, VLType::None>(float *, const __fp16 *, size_t, const convolver<__fp16> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<6, 1, VLType::None>(float *, const __fp16 *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 #endif /* __ARM_FP16_ARGS */
 
 /* BF16 */
-/* NEON implementation using FP32 kernel */
+/* Neon implementation using FP32 kernel */
 template void IndirectInterleave<6, 1, VLType::None>(float *, const bfloat16 * const * const *, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void ConvolutionInterleave<6, 1, VLType::None>(float *, const bfloat16 *, size_t, const convolver<bfloat16> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<6, 1, VLType::None>(float *, const bfloat16 *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
@@ -315,7 +315,7 @@ template void Interleave<6, 1, VLType::None>(float *, const bfloat16 *, size_t,
 /* AArch64 */
 #ifdef __aarch64__
 /* FP32 */
-/* NEON/SVE implementation (height 8) */
+/* Neon/SVE implementation (height 8) */
 template void IndirectInterleave<8, 1, VLType::None>(float *, const float * const * const *, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void ConvolutionInterleave<8, 1, VLType::None>(float *, const float *, size_t, const convolver<float> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<8, 1, VLType::None>(float *, const float *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
@@ -339,7 +339,7 @@ template void ConvolutionInterleave<8, 1, VLType::None>(float *, const __fp16 *,
 template void Interleave<8, 1, VLType::None>(float *, const __fp16 *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 
 /* BF16 */
-/* NEON/SVE BFDOT */
+/* Neon/SVE BFDOT */
 #ifdef V8P6_BF
 template void IndirectInterleave<8, 2, VLType::None>(bfloat16 *, const bfloat16 * const * const *, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void ConvolutionInterleave<8, 2, VLType::None>(bfloat16 *, const bfloat16 *, size_t, const convolver<bfloat16> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
@@ -350,7 +350,7 @@ template void ConvolutionInterleave<8, 4, VLType::None>(bfloat16 *, const bfloat
 template void Interleave<8, 4, VLType::None>(bfloat16 *, const bfloat16 *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 #endif // V8P6_BF
 
-/* NEON/SVE using FP32 kernel */
+/* Neon/SVE using FP32 kernel */
 template void IndirectInterleave<8, 1, VLType::None>(float *, const bfloat16 * const * const *, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void ConvolutionInterleave<8, 1, VLType::None>(float *, const bfloat16 *, size_t, const convolver<bfloat16> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<8, 1, VLType::None>(float *, const bfloat16 *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
@@ -365,12 +365,12 @@ template void ConvolutionInterleave<8, 1, VLType::None>(uint16_t *, const uint16
 template void Interleave<8, 1, VLType::None>(uint16_t *, const uint16_t *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 
 /* INT8 */
-/* NEON SMLA/SMLAL (height 4, block 16) */
+/* Neon SMLA/SMLAL (height 4, block 16) */
 template void IndirectInterleave<4, 16, VLType::None>(int8_t *, const int8_t * const * const *, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void ConvolutionInterleave<4, 16, VLType::None>(int8_t *, const int8_t *, size_t, const convolver<int8_t> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<4, 16, VLType::None>(int8_t *, const int8_t *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 
-/* NEON SDOT (height 8, block 4) */
+/* Neon SDOT (height 8, block 4) */
 template void IndirectInterleave<8, 4, VLType::None>(int8_t *, const int8_t * const * const *, unsigned int, unsigned int, unsigned int y0, unsigned int ymax, unsigned int k0, unsigned int kmax, bool, int32_t);
 template void ConvolutionInterleave<8, 4, VLType::None>(int8_t *, const int8_t *, size_t, const convolver<int8_t> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<8, 4, VLType::None>(int8_t *, const int8_t *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
@@ -382,17 +382,17 @@ template void ConvolutionInterleave<8, 8, VLType::None>(int8_t *, const int8_t *
 template void Interleave<8, 8, VLType::None>(int8_t *, const int8_t *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 #endif // MMLA_INT8
 
-/* NEON SDOT (height 8, block 1) */
+/* Neon SDOT (height 8, block 1) */
 template void IndirectInterleave<8, 1, VLType::None>(int16_t *, const int8_t * const * const *, unsigned int, unsigned int, unsigned int y0, unsigned int ymax, unsigned int k0, unsigned int kmax, bool, int32_t);
 template void ConvolutionInterleave<8, 1, VLType::None>(int16_t *, const int8_t *, size_t, const convolver<int8_t> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<8, 1, VLType::None>(int16_t *, const int8_t *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 
-/* NEON SMLA/SMLAL (height 4, block 16) */
+/* Neon SMLA/SMLAL (height 4, block 16) */
 template void IndirectInterleave<4, 16, VLType::None>(uint8_t *, const uint8_t * const * const *, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void ConvolutionInterleave<4, 16, VLType::None>(uint8_t *, const uint8_t *, size_t, const convolver<uint8_t> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<4, 16, VLType::None>(uint8_t *, const uint8_t *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 
-/* NEON SDOT (height 8, block 4) */
+/* Neon SDOT (height 8, block 4) */
 template void IndirectInterleave<8, 4, VLType::None>(uint8_t *, const uint8_t * const * const *, unsigned int, unsigned int, unsigned int y0, unsigned int ymax, unsigned int k0, unsigned int kmax, bool, int32_t);
 template void ConvolutionInterleave<8, 4, VLType::None>(uint8_t *, const uint8_t *, size_t, const convolver<uint8_t> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<8, 4, VLType::None>(uint8_t *, const uint8_t *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
@@ -404,7 +404,7 @@ template void ConvolutionInterleave<8, 8, VLType::None>(uint8_t *, const uint8_t
 template void Interleave<8, 8, VLType::None>(uint8_t *, const uint8_t *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 #endif // MMLA_INT8
 
-/* NEON 16-bit (height 8, block 1) */
+/* Neon 16-bit (height 8, block 1) */
 template void IndirectInterleave<8, 1, VLType::None>(uint16_t *, const uint8_t * const * const *, unsigned int, unsigned int, unsigned int y0, unsigned int ymax, unsigned int k0, unsigned int kmax, bool, int32_t);
 template void ConvolutionInterleave<8, 1, VLType::None>(uint16_t *, const uint8_t *, size_t, const convolver<uint8_t> &, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
 template void Interleave<8, 1, VLType::None>(uint16_t *, const uint8_t *, size_t, unsigned int, unsigned int, unsigned int, unsigned int, bool, int32_t);
index 704f003521cab01e05e0b7cb30db6855cc058e9e..4108d79a5a6a655146a6669398751891a5f7553c 100644 (file)
@@ -45,7 +45,7 @@ template <typename T>
 void batch_normalization(ITensor *src, ITensor *dst, const ITensor *mean, const ITensor *var, const ITensor *beta, const ITensor *gamma,
                          float epsilon, ActivationLayerInfo &act_info, const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<float16_t, wrapper::traits::BitWidth::W128>;
 
     const int  window_step_x  = 8;
@@ -149,4 +149,4 @@ void fp16_neon_batch_normalization(ITensor *src, ITensor *dst, const ITensor *me
 } // namespace cpu
 } // namespace arm_compute
 
-#endif /* defined(__ARM_FEATURE_FP16_VECTOR_ARITHMETIC) && defined(ENABLE_FP16_KERNELS) */
\ No newline at end of file
+#endif /* defined(__ARM_FEATURE_FP16_VECTOR_ARITHMETIC) && defined(ENABLE_FP16_KERNELS) */
index 76a71ed738b6216839e862ecaab61088ee89b33f..1fdc5bd5b1812353382b0a487c98787e2d9b7260 100644 (file)
@@ -44,7 +44,7 @@ template <typename T>
 void batch_normalization(ITensor *src, ITensor *dst, const ITensor *mean, const ITensor *var, const ITensor *beta, const ITensor *gamma,
                          float epsilon, ActivationLayerInfo &act_info, const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<float, wrapper::traits::BitWidth::W128>;
 
     const int  window_step_x  = 4;
index eef1be06ebbd04481cf72e08f41e751a5675fd3f..e68f1117e8b8a2e499e60b2b16edadea9664d8cb 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -34,7 +34,7 @@ namespace detail
 template <typename T, int S>
 struct dummy
 {
-    /** NEON vector type. */
+    /** Neon vector type. */
     using ExactType = typename wrapper::traits::neon_vector<T, S>::type;
 
     /** Construct a dummy activation object.
@@ -68,9 +68,9 @@ struct dummy
 template <typename T, int S>
 struct linear
 {
-    /** NEON vector type. */
+    /** Neon vector type. */
     using ExactType = typename wrapper::traits::neon_vector<T, S>::type;
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_vector<T, S>::tag_type;
 
     /** Construct a Linear activation object.
@@ -112,9 +112,9 @@ struct linear
 template <typename T, int S>
 struct square
 {
-    /** NEON vector type. */
+    /** Neon vector type. */
     using ExactType = typename wrapper::traits::neon_vector<T, S>::type;
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_vector<T, S>::tag_type;
 
     /** Construct a Square activation object.
@@ -148,9 +148,9 @@ struct square
 template <typename T, int S>
 struct logistic
 {
-    /** NEON vector type. */
+    /** Neon vector type. */
     using ExactType = typename wrapper::traits::neon_vector<T, S>::type;
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_vector<T, S>::tag_type;
 
     /** Construct a Logistic activation object.
@@ -188,9 +188,9 @@ struct logistic
 template <typename T, int S>
 struct relu
 {
-    /** NEON vector type. */
+    /** Neon vector type. */
     using ExactType = typename wrapper::traits::neon_vector<T, S>::type;
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_vector<T, S>::tag_type;
 
     /** Construct a RELU activation object.
@@ -228,9 +228,9 @@ struct relu
 template <typename T, int S>
 struct brelu
 {
-    /** NEON vector type. */
+    /** Neon vector type. */
     using ExactType = typename wrapper::traits::neon_vector<T, S>::type;
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_vector<T, S>::tag_type;
 
     /** Construct a bounded RELU activation object.
@@ -270,9 +270,9 @@ struct brelu
 template <typename T, int S>
 struct lubrelu
 {
-    /** NEON vector type. */
+    /** Neon vector type. */
     using ExactType = typename wrapper::traits::neon_vector<T, S>::type;
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_vector<T, S>::tag_type;
 
     /** Construct a lower-upper bounded RELU activation object.
index 0bb55afe024bc6e98930c9dcbfc2a7885271d06b..b786e44bc7d5beb617172da093b2d286c2b60e02 100644 (file)
@@ -44,7 +44,7 @@ struct vector_64_tag {};
 /** 128-bit vector tag */
 struct vector_128_tag {};
 
-/** Create the appropriate NEON vector given its type and size in terms of elements */
+/** Create the appropriate Neon vector given its type and size in terms of elements */
 template <typename T, int S> struct neon_vector;
 
 // Specializations
@@ -88,7 +88,7 @@ enum class BitWidth
     W128, /**< 128-bit width */
 };
 
-/** Create the appropriate NEON vector given its type and size in terms of bits */
+/** Create the appropriate Neon vector given its type and size in terms of bits */
 template <typename T, BitWidth BW> struct neon_bitvector;
 // Specializations
 #ifndef DOXYGEN_SKIP_THIS
index e51c34185112ef42da0c9c2224eac851d94bb335..48eac13041efd3a6850f482721ccaa0e79a7687a 100644 (file)
@@ -133,7 +133,7 @@ void batch_concat(const ITensor *src, ITensor *dst, unsigned int batch_offset, c
 Status validate_arguments(const ITensorInfo *src, unsigned int batch_offset, const ITensorInfo *dst)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(src, dst);
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(src) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(src) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(src->data_type() == DataType::UNKNOWN);
     ARM_COMPUTE_RETURN_ERROR_ON_MISMATCHING_DATA_TYPES(src, dst);
 
index dee0283a2ca70a750e0aa1e5c822ac7195729a79..f64c282ae44d13a731768efbf3f47a432991bcb2 100644 (file)
@@ -134,7 +134,7 @@ void depth_concat(const ITensor *src, ITensor *dst, unsigned int depth_offset, c
 Status validate_arguments(const ITensorInfo *input, unsigned int depth_offset, const ITensorInfo *output)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(input, output);
-    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    //Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(input) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON_DATA_TYPE_CHANNEL_NOT_IN(input, 1, DataType::QASYMM8, DataType::QASYMM8_SIGNED, DataType::F16, DataType::F32);
     ARM_COMPUTE_RETURN_ERROR_ON_MISMATCHING_DATA_TYPES(input, output);
 
index 8522c933406c75bea0f39350f9c3377c92fbc804..c6e224970aad3b4b7a982228bdfc4e387a428136 100644 (file)
@@ -49,7 +49,7 @@ namespace
 Status validate_arguments(const ITensorInfo *src, unsigned int height_offset, const ITensorInfo *dst)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(src, dst);
-    // Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(src) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    // Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(src) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(src->data_type() == DataType::UNKNOWN);
     ARM_COMPUTE_RETURN_ERROR_ON_MISMATCHING_DATA_TYPES(src, dst);
     ARM_COMPUTE_RETURN_ERROR_ON(src->dimension(Window::DimX) != dst->dimension(Window::DimX));
index 27ded05aff7bf47dd3368967fb2e0919ad59e12e..e707e8d5a4479bd6955df6d9043c82d94df6fc0c 100644 (file)
@@ -49,7 +49,7 @@ namespace
 Status validate_arguments(const ITensorInfo *src, unsigned int width_offset, const ITensorInfo *dst)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(src, dst);
-    // Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(src) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    // Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(src) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(src->data_type() == DataType::UNKNOWN);
     ARM_COMPUTE_RETURN_ERROR_ON_MISMATCHING_DATA_TYPES(src, dst);
     ARM_COMPUTE_RETURN_ERROR_ON(src->dimension(0) + width_offset > dst->dimension(0));
index 068f5d025b79c08a8d6861983a08e387b94dcfe7..41ff8bd3901a32a10ddc0903b19433ea28cf9d27 100644 (file)
@@ -50,7 +50,7 @@ namespace
 Status validate_arguments(const ITensorInfo *src, const ITensorInfo *dst)
 {
     ARM_COMPUTE_RETURN_ERROR_ON_NULLPTR(src, dst);
-    // Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(src) is not needed here as this kernel doesn't use NEON FP16 instructions.
+    // Note: ARM_COMPUTE_RETURN_ERROR_ON_CPU_F16_UNSUPPORTED(src) is not needed here as this kernel doesn't use Neon FP16 instructions.
     ARM_COMPUTE_RETURN_ERROR_ON(src->data_type() == DataType::UNKNOWN);
 
     ARM_COMPUTE_RETURN_ERROR_ON_MISMATCHING_DATA_TYPES(src, dst);
index bd459e9e772dbbcb1f24c1e1d2baf17d5576a21c..7fe4ab3f63ce462c1378fdbc351eb0732d1c73ef 100644 (file)
@@ -51,7 +51,7 @@ inline float16x8_t mask_float_vector(const float16x8_t &in, const uint16x8_t &ma
 
 void fp16_neon_activation(const ITensor *src, ITensor *dst, const ActivationLayerInfo &act_info, const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType                                = typename wrapper::traits::neon_bitvector_tag_t<float16_t, wrapper::traits::BitWidth::W128>;
     const ActivationLayerInfo::ActivationFunction act = act_info.activation();
 
@@ -215,4 +215,4 @@ void fp16_neon_activation(const ITensor *src, ITensor *dst, const ActivationLaye
 } // namespace cpu
 } // namespace arm_compute
 
-#endif /* defined(__ARM_FEATURE_FP16_VECTOR_ARITHMETIC) && defined(ENABLE_FP16_KERNELS) */
\ No newline at end of file
+#endif /* defined(__ARM_FEATURE_FP16_VECTOR_ARITHMETIC) && defined(ENABLE_FP16_KERNELS) */
index c76035b5d2c6ebd3a3951db5cc88cdab266e4f3f..f1f2753813d9bf01e03b2b4628a675f41b1cb042 100644 (file)
@@ -49,7 +49,7 @@ inline float32x4_t mask_float_vector(const float32x4_t &in, const uint32x4_t &ma
 
 void fp32_neon_activation(const ITensor *src, ITensor *dst, const ActivationLayerInfo &act_info, const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename arm_compute::wrapper::traits::neon_bitvector_tag_t<float, wrapper::traits::BitWidth::W128>;
 
     constexpr int                                 window_step_x  = 4;
index 53ea81e2848ca097d22b39d1323de2d03626b1b3..964bdccca34023679a3d98ff991cba1625d9ba52 100644 (file)
@@ -47,7 +47,7 @@ DECLARE_ADD_KERNEL(add_u8_u8_s16_neon);
 template <typename ScalarType>
 void add_same_neon(const ITensor *src0, const ITensor *src1, ITensor *dst, const ConvertPolicy &policy, const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<ScalarType, wrapper::traits::BitWidth::W128>;
 
     // Create input windows
@@ -143,4 +143,4 @@ void add_same_neon(const ITensor *src0, const ITensor *src1, ITensor *dst, const
 }
 } // namespace cpu
 } // namespace arm_compute
-#endif // SRC_CORE_NEON_KERNELS_ADD_LIST_H
\ No newline at end of file
+#endif // SRC_CORE_NEON_KERNELS_ADD_LIST_H
index 81fb777ef2b73f86c05e3737024a00bcab367c82..535fb53d87ee5a24c25c9444b31ea941e81e4270 100644 (file)
@@ -473,7 +473,7 @@ void pooling2_quantized_neon_nchw(const ITensor *src, ITensor *dst0, ITensor *ds
     Iterator in(src, window_src);
     Iterator out(dst0, window);
 
-    /** NEON vector types */
+    /** Neon vector types */
     using q8x8_t    = typename wrapper::traits::neon_vector<T, 8>::type;
     using q8x16_t   = typename wrapper::traits::neon_vector<T, 16>::type;
     using q8x8x2_t  = typename std::conditional<std::is_same<T, uint8_t>::value, uint8x8x2_t, int8x8x2_t>::type;
@@ -602,7 +602,7 @@ void pooling3_quantized_neon_nchw(const ITensor *src, ITensor *dst0, ITensor *ds
     Iterator in(src, window_src);
     Iterator out(dst0, window);
 
-    /** NEON vector types */
+    /** Neon vector types */
     using q8x8_t    = typename wrapper::traits::neon_vector<T, 8>::type;
     using q8x16_t   = typename wrapper::traits::neon_vector<T, 16>::type;
     using q8x8x2_t  = typename std::conditional<std::is_same<T, uint8_t>::value, uint8x8x2_t, int8x8x2_t>::type;
@@ -756,7 +756,7 @@ void poolingMxN_quantized_neon_nchw(const ITensor *src, ITensor *dst0, ITensor *
     Iterator in(src, window_src);
     Iterator out(dst0, window);
 
-    /** NEON vector types */
+    /** Neon vector types */
     using q8x8_t  = typename wrapper::traits::neon_vector<T, 8>::type;
     using q16_t   = typename wrapper::traits::promote_t<T>;
     using q16x8_t = typename wrapper::traits::neon_vector<q16_t, 8>::type;
@@ -860,4 +860,4 @@ void poolingMxN_quantized_neon_nchw(const ITensor *src, ITensor *dst0, ITensor *
 } // namespace cpu
 } // namespace arm_compute
 
-#endif // SRC_CORE_NEON_KERNELS_QUANTIZED_H
\ No newline at end of file
+#endif // SRC_CORE_NEON_KERNELS_QUANTIZED_H
index 1aa7e8fac74bfac0fe9f4582ec56a3cea2570adc..3f9438e0c74d061cb7b41af2a02f623aac2027ae 100644 (file)
@@ -73,7 +73,7 @@ float32x4x4_t convert_int_to_float<float32x4x4_t, int8x16_t>(const int8x16_t &in
 template <typename T>
 void neon_logits_1d_max(const ITensor *in, ITensor *out, const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<T, wrapper::traits::BitWidth::W128>;
 
     constexpr int window_step_x  = 16 / sizeof(T);
@@ -304,7 +304,7 @@ void neon_softmax_logits_1d_float(const ITensor *in, const ITensor *max, void *c
     Iterator max_it(max, window);
     Iterator out_it(out, window);
 
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<T, wrapper::traits::BitWidth::W128>;
 
     constexpr int vec_size   = 16 / sizeof(T);
index d5685824fc163e24889a0506b7fa9f6dc4d7b221..8c82402513f3fd9445a6d51eab726f06544ee4b0 100644 (file)
@@ -47,7 +47,7 @@ DECLARE_SUB_KERNEL(sub_u8_u8_s16_neon);
 template <typename T>
 void sub_same_neon(const ITensor *src0, const ITensor *src1, ITensor *dst, const ConvertPolicy &policy, const Window &window)
 {
-    /** NEON vector tag type. */
+    /** Neon vector tag type. */
     using ExactTagType = typename wrapper::traits::neon_bitvector_tag_t<T, wrapper::traits::BitWidth::W128>;
 
     bool is_sat = policy == ConvertPolicy::SATURATE;
@@ -159,4 +159,4 @@ void sub_same_neon(const ITensor *src0, const ITensor *src1, ITensor *dst, const
 }
 } // namespace cpu
 } // namespace arm_compute
-#endif // SRC_CORE_NEON_KERNELS_SUB_LIST_H
\ No newline at end of file
+#endif // SRC_CORE_NEON_KERNELS_SUB_LIST_H
index 7f87710cf33eff8d1da2dc17647cebd34a93f55b..a6c4fe9aa38d584692a7668ebe527339cff14861 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -52,7 +52,7 @@ namespace graph
 {
 namespace backends
 {
-/** Register NEON backend */
+/** Register Neon backend */
 static detail::BackendRegistrar<NEDeviceBackend> NEDeviceBackend_registrar(Target::NEON);
 
 NEDeviceBackend::NEDeviceBackend()
@@ -138,7 +138,7 @@ std::unique_ptr<ITensorHandle> NEDeviceBackend::create_subtensor(ITensorHandle *
 
 std::unique_ptr<arm_compute::IFunction> NEDeviceBackend::configure_node(INode &node, GraphContext &ctx)
 {
-    ARM_COMPUTE_LOG_GRAPH_VERBOSE("Configuring NEON node with ID : " << node.id() << std::endl);
+    ARM_COMPUTE_LOG_GRAPH_VERBOSE("Configuring Neon node with ID : " << node.id() << std::endl);
     ARM_COMPUTE_ERROR_ON(node.assigned_target() != Target::NEON);
 
     // Configure node
@@ -147,7 +147,7 @@ std::unique_ptr<arm_compute::IFunction> NEDeviceBackend::configure_node(INode &n
 
 arm_compute::Status NEDeviceBackend::validate_node(INode &node)
 {
-    ARM_COMPUTE_LOG_GRAPH_VERBOSE("Validating NEON node with ID : " << node.id() << std::endl);
+    ARM_COMPUTE_LOG_GRAPH_VERBOSE("Validating Neon node with ID : " << node.id() << std::endl);
     ARM_COMPUTE_ERROR_ON(node.assigned_target() != Target::NEON);
 
     return NENodeValidator::validate(&node);
index 6a96f0a5b921114438881b69cf4b98bc14bd938d..4b3b04fdac78fd3bdaa5b0674046c721799bcd46 100644 (file)
@@ -54,7 +54,7 @@ struct NETargetInfo
 
 Target NETargetInfo::TargetType = Target::NEON;
 
-/** Collection of NEON convolution functions */
+/** Collection of Neon convolution functions */
 struct NEConvolutionLayerFunctions
 {
     using GenericConvolutionLayer  = NEConvolutionLayer;
@@ -63,7 +63,7 @@ struct NEConvolutionLayerFunctions
     using WinogradConvolutionLayer = NEWinogradConvolutionLayer;
 };
 
-/** Collection of NEON element-wise functions */
+/** Collection of Neon element-wise functions */
 struct NEEltwiseFunctions
 {
     using Addition       = NEArithmeticAddition;
@@ -72,13 +72,13 @@ struct NEEltwiseFunctions
     using Maximum        = NEElementwiseMax;
 };
 
-/** Collection of NEON unary element-wise functions */
+/** Collection of Neon unary element-wise functions */
 struct NEUnaryEltwiseFunctions
 {
     using Exp = NEExpLayer;
 };
 
-/** Function and tensor types to be used inside a NEON fused convolution/batch normalization layer */
+/** Function and tensor types to be used inside a Neon fused convolution/batch normalization layer */
 struct NEFusedLayerTypes
 {
     using ConvolutionLayer          = NEConvolutionLayer;
index 75bba4c43c70b38f34def71adc101300f8b43137..ddf41f2e3d32618a3334618b6675bfdde844c88c 100644 (file)
@@ -50,7 +50,7 @@ namespace graph
 {
 namespace backends
 {
-/** Collection of NEON element-wise functions */
+/** Collection of Neon element-wise functions */
 struct NEEltwiseLayerFunctions
 {
     using ArithmeticAddition      = NEArithmeticAddition;
@@ -59,7 +59,7 @@ struct NEEltwiseLayerFunctions
     using ElementwiseMax          = NEElementwiseMax;
 };
 
-/** Collection of NEON unary element-wise functions */
+/** Collection of Neon unary element-wise functions */
 struct NEUnaryEltwiseLayerFunctions
 {
     using ExpLayer = NEExpLayer;
index cc549ca31b0c65472f4ee84d6351a7e9a69e714d..e43d9769447abc06938c5e5084c3ecab66f24bab 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -101,7 +101,7 @@ void NEConvolutionLayer::configure(ITensor *input, const ITensor *weights, const
 Status NEConvolutionLayer::validate(const ITensorInfo *input, const ITensorInfo *weights, const ITensorInfo *biases, const ITensorInfo *output, const PadStrideInfo &conv_info,
                                     const WeightsInfo &weights_info, const Size2D &dilation, const ActivationLayerInfo &act_info, bool enable_fast_math, unsigned int num_groups)
 {
-    ARM_COMPUTE_RETURN_ERROR_ON_MSG((num_groups != 1), "Grouping (num_groups != 1) is not supported on NEON");
+    ARM_COMPUTE_RETURN_ERROR_ON_MSG((num_groups != 1), "Grouping (num_groups != 1) is not supported on Neon");
 
     const Conv2dInfo info(conv_info, dilation, act_info, enable_fast_math, num_groups);
     switch(NEConvolutionLayer::get_convolution_method(input, weights, output, conv_info, weights_info, dilation, act_info, enable_fast_math))
index 0fd21edee18c4f9c82dc271a2be4a070293d1038..8114adadc2651e261c47ec59af718bea6915535e 100644 (file)
@@ -285,7 +285,7 @@ private:
 
     /** Assembly Gemm kernel */
     std::shared_ptr<arm_gemm::GemmCommon<TypeInput, TypeOutput>> _gemm_kernel_asm{ nullptr };
-    /** Optimised NEON kernel */
+    /** Optimised Neon kernel */
     std::unique_ptr<INEKernel> _optimised_kernel{ nullptr };
     /** Input A */
     const ITensor *_a
index b8349d98db815a0d731737cb935392c32651b329..c802298f986ec16dd547430ba9d6b07d72ba4586 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2020 Arm Limited.
+ * Copyright (c) 2020-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -122,7 +122,7 @@ Status NEGEMMConv2d::validate(const ITensorInfo *input, const ITensorInfo *weigh
     ARM_COMPUTE_RETURN_ERROR_ON_DATA_TYPE_CHANNEL_NOT_IN(input, 1, DataType::QASYMM8, DataType::QASYMM8_SIGNED, DataType::BFLOAT16, DataType::F16, DataType::F32);
     ARM_COMPUTE_RETURN_ERROR_ON_DATA_TYPE_CHANNEL_NOT_IN(weights, 1, DataType::QASYMM8, DataType::QASYMM8_SIGNED, DataType::QSYMM8_PER_CHANNEL, DataType::BFLOAT16, DataType::F16, DataType::F32);
     ARM_COMPUTE_RETURN_ERROR_ON_MISMATCHING_DATA_LAYOUT(input, weights);
-    ARM_COMPUTE_RETURN_ERROR_ON_MSG(info.num_groups > 1, "Grouping (num_groups != 1) is not supported on NEON");
+    ARM_COMPUTE_RETURN_ERROR_ON_MSG(info.num_groups > 1, "Grouping (num_groups != 1) is not supported on Neon");
     ARM_COMPUTE_RETURN_ERROR_ON_MSG(input->data_layout() != DataLayout::NHWC, "Data layout supported is NHWC");
     const DataType    data_type = input->data_type();
     const TensorShape i_shape   = input->tensor_shape();
index 2d296f39ea108c93a6d929b0420955e78e6fbe13..e623d9dc74f36d9792ddb8729ba4e01ab9d962e4 100644 (file)
@@ -431,7 +431,7 @@ Status NEGEMMConvolutionLayer::validate(const ITensorInfo *input, const ITensorI
     ARM_COMPUTE_RETURN_ERROR_ON_DATA_TYPE_CHANNEL_NOT_IN(input, 1, DataType::QASYMM8, DataType::QASYMM8_SIGNED, DataType::BFLOAT16, DataType::F16, DataType::F32);
     ARM_COMPUTE_RETURN_ERROR_ON_DATA_TYPE_CHANNEL_NOT_IN(weights, 1, DataType::QASYMM8, DataType::QASYMM8_SIGNED, DataType::QSYMM8_PER_CHANNEL, DataType::BFLOAT16, DataType::F16, DataType::F32);
     ARM_COMPUTE_RETURN_ERROR_ON_MISMATCHING_DATA_LAYOUT(input, weights);
-    ARM_COMPUTE_RETURN_ERROR_ON_MSG(num_groups > 1, "Grouping (num_groups != 1) is not supported on NEON");
+    ARM_COMPUTE_RETURN_ERROR_ON_MSG(num_groups > 1, "Grouping (num_groups != 1) is not supported on Neon");
 
     const DataLayout data_layout = input->data_layout();
     const DataType   data_type   = input->data_type();
@@ -523,7 +523,7 @@ Status NEGEMMConvolutionLayer::validate(const ITensorInfo *input, const ITensorI
     if(!skip_im2col)
     {
         // Create tensor info for im2col reshaped inputs
-        // For NEON the batch size is on the fourth dimension
+        // For Neon the batch size is on the fourth dimension
         // TODO (giaiod01): Auto-initialize the output shape of im2col COMPMID-1482
         TensorShape shape_im2col = input->tensor_shape();
         shape_im2col.set(0, mat_weights_rows);
index aa607b4b44024fd5de829701da82dd3ec4e31bf2..9ebcd5f6aa6f0183d70146a326e69af3cb31d44e 100644 (file)
@@ -40,7 +40,7 @@ namespace cpu
 {
 // Forward Declarations
 class CpuPoolingAssemblyDispatch;
-/** Basic function to simulate a pooling layer with the specified pooling operation. This function calls the following NEON kernels:
+/** Basic function to simulate a pooling layer with the specified pooling operation. This function calls the following Neon kernels:
  *
  * -# @ref NEFillBorderKernel (executed if padding size is different from zero)
  * -# @ref kernels::CpuPoolingKernel
index 7da1b892f7fbfc4b5afbf854def5b20fed281d09..85a9e68fee2bbff450f1eb55a337d8c187a8fe4d 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2019 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -55,7 +55,7 @@ REGISTER_FIXTURE_DATA_TEST_CASE(RunSmall, NEScaleFixture, framework::DatasetMode
                                                                                                              datasets::BorderModes()),
                                                                                                      framework::dataset::make("SamplingPolicy", { SamplingPolicy::CENTER })));
 TEST_SUITE_END() // Scale
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace benchmark
 } // namespace test
 } // namespace arm_compute
index f69b918f4a169d588a31d51980a3a791984d43c6..a6a798f5b16b7926e9cd9cc536cf07f0db1cacf6 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -35,7 +35,7 @@ namespace arm_compute
 {
 namespace test
 {
-/** Fixture that can be used for NEON, CL and OpenGL ES */
+/** Fixture that can be used for Neon, CL and OpenGL ES */
 template <typename TensorType, typename Function, typename Accessor, typename T>
 class ScaleLayerFixture : public framework::Fixture
 {
index 217876b28b16b2f3f95711345ac9ad508af20bd8..25112f155f9ae5ae5fa140829214f5a289607aaa 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2020 Arm Limited.
+ * Copyright (c) 2020-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -140,7 +140,7 @@ const auto ScaleAlignCornersSamplingPolicySet = combine(framework::dataset::make
 }),
 framework::dataset::make("AlignCorners", { true }));
 
-/** Generated shapes: Used by NEON precommit and nightly
+/** Generated shapes: Used by Neon precommit and nightly
  * - 2D shapes with 0, 1, 2 vector iterations
  * - 3D shapes with 0, 1 vector iterations
  * - 4D shapes with 0 vector iterations
@@ -192,4 +192,4 @@ framework::dataset::make("AlignCorners", { true }));
 } // namespace datasets
 } // namespace test
 } // namespace arm_compute
-#endif /* ARM_COMPUTE_TEST_SCALE_VALIDATION_DATASET */
\ No newline at end of file
+#endif /* ARM_COMPUTE_TEST_SCALE_VALIDATION_DATASET */
index 0dae7560d6ec8a6804670826671bf484c4f82ff6..0ac9f9e5a98d095e65fcac36e70c01518eb4584c 100644 (file)
@@ -72,7 +72,7 @@ if not env['opencl']:
     files = [f for f in files if "OpenCL" not in os.path.basename(str(f))]
 
 if not framework_env['mali']:
-    # Remove MALI files
+    # Remove Mali files
     files = [f for f in files if "MaliCounter" not in os.path.basename(str(f))]
 else:
     framework_env.Append(CPPDEFINES = ['MALI_ENABLED'])
index 0df3170e8bd4ed717be50db554d87dc66a9bca2e..8731f0bc806773928bff50bb50754d9e0a06275d 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -52,7 +52,7 @@ const auto ScaleDataTypes = framework::dataset::make("DataType",
     DataType::F16,
 });
 
-/** Aligned corners, this functionality is supported only by NEON and OpenCL backends */
+/** Aligned corners, this functionality is supported only by Neon and OpenCL backends */
 const auto AlignCorners = framework::dataset::make("AlignCorners",
 {
     false,
index b39023eead81420006f1916388d5095ff6df5d42..09e3ebc378e23f94f13b55d7c736dba4b6f9f7c4 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -86,7 +86,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEAbsoluteDifferenceFixture<int16_t>, framework
 TEST_SUITE_END() // S16
 
 TEST_SUITE_END() // AbsoluteDifference
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 2b5ebbb0e77b74eca116f81ee8ac3b923ed783df..3718343a71e5e6019eea5add12e8d9bd42b25b4d 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -113,7 +113,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEAccumulateSquaredFixture<uint8_t>, framework:
 TEST_SUITE_END() // U8
 TEST_SUITE_END() // AccumulateSquared
 
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 456b96d0ea71ff3414249ae612adf8744532e9bc..577603d07d528d3e8ddfbaede29a6437d45d3fd0 100644 (file)
@@ -335,7 +335,7 @@ TEST_SUITE_END() // QSYMM16
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // ActivationLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 6aa382d9b444935a089e3eb92dda147051e156a9..0a4071076a50b7cec6d02fc2dfd5bdc55ea396ad 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -188,7 +188,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge,
 }
 TEST_SUITE_END() // QASYMM8_SIGNED
 TEST_SUITE_END() // ArgMinMax
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 5598a1106b01ea7729e75463de3f0d0f9a339de4..98341805ed3e2601df63657ec16bb0325c2b135f 100644 (file)
@@ -274,7 +274,7 @@ TEST_SUITE_END() // QSYMM16
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // ArithmeticAddition
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 12fe64c3968b1e41c11c26cf5774bbfeaf6cbe28..7a368934454e05d426a65be5e94be84424434749 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -348,7 +348,7 @@ TEST_SUITE_END() // F32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // ArithmeticSubtraction
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 5b2c83e9b5782ab0035403a860eab106736ce0dc..a1ae6971f45d4d77f7a40626c2b5410b8846730e 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -220,7 +220,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // BatchNormalizationLayerFusion
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index ff78ce8fa41adea33c5b5ac65b90164287d93cd5..a305dcbcc407bbba0a174313fcee6b0c786bf38d 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -140,7 +140,7 @@ TEST_SUITE_END()
 TEST_SUITE_END()
 
 TEST_SUITE_END() // BatchToSpace
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 8796cc1147d613d1a0f513412edd6fe513f416fa..eff649e87a1e8634b0b9fd02add5d5975799a6ea 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -53,7 +53,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NEBitwiseAndFixture<uint8_t>, framework::Datase
     validate(Accessor(_target), _reference);
 }
 TEST_SUITE_END() // BitwiseAnd
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 13b3e6d7f3c1516ffaded4f74e3027b222f09240..73b49b6ff132f241d9aceda513be1d74ed1199ca 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -53,7 +53,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NEBitwiseNotFixture<uint8_t>, framework::Datase
     validate(Accessor(_target), _reference);
 }
 TEST_SUITE_END() // BitwiseNot
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index cef712f6260a47635cb0934c6e3bb1127db9709b..61d1273b37a88b2b48451622601d114be34aace4 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -53,7 +53,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NEBitwiseOrFixture<uint8_t>, framework::Dataset
     validate(Accessor(_target), _reference);
 }
 TEST_SUITE_END() // BitwiseOr
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 3f973935df8ade587149560822f65409fc41eb94..727052ed6b18ea896196465f99ff5ec1bac6f158 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -53,7 +53,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NEBitwiseXorFixture<uint8_t>, framework::Datase
     validate(Accessor(_target), _reference);
 }
 TEST_SUITE_END() // BitwiseXor
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index c662c4107c6dd673b2ad5f3b448e4285c58337ba..2ca2434150d558d07c039c968d35b99d41b03699 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -153,7 +153,7 @@ TEST_SUITE_END() // QASYMM16
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // BBoxTransform
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index c4c350a536dfe69342c3ea8f3ae44ab79269ec5a..db73bea9cb50f8977cd7503d044e4559c6dfd219 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -188,7 +188,7 @@ CAST_SUITE(F32_to_S32, DataType::F32, DataType::S32, NECastToS32Fixture<float>,
 CAST_SUITE(F32_to_U8, DataType::F32, DataType::S32, NECastToS32Fixture<float>, CastF32toS32Dataset, one_tolerance)
 
 TEST_SUITE_END() // Cast
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index d17f9615e19be1b832e7d91888ca6273efcbc78c..924119e5bb5d582fb0991eedbf1aeefbfe4371a6 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -106,7 +106,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEChannelCombineFixture<uint8_t>, framework::Da
 TEST_SUITE_END() // YUVPlanar
 
 TEST_SUITE_END() // ChannelCombine
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 559a014e5d146a1705e08db6275d4f95783d1e4d..ba639e4f88ce2788a42c013b91993ba4bb7f7237 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -99,7 +99,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEChannelExtractFixture<uint8_t>, framework::Da
 TEST_SUITE_END() // YUVPlanar
 
 TEST_SUITE_END() // ChannelExtract
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 
 } // namespace validation
 } // namespace test
index d0fa82fc53e8eed8b59406c02c54210b8dff5b68..9a2a9f24f00bfb88df4d65bfe1241c642536498c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -134,7 +134,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // ChannelShuffle
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index ba4df979070f847a33e77bdeafe80a29bda6af91..9e2d5b70b3f157f4ff1c31e4d0c33331ee6786cd 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -234,7 +234,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEColorConvertFixture<uint8_t>, framework::Data
 TEST_SUITE_END() // NVtoYUV
 
 TEST_SUITE_END() // ColorConvert
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index e0fefe30e33d8274d2eebae4dc53818edb1a70ed..65dbbcc55b98c42e20d4000bf987d6499540c47e 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -131,7 +131,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEConvertFullyConnectedWeightsFixture<uint8_t>,
 TEST_SUITE_END() // QASYMM8
 
 TEST_SUITE_END() // ConvertFullyConnectedWeights
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 13bc34c99566b5855300fa035940a41b61e1200f..2fb43273b143b831e2678a55ab5927eb8124f274 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -45,7 +45,7 @@ namespace
 {
 /** Tolerance value for comparing reference's output against implementation
  *
- * This is due to the fact that NEON target performs multiplication with reciprocal of scale,
+ * This is due to the fact that Neon target performs multiplication with reciprocal of scale,
  * while reference performs direct division with scale.
  */
 constexpr AbsoluteTolerance<uint8_t> tolerance_u8(1);
@@ -289,7 +289,7 @@ TEST_SUITE_END() // S16
 TEST_SUITE_END() // Separable9x9
 
 TEST_SUITE_END() // CustomConvolution
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 9dff36b13924d76c7423be4ea325f6710ee7c9df..6b152c9b681d0c7a29f2130cbb126142f332e6b5 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -573,7 +573,7 @@ TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // DirectGEMMConv2d
 
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 7bcb00810f303ba8463bf47906e4646f2a134907..e2e5210e898187a2bd5b8f06e655b089c07ddbac 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -92,7 +92,7 @@ TEST_SUITE_END() // U16
 TEST_SUITE_END() // FixedSeed
 
 TEST_SUITE_END() // Copy
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 298d3933126b5e53a71303176ff37d7aab668394..df7166bfdcfa5ab97b3729b3b3416b0846fce1d0 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -187,7 +187,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall,
 TEST_SUITE_END() // S32
 
 TEST_SUITE_END() // CropResize
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 734e24fbeab47d8afd91e522b2c36668fca5afe0..adb5d1709dba0b223b43248603b498fb78935099 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -386,7 +386,7 @@ TEST_SUITE_END() // QASYMM8_SIGNED
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // DeconvolutionLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 8b581a2ce72e73234258f8ae81f26a6dd1f90ad3..60631181bfdd54159c0b1a8a4fb97c16e976217c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -608,7 +608,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEDepthConvertLayerToU8Fixture<int32_t>, framew
 TEST_SUITE_END() // S32_to_U8
 
 TEST_SUITE_END() // DepthConvertLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index d93437e36cccb3fed6577466eb5fbf35611e14d1..46ac59e95c182a2932215c0a8d334beb5f6097fe 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -109,7 +109,7 @@ TEST_SUITE_END()
 TEST_SUITE_END()
 
 TEST_SUITE_END() // DepthToSpace
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index b38818d475b8e9760f046818e0ac6c2593671da0..7a1a8ae15ee9c3617e59535aa68a3d4ea002f131 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -832,7 +832,7 @@ TEST_SUITE_END() // QSYMM8_PER_CHANNEL
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // DepthwiseConvLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index d379ce728e4a76e4f2bc556739ea8783c382e924..e1af7324001a3e2adfab52dbe5ace9aec6db2130 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -172,7 +172,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEDepthwiseConvolutionLayerNativeFixture<float>
 TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 TEST_SUITE_END() // DepthwiseConvolutionLayerNative
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
-} // namespace arm_compute
\ No newline at end of file
+} // namespace arm_compute
index bce60c7891b32a3d7e2a4d672773e1d5b9cc3c06..82a21491528cde0cc0112259d53a4bf9bd5a0dba 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -149,7 +149,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEDequantizationLayerFixture<float>, framework:
 TEST_SUITE_END() // FP32
 
 TEST_SUITE_END() // DequantizationLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index aae41e4f703597eb21742c04216196926cba61e8..b118f2fb887c0f02cddb93a97ef383c7a9ddce16 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -69,7 +69,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEDerivativeFixture, framework::DatasetMode::NI
 }
 
 TEST_SUITE_END() // Derivative
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 80b1856e5fd128afcac43622013cee96455ee99f..a166402a793d48183c596344504c40ba234a18fa 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -150,7 +150,7 @@ inline void base_test_case(DetectionPostProcessLayerInfo info, DataType data_typ
         quantize_and_fill_tensor(Accessor(anchors), anchors_vector);
     }
 
-    // Determine the output through the NEON kernel
+    // Determine the output through the Neon kernel
     Tensor                      output_boxes;
     Tensor                      output_classes;
     Tensor                      output_scores;
@@ -384,7 +384,7 @@ TEST_CASE(Quantized_regular, framework::DatasetMode::ALL)
 TEST_SUITE_END() // QASYMM8
 
 TEST_SUITE_END() // DetectionPostProcessLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 3c096f7ce66933cec4388fe1bcefd37eb9136570..362e4eb4cdc27434715a8712b4a5020aac7eaf5c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -69,7 +69,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEDilateFixture<uint8_t>, framework::DatasetMod
 }
 
 TEST_SUITE_END() // Dilate
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index cf2f5f2ea4d7ee9fb1b3e62d68b3843a6afbbd11..2f0fce2ce0f2c506819695dd34bb6cd5c0bd81f4 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -188,7 +188,7 @@ TEST_SUITE_END() // QASYMM8
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // GEMMDilatedConvolutionLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index afd9e3952f386562123f260ad1c450b2b8bc4f3f..6c47fa1cf8ca7d5ff21c23201610f6e3ce183076 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -293,7 +293,7 @@ FIXTURE_DATA_TEST_CASE(RunLargeUsecase, NEDirectConvolutionLayerFixture<float>,
 TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 TEST_SUITE_END() // DirectConvolutionLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index f135ba991356e815e5f2f003cc0c3d43b2d68071..87f4c7f187facfb52d31c0ba9d121529b5756700 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -108,7 +108,7 @@ TEST_SUITE_END() // S32
 TEST_SUITE_END() // Integer
 
 TEST_SUITE_END() // AbsLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 120bca032bf38be46a3924615f6b1b3297303993..36565602811d8b800e37035636d4dbe822d641d1 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -43,7 +43,7 @@ namespace validation
 namespace
 {
 RelativeTolerance<float> tolerance_fp32(0.000001f);
-AbsoluteTolerance<int> tolerance_zero_s32(1); // Tolerance for S32 division
+AbsoluteTolerance<int>   tolerance_zero_s32(1); // Tolerance for S32 division
 
 /** Input data sets **/
 const auto ElementwiseDivisionS32Dataset = combine(combine(framework::dataset::make("DataType", DataType::S32),
@@ -134,7 +134,7 @@ TEST_SUITE_END() // S32
 TEST_SUITE_END() // Integer
 
 TEST_SUITE_END() // ElementwiseDivision
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 3168b9ffe280116da4498e8ffd969b008f47fe1c..211e10fa45a3c1bdacebbd5b91d9c704d2fcd8d0 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -83,7 +83,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // ExpLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 81e6dc87e807cbf656d926ac733f5d948d86f14c..3115ed606588350d645379b83a66d538f176961a 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -89,7 +89,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NELogLayerFixture<float>, framework::DatasetMod
 TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 TEST_SUITE_END() // LogLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 449d5db3fc81ffd91dde2440b7ac549a953a1841..4bc263184e6f9f07f71da107d0766c2de2012748 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -200,7 +200,7 @@ TEST_SUITE_END() // F32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // ElementwiseMax
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 6678a1b52dc073b9496d9b9fe74197be2b6e9d1a..3836b9030888ba5b7ab638c472be0de82213dd55 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -202,7 +202,7 @@ TEST_SUITE_END() // F32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // ElementwiseMin
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index ae7dca1ef0a3c01162858f5e4c898311ebbb6c93..629baa80e6fe2dca5d969bc210efe9931e5e6eb2 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -114,7 +114,7 @@ TEST_SUITE_END() // S32
 TEST_SUITE_END() // Integer
 
 TEST_SUITE_END() // NegLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index beef1c874bcc164e16d2991cba925f3f8158b20f..4305387c5fe43796f14b1921a4b8beb8f8f25f48 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -133,7 +133,7 @@ TEST_SUITE_END() // F32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // ElementwisePower
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index e0f24128f65303a4deab9755e4a5d0ebed12cdfb..5ff81a5d8a556f1785aa940d7f681358e6a45158 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -82,7 +82,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NERoundLayerFixture<float>, framework::DatasetM
 TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 TEST_SUITE_END() // RoundLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 58efa28b316047347bd97edb5093c4e4736ef839..f41500cc0bc6d8c11377559dd5481213e0b1984a 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -84,7 +84,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // RsqrtLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index a2e6cb37605d0c4096f0178bdd4b00c80a2f32e3..9b212e264f228698ea1cef98c22c197a31ed3e6c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -90,7 +90,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // SinLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index b50db3d4a317ecddda83f5d59c111945a1fb66fc..069cbbd7fa9947fb9f91f4081fa6c27e22a49122 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -205,7 +205,7 @@ TEST_SUITE_END() // F32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // ElementwiseSquaredDiff
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index bc528dd9a6d3b674beb1db00f683da1c0a00114d..7125158a21607a773a4a277749994b5d9fd87820 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -173,7 +173,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 TEST_SUITE_END() // FFTConvolutionLayer
 
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 5fe92ca35e5ec75b6d57ef4ee04b0eea98e0f193..0073f226773bed3b51bd9821baa23f1fbb44d3fa 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -100,7 +100,6 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NEFillFixture<uint32_t>, framework::DatasetMode
 }
 TEST_SUITE_END() // U32
 
-
 TEST_SUITE(S32)
 FIXTURE_DATA_TEST_CASE(RunSmall, NEFillFixture<int32_t>, framework::DatasetMode::ALL, combine(datasets::SmallShapes(), framework::dataset::make("DataType", DataType::S32)))
 {
@@ -118,7 +117,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NEFillFixture<float>, framework::DatasetMode::A
 TEST_SUITE_END() // F32
 
 TEST_SUITE_END() // Fill
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index daadd56a6ca4a57c6a7b3d3a2758528c5c22b929..4ebd897c7accf33ee08408a9be282fc8777edc1f 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2019 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -100,7 +100,7 @@ TEST_SUITE_END() // FP16
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // FlattenLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 9fc3353aaf72f9084b192d37271261c0504e6d6f..62265c6ac9b75aef28068af137a0aad5b00667fb 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -214,7 +214,7 @@ TEST_SUITE_END() // FP16
 TEST_SUITE_END() // Float
 TEST_SUITE_END() // DepthwiseConvolution
 TEST_SUITE_END() // FuseBatchNormalization
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
-} // namespace arm_compute
\ No newline at end of file
+} // namespace arm_compute
index 178e7c93885f30e02373fd8d58e58f1f3c87a1a8..518f4804a06dc3c7db9b12ee1a16345d777cd948 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -547,7 +547,7 @@ TEST_SUITE_END() // BoundedReLu
 TEST_SUITE_END() // QuantizeDownInt32ToInt16ScaleByFixedPoint
 TEST_SUITE_END() // OutputStage
 TEST_SUITE_END() // GEMMLowp
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index d2d5df802aadd13048fe0883272dc9e71ae753d0..ca1e166bd19211af25db8798059930370ce68938 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -183,7 +183,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge,
 TEST_SUITE_END() // U16
 
 TEST_SUITE_END() // Gather
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 6a28fecf7fe4f8a91d52ab8b5506cb1c3f59c621..960c2054e79afad8d5e678746d755d54375de2b1 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -415,7 +415,7 @@ TEST_SUITE_END() // QASYMM8
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // GenerateProposals
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index dd138d75e31e063fe4e2bff0f939d9fc552b1acb..5da80e23bb4dc199044e5cf1b01b86dbf7d6fb49 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -43,7 +43,7 @@ namespace validation
 namespace
 {
 /* Set the tolerance (percentage) used when validating the score of detection window.
-   Note: High tolerance is required due to divergence between CL and NEON detection window scores. */
+   Note: High tolerance is required due to divergence between CL and Neon detection window scores. */
 RelativeTolerance<float> tolerance(1.0f);
 
 /* Input dataset (values must be a multiple of the HOGInfo block_size) */
index 7270744fcb52c0e8dfc26479db2c512e5b9994e9..156957a6019e64961f5e7043af21b0da8bc2dd97 100644 (file)
@@ -205,7 +205,7 @@ TEST_CASE(PaddedChannelNHWC, framework::DatasetMode::PRECOMMIT)
 }
 TEST_SUITE_END() // Special Cases
 TEST_SUITE_END() // Im2Col
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 1073a7f6f71d008a039870aa3b1ba16229439e89..593ef0ad992fe6039529b94de6d45ba8ce23deb1 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -123,7 +123,7 @@ TEST_SUITE_END() // FP16
 #endif           // __ARM_FEATURE_FP16_VECTOR_ARITHMETIC
 
 TEST_SUITE_END() // InstanceNormalizationLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 82e4beb05ad80810acc9fa14628f7d89400cacd2..56223c44d50c984422a5982dc78c72771789d7e4 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -139,7 +139,7 @@ TEST_SUITE_END() // FP16
 #endif           // __ARM_FEATURE_FP16_VECTOR_ARITHMETIC
 
 TEST_SUITE_END() // L2NormalizeLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 0850dc695423bd28300df29d5b43cab3e8416252..c4645563bf4327399d9bc3751cf4b0e8ad8d344a 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -181,7 +181,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NELSTMLayerFixture<half>, framework::DatasetMod
 TEST_SUITE_END() // FP16
 #endif           /* __ARM_FEATURE_FP16_VECTOR_ARITHMETIC */
 TEST_SUITE_END() // LSTMLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index fbcece8ffcd0845f01a41828abb040bfb0450ec7..d391267e3e70e4e76e8ecc07cc81d579924817e1 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -602,7 +602,7 @@ TEST_SUITE_END() // IntegrationTestCase
 // *INDENT-ON*
 
 TEST_SUITE_END() // LSTMLayerQuantized
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 6f1c55b33c48146e4a0328d9c1cb6c84f535e410..271d22f877f2fae80eb7f62b6fe69f2025620a16 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2020 Arm Limited.
+ * Copyright (c) 2020-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -85,7 +85,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NELogicalNotFixture<uint8_t>, framework::Datase
     validate(Accessor(_target), _reference);
 }
 TEST_SUITE_END() // LogicalNot
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
-} // namespace arm_compute
\ No newline at end of file
+} // namespace arm_compute
index a33ec2885eb5fad9514a53463fc13dc03a5d6ddf..27f131fa5100b04fda7aaae886467f807a436c90 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2020 Arm Limited.
+ * Copyright (c) 2020-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -76,7 +76,7 @@ TEST_SUITE_END() // FP16
 #endif           /* __ARM_FEATURE_FP16_VECTOR_ARITHMETIC */
 TEST_SUITE_END() // Float
 TEST_SUITE_END() // PoolingLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 11f97a5e846762b30664bc97fe423e2ab0a79a4e..20e3bd5325f10274a667b25194587540619b2145 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -118,7 +118,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // MeanStdNormalizationLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 2f9cd3dc77ab439a1a6dd492b4a9546daa4cb814..581dcb1fe2ad70cdb6e3cfafcd4f24ba7a831e92 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -92,7 +92,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEMinMaxLocationFixture<float>, framework::Data
 TEST_SUITE_END() // F32
 
 TEST_SUITE_END() // MinMaxLocation
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index d910cbdc4545bb14c7068fe55d509193d8ba308e..7260d1044e4f6d3679b71274b40afe1cc78379ef 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -126,7 +126,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // NormalizationLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index c4b3c887874b015ad34b3fad1e892a3f1983138d..69a05175ad231f198e1f168ee6d0941005dd4768 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -206,7 +206,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // PReluLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index ea9ef72e1380316715ccfcaf9de640fbcde9b17d..4947af342305dbf0b0aad68b89a686433e5b6f4a 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -188,7 +188,7 @@ TEST_SUITE_END() // QASYMM8
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // PadLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index cc5452b122173db9f062537c0895940c17c02051..24e552ed0c785f8628df42008c858bce77afdec5 100644 (file)
@@ -246,7 +246,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NEPoolingLayerQuantizedFixture<int8_t>, framewo
 TEST_SUITE_END() // QASYMM8_SIGNED
 TEST_SUITE_END() // Quantized
 TEST_SUITE_END() // PoolingLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index cc63877a5faffbffd689210bd1453ca929194a9a..9a9b9a8e3dc3ca15801ec3a30cded51847f1635c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -90,7 +90,7 @@ TEST_SUITE_END() // Float
 TEST_SUITE_END() // FP32
 
 TEST_SUITE_END() // PriorBoxLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 8925d0b39efb5ee4c14e4c4a7e8174b5a8511b55..617f64ce1d8f4b0fcd2be53af69e06b3806173a6 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2020 Arm Limited.
+ * Copyright (c) 2020-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -167,7 +167,7 @@ TEST_SUITE(Quantized)
 TEST_SUITE(QSYMM16)
 
 /** Tests will be targetting
- * - Comparison between NEON kernel and the exact same but scalar version of reference kernel
+ * - Comparison between Neon kernel and the exact same but scalar version of reference kernel
  * - Input shapes of 1D and 2D with the first dimension covers boundary values of 128-bit vector size (0~3 iterations)
  * - Weight and bias 1D shape that have same size as that of input shapes
  * - Quantization scale is greater and smaller than one.
@@ -179,7 +179,7 @@ TEST_SUITE(QSYMM16)
  * - The algorithm has been sensitive to quantization scale but it is hard to fully test
  *   the sensitivity due to aforementioned reason.
  * - Again, it is hard to fully test corner values due to the exact same algorithm of the
- *   reference kernel and the NEON kernel.
+ *   reference kernel and the Neon kernel.
  */
 
 constexpr uint32_t qsymm16_per_vector = vector_size_byte / sizeof(int16_t);
@@ -216,7 +216,7 @@ FIXTURE_DATA_TEST_CASE(RandomValue2D, NEQLSTMLayerNormalizationFixture<int16_t>,
 TEST_SUITE_END() // QSYMM16
 TEST_SUITE_END() // Quantized
 TEST_SUITE_END() // QLSTMLayerNormalization
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 
 } // namespace validation
 } // namespace test
index 36f2937cadd24c6572e926ce7c25db76f23a2030..aeee54c835c79889efc77ff73aa0e8ef66d6e79e 100644 (file)
@@ -229,7 +229,7 @@ TEST_SUITE_END() // QASYMM8_SIGNED
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // QuantizationLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 21e20527139938d504e7ad7bfe605d6e5bf17780..14d9a5d14e57a485cb4ac6e5bbeb76fac104c44f 100644 (file)
@@ -144,7 +144,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NERNNLayerFixture<half>, framework::DatasetMode
 TEST_SUITE_END() // FP16
 #endif           /* __ARM_FEATURE_FP16_VECTOR_ARITHMETIC */
 TEST_SUITE_END() // RNNLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index e475c46c7d7926205f0a57d01c0b079406dddca3..7bfdddf10d9a233043e744e6059419dc1be10f87 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -160,7 +160,7 @@ TEST_SUITE_END() // QASYMM8_SIGNED
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // RoiAlign
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 57e891d09b586f28f7a4dd391c08983b92878115..fda7b2c44895b8626e965348b8eb21f8321b8aac 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -172,7 +172,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // Range
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index d5018927c86e40d05a2cf2cdf51c0695dc338f35..b4a3f0d39930de35704075bbb61974efb958eb35 100644 (file)
@@ -208,7 +208,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge,
 TEST_SUITE_END() // QASYMM8_SIGNED
 TEST_SUITE_END() // Quantized
 TEST_SUITE_END() // ReduceMean
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index ed17e6968ec1b26658711e0b1bbc5b2977190fa6..48c3a1a788df733b3cfd72826483c42cbf095d04 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -194,7 +194,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NEReductionOperationQuantizedFixture<int8_t>, f
 TEST_SUITE_END() // QASYMM8_SIGNED
 
 TEST_SUITE_END() // ReductionOperation
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index cd8c10bd61fd862d61e528b2c28390f74b388e58..38bef51ed3338be3739e14d4867ae8dff5a86ee1 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -126,7 +126,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEReorgLayerFixture<int8_t>, framework::Dataset
 TEST_SUITE_END() // S8
 
 TEST_SUITE_END() // ReorgLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 4278f35b30aeb50b9018985b6c7ebca1889ec696..3dc3eeee805a0b2f9b4f8f294d09afe581871fa9 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -156,7 +156,7 @@ TEST_SUITE_END() // QASYMM8
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // Reverse
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 9a1e9b01b3a8ba862c8ce6ddc24cdacd6410fde7..bb1ab936d10fb3f523f75860e20e6d9d7866cb7c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -460,7 +460,7 @@ TEST_SUITE_END() // QASYMM8_SIGNED
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // Scale
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 199b520ac85eb0054fb7db9296233660b4c652c2..40744581b0d29d37c081d78a245ad59e1b765502 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -140,7 +140,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // Select
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 54b0fbf9d25eeafa5347c5d6463353f5a9ab0071..d5549c8cdbc05224a96e7d48dbffe65bc4a12382 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -111,7 +111,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // Slice
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index d9fea97e23e7b06145d2d208773bcb9d22c96da8..61642c6ff9faa391c6247648b39c844b8b2a5fcc 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -162,7 +162,7 @@ FIXTURE_DATA_TEST_CASE(Large, NESpaceToBatchLayerQuantizedFixture<uint8_t>, fram
 TEST_SUITE_END() // QASYMM8
 TEST_SUITE_END() // Quantized
 TEST_SUITE_END() // SpaceToBatch
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 2cdfb06680af8327d092ae46fae2428d3bf41ba1..6d87bc4fd49fda83ea114a831f3785d5bb04223f 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -107,7 +107,7 @@ TEST_SUITE_END() // FP16
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // SpaceToDepthLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index e7133fa53004c948dd91a9019d2bbb1135584e5e..72df2ad663f4144e37fc6955e3c71cf2a0ad1636 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -166,7 +166,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // Split
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index df0de81b4f6a09e9b4453004d689646a24036ed4..d88f713ccd5006240f42f1d42a5a5d4ff01378de 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -366,7 +366,7 @@ FIXTURE_DATA_TEST_CASE(RunLarge, NEStackLayerFixture<char>, framework::DatasetMo
 TEST_SUITE_END() // S8
 TEST_SUITE_END() // Shapes4D
 TEST_SUITE_END() // StackLayer
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 8332134b1b9f2bd687c6dc5f38c48eb54e50ce3b..a1b3cef8015347566505d76ad42f1ac9bc5cadb5 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2020 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -113,7 +113,7 @@ TEST_SUITE_END() // FP32
 TEST_SUITE_END() // Float
 
 TEST_SUITE_END() // StridedSlice
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 
 } // namespace validation
 } // namespace test
index aa96c95acaff6e4281c1d1f8b54a345b8806489a..2246c491f288f54db9d3f6b621ffdce531e4cd8f 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -134,7 +134,7 @@ TEST_SUITE_END() // QASYMM8
 TEST_SUITE_END() // Quantized
 
 TEST_SUITE_END() // Tile
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 464633e7aa07106bdbf6b1fef6e9f5968aec99a2..373cc574c8888fc20f555ec308ee462fb4c30fb5 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -117,7 +117,7 @@ FIXTURE_DATA_TEST_CASE(DynamicTensorType2Pipeline, NEDynamicTensorType2PipelineF
 }
 TEST_SUITE_END() // DynamicTensor
 TEST_SUITE_END() // UNIT
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index 6070a88d6b4eea720fcd8476309d22a717c01596..f64d380423c23d38d942025696d30604777a014c 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2019-2020 Arm Limited.
+ * Copyright (c) 2019-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -159,7 +159,7 @@ TEST_CASE(MultipleThreadedScheduller, framework::DatasetMode::ALL)
 
 TEST_SUITE_END() // RuntimeContext
 TEST_SUITE_END() // UNIT
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index aa8dcc5a6555194f03fa8f41ab3a0d4a36269d30..3e8f1ff32489477b2f83a82b1f7696ba2d2dd1ea 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018-2019 Arm Limited.
+ * Copyright (c) 2018-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -122,7 +122,7 @@ FIXTURE_DATA_TEST_CASE(RunSmall, NEUnstackFixture<uint8_t>, framework::DatasetMo
 TEST_SUITE_END() // QASYMM8
 
 TEST_SUITE_END() // Unstack
-TEST_SUITE_END() // NEON
+TEST_SUITE_END() // Neon
 } // namespace validation
 } // namespace test
 } // namespace arm_compute
index fa9e6a71b8201b9edb33e178f0cb1dae1cdcd337..937a1a06a9d8316949e2f92cf3d88a448ea6c1f1 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2018 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -67,8 +67,8 @@ protected:
         }
         else
         {
-            // When converting S32 to F16, both reference and NEON implementations are + or - infinity outside the F16 range.
-            if(dt_in==DataType::S32 && dt_out==DataType::F16)
+            // When converting S32 to F16, both reference and Neon implementations are + or - infinity outside the F16 range.
+            if(dt_in == DataType::S32 && dt_out == DataType::F16)
             {
                 std::uniform_int_distribution<int32_t> distribution_s32(-65504, 65504);
                 library->fill(tensor, distribution_s32, i);
index 91d0abfb1f4be72028fa6040ecd6ccd5e001af18..25873acc9364a6a30b24d4a766903696b18e62b0 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2019 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -40,7 +40,7 @@ inline int32_t asymm_rounding_divide_by_pow2(int32_t x, int exponent)
     return (x >> exponent) + ((x & mask) > threshold ? 1 : 0);
 }
 
-/** Multiplication of two integers. The same as ARMv7 NEON VQRDMULH instruction. */
+/** Multiplication of two integers. The same as ARMv7 Neon VQRDMULH instruction. */
 inline int32_t asymm_int_mult(int32_t a, int32_t b)
 {
     bool    overflow = a == b && a == std::numeric_limits<int32_t>::min();
index 13cd653e46c96e3e07e40664ea91f044ae665240..98f020d79e9e3e9262f2f630baf1d2a7e075a67f 100644 (file)
@@ -40,7 +40,7 @@ namespace utils
  *
  * --help             : Print the example's help message.
  * --threads          : The number of threads to be used by the example during execution.
- * --target           : Execution target to be used by the examples. Supported target options: NEON, CL, GC.
+ * --target           : Execution target to be used by the examples. Supported target options: Neon, CL, GC.
  * --type             : Data type to be used by the examples. Supported data type options: QASYMM8, F16, F32.
  * --layout           : Data layout to be used by the examples. Supported data layout options : NCHW, NHWC.
  * --enable-tuner     : Toggle option to enable the OpenCL dynamic tuner.
index acd924da287a6cf46cccd318bcf21faf1b1b02e6..056648451b7c2597c166ee8715fb50076e529668 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017-2020 Arm Limited.
+ * Copyright (c) 2017-2021 Arm Limited.
  *
  * SPDX-License-Identifier: MIT
  *
@@ -673,7 +673,7 @@ inline TensorShape permute_shape(TensorShape tensor_shape, DataLayout in_data_la
 
 /** Utility function to return the TargetHint
  *
- * @param[in] target Integer value which expresses the selected target. Must be 0 for NEON or 1 for OpenCL or 2 (OpenCL with Tuner)
+ * @param[in] target Integer value which expresses the selected target. Must be 0 for Neon or 1 for OpenCL or 2 (OpenCL with Tuner)
  *
  * @return the TargetHint
  */