2008-10-21 Hans Boehm <Hans.Boehm@hp.com> (really Ivan Maidanski)
authorhboehm <hboehm>
Wed, 22 Oct 2008 01:12:17 +0000 (01:12 +0000)
committerIvan Maidanski <ivmai@mail.ru>
Mon, 25 Jul 2011 12:03:24 +0000 (16:03 +0400)
* src/atomic_ops/sysdeps/aligned_atomic_load_store.h: Fix comments.
* src/atomic_ops/sysdeps/all_aligned_atomic_load_store.h: Fix comments.
* src/atomic_ops/sysdeps/all_atomic_load_store.h: Fix comments.
* src/atomic_ops/sysdeps/atomic_load_store.h: Fix comments.
* src/atomic_ops/sysdeps/char_atomic_load_store.h: Fix comments.
* src/atomic_ops/sysdeps/gcc/arm.h: Fix comments.
* src/atomic_ops/sysdeps/gcc/x86.h: Fix comments.
* src/atomic_ops/sysdeps/gcc/x86_64.h: Fix comments.
* src/atomic_ops/sysdeps/hpc/hppa.h: Fix comments.
* src/atomic_ops/sysdeps/hpc/ia64.h: Fix comments.
* src/atomic_ops/sysdeps/int_aligned_atomic_load_store.h: Fix comments.
* src/atomic_ops/sysdeps/int_atomic_load_store.h: Fix comments.
* src/atomic_ops/sysdeps/short_aligned_atomic_load_store.h: Fix comments.
* src/atomic_ops/sysdeps/short_atomic_load_store.h: Fix comments.
* src/atomic_ops.c: Fix comments.
* src/atomic_ops.h: Fix comments.
* src/atomic_ops_stack.c: Fix comments.
* src/atomic_ops_stack.h: Fix comments.

19 files changed:
ChangeLog
src/atomic_ops.c
src/atomic_ops.h
src/atomic_ops/sysdeps/aligned_atomic_load_store.h
src/atomic_ops/sysdeps/all_aligned_atomic_load_store.h
src/atomic_ops/sysdeps/all_atomic_load_store.h
src/atomic_ops/sysdeps/atomic_load_store.h
src/atomic_ops/sysdeps/char_atomic_load_store.h
src/atomic_ops/sysdeps/gcc/arm.h
src/atomic_ops/sysdeps/gcc/x86.h
src/atomic_ops/sysdeps/gcc/x86_64.h
src/atomic_ops/sysdeps/hpc/hppa.h
src/atomic_ops/sysdeps/hpc/ia64.h
src/atomic_ops/sysdeps/int_aligned_atomic_load_store.h
src/atomic_ops/sysdeps/int_atomic_load_store.h
src/atomic_ops/sysdeps/short_aligned_atomic_load_store.h
src/atomic_ops/sysdeps/short_atomic_load_store.h
src/atomic_ops_stack.c
src/atomic_ops_stack.h

index 416372c..3589234 100644 (file)
--- a/ChangeLog
+++ b/ChangeLog
@@ -1,3 +1,23 @@
+2008-10-21 Hans Boehm <Hans.Boehm@hp.com>  (really Ivan Maidanski)
+       * src/atomic_ops/sysdeps/aligned_atomic_load_store.h: Fix comments.
+       * src/atomic_ops/sysdeps/all_aligned_atomic_load_store.h: Fix comments.
+       * src/atomic_ops/sysdeps/all_atomic_load_store.h: Fix comments.
+       * src/atomic_ops/sysdeps/atomic_load_store.h: Fix comments.
+       * src/atomic_ops/sysdeps/char_atomic_load_store.h: Fix comments.
+       * src/atomic_ops/sysdeps/gcc/arm.h: Fix comments.
+       * src/atomic_ops/sysdeps/gcc/x86.h: Fix comments.
+       * src/atomic_ops/sysdeps/gcc/x86_64.h: Fix comments.
+       * src/atomic_ops/sysdeps/hpc/hppa.h: Fix comments.
+       * src/atomic_ops/sysdeps/hpc/ia64.h: Fix comments.
+       * src/atomic_ops/sysdeps/int_aligned_atomic_load_store.h: Fix comments.
+       * src/atomic_ops/sysdeps/int_atomic_load_store.h: Fix comments.
+       * src/atomic_ops/sysdeps/short_aligned_atomic_load_store.h: Fix comments.
+       * src/atomic_ops/sysdeps/short_atomic_load_store.h: Fix comments.
+       * src/atomic_ops.c: Fix comments.
+       * src/atomic_ops.h: Fix comments.
+       * src/atomic_ops_stack.c: Fix comments.
+       * src/atomic_ops_stack.h: Fix comments.
+       
 2008-10-20 Hans Boehm <Hans.Boehm@hp.com>  (really Andrew Agno)
        * src/atomic_ops/sysdeps/gcc/x86_64.h (AO_int_fetch_and_add_full):
        fix return type.
index f01b8d2..1307612 100644 (file)
@@ -59,12 +59,12 @@ pthread_mutex_t AO_pt_lock = PTHREAD_MUTEX_INITIALIZER;
  * Out of line compare-and-swap emulation based on test and set.
  * 
  * We use a small table of locks for different compare_and_swap locations.
- * Before we update perform a compare-and-swap, we grap the corresponding
+ * Before we update perform a compare-and-swap, we grab the corresponding
  * lock.  Different locations may hash to the same lock, but since we
  * never acquire more than one lock at a time, this can't deadlock.
  * We explicitly disable signals while we perform this operation.
  *
- * FIXME: We should probably also suppport emulation based on Lamport
+ * FIXME: We should probably also support emulation based on Lamport
  * locks, since we may not have test_and_set either.
  */
 #define AO_HASH_SIZE 16
index 43986e9..04bf39b 100755 (executable)
@@ -58,7 +58,7 @@
 /*       later writes.                                         */
 /* _full: Ordered with respect to both earlier and later memops.*/
 /* _release_write: Ordered with respect to earlier writes.     */
-/* _acquire_read: Ordered with repsect to later reads.         */
+/* _acquire_read: Ordered with respect to later reads.         */
 /*                                                             */
 /* Currently we try to define the following atomic memory      */
 /* operations, in combination with the above barriers:         */
 /*                                                             */
 /* The architecture dependent section:                         */
 /* This defines atomic operations that have direct hardware    */
-/* support on a particular platform, mostly by uncluding the   */
+/* support on a particular platform, mostly by including the   */
 /* appropriate compiler- and hardware-dependent file.                  */
 /*                                                             */
 /* The synthesis section:                                      */
 /* We make no attempt to synthesize operations in ways that    */
 /* effectively introduce locks, except for the debugging/demo  */
 /* pthread-based implementation at the beginning.  A more      */
-/* relistic implementation that falls back to locks could be   */
+/* realistic implementation that falls back to locks could be  */
 /* added as a higher layer.  But that would sacrifice          */
 /* usability from signal handlers.                             */
 /* The synthesis section is implemented almost entirely in     */
index 342f02b..13a6241 100644 (file)
@@ -21,7 +21,7 @@
  */ 
 
 /*
- * Definitions for architecturs on which loads and stores of AO_t are
+ * Definitions for architectures on which loads and stores of AO_t are
  * atomic fo all legal alignments.
  */
 
index b9f7247..ef96e6e 100644 (file)
@@ -22,7 +22,8 @@
 
 /*
  * Describes architectures on which AO_t, unsigned char, unsigned short,
- * and unsigned int loads and strores are atomic for all normally legal alignments.
+ * and unsigned int loads and stores are atomic for all normally legal
+ * alignments.
  */
 #include "aligned_atomic_load_store.h"
 #include "char_atomic_load_store.h"
index d0ebe08..e6d0e77 100644 (file)
@@ -22,7 +22,7 @@
 
 /*
  * Describes architectures on which AO_t, unsigned char, unsigned short,
- * and unsigned int loads and strores are atomic for all normally legal
+ * and unsigned int loads and stores are atomic for all normally legal
  * alignments.
  */
 #include "atomic_load_store.h"
index d70d29f..c69c97a 100644 (file)
@@ -21,8 +21,8 @@
  */ 
 
 /*
- * Definitions for architecturs on which loads and stores of AO_t are
- * atomic fo all legal alignments.
+ * Definitions for architectures on which loads and stores of AO_t are
+ * atomic for all legal alignments.
  */
 
 AO_INLINE AO_t
index 2d45e89..caac927 100644 (file)
@@ -21,7 +21,7 @@
  */ 
 
 /*
- * Definitions for architecturs on which loads and stores of unsigned char are
+ * Definitions for architectures on which loads and stores of unsigned char are
  * atomic for all legal alignments.
  */
 
index deff617..5b57048 100644 (file)
@@ -236,7 +236,7 @@ AO_test_and_set_full(volatile AO_TS_t *addr) {
   /* to be stored.  Both registers must be different from addr.        */
   /* Make the address operand an early clobber output so it     */
   /* doesn't overlap with the other operands.  The early clobber*/
-  /* on oldval is neccessary to prevent the compiler allocating */
+  /* on oldval is necessary to prevent the compiler allocating  */
   /* them to the same register if they are both unused.        */
   __asm__ __volatile__("swp %0, %2, [%3]"
                         : "=&r"(oldval), "=&r"(addr)
index 96fd2cb..662df3f 100644 (file)
@@ -143,7 +143,7 @@ AO_compare_double_and_swap_double_full(volatile AO_double_t *addr,
   char result;
   #if __PIC__
   /* If PIC is turned on, we can't use %ebx as it is reserved for the
-     GOT poiner.  We can save and restore %ebx because GCC won't be
+     GOT pointer.  We can save and restore %ebx because GCC won't be
      using it for anything else (such as any of the m operands) */
   __asm__ __volatile__("pushl %%ebx;"   /* save ebx used for PIC GOT ptr */
                       "movl %6,%%ebx;" /* move new_val2 to %ebx */
index 594556a..f2522b4 100644 (file)
@@ -174,7 +174,7 @@ AO_compare_double_and_swap_double_full(volatile AO_double_t *addr,
 #else
 /* this one provides spinlock based emulation of CAS implemented in    */
 /* atomic_ops.c.  We probably do not want to do this here, since it is  */
-/* not attomic with respect to other kinds of updates of *addr.  On the */
+/* not atomic with respect to other kinds of updates of *addr.  On the  */
 /* other hand, this may be a useful facility on occasion.              */
 #ifdef AO_WEAK_DOUBLE_CAS_EMULATION
 int AO_compare_double_and_swap_double_emulation(volatile AO_double_t *addr,
index 80bd94c..35edef6 100644 (file)
@@ -19,7 +19,7 @@
  * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
  * SOFTWARE. 
  * 
- * Derived from the corresponsing header file for gcc.
+ * Derived from the corresponding header file for gcc.
  * 
  */ 
 
index 99fdbb2..a7a5071 100644 (file)
@@ -22,7 +22,7 @@
 
 /*
  * This file specifies Itanimum primitives for use with the HP compiler
- * unde HP/UX.  We use intrinsics instead of the inline assembly code in the
+ * under HP/UX.  We use intrinsics instead of the inline assembly code in the
  * gcc file.
  */
 
index d9ce0b3..e49ecd3 100644 (file)
@@ -21,8 +21,8 @@
  */ 
 
 /*
- * Definitions for architecturs on which loads and stores of unsigned int are
- * atomic fo all legal alignments.
+ * Definitions for architectures on which loads and stores of unsigned int are
+ * atomic for all legal alignments.
  */
 
 AO_INLINE unsigned int
index 7c1ca11..570a850 100644 (file)
@@ -21,7 +21,7 @@
  */ 
 
 /*
- * Definitions for architecturs on which loads and stores of unsigned int are
+ * Definitions for architectures on which loads and stores of unsigned int are
  * atomic for all legal alignments.
  */
 
index a88fbf2..675766b 100644 (file)
@@ -21,8 +21,8 @@
  */ 
 
 /*
- * Definitions for architecturs on which loads and stores of unsigned short are
- * atomic fo all legal alignments.
+ * Definitions for architectures on which loads and stores of unsigned short
+ * are atomic for all legal alignments.
  */
 
 AO_INLINE unsigned short
index dcfbbd1..9ec9cf4 100644 (file)
@@ -21,8 +21,8 @@
  */ 
 
 /*
- * Definitions for architecturs on which loads and stores of unsigned short are
- * atomic for all legal alignments.
+ * Definitions for architectures on which loads and stores of unsigned short
+ * are atomic for all legal alignments.
  */
 
 AO_INLINE unsigned short
index c3df101..6cf43fd 100644 (file)
@@ -69,7 +69,7 @@ extern void AO_pause(int);
 #ifdef AO_USE_ALMOST_LOCK_FREE
 
 /* LIFO linked lists based on compare-and-swap.  We need to avoid      */
-/* the case of a node deleton and reinsertion while I'm deleting       */
+/* the case of a node deletion and reinsertion while I'm deleting      */
 /* it, since that may cause my CAS to succeed eventhough the next      */
 /* pointer is now wrong.  Our solution is not fully lock-free, but it  */
 /* is good enough for signal handlers, provided we have a suitably low */
@@ -143,7 +143,7 @@ AO_stack_push_explicit_aux_release(volatile AO_t *list, AO_t *x,
  * I concluded experimentally that checking a value first before
  * performing a compare-and-swap is usually beneficial on X86, but
  * slows things down appreciably with contention on Itanium.
- * ince the Itanium behavior makes more sense to me (more cache line
+ * Since the Itanium behavior makes more sense to me (more cache line
  * movement unless we're mostly reading, but back-off should guard
  * against that), we take Itanium as the default.  Measurements on
  * other multiprocessor architectures would be useful.  (On a uniprocessor,
@@ -234,8 +234,8 @@ void AO_stack_push_release(AO_stack_t *list, AO_t *element)
                    ( &(list -> ptr), next, (AO_t) element));
     /* This uses a narrow CAS here, an old optimization suggested      */
     /* by Treiber.  Pop is still safe, since we run into the ABA       */
-    /* problem only if there were both interveining "pop"s and "push"es.*/
-    /* Inthat case we still see a change inthe version number.         */
+    /* problem only if there were both intervening "pop"s and "push"es.        */
+    /* In that case we still see a change in the version number.       */
 }
 
 AO_t *AO_stack_pop_acquire(AO_stack_t *list)
index f0c789b..3b9d46b 100644 (file)
@@ -94,7 +94,7 @@ typedef struct AO__stack_aux {
   volatile AO_t AO_stack_bl[AO_BL_SIZE];
 } AO_stack_aux;
 
-/* The stack implementation knows only about the lecation of   */
+/* The stack implementation knows only about the location of   */
 /* link fields in nodes, and nothing about the rest of the     */
 /* stack elements.  Link fields hold an AO_t, which is not     */
 /* necessarily a real pointer.  This converts the AO_t to a    */