btrfs-progs: docs: fix many typos, plus three edits for clarity
[platform/upstream/btrfs-progs.git] / Documentation / btrfs-device.asciidoc
index 193e273..b7f27c4 100644 (file)
@@ -24,14 +24,14 @@ similarity, the RAID terminology is widely used in the documentation.  See
 constraints.
 
 The device management works on a mounted filesystem. Devices can be added,
-removed or replaced, by commands profided by *btrfs device* and *btrfs replace*.
+removed or replaced, by commands provided by *btrfs device* and *btrfs replace*.
 
 The profiles can be also changed, provided there's enough workspace to do the
 conversion, using the *btrfs balance* command and namely the filter 'convert'.
 
 Profile::
 A profile describes an allocation policy based on the redundancy/replication
-constrants in connection with the number of devices. The profile applies to
+constraints in connection with the number of devices. The profile applies to
 data and metadata block groups separately.
 
 RAID level::
@@ -98,18 +98,21 @@ remain as such. Reloading the kernel module will drop this information. There's
 an alternative way of mounting multiple-device filesystem without the need for
 prior scanning. See the mount option 'device'.
 
-*stats* [-zs] <path>|<device>::
+*stats* [options] <path>|<device>::
 Read and print the device IO error statistics for all devices of the given
-filesystem identified by <path> or for a single <device>. See section *DEVICE
-STATS* for more information.
+filesystem identified by <path> or for a single <device>. The filesystem must
+be mounted.  See section *DEVICE STATS* for more information about the reported
+statistics and the meaning.
 +
 `Options`
 +
 -z|--reset::::
 Print the stats and reset the values to zero afterwards.
 
--s::::
-Set bit 6 of the return-code if any error statistics are non-zero.
+-c|--check::::
+Check if the stats are all zeros and return 0 it it is so. Set bit 6 of the
+return code if any of the statistics is no-zero. The error values is 65 if
+reading stats from at least one device failed, otherwise it's 64.
 
 *usage* [options] <path> [<path>...]::
 Show detailed information about internal allocations in devices.
@@ -179,11 +182,11 @@ blocks, the disk seeking is the key factor affecting performance.
 
 You'll note that the system block group has been also converted to RAID1, this
 normally happens as the system block group also holds metadata (the physical to
-logial mappings).
+logical mappings).
 
 What changed:
 
-* available data space decreased by 3GiB, usable rougly (50 - 3) + (100 - 3) = 144 GiB
+* available data space decreased by 3GiB, usable roughly (50 - 3) + (100 - 3) = 144 GiB
 * metadata redundancy increased
 
 IOW, the unequal device sizes allow for combined space for data yet improved