Fix typo in LRN-expression in docs
authorrickardnorlander <rickardnorlander@gmail.com>
Fri, 19 Sep 2014 18:47:44 +0000 (20:47 +0200)
committerrickardnorlander <rickardnorlander@gmail.com>
Fri, 19 Sep 2014 18:47:44 +0000 (20:47 +0200)
This is more consistent with krizhevsky2012, and it seems to be what the code does.

docs/tutorial/layers.md

index 8dd6727..5f8f519 100644 (file)
@@ -111,7 +111,7 @@ The `CONVOLUTION` layer convolves the input image with a set of learnable filter
         - `beta` [default 5]: the exponent (see below)
         - `norm_region` [default `ACROSS_CHANNELS`]: whether to sum over adjacent channels (`ACROSS_CHANNELS`) or nearby spatial locaitons (`WITHIN_CHANNEL`)
 
-The local response normalization layer performs a kind of "lateral inhibition" by normalizing over local input regions. In `ACROSS_CHANNELS` mode, the local regions extend across nearby channels, but have no spatial extent (i.e., they have shape `local_size x 1 x 1`). In `WITHIN_CHANNEL` mode, the local regions extend spatially, but are in separate channels (i.e., they have shape `1 x local_size x local_size`). Each input value is divided by $$(1 + (\alpha/n) \sum_i x_i)^\beta$$, where $$n$$ is the size of each local region, and the sum is taken over the region centered at that value (zero padding is added where necessary).
+The local response normalization layer performs a kind of "lateral inhibition" by normalizing over local input regions. In `ACROSS_CHANNELS` mode, the local regions extend across nearby channels, but have no spatial extent (i.e., they have shape `local_size x 1 x 1`). In `WITHIN_CHANNEL` mode, the local regions extend spatially, but are in separate channels (i.e., they have shape `1 x local_size x local_size`). Each input value is divided by $$(1 + (\alpha/n) \sum_i x_i^2)^\beta$$, where $$n$$ is the size of each local region, and the sum is taken over the region centered at that value (zero padding is added where necessary).
 
 #### im2col