put registration commands to cpp files
authorYangqing Jia <jiayq84@gmail.com>
Fri, 25 Oct 2013 03:40:32 +0000 (20:40 -0700)
committerYangqing Jia <jiayq84@gmail.com>
Fri, 25 Oct 2013 03:40:32 +0000 (20:40 -0700)
14 files changed:
include/caffe/layer_register.hpp
include/caffe/vision_layers.hpp
src/caffe/layers/conv_layer.cpp
src/caffe/layers/data_layer.cpp
src/caffe/layers/dropout_layer.cu
src/caffe/layers/im2col_layer.cpp
src/caffe/layers/inner_product_layer.cpp
src/caffe/layers/loss_layer.cu
src/caffe/layers/lrn_layer.cpp
src/caffe/layers/padding_layer.cu
src/caffe/layers/pooling_layer.cpp
src/caffe/layers/relu_layer.cu
src/caffe/layers/softmax_layer.cu
src/caffe/layers/softmax_loss_layer.cu

index 1e11528..0d25123 100644 (file)
@@ -32,7 +32,7 @@ class LayerRegistry {
     if (it == layer_map_.end()) {
       LOG(FATAL) << "Unknown layer: " << name;
     }
-    return *(it->second)(param);
+    return (it->second)(param);
   }
 
  private:
index 23abccb..6ce0cf7 100644 (file)
@@ -44,7 +44,6 @@ class ReLULayer : public NeuronLayer<Dtype> {
   virtual Dtype Backward_gpu(const vector<Blob<Dtype>*>& top,
       const bool propagate_down, vector<Blob<Dtype>*>* bottom);
 };
-REGISTER_LAYER("relu", ReLULayer);
 
 
 template <typename Dtype>
@@ -70,7 +69,6 @@ class DropoutLayer : public NeuronLayer<Dtype> {
   float scale_;
   unsigned int uint_thres_;
 };
-REGISTER_LAYER("dropout", DropoutLayer);
 
 
 template <typename Dtype>
@@ -97,7 +95,6 @@ class InnerProductLayer : public Layer<Dtype> {
   bool biasterm_;
   shared_ptr<SyncedMemory> bias_multiplier_;
 };
-REGISTER_LAYER("innerproduct", InnerProductLayer);
 
 
 template <typename Dtype>
@@ -125,7 +122,6 @@ class PaddingLayer : public Layer<Dtype> {
   int HEIGHT_OUT_;
   int WIDTH_OUT_;
 };
-REGISTER_LAYER("padding", PaddingLayer);
 
 
 template <typename Dtype>
@@ -156,7 +152,6 @@ class LRNLayer : public Layer<Dtype> {
   int height_;
   int width_;
 };
-REGISTER_LAYER("lrn", LRNLayer);
 
 
 template <typename Dtype>
@@ -182,7 +177,6 @@ class Im2colLayer : public Layer<Dtype> {
   int HEIGHT_;
   int WIDTH_;
 };
-REGISTER_LAYER("im2col", Im2colLayer);
 
 
 template <typename Dtype>
@@ -210,7 +204,6 @@ class PoolingLayer : public Layer<Dtype> {
   int POOLED_HEIGHT_;
   int POOLED_WIDTH_;
 };
-REGISTER_LAYER("pool", PoolingLayer);
 
 
 template <typename Dtype>
@@ -247,7 +240,7 @@ class ConvolutionLayer : public Layer<Dtype> {
   int K_;
   int N_;
 };
-REGISTER_LAYER("conv", ConvolutionLayer);
+
 
 // This function is used to create a pthread that prefetches the data.
 template <typename Dtype>
@@ -285,7 +278,6 @@ class DataLayer : public Layer<Dtype> {
   shared_ptr<Blob<Dtype> > prefetch_label_;
   Blob<Dtype> data_mean_;
 };
-REGISTER_LAYER("data", DataLayer);
 
 
 template <typename Dtype>
@@ -311,7 +303,6 @@ class SoftmaxLayer : public Layer<Dtype> {
   // scale is an intermediate blob to hold temporary results.
   Blob<Dtype> scale_;
 };
-REGISTER_LAYER("softmax", SoftmaxLayer);
 
 
 template <typename Dtype>
@@ -334,7 +325,6 @@ class MultinomialLogisticLossLayer : public Layer<Dtype> {
   // virtual Dtype Backward_gpu(const vector<Blob<Dtype>*>& top,
   //     const bool propagate_down, vector<Blob<Dtype>*>* bottom);
 };
-REGISTER_LAYER("multinomial_logistic_loss", MultinomialLogisticLossLayer);
 
 
 // SoftmaxWithLossLayer is a layer that implements softmax and then computes
@@ -367,7 +357,6 @@ class SoftmaxWithLossLayer : public Layer<Dtype> {
   vector<Blob<Dtype>*> softmax_bottom_vec_;
   vector<Blob<Dtype>*> softmax_top_vec_;
 };
-REGISTER_LAYER("softmax_loss", SoftmaxWithLossLayer);
 
 
 template <typename Dtype>
@@ -391,7 +380,6 @@ class EuclideanLossLayer : public Layer<Dtype> {
   //     const bool propagate_down, vector<Blob<Dtype>*>* bottom);
   Blob<Dtype> difference_;
 };
-REGISTER_LAYER("euclidean_loss", EuclideanLossLayer);
 
 
 template <typename Dtype>
@@ -412,7 +400,6 @@ class AccuracyLayer : public Layer<Dtype> {
     return Dtype(0.);
   }
 };
-REGISTER_LAYER("accuracy", AccuracyLayer);
 
 
 }  // namespace caffe
index f2608be..5531b2d 100644 (file)
@@ -250,5 +250,7 @@ Dtype ConvolutionLayer<Dtype>::Backward_gpu(const vector<Blob<Dtype>*>& top,
 }
 
 INSTANTIATE_CLASS(ConvolutionLayer);
+REGISTER_LAYER("conv", ConvolutionLayer);
+
 
 }  // namespace caffe
index 9ed9516..a1b55c2 100644 (file)
@@ -225,5 +225,7 @@ Dtype DataLayer<Dtype>::Backward_gpu(const vector<Blob<Dtype>*>& top,
 }
 
 INSTANTIATE_CLASS(DataLayer);
+REGISTER_LAYER("data", DataLayer);
+
 
 }  // namespace caffe
index df94f2d..8b98dbc 100644 (file)
@@ -119,6 +119,7 @@ Dtype DropoutLayer<Dtype>::Backward_gpu(const vector<Blob<Dtype>*>& top,
 }
 
 INSTANTIATE_CLASS(DropoutLayer);
+REGISTER_LAYER("dropout", DropoutLayer);
 
 
 }  // namespace caffe
index 976c844..d0fa4e3 100644 (file)
@@ -71,5 +71,6 @@ Dtype Im2colLayer<Dtype>::Backward_gpu(const vector<Blob<Dtype>*>& top,
 }
 
 INSTANTIATE_CLASS(Im2colLayer);
+REGISTER_LAYER("im2col", Im2colLayer);
 
 }  // namespace caffe
index 18f1df0..e3a21f9 100644 (file)
@@ -140,5 +140,6 @@ Dtype InnerProductLayer<Dtype>::Backward_gpu(const vector<Blob<Dtype>*>& top,
 }
 
 INSTANTIATE_CLASS(InnerProductLayer);
+REGISTER_LAYER("innerproduct", InnerProductLayer);
 
 }  // namespace caffe
index 18a8023..f8437f9 100644 (file)
@@ -117,7 +117,11 @@ void AccuracyLayer<Dtype>::Forward_cpu(const vector<Blob<Dtype>*>& bottom,
 }
 
 INSTANTIATE_CLASS(MultinomialLogisticLossLayer);
+REGISTER_LAYER("multinomial_logistic_loss", MultinomialLogisticLossLayer);
 INSTANTIATE_CLASS(EuclideanLossLayer);
+REGISTER_LAYER("euclidean_loss", EuclideanLossLayer);
 INSTANTIATE_CLASS(AccuracyLayer);
+REGISTER_LAYER("accuracy", AccuracyLayer);
+
 
 }  // namespace caffe
index 337b77b..0876f51 100644 (file)
@@ -130,6 +130,7 @@ Dtype LRNLayer<Dtype>::Backward_cpu(const vector<Blob<Dtype>*>& top,
 }
 
 INSTANTIATE_CLASS(LRNLayer);
+REGISTER_LAYER("lrn", LRNLayer);
 
 
 }  // namespace caffe
index 90f5508..b0b21f6 100644 (file)
@@ -134,6 +134,7 @@ Dtype PaddingLayer<Dtype>::Backward_gpu(const vector<Blob<Dtype>*>& top,
 }
 
 INSTANTIATE_CLASS(PaddingLayer);
+REGISTER_LAYER("padding", PaddingLayer);
 
 
 }  // namespace caffe
index 59ce3fe..498abab 100644 (file)
@@ -182,6 +182,7 @@ Dtype PoolingLayer<Dtype>::Backward_cpu(const vector<Blob<Dtype>*>& top,
 
 
 INSTANTIATE_CLASS(PoolingLayer);
+REGISTER_LAYER("pool", PoolingLayer);
 
 
 }  // namespace caffe
index b0fc46e..79945b5 100644 (file)
@@ -84,6 +84,6 @@ Dtype ReLULayer<Dtype>::Backward_gpu(const vector<Blob<Dtype>*>& top,
 }
 
 INSTANTIATE_CLASS(ReLULayer);
-
+REGISTER_LAYER("relu", ReLULayer);
 
 }  // namespace caffe
index a765969..635de68 100644 (file)
@@ -176,6 +176,7 @@ Dtype SoftmaxLayer<Dtype>::Backward_gpu(const vector<Blob<Dtype>*>& top,
 }
 
 INSTANTIATE_CLASS(SoftmaxLayer);
+REGISTER_LAYER("softmax", SoftmaxLayer);
 
 
 }  // namespace caffe
index 3a001c0..a90968a 100644 (file)
@@ -68,6 +68,7 @@ Dtype SoftmaxWithLossLayer<Dtype>::Backward_gpu(const vector<Blob<Dtype>*>& top,
 }
 
 INSTANTIATE_CLASS(SoftmaxWithLossLayer);
+REGISTER_LAYER("softmax_loss", SoftmaxWithLossLayer);
 
 
 }  // namespace caffe