98282b1c0ae8a75b1ce46342de09b42844c7f52c
[platform/upstream/caffeonacl.git] / docs / index.md
1 ---
2 layout: default
3 ---
4 # Welcome to Caffe
5
6 Caffe is a framework for convolutional neural network algorithms, developed with speed in mind.
7 It was created by [Yangqing Jia](http://daggerfs.com), and is in active development by the [Berkeley Vision and Learning Center](http://bvlc.eecs.berkeley.edu).
8 Caffe is released under [the BSD 2-Clause license](https://github.com/BVLC/caffe/blob/master/LICENSE).
9
10 <!-- BVLC hosts a quick [classification demo](http://demo.caffe.berkeleyvision.org/) using Caffe. -->
11
12 ## Why Caffe?
13
14 Caffe aims to provide computer vision scientists and practitioners with a **clean and modifiable implementation** of state-of-the-art deep learning algorithms.
15 For example, network structure is easily specified in separate config files, with no mess of hard-coded parameters in the code.
16
17 At the same time, Caffe fits industry needs, with blazing fast C++/CUDA code for GPU computation.
18 Caffe is currently the fastest GPU CNN implementation publicly available, and is able to process more than **20 million images per day** on a single Tesla K20 machine \*.
19
20 Caffe also provides **seamless switching between CPU and GPU**, which allows one to train models with fast GPUs and then deploy them on non-GPU clusters with one line of code: `Caffe::set_mode(Caffe::CPU)`.
21 Even in CPU mode, computing predictions on an image takes only 20 ms when images are processed in batch mode.
22
23 ## Documentation
24
25 * [Introductory slides](https://www.dropbox.com/s/10fx16yp5etb8dv/caffe-presentation.pdf): slides about the Caffe architecture, *updated 03/14*.
26 * [Installation](/installation.html): Instructions on installing Caffe (works on Ubuntu, Red Hat, OS X).
27 * [Pre-trained models](/getting_pretrained_models.html): BVLC provides some pre-trained models for academic / non-commercial use.
28 * [Development](/development.html): Guidelines for development and contributing to Caffe.
29
30 ### Examples
31
32 * [LeNet / MNIST Demo](/mnist.html): end-to-end training and testing of LeNet on MNIST.
33 * [CIFAR-10 Demo](/cifar10.html): training and testing on the CIFAR-10 data.
34 * [Training ImageNet](/imagenet_training.html): end-to-end training of an ImageNet classifier.
35 * [Running Pretrained ImageNet \[notebook\]][pretrained_imagenet]: run classification with the pretrained ImageNet model using the Python interface.
36 * [Running Detection \[notebook\]][imagenet_detection]: run a pretrained model as a detector.
37 * [Visualizing Features and Filters \[notebook\]][visualizing_filters]: trained filters and an example image, viewed layer-by-layer.
38
39 [pretrained_imagenet]:  http://nbviewer.ipython.org/github/BVLC/caffe/blob/master/examples/imagenet_pretrained.ipynb
40 [imagenet_detection]:   http://nbviewer.ipython.org/github/BVLC/caffe/blob/master/examples/selective_search_demo.ipynb
41 [visualizing_filters]:  http://nbviewer.ipython.org/github/BVLC/caffe/blob/master/examples/filter_visualization.ipynb
42
43 ## Citing Caffe
44
45 Please kindly cite Caffe in your publications if it helps your research:
46
47     @misc{Jia13caffe,
48        Author = {Yangqing Jia},
49        Title = { {Caffe}: An Open Source Convolutional Architecture for Fast Feature Embedding},
50        Year  = {2013},
51        Howpublished = {\url{http://caffe.berkeleyvision.org/}
52     }
53
54 ### Acknowledgements
55
56 Yangqing would like to thank the NVidia Academic program for providing K20 GPUs.
57 The Caffe Matlab wrapper is courtesy of [Dr. Ross Girshick](http://www.cs.berkeley.edu/~rbg/).
58 The detection module (`power_wrapper`) is courtesy of [Sergey Karayev](http://sergeykarayev.com/).
59 Our thanks also go to [Jeff Donahue](http://jeffdonahue.com/) and [Oriol Vinyals](http://www1.icsi.berkeley.edu/~vinyals/) for various discussions along the journey.
60
61 ---
62
63 \*: When measured with the [SuperVision](http://www.image-net.org/challenges/LSVRC/2012/supervision.pdf) model that won the ImageNet Large Scale Visual Recognition Challenge 2012.