docs: Port all docstring to gtk-doc markdown
authorThibault Saunier <thibault.saunier@osg.samsung.com>
Wed, 8 Mar 2017 18:01:13 +0000 (15:01 -0300)
committerThibault Saunier <thibault.saunier@osg.samsung.com>
Wed, 12 Apr 2017 15:57:57 +0000 (12:57 -0300)
257 files changed:
ext/assrender/gstassrender.c
ext/bs2b/gstbs2b.c
ext/chromaprint/gstchromaprint.c
ext/curl/gstcurlbasesink.c
ext/curl/gstcurlfilesink.c
ext/curl/gstcurlftpsink.c
ext/curl/gstcurlhttpsink.c
ext/curl/gstcurlsftpsink.c
ext/curl/gstcurlsmtpsink.c
ext/curl/gstcurlsshsink.c
ext/curl/gstcurltlssink.c
ext/daala/gstdaaladec.c
ext/daala/gstdaalaenc.c
ext/dash/gstdashdemux.c
ext/dc1394/gstdc1394src.c
ext/directfb/dfbvideosink.c
ext/dts/gstdtsdec.c
ext/faac/gstfaac.c
ext/faad/gstfaad.c
ext/fluidsynth/gstfluiddec.c
ext/gl/gstglbumper.c
ext/gl/gstglcolorbalance.c
ext/gl/gstglcolorscale.c
ext/gl/gstgldeinterlace.c
ext/gl/gstgldifferencematte.c
ext/gl/gstgleffects.c
ext/gl/gstglfilterapp.c
ext/gl/gstglfiltercube.c
ext/gl/gstglfilterglass.c
ext/gl/gstglfilterreflectedscreen.c
ext/gl/gstglfiltershader.c
ext/gl/gstglimagesink.c
ext/gl/gstglmosaic.c
ext/gl/gstgloverlay.c
ext/gl/gstglstereomix.c
ext/gl/gstglstereosplit.c
ext/gl/gstgltestsrc.c
ext/gl/gstgltransformation.c
ext/gl/gstglvideoflip.c
ext/gl/gstglvideomixer.c
ext/gl/gstglviewconvert.c
ext/gl/gstopengl.c
ext/gtk/gstgtkbasesink.c
ext/gtk/gstgtkglsink.c
ext/gtk/gstgtksink.c
ext/gtk/gtkgstglwidget.c
ext/gtk/gtkgstwidget.c
ext/hls/gsthlsdemux.c
ext/hls/gsthlssink.c
ext/iqa/iqa.c
ext/kate/gstkatedec.c
ext/kate/gstkateenc.c
ext/kate/gstkateparse.c
ext/kate/gstkatetag.c
ext/kate/gstkatetiger.c
ext/ladspa/gstladspa.c
ext/libde265/libde265-dec.c
ext/lv2/gstlv2.c
ext/openal/gstopenalsink.c
ext/openal/gstopenalsrc.c
ext/opus/gstopusparse.c
ext/resindvd/rsndec.c
ext/resindvd/rsninputselector.c
ext/rsvg/gstrsvgdec.c
ext/rsvg/gstrsvgoverlay.c
ext/rtmp/gstrtmpsink.c
ext/rtmp/gstrtmpsrc.c
ext/sbc/gstsbcdec.c
ext/sbc/gstsbcenc.c
ext/smoothstreaming/gstmssdemux.c
ext/spandsp/gstdtmfdetect.c
ext/spandsp/gstspanplc.c
ext/srtp/gstsrtpdec.c
ext/srtp/gstsrtpenc.c
ext/teletextdec/gstteletextdec.c
ext/ttml/gstttmlparse.c
ext/ttml/gstttmlrender.c
ext/ttml/subtitle.c
ext/ttml/subtitlemeta.c
ext/voaacenc/gstvoaacenc.c
ext/voamrwbenc/gstvoamrwbenc.c
ext/vulkan/gstvulkan.c
ext/vulkan/vkbuffermemory.c
ext/vulkan/vkbufferpool.c
ext/vulkan/vkimagememory.c
ext/vulkan/vkmemory.c
ext/vulkan/vksink.c
ext/vulkan/vkupload.c
ext/vulkan/vkwindow.c
ext/wayland/gstwaylandsink.c
ext/wildmidi/gstwildmidi.c
ext/x265/gstx265enc.c
ext/zbar/gstzbar.c
gst-libs/gst/base/gstaggregator.c
gst-libs/gst/codecparsers/gsth264parser.c
gst-libs/gst/codecparsers/gsth265parser.c
gst-libs/gst/codecparsers/gstjpeg2000sampling.c
gst-libs/gst/codecparsers/gstjpegparser.c
gst-libs/gst/codecparsers/gstmpeg4parser.c
gst-libs/gst/codecparsers/gstmpegvideoparser.c
gst-libs/gst/codecparsers/gstvc1parser.c
gst-libs/gst/codecparsers/gstvp8parser.c
gst-libs/gst/codecparsers/gstvp8parser.h
gst-libs/gst/codecparsers/gstvp9parser.c
gst-libs/gst/gl/gstglapi.c
gst-libs/gst/gl/gstglbasememory.c
gst-libs/gst/gl/gstglbuffer.c
gst-libs/gst/gl/gstglbufferpool.c
gst-libs/gst/gl/gstglcolorconvert.c
gst-libs/gst/gl/gstglcontext.c
gst-libs/gst/gl/gstgldisplay.c
gst-libs/gst/gl/gstglfilter.c
gst-libs/gst/gl/gstglformat.c
gst-libs/gst/gl/gstglmemory.c
gst-libs/gst/gl/gstglmemorypbo.c
gst-libs/gst/gl/gstgloverlaycompositor.c
gst-libs/gst/gl/gstglquery.c
gst-libs/gst/gl/gstglrenderbuffer.c
gst-libs/gst/gl/gstglshader.c
gst-libs/gst/gl/gstglsl.c
gst-libs/gst/gl/gstglsyncmeta.c
gst-libs/gst/gl/gstglupload.c
gst-libs/gst/gl/gstglutils.c
gst-libs/gst/gl/gstglviewconvert.c
gst-libs/gst/mpegts/gst-dvb-descriptor.h
gst-libs/gst/mpegts/gst-scte-section.h
gst-libs/gst/player/gstplayer-g-main-context-signal-dispatcher.c
gst-libs/gst/player/gstplayer-media-info.c
gst-libs/gst/player/gstplayer-video-overlay-video-renderer.c
gst-libs/gst/player/gstplayer-visualization.c
gst-libs/gst/player/gstplayer.c
gst-libs/gst/video/gstvideoaggregator.c
gst/accurip/gstaccurip.c
gst/aiff/aiffmux.c
gst/aiff/aiffparse.c
gst/asfmux/gstasfmux.c
gst/asfmux/gstasfobjects.c
gst/audiofxbad/gstaudiochannelmix.c
gst/audiomixer/gstaudiointerleave.c
gst/audiomixer/gstaudiomixer.c
gst/audiomixmatrix/gstaudiomixmatrix.c
gst/audiovisualizers/gstspacescope.c
gst/audiovisualizers/gstspectrascope.c
gst/audiovisualizers/gstsynaescope.c
gst/audiovisualizers/gstwavescope.c
gst/autoconvert/gstautoconvert.c
gst/bayer/gstbayer2rgb.c
gst/camerabin2/camerabingeneral.c
gst/camerabin2/gstcamerabin2.c
gst/camerabin2/gstdigitalzoom.c
gst/camerabin2/gstviewfinderbin.c
gst/camerabin2/gstwrappercamerabinsrc.c
gst/coloreffects/gstchromahold.c
gst/coloreffects/gstcoloreffects.c
gst/compositor/compositor.c
gst/debugutils/fpsdisplaysink.c
gst/debugutils/gstchopmydata.c
gst/debugutils/gstdebugspy.c
gst/debugutils/gsterrorignore.c
gst/debugutils/gstwatchdog.c
gst/dvbsuboverlay/dvb-sub.c
gst/dvbsuboverlay/dvb-sub.h
gst/dvbsuboverlay/gstdvbsuboverlay.c
gst/dvdspu/gstdvdspu.c
gst/festival/gstfestival.c
gst/fieldanalysis/gstfieldanalysis.c
gst/freeverb/gstfreeverb.c
gst/gaudieffects/gstburn.c
gst/gaudieffects/gstchromium.c
gst/gaudieffects/gstdilate.c
gst/gaudieffects/gstdodge.c
gst/gaudieffects/gstexclusion.c
gst/gaudieffects/gstgaussblur.c
gst/gaudieffects/gstsolarize.c
gst/gdp/dataprotocol.c
gst/gdp/gstgdpdepay.c
gst/gdp/gstgdppay.c
gst/geometrictransform/gstbulge.c
gst/geometrictransform/gstcircle.c
gst/geometrictransform/gstdiffuse.c
gst/geometrictransform/gstfisheye.c
gst/geometrictransform/gstkaleidoscope.c
gst/geometrictransform/gstmarble.c
gst/geometrictransform/gstmirror.c
gst/geometrictransform/gstperspective.c
gst/geometrictransform/gstpinch.c
gst/geometrictransform/gstrotate.c
gst/geometrictransform/gstsphere.c
gst/geometrictransform/gstsquare.c
gst/geometrictransform/gststretch.c
gst/geometrictransform/gsttunnel.c
gst/geometrictransform/gsttwirl.c
gst/geometrictransform/gstwaterripple.c
gst/id3tag/gstid3mux.c
gst/inter/gstinteraudiosink.c
gst/inter/gstinteraudiosrc.c
gst/inter/gstintersubsink.c
gst/inter/gstintersubsrc.c
gst/inter/gstintervideosink.c
gst/inter/gstintervideosrc.c
gst/interlace/gstinterlace.c
gst/ivtc/gstcombdetect.c
gst/ivtc/gstivtc.c
gst/jp2kdecimator/gstjp2kdecimator.c
gst/jpegformat/gstjifmux.c
gst/jpegformat/gstjpegparse.c
gst/midi/midiparse.c
gst/mxf/mxfdemux.c
gst/mxf/mxfmux.c
gst/pcapparse/gstirtspparse.c
gst/pcapparse/gstpcapparse.c
gst/pnm/gstpnmdec.c
gst/pnm/gstpnmenc.c
gst/rawparse/gstaudioparse.c
gst/rawparse/gstvideoparse.c
gst/removesilence/gstremovesilence.c
gst/sdp/gstsdpdemux.c
gst/siren/gstsirendec.c
gst/siren/gstsirenenc.c
gst/speed/gstspeed.c
gst/stereo/gststereo.c
gst/timecode/gstavwait.c
gst/timecode/gsttimecodestamper.c
gst/videofilters/gstscenechange.c
gst/videofilters/gstvideodiff.c
gst/videofilters/gstzebrastripe.c
gst/videoframe_audiolevel/gstvideoframe-audiolevel.c
gst/videoparsers/gstdiracparse.c
gst/videosignal/gstsimplevideomark.c
gst/videosignal/gstsimplevideomarkdetect.c
gst/videosignal/gstvideoanalyse.c
gst/y4m/gsty4mdec.c
gst/yadif/gstyadif.c
sys/androidmedia/gstahcsrc.c
sys/androidmedia/gstahssrc.c
sys/applemedia/atdec.c
sys/applemedia/vtdec.c
sys/d3dvideosink/d3dhelpers.c
sys/d3dvideosink/d3dvideosink.c
sys/directsound/gstdirectsoundsrc.c
sys/dvb/gstdvbsrc.c
sys/kms/gstkmssink.c
sys/opensles/openslessink.c
sys/opensles/openslessrc.c
sys/shm/gstshmsink.c
sys/shm/gstshmsrc.c
sys/tinyalsa/tinyalsasink.c
sys/uvch264/gstuvch264_mjpgdemux.c
sys/uvch264/gstuvch264_src.c
sys/vdpau/gstvdpsink.h
sys/vdpau/gstvdpvideomemory.c
sys/vdpau/gstvdpvideopostprocess.c
sys/wasapi/gstwasapisink.c
sys/wasapi/gstwasapisrc.c
sys/winks/gstksvideosrc.c
sys/winscreencap/gstdx9screencapsrc.c
sys/winscreencap/gstgdiscreencapsrc.c

index a3629bfd0a3bb44f6fa342988529b49837cfbbad..07e33d4523b1ee1c2d5bd0999a2a1b846bad9467 100644 (file)
 
 /**
  * SECTION:element-assrender
+ * @title: assrender
  *
  * Renders timestamped SSA/ASS subtitles on top of a video stream.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v filesrc location=/path/to/mkv ! matroskademux name=d ! queue ! mpegaudioparse ! mpg123audiodec ! audioconvert ! autoaudiosink  d. ! queue ! h264parse ! avdec_h264 ! videoconvert ! r.   d. ! queue ! "application/x-ass" ! assrender name=r ! videoconvert ! autovideosink
  * ]| This pipeline demuxes a Matroska file with h.264 video, MP3 audio and embedded ASS subtitles and renders the subtitles on top of the video.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index dd29983a955474653afcd54a86bc150dba067209..dc597087f18decf30c617e8598d8bd34936c3fdb 100644 (file)
 
 /**
  * SECTION:element-bs2b
+ * @title: bs2b
  *
- * Improve headphone listening of stereo audio records using the bs2b library. 
+ * Improve headphone listening of stereo audio records using the bs2b library.
  * It does so by mixing the left and right channel in a way that simulates
  * a stereo speaker setup while using headphones.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 audiotestsrc ! "audio/x-raw,channel-mask=(bitmask)0x1" ! interleave name=i ! bs2b ! autoaudiosink audiotestsrc freq=330 ! "audio/x-raw,channel-mask=(bitmask)0x2" ! i.
  * ]| Play two independent sine test sources and crossfeed them.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 98b3ae3924017b9a7c60648f54083e448d72ce6a..6ebadd31a444056794a28f36ba6034e18916cb66 100644 (file)
 
 /**
  * SECTION:element-chromaprint
+ * @title: chromaprint
  *
  * The chromaprint element calculates an acoustic fingerprint for an
  * audio stream which can be used to identify a song and look up
  * further metadata from the <ulink url="http://acoustid.org/">Acoustid</ulink>
  * and Musicbrainz databases.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -m uridecodebin uri=file:///path/to/song.ogg ! audioconvert ! chromaprint ! fakesink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 40c61826d7569e50ddec6155c680ad47f29f34e4..375c46aeffbf71709dac2dc7dc490fd00b28465e 100644 (file)
 
 /**
  * SECTION:element-curlsink
+ * @title: curlsink
  * @short_description: sink that uploads data to a server using libcurl
  * @see_also:
  *
  * This is a network sink that uses libcurl as a client to upload data to
  * a server (e.g. a HTTP/FTP server).
  *
- * <refsect2>
- * <title>Example launch line (upload a JPEG file to an HTTP server)</title>
+ * ## Example launch line (upload a JPEG file to an HTTP server)
  * |[
  * gst-launch-1.0 filesrc location=image.jpg ! jpegparse ! curlsink  \
  *     file-name=image.jpg  \
@@ -35,7 +35,7 @@
  *     content-type=image/jpeg  \
  *     use-content-length=false
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index b4aa1747bef5367589fc0d5de2f3f1ef79395457..519c135ac78ddac8f604d679d2b66018f8eb9eb8 100644 (file)
 
 /**
  * SECTION:element-curlfilesink
+ * @title: curlfilesink
  * @short_description: sink that uploads data to a server using libcurl
  * @see_also:
  *
  * This is a network sink that uses libcurl as a client to upload data to
  * a local or network drive.
  *
- * <refsect2>
- * <title>Example launch line (upload a JPEG file to /home/test/images
- * directory)</title>
+ * ## Example launch line (upload a JPEG file to /home/test/images directory)
  * |[
  * gst-launch-1.0 filesrc location=image.jpg ! jpegparse ! curlfilesink  \
  *     file-name=image.jpg  \
  *     location=file:///home/test/images/
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 92b5c4e08b3fcf7a594fa5d3ed1a49dce5d797dc..55b6f6a9a0210f018734c889614857ddb6794168 100644 (file)
 
 /**
  * SECTION:element-curlftpsink
+ * @title: curlftpsink
  * @short_description: sink that uploads data to a server using libcurl
  * @see_also:
  *
  * This is a network sink that uses libcurl as a client to upload data to
  * an FTP server.
  *
- * <refsect2>
- * <title>Example launch line (upload a JPEG file to /home/test/images
- * directory)</title>
+ * ## Example launch line
+ *
+ * Upload a JPEG file to /home/test/images * directory)
+ *
  * |[
  * gst-launch-1.0 filesrc location=image.jpg ! jpegparse ! curlftpsink  \
  *     file-name=image.jpg  \
  *     location=ftp://192.168.0.1/images/
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index a50a057e4b433d8e4ec44eb9e479b317729d23d3..3df25557431050d190a3c8b98172c7e502107cfb 100644 (file)
 
 /**
  * SECTION:element-curlhttpsink
+ * @title: curlhttpsink
  * @short_description: sink that uploads data to a server using libcurl
  * @see_also:
  *
  * This is a network sink that uses libcurl as a client to upload data to
  * an HTTP server.
  *
- * <refsect2>
- * <title>Example launch line (upload a JPEG file to an HTTP server)</title>
+ * ## Example launch line
+ *
+ * Upload a JPEG file to an HTTP server.
+ *
  * |[
  * gst-launch-1.0 filesrc location=image.jpg ! jpegparse ! curlhttpsink  \
  *     file-name=image.jpg  \
@@ -35,7 +38,6 @@
  *     content-type=image/jpeg  \
  *     use-content-length=false
  * ]|
- * </refsect2>
  */
 
 #ifdef HAVE_CONFIG_H
index 939ebd8b9c35b2db7cdfe68cd5c89ad63adf3dbb..c3549c81f86fd0189ea7a23b9d09a48f7d654f70 100644 (file)
 
 /**
  * SECTION:element-curlsftpsink
+ * @title: curlsftpsink
  * @short_description: sink that uploads data to a server using libcurl
  * @see_also:
  *
  * This is a network sink that uses libcurl as a client to upload data to
  * a SFTP (SSH File Transfer Protocol) server.
  *
- * <refsect2>
- * <title>Example launch line (upload a file to /home/john/sftp_tests/)</title>
+ * ## Example launch line
+ *
+ * Upload a file to /home/john/sftp_tests/
+ *
  * |[
  * gst-launch-1.0 filesrc location=/home/jdoe/some.file ! curlsftpsink  \
  *     file-name=some.file.backup  \
@@ -36,8 +39,6 @@
  *     ssh-priv-keyfile=/home/jdoe/.ssh/id_rsa  \
  *     create-dirs=TRUE
  * ]|
- * </refsect2>
- *
  */
 
 #ifdef HAVE_CONFIG_H
index 07a147430a45dea246f682077afefa0d4fa921cf..b9e9bf2d98d4111be760d807f44217d337482c45 100644 (file)
 
 /**
  * SECTION:element-curlsink
+ * @title: curlsink
  * @short_description: sink that uploads data to a server using libcurl
  * @see_also:
  *
  * This is a network sink that uses libcurl as a client to upload data to
  * an SMTP server.
  *
- * <refsect2>
- * <title>Example launch line (upload a JPEG file to an SMTP server)</title>
+ * ## Example launch line
+ *
+ * Upload a JPEG file to an SMTP server.
+ *
  * |[
  * gst-launch-1.0 filesrc location=image.jpg ! jpegparse ! curlsmtpsink  \
  *     file-name=image.jpg  \
@@ -38,7 +41,7 @@
  *     use-ssl=TRUE  \
  *     insecure=TRUE
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index b06cbcd5bf5e80a5ee3fa7ee7304bdbf53e182de..cdbff086b03fae0defb0f4eedcfa49fc8e9ac5dd 100644 (file)
@@ -19,6 +19,7 @@
 
 /**
  * SECTION:element-curlsshsink
+ * @title: curlsshsink
  * @short_description: sink that uploads data to a server using libcurl
  * @see_also:
  *
index 35c1c1c5ad8c19150f083375c7d8de9d0be26b77..94f9d65447d3a157f09297893820b05bb8b878ee 100644 (file)
@@ -19,6 +19,7 @@
 
 /**
  * SECTION:element-curltlssink
+ * @title: curltlssink
  * @short_description: sink that uploads data to a server using libcurl
  * @see_also:
  *
index 90fb38f5d6f363a423f4ec6acad41e21a43758e0..fe3d300f67dfd0d57d8877d589ec7249e1155483 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:element-daaladec
+ * @title: daaladec
  * @see_also: daalaenc, oggdemux
  *
  * This element decodes daala streams into raw video
  * video codec maintained by the <ulink url="http://www.xiph.org/">Xiph.org
  * Foundation</ulink>.
  *
- * <refsect2>
- * <title>Example pipeline</title>
+ * ## Example pipeline
  * |[
  * gst-launch-1.0 -v filesrc location=videotestsrc.ogg ! oggdemux ! daaladec ! xvimagesink
  * ]| This example pipeline will decode an ogg stream and decodes the daala video. Refer to
  * the daalaenc example to create the ogg file.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 7209ddfa3dde2da47f80cc7c11b8998a3c2b47b9..909f14bc017c9bd521b49550de231fcf1f6d647d 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:element-daalaenc
+ * @title: daalaenc
  * @see_also: daaladec, oggmux
  *
  * This element encodes raw video into a Daala stream.
  * video codec maintained by the <ulink url="http://www.xiph.org/">Xiph.org
  * Foundation</ulink>.
  *
- * <refsect2>
- * <title>Example pipeline</title>
+ * ## Example pipeline
  * |[
  * gst-launch-1.0 -v videotestsrc num-buffers=1000 ! daalaenc ! oggmux ! filesink location=videotestsrc.ogg
  * ]| This example pipeline will encode a test video source to daala muxed in an
  * ogg container. Refer to the daaladec documentation to decode the create
  * stream.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index fe9106182c208003cc1718658b411cccb09fcbab..ddb32468c5716b325c9ff712c74e8f5c4b33f537 100644 (file)
  */
 /**
  * SECTION:element-dashdemux
+ * @title: dashdemux
  *
  * DASH demuxer element.
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 playbin uri="http://www-itec.uni-klu.ac.at/ftp/datasets/mmsys12/RedBullPlayStreets/redbull_4s/RedBullPlayStreets_4s_isoffmain_DIS_23009_1_v_2_1c2_2011_08_30.mpd"
  * ]|
index 3ab3026d0f65e8ae79379ed76f3071ae66fd637e..0c92f92311be0a9ae3a61db06e5f365737c34fcc 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:element-dc1394src
+ * @title: dc1394src
  *
  * Source for IIDC (Instrumentation & Industrial Digital Camera) firewire
  * cameras. If several cameras are connected to the system, the desired one
@@ -31,8 +32,7 @@
  * corresponding video formats are exposed in the capabilities.
  * The Bayer pattern is left unspecified.
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 -v dc1394src ! videoconvert ! autovideosink
  * ]| Capture and display frames from the first camera available in the system.
@@ -41,7 +41,7 @@
  *     ! "video/x-bayer,format=gbrg,width=1280,height=960,framerate=15/2" \
  *     ! bayer2rgb ! videoconvert ! autovideosink
  * ]| Capture and display frames from a specific camera in the desired format.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index a6f433bfa85507288bfd1a6ec444b923883acb1b..de3bf9163c1b28615683e249bfd87436d7c11b0d 100644 (file)
 
 /**
  * SECTION:element-dfbvideosink
+ * @title: dfbvideosink
  *
  * DfbVideoSink renders video frames using the
  * <ulink url="http://www.directfb.org/">DirectFB</ulink> library.
  * Rendering can happen in two different modes :
- * <itemizedlist>
- * <listitem>
- *   <para>
- *   Standalone: this mode will take complete control of the monitor forcing
+ *
+ * * Standalone: this mode will take complete control of the monitor forcing
  *   <ulink url="http://www.directfb.org/">DirectFB</ulink> to fullscreen layout.
  *   This is convenient to test using the  gst-launch-1.0 command line tool or
  *   other simple applications. It is possible to interrupt playback while
  *   being in this mode by pressing the Escape key.
- *   </para>
- *   <para>
  *   This mode handles navigation events for every input device supported by
  *   the <ulink url="http://www.directfb.org/">DirectFB</ulink> library, it will
  *   look for available video modes in the fb.modes file and try to switch
- *   the framebuffer video mode to the most suitable one. Depending on 
+ *   the framebuffer video mode to the most suitable one. Depending on
  *   hardware acceleration capabilities the element will handle scaling or not.
  *   If no acceleration is available it will do clipping or centering of the
  *   video frames respecting the original aspect ratio.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   Embedded: this mode will render video frames in a 
+ *
+ * * Embedded: this mode will render video frames in a
  *   #GstDfbVideoSink:surface provided by the
  *   application developer. This is a more advanced usage of the element and
- *   it is required to integrate video playback in existing 
+ *   it is required to integrate video playback in existing
  *   <ulink url="http://www.directfb.org/">DirectFB</ulink> applications.
- *   </para>
- *   <para>
  *   When using this mode the element just renders to the
- *   #GstDfbVideoSink:surface provided by the 
+ *   #GstDfbVideoSink:surface provided by the
  *   application, that means it won't handle navigation events and won't resize
  *   the #GstDfbVideoSink:surface to fit video
  *   frames geometry. Application has to implement the necessary code to grab
  *   informations about the negotiated geometry and resize there
  *   #GstDfbVideoSink:surface accordingly.
- *   </para>
- * </listitem>
- * </itemizedlist>
- * For both modes the element implements a buffer pool allocation system to 
- * optimize memory allocation time and handle reverse negotiation. Indeed if 
+ *
+ * For both modes the element implements a buffer pool allocation system to
+ * optimize memory allocation time and handle reverse negotiation. Indeed if
  * you insert an element like videoscale in the pipeline the video sink will
  * negotiate with it to try get a scaled video for either the fullscreen layout
  * or the application provided external #GstDfbVideoSink:surface.
  *
- * <refsect2>
- * <title>Example application</title>
- * <para>
+ * ## Example application
+ *
  * <include xmlns="http://www.w3.org/2003/XInclude" href="element-dfb-example.xml" />
- * </para>
- * </refsect2>
- * <refsect2>
- * <title>Example pipelines</title>
+ *
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v videotestsrc ! dfbvideosink hue=20000 saturation=40000 brightness=25000
  * ]| test the colorbalance interface implementation in dfbvideosink
- * </refsect2>
  */
 
 #ifdef HAVE_CONFIG_H
@@ -810,7 +796,7 @@ gst_dfbvideosink_setup (GstDfbVideoSink * dfbvideosink)
   dfbvideosink->backbuffer = FALSE;
   dfbvideosink->pixel_format = DSPF_UNKNOWN;
 
-  /* If we do it all by ourself we create the DirectFB context, get the 
+  /* If we do it all by ourself we create the DirectFB context, get the
      primary layer and use a fullscreen configuration */
   if (!dfbvideosink->ext_surface) {
     GST_DEBUG_OBJECT (dfbvideosink, "no external surface, taking over "
index 1c91ce195245455149ad3492f697f516ea117abc..2f786f738088520c8225a47f43d3aea092896c64 100644 (file)
 
 /**
  * SECTION:element-dtsdec
+ * @title: dtsdec
  *
  * Digital Theatre System (DTS) audio decoder
- * 
- * <refsect2>
- * <title>Example launch line</title>
+ *
+ * ## Example launch line
  * |[
  * gst-launch-1.0 dvdreadsrc title=1 ! mpegpsdemux ! dtsdec ! audioresample ! audioconvert ! alsasink
  * ]| Play a DTS audio track from a dvd.
  * |[
  * gst-launch-1.0 filesrc location=abc.dts ! dtsdec ! audioresample ! audioconvert ! alsasink
  * ]| Decode a standalone file and play it.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 7e3cf41482fc3248cd5ec0dab0e08baec347205a..8b861edce7b36c8364d65db6c60733aa8fdf287c 100644 (file)
 
 /**
  * SECTION:element-faac
+ * @title: faac
  * @see_also: faad
  *
  * faac encodes raw audio to AAC (MPEG-4 part 3) streams.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 audiotestsrc wave=sine num-buffers=100 ! audioconvert ! faac ! matroskamux ! filesink location=sine.mkv
  * ]| Encode a sine beep as aac and write to matroska container.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 09d927c82e5bea5c3430a8c0c3dc2c0c27d5dcc2..0c6122fdb7da7cb9c8f389ef106a69db6f3431b1 100644 (file)
 
 /**
  * SECTION:element-faad
+ * @title: faad
  * @seealso: faac
  *
  * faad decodes AAC (MPEG-4 part 3) stream.
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 filesrc location=example.mp4 ! qtdemux ! faad ! audioconvert ! audioresample ! autoaudiosink
  * ]| Play aac from mp4 file.
  * |[
  * gst-launch-1.0 filesrc location=example.adts ! faad ! audioconvert ! audioresample ! autoaudiosink
  * ]| Play standalone aac bitstream.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 62262ecd7cee249f4400f6754fc6a1d1848700cd..a98b5f90bbfe8879297a33394d189c62a6a267d1 100644 (file)
 
 /**
  * SECTION:element-fluiddec
+ * @title: fluiddec
  * @see_also: timidity, wildmidi
  *
  * This element renders midi-events as audio streams using
  * <ulink url="http://fluidsynth.sourceforge.net//">Fluidsynth</ulink>.
  * It offers better sound quality compared to the timidity or wildmidi element.
  *
- * <refsect2>
- * <title>Example pipeline</title>
+ * ## Example pipeline
  * |[
  * gst-launch-1.0 filesrc location=song.mid ! midiparse ! fluiddec ! pulsesink
  * ]| This example pipeline will parse the midi and render to raw audio which is
  * played via pulseaudio.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 9fdb4a0798aae57d5dbdded36b5d9318495b9ec0..8dd812cb81ba85131cefe5821dacc68ab1c3f444 100644 (file)
 
 /**
  * SECTION:element-glbumper
+ * @title: glbumper
  *
  * Bump mapping using the normal method.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 -v videotestsrc ! glupload ! glbumper location=normalmap.bmp ! glimagesink
  * ]| A pipeline to test normal mapping.
  * FBO (Frame Buffer Object) and GLSL (OpenGL Shading Language) are required.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 33b5a50a3b8ac775e60316bd1628b0ce79233c98..c2482a3d6e4e47a37f444e4fc975e036e6a24d13 100644 (file)
 
 /**
  * SECTION:element-glcolorbalance
+ * @title: glcolorbalance
  *
  * Adjusts brightness, contrast, hue, saturation on a video stream.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 videotestsrc ! glupload ! glcolorbalance saturation=0.0 ! glcolorconvert ! gldownload ! ximagesink
  * ]| This pipeline converts the image to black and white by setting the
  * saturation to 0.0.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 2ca5480e9b4623e031580e16a0ede8e8a435fa90..b7b0709dc09133f94c43b5a5b5ced23bea5bc5a6 100644 (file)
 
 /**
  * SECTION:element-glcolorscale
+ * @title: glcolorscale
  *
  * video frame scaling and colorspace conversion.
  *
- * <refsect2>
- * <title>Scaling and Color space conversion</title>
- * <para>
+ * ## Scaling and Color space conversion
+ *
  * Equivalent to glupload ! gldownload.
- * </para>
- * </refsect2>
- * <refsect2>
- * <title>Examples</title>
+ *
+ * ## Examples
  * |[
  * gst-launch-1.0 -v videotestsrc ! video/x-raw ! glcolorscale ! ximagesink
  * ]| A pipeline to test colorspace conversion.
@@ -40,7 +38,7 @@
  *   video/x-raw, width=320, height=240, format=YV12 ! videoconvert ! autovideosink
  * ]| A pipeline to test hardware scaling and colorspace conversion.
  * FBO and GLSL are required.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 568f26702a4fa3f5d872ce428979e1f9f0fd2391..dbc2c24d4ac680bedfb57a1ee249a6837d54f859 100644 (file)
 
 /**
  * SECTION:element-deinterlace
+ * @title: deinterlace
  *
  * Deinterlacing using based on fragment shaders.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 videotestsrc ! glupload ! gldeinterlace ! glimagesink
  * ]|
  * FBO (Frame Buffer Object) and GLSL (OpenGL Shading Language) are required.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index b50e69bf7406eac12fddc3f78ff0b8e08d1e26f2..aa1092a17635ba3d3b4d6db62f3e1082ab448b3b 100644 (file)
 
 /**
  * SECTION:element-gldifferencematte.
+ * @title: gldifferencematte.
  *
  * Saves a background frame and replace it with a pixbuf.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 videotestsrc ! glupload ! gldifferencemate location=backgroundimagefile ! glimagesink
  * ]|
  * FBO (Frame Buffer Object) and GLSL (OpenGL Shading Language) are required.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 2af3368afab2d6fc49516c45c6e42dc5637c3102..d8a7da107d111fa6767ad0bd408637b73c2eb072 100644 (file)
 
 /**
  * SECTION:element-gleffects.
+ * @title: gleffects.
  *
  * GL Shading Language effects.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 videotestsrc ! glupload ! gleffects effect=5 ! glimagesink
  * ]|
  * FBO (Frame Buffer Object) and GLSL (OpenGL Shading Language) are required.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 925373b896ea8de70beea11f73e22f45f7ea67a5..fc2e6ac5e1ff474892b4724c541543a957109d81 100644 (file)
 
 /**
  * SECTION:element-glfilterapp
+ * @title: glfilterapp
  *
  * The resize and redraw callbacks can be set from a client code.
  *
- * <refsect2>
- * <title>CLient callbacks</title>
- * <para>
- * The graphic scene can be written from a client code through the 
+ * ## CLient callbacks
+ *
+ * The graphic scene can be written from a client code through the
  * two glfilterapp properties.
- * </para>
- * </refsect2>
- * <refsect2>
- * <title>Examples</title>
+ *
+ * ## Examples
  * see gst-plugins-gl/tests/examples/generic/recordgraphic
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 735d45e5ed3eb8789ad626358fb5bcf408327ca3..427782afd995f8957d070377f8f74badb1318eff 100644 (file)
 
 /**
  * SECTION:element-glfiltercube
+ * @title: glfiltercube
  *
  * The resize and redraw callbacks can be set from a client code.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 -v videotestsrc ! glfiltercube ! glimagesink
  * ]| A pipeline to mpa textures on the 6 cube faces..
@@ -37,7 +37,7 @@
  * gst-launch-1.0 -v videotestsrc ! video/x-raw, width=640, height=480  ! glfiltercube ! glimagesink
  * ]| Resize scene before drawing the cube.
  * The scene size is greater than the input video size.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 254199dd5c3b38d1aeff18db9b55f1240b6da401..ea20239a476601d34c88a59f83da78b39cec2872 100644 (file)
 
 /**
  * SECTION:element-glfilterglass
+ * @title: glfilterglass
  *
  * Map textures on moving glass.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 -v videotestsrc ! glfilterglass ! glimagesink
  * ]| A pipeline inspired from http://www.mdk.org.pl/2007/11/17/gl-colorspace-conversions
@@ -33,7 +33,7 @@
  * |[
  * gst-launch-1.0 -v videotestsrc ! glfilterglass ! video/x-raw, width=640, height=480 ! glimagesink
  * ]| The scene is greater than the input size.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index fb15338906b623a7529dcf9e111ae1e1b0ce6e7a..62ccd9bf7de396805c0365f53b4d1fa54943a110 100644 (file)
 
 /**
  * SECTION:element-glfilterreflectedscreen
+ * @title: glfilterreflectedscreen
  *
  * Map Video Texture upon a screen, on a reflecting surface
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 videotestsrc ! glupload ! glfilterreflectedscreen ! glimagesink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index f3434690b402413a9852bf92dde5aae0c8cc1d3c..8f5a990cf415026649e11ae1982caec18069f181 100644 (file)
 
 /**
  * SECTION:element-glshader
+ * @title: glshader
  *
  * OpenGL fragment shader filter
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 videotestsrc ! glupload ! glshader fragment="\"`cat myshader.frag`\"" ! glimagesink
  * ]|
  * uniform float time;
  * uniform float width;
  * uniform float height;
- * 
+ *
  * void main () {
  *   gl_FragColor = texture2D( tex, v_texcoord );
  * }
  * ]|
  *
- * </refsect2>
  */
 #ifdef HAVE_CONFIG_H
 #include "config.h"
index 1c8d314f2c71e01c851b0b7ce5f530e5e308bb2a..f6a61ac920c6fce6a413995b1a3dd9e88de5a7d0 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:element-glimagesink
+ * @title: glimagesink
  *
  * glimagesink renders video frames to a drawable on a local or remote
  * display using OpenGL. This element can receive a Window ID from the
  * See the #GstGLDisplay documentation for a list of environment variables that
  * can override window/platform detection.
  *
- * <refsect2>
- * <title>Scaling</title>
- * <para>
+ * ## Scaling
+ *
  * Depends on the driver, OpenGL handles hardware accelerated
  * scaling of video frames. This means that the element will just accept
  * incoming video frames no matter their geometry and will then put them to the
  * drawable scaling them on the fly. Using the #GstGLImageSink:force-aspect-ratio
  * property it is possible to enforce scaling with a constant aspect ratio,
  * which means drawing black borders around the video frame.
- * </para>
- * </refsect2>
- * <refsect2>
- * <title>Events</title>
- * <para>
+ *
+ * ## Events
+ *
  * Through the gl thread, glimagesink handle some events coming from the drawable
  * to manage its appearance even when the data is not flowing (GST_STATE_PAUSED).
  * That means that even when the element is paused, it will receive expose events
  * from the drawable and draw the latest frame with correct borders/aspect-ratio.
- * </para>
- * </refsect2>
- * <refsect2>
- * <title>Examples</title>
+ *
+ * ## Examples
  * |[
  * gst-launch-1.0 -v videotestsrc ! video/x-raw ! glimagesink
  * ]| A pipeline to test hardware scaling.
@@ -80,7 +76,7 @@
  * ]| The graphic FPS scene can be greater than the input video FPS.
  * The graphic scene can be written from a client code through the
  * two glfilterapp properties.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index fcd4926a7760e1659fd1058a01c8ba2582020a82..77aec599cde23c986b0645e417bf0462939a7965 100644 (file)
 
 /**
  * SECTION:element-glmosaic
+ * @title: glmosaic
  *
  * glmixer sub element. N gl sink pads to 1 source pad.
  * N + 1 OpenGL contexts shared together.
  * N <= 6 because the rendering is more a like a cube than a mosaic
  * Each opengl input stream is rendered on a cube face
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 videotestsrc ! video/x-raw, format=YUY2 ! queue ! glmosaic name=m ! glimagesink \
  *     videotestsrc pattern=12 ! video/x-raw, format=I420, framerate=5/1, width=100, height=200 ! queue ! m. \
@@ -37,7 +37,7 @@
  *     videotestsrc ! gleffects effect=6 ! queue ! m.
  * ]|
  * FBO (Frame Buffer Object) is required.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 8c21bac77347302d03cd011403b9adbf4ae90c79..173d11820ca0d987238b6cc35e2a4a73548f35fd 100644 (file)
 
 /**
  * SECTION:element-gloverlay
+ * @title: gloverlay
  *
  * Overlay GL video texture with a PNG image
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 videotestsrc ! gloverlay location=image.jpg ! glimagesink
  * ]|
  * FBO (Frame Buffer Object) is required.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 18e7111a7f93e0d682ba3f1eeab222819d7e808d..78a2934fadc8b8e76662c27f96774a2a9fafdf3a 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:element-glstereomix
+ * @title: glstereomix
  *
  * Combine 2 input streams to produce a stereoscopic output
  * stream. Input views are taken from the left pad and right pad
@@ -34,8 +35,7 @@
  * The multiview representation on the output is chosen according to
  * the downstream caps.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 -v videotestsrc pattern=ball name=left \
  *     videotestsrc name=right glstereomix name=mix \
  *     right. ! video/x-raw,width=640,height=480 ! glupload ! mix.  \
  *     mix. ! video/x-raw'(memory:GLMemory)',multiview-mode=top-bottom ! \
  *     glcolorconvert ! gldownload ! queue ! x264enc ! h264parse ! \
- *     mp4mux ! progressreport ! filesink location=output.mp4 
+ *     mp4mux ! progressreport ! filesink location=output.mp4
  * ]| Mix the input from a camera to the left view, and videotestsrc to the right view,
  *    and encode as a top-bottom frame packed H.264 video.
- * </refsect2>
+ *
  */
 #ifdef HAVE_CONFIG_H
 #include "config.h"
index 5650ab4d64c50fd36ccd51ea0f37c34c9b5a7bc9..933f3c59399d154e0784b62f041d17b6554e4a45 100644 (file)
 
 /**
  * SECTION:element-glstereosplit
+ * @title: glstereosplit
  *
  * Receive a stereoscopic video stream and split into left/right
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 videotestsrc ! glstereosplit name=s ! queue ! glimagesink s. ! queue ! glimagesink
  * ]|
  * FBO (Frame Buffer Object) and GLSL (OpenGL Shading Language) are required.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 83218b4ac1e2dd86368d1a7eeeeeb0c6af61d5ff..e9c7df85acbda9ba1e0dfc0fe2ba766a57c6a967 100644 (file)
 
 /**
  * SECTION:element-gltestsrc
+ * @title: gltestsrc
  *
- * <refsect2>
- * <para>
  * The gltestsrc element is used to produce test video texture.
  * The video test produced can be controlled with the "pattern"
  * property.
- * </para>
- * <title>Example launch line</title>
- * <para>
- * <programlisting>
+ *
+ * ## Example launch line
+ *
+ * |[
  * gst-launch-1.0 -v gltestsrc pattern=smpte ! glimagesink
- * </programlisting>
+ * ]|
  * Shows original SMPTE color bars in a window.
- * </para>
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index f6c9e3f26ee6312d7dbdcb11a6b23c9200a9077c..729a9f6535964829ced57f6cda4fa324d09a6f9b 100644 (file)
 
 /**
  * SECTION:element-gltransformation
+ * @title: gltransformation
  *
  * Transforms video on the GPU.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 gltestsrc ! gltransformation rotation-z=45 ! glimagesink
  * ]| A pipeline to rotate by 45 degrees
@@ -38,7 +38,7 @@
  * |[
  * gst-launch-1.0 gltestsrc ! gltransformation rotation-x=-45 ortho=True ! glimagesink
  * ]| Rotate the video around the X-Axis by -45° with an orthographic projection
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 5d2dac5ee8ce3658899e1c557954d7520bab5ffe..d5bb2ac57d5051e5bb2a56200aead77daf0b6bb4 100644 (file)
 
 /**
  * SECTION:element-glvideo_flip
+ * @title: glvideo_flip
  *
  * Transforms video on the GPU.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 videotestsrc ! glupload ! glvideoflip method=clockwise ! glimagesinkelement
  * ]| This pipeline flips the test image 90 degrees clockwise.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index ebd6827524fca508cccf86d0e53e70e8d4d9540c..5df126d8781549b3da8673d025507bd6a1a1777b 100644 (file)
 
 /**
  * SECTION:element-glvideomixer
+ * @title: glvideomixer
  *
  * Composites a number of streams into a single output scene using OpenGL in
  * a similar fashion to compositor and videomixer. See the compositor plugin
  * for documentation about the #GstGLVideoMixerPad properties.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0  glvideomixer name=m ! glimagesink \
  *     videotestsrc ! video/x-raw, format=YUY2 ! glupload ! glcolorconvert ! m. \
@@ -36,7 +36,7 @@
  *     videotestsrc ! glupload ! glfiltercube ! queue ! m. \
  *     videotestsrc ! glupload ! gleffects effect=6 ! queue ! m.gst-launch-1.0  glvideomixer name=m ! glimagesink \
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 617df449d1d463cb250f13791b5815a56e104149..670305c815b4450fe7640b9e990123d10b35ccc7 100644 (file)
 
 /**
  * SECTION:element-glviewconvert
+ * @title: glviewconvert
  *
  * Convert stereoscopic video between different representations using fragment shaders.
  *
  * The element can use either property settings or caps negotiation to choose the
  * input and output formats to process.
  *
- * <refsect2>
- * <title>Examples</title>
+ * ## Examples
  * |[
  * gst-launch-1.0 videotestsrc ! glupload ! glviewconvert ! glimagesink
  * ]| Simple placebo example demonstrating identity passthrough of mono video
@@ -39,7 +39,7 @@
  * ]| Force re-interpretation of the input checkers pattern as a side-by-side stereoscopic
  *    image and display in glimagesink.
  * FBO (Frame Buffer Object) and GLSL (OpenGL Shading Language) are required.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 4a8c4d6a1be9c8085ab3d693be023a77701b1c05..75f8d3332173f3d03b8747e47fc4a80251bd613c 100644 (file)
 
 /**
  * SECTION:plugin-opengl
+ * @title: GstOpengl
  *
  * Cross-platform OpenGL plugin.
- * <refsect2>
- * <title>Debugging</title>
- * </refsect2>
- * <refsect2>
- * <title>Examples</title>
+ *
+ * ## Debugging
+ *
+ * ## Examples
  * |[
  * gst-launch-1.0 --gst-debug=gldisplay:3 videotestsrc ! glimagesink
  * ]| A debugging pipeline.
   |[
  * GST_DEBUG=gl*:6 gst-launch-1.0 videotestsrc ! glimagesink
  * ]| A debugging pipelines related to shaders.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 44c8cbd46ecaf1c0c54b1e4e63f1019742b6f776..843c97f1b66a2fc9c8e7a50d99766b932bb546cc 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gtkgstsink
+ * @title: GstGtkBaseSink
  *
  */
 
index 2bdd331c658283ec7cf07068b7ec89b44c390863..56326882a9d2181947179dadb2f5cb6ddd378848 100644 (file)
@@ -19,8 +19,8 @@
  */
 
 /**
- * SECTION:gstgtkglsink
- *
+ * SECTION:element-gtkglsink
+ * @title: gtkglsink
  */
 
 #ifdef HAVE_CONFIG_H
index e9f9d0cc725054127996f56372e005ff5b3abb64..ba8ea33ca00847a0a4d4046edc60a772bfe2ecde 100644 (file)
@@ -19,7 +19,8 @@
  */
 
 /**
- * SECTION:gtkgstsink
+ * SECTION:element-gtkgstsink
+ * @title: gtkgstsink
  *
  */
 
index e780ebd3861bedb778ac4a54da61f8607fb178f0..ea0fe2f8abe4760a4ea85f873f56235f14790945 100644 (file)
@@ -41,6 +41,7 @@
 
 /**
  * SECTION:gtkgstglwidget
+ * @title: GtkGstGlWidget
  * @short_description: a #GtkGLArea that renders GStreamer video #GstBuffers
  * @see_also: #GtkGLArea, #GstBuffer
  *
index 5fe238a5458594ffee3d71b308d3595554262997..a936210ba1e8221e353549dec555978a7aa4c3d4 100644 (file)
@@ -29,6 +29,7 @@
 
 /**
  * SECTION:gtkgstwidget
+ * @title: GtkGstWidget
  * @short_description: a #GtkWidget that renders GStreamer video #GstBuffers
  * @see_also: #GtkDrawingArea, #GstBuffer
  *
index b75e600ca69b14c87272edea0544efc82a6a0747..ea49fd0ee96a2e948bf36cc7f25baeb2f0bfa66c 100644 (file)
  */
 /**
  * SECTION:element-hlsdemux
+ * @title: hlsdemux
  *
  * HTTP Live Streaming demuxer element.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 souphttpsrc location=http://devimages.apple.com/iphone/samples/bipbop/gear4/prog_index.m3u8 ! hlsdemux ! decodebin ! videoconvert ! videoscale ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index b56ef6c8f7c295b380bd46b1453cfe0abbfe092f..9ae6ca6d3f1c057eff3c6b76447a3b2f1d92527b 100644 (file)
 
 /**
  * SECTION:element-hlssink
+ * @title: hlssink
  *
  * HTTP Live Streaming sink/server
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 videotestsrc is-live=true ! x264enc ! mpegtsmux ! hlssink max-files=5
  * ]|
- * </refsect2>
+ *
  */
 #ifdef HAVE_CONFIG_H
 #include "config.h"
index de09e81f268ff87fccb5a6fd09d011f74422b330..b91275f6fbcdb7f2512dab15369e3aaf85dc582c 100644 (file)
@@ -19,6 +19,7 @@
 
 /**
  * SECTION:element-iqa
+ * @title: iqa
  * @short_description: Image Quality Assessment plugin.
  *
  * IQA will perform full reference image quality assessment, with the
  * sink_2\=\(double\)0.0082939683976297474\;",
  * time=(guint64)0;
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -m uridecodebin uri=file:///test/file/1 ! iqa name=iqa do-dssim=true \
  * ! videoconvert ! autovideosink uridecodebin uri=file:///test/file/2 ! iqa.
  * ]| This pipeline will output messages to the console for each set of compared frames.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 88a56660dd99d21f24a25daf561d6a2b15cbb46d..65b29bfdbe5f023f3bcd415f6d8f59611df96e18 100644 (file)
 
 /**
  * SECTION:element-katedec
+ * @title: katedec
  * @see_also: oggdemux
  *
- * <refsect2>
- * <para>
  * This element decodes Kate streams
  * <ulink url="http://libkate.googlecode.com/">Kate</ulink> is a free codec
  * for text based data, such as subtitles. Any number of kate streams can be
  * embedded in an Ogg stream.
- * </para>
- * <para>
+ *
  * libkate (see above url) is needed to build this plugin.
- * </para>
- * <title>Example pipeline</title>
- * <para>
+ *
+ * ## Example pipeline
+ *
  * This explicitely decodes a Kate stream:
- * <programlisting>
+ * |[
  * gst-launch-1.0 filesrc location=test.ogg ! oggdemux ! katedec ! fakesink silent=TRUE
- * </programlisting>
- * </para>
- * <para>
+ * ]|
+ *
  * This will automatically detect and use any Kate streams multiplexed
  * in an Ogg stream:
- * <programlisting>
+ * |[
  * gst-launch-1.0 playbin uri=file:///tmp/test.ogg
- * </programlisting>
- * </para>
- * </refsect2>
+ * ]|
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 12bd1c842e028bc9b4e9158c456b21ec4ad8dd6c..5b109c988712d257052414de0dd7b96f1f4c4d20 100644 (file)
 
 /**
  * SECTION:element-kateenc
+ * @title: kateenc
  * @see_also: oggmux
  *
- * <refsect2>
- * <para>
  * This element encodes Kate streams
  * <ulink url="http://libkate.googlecode.com/">Kate</ulink> is a free codec
  * for text based data, such as subtitles. Any number of kate streams can be
  * embedded in an Ogg stream.
- * </para>
- * <para>
+ *
  * libkate (see above url) is needed to build this plugin.
- * </para>
- * <title>Example pipeline</title>
- * <para>
+ *
+ * ## Example pipeline
+ *
  * This encodes a DVD SPU track to a Kate stream:
- * <programlisting>
+ * |[
  * gst-launch-1.0 dvdreadsrc ! dvddemux ! dvdsubparse ! kateenc category=spu-subtitles ! oggmux ! filesink location=test.ogg
- * </programlisting>
- * </para>
- * </refsect2>
+ * ]|
+ *
  */
 
 /* FIXME:
index 0cb9db0f33d08d5d5904e3d6cd1420b385184738..83e3270d984e59dc00e2cf30884ac2bcbd6f97ec 100644 (file)
 
 /**
  * SECTION:element-kateparse
+ * @title: kateparse
  * @short_description: parses kate streams
  * @see_also: katedec, vorbisparse, oggdemux, theoraparse
  *
- * <refsect2>
- * <para>
  * The kateparse element will parse the header packets of the Kate
  * stream and put them as the streamheader in the caps. This is used in the
  * multifdsink case where you want to stream live kate streams to multiple
  * clients, each client has to receive the streamheaders first before they can
  * consume the kate packets.
- * </para>
- * <para>
+ *
  * This element also makes sure that the buffers that it pushes out are properly
  * timestamped and that their offset and offset_end are set. The buffers that
  * kateparse outputs have all of the metadata that oggmux expects to receive,
  * which allows you to (for example) remux an ogg/kate file.
- * </para>
- * <title>Example pipelines</title>
- * <para>
- * <programlisting>
+ *
+ * ## Example pipelines
+ *
+ * |[
  * gst-launch-1.0 -v filesrc location=kate.ogg ! oggdemux ! kateparse ! fakesink
- * </programlisting>
+ * ]|
  * This pipeline shows that the streamheader is set in the caps, and that each
  * buffer has the timestamp, duration, offset, and offset_end set.
- * </para>
- * <para>
- * <programlisting>
+ *
+ * |[
  * gst-launch-1.0 filesrc location=kate.ogg ! oggdemux ! kateparse \
  *            ! oggmux ! filesink location=kate-remuxed.ogg
- * </programlisting>
+ * ]|
  * This pipeline shows remuxing. kate-remuxed.ogg might not be exactly the same
  * as kate.ogg, but they should produce exactly the same decoded data.
- * </para>
- * </refsect2>
  *
  */
 
index e280917bcae77f30684d7b96d5e2d4260ef563fb..4b2ec5706b9008650299ad7da9536af908956614 100644 (file)
 
 /**
  * SECTION:element-katetag
+ * @title: katetag
  * @see_also: #oggdemux, #oggmux, #kateparse, #GstTagSetter
  * @short_description: retags kate streams
  *
- * <refsect2>
- * <para>
  * The katetag element can change the tag contained within a raw
  * kate stream. Specifically, it modifies the comments header packet
  * of the kate stream, as well as the language and category of the
  * kate stream.
- * </para>
- * <para>
+ *
  * The element will also process the stream as the #kateparse element does
  * so it can be used when remuxing an Ogg Kate stream, without additional
  * elements.
- * </para>
- * <para>
+ *
  * Applications can set the tags to write using the #GstTagSetter interface.
  * Tags contained within the kate stream will be picked up
  * automatically (and merged according to the merge mode set via the tag
  * setter interface).
- * </para>
- * <title>Example pipelines</title>
- * <para>
+ *
+ * ## Example pipelines
+ *
  * This element is only useful with gst-launch-1.0 for modifying the language
  * and/or category (which are properties of the stream located in the kate
  * beginning of stream header), because it does not support setting the tags
  * on a #GstTagSetter interface. Conceptually, the element will usually be
  * used like:
- * <programlisting>
+ * |[
  * gst-launch-1.0 -v filesrc location=foo.ogg ! oggdemux ! katetag ! oggmux ! filesink location=bar.ogg
- * </programlisting>
- * </para>
- * <para>
+ * ]|
+ *
  * This pipeline will set the language and category of the stream to the
  * given values:
- * <programlisting>
+ * |[
  * gst-launch-1.0 -v filesrc location=foo.ogg ! oggdemux ! katetag language=pt_BR category=subtitles ! oggmux ! filesink location=bar.ogg
- * </programlisting>
- * </para>
- * </refsect2>
+ * ]|
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index e4f3ca93481575f8408fe4338933d830d1fe898c..21970c9f6dc50a36bccb8d0198d633e7bb6e7e7a 100644 (file)
 
 /**
  * SECTION:element-tiger
+ * @title: tiger
  * @see_also: katedec
  *
- * <refsect2>
- * <para>
  * This element decodes and renders Kate streams
  * <ulink url="http://libkate.googlecode.com/">Kate</ulink> is a free codec
  * for text based data, such as subtitles. Any number of kate streams can be
  * embedded in an Ogg stream.
- * </para>
- * <para>
+ *
  * libkate (see above url) and <ulink url="http://libtiger.googlecode.com/">libtiger</ulink>
  * are needed to build this element.
- * </para>
- * <title>Example pipeline</title>
- * <para>
+ *
+ * ## Example pipeline
+ *
  * This pipeline renders a Kate stream on top of a Theora video multiplexed
  * in the same stream:
- * <programlisting>
+ * |[
  * gst-launch-1.0 \
  *   filesrc location=video.ogg ! oggdemux name=demux \
  *   demux. ! queue ! theoradec ! videoconvert ! tiger name=tiger \
  *   demux. ! queue ! kateparse ! tiger. \
  *   tiger. ! videoconvert ! autovideosink
- * </programlisting>
- * </para>
- * </refsect2>
+ * ]|
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 624cbd81a4b2e3aff29bac4839b770c0e5290069..8fea1096a2bf3b581d5298fcdb257ac3d5659c79 100644 (file)
@@ -22,6 +22,7 @@
 
 /**
  * SECTION:element-ladspa
+ * @title: ladspa
  * @short_description: bridge for LADSPA (Linux Audio Developer's Simple Plugin API)
  * @see_also: #GstAudioConvert #GstAudioResample, #GstAudioTestSrc, #GstAutoAudioSink
  *
@@ -32,8 +33,7 @@
  * element classification. The functionality you get depends on the LADSPA plugins
  * you have installed.
  *
- * <refsect2>
- * <title>Example LADSPA line without this plugins</title>
+ * ## Example LADSPA line without this plugins
  * |[
  * (padsp) listplugins
  * (padsp) analyseplugin cmt.so amp_mono
  * (padsp) applyplugin testin.wav testout.wav cmt.so amp_mono 2
  * gst-launch-1.0 playbin uri=file://"$PWD"/testout.wav
  * ]| Decode any audio file into wav with the format expected for the specific ladspa plugin to be applied, apply the ladspa filter and play it.
- * </refsect2>
  *
  * Now with this plugin:
  *
- * <refsect2>
- * <title>Example LADSPA line with this plugins</title>
+ * ## Example LADSPA line with this plugins
  * |[
  * gst-launch-1.0 autoaudiosrc ! ladspa-cmt-so-amp-mono gain=2 ! ladspa-caps-so-plate ! ladspa-tap-echo-so-tap-stereo-echo l-delay=500 r-haas-delay=500 ! tee name=myT myT. ! queue ! autoaudiosink myT. ! queue ! audioconvert ! goom ! videoconvert ! xvimagesink pixel-aspect-ratio=3/4
  * ]| Get audio input, filter it through CAPS Plate and TAP Stereo Echo, play it and show a visualization (recommended hearphones).
- * </refsect2>
  *
  * In case you wonder the plugin naming scheme, quoting ladspa.h:
  *   "Plugin types should be identified by file and label rather than by
  * on top of the audio in and out one, so some parameters are readable too.
  *
  * You can see the listing of plugins available with:
- * <refsect2>
- * <title>Inspecting the plugins list</title>
+ *
+ * ## Inspecting the plugins list
  * |[
  * gst-inspect ladspa
  * ]| List available LADSPA plugins on gstreamer.
- * </refsect2>
  *
  * You can see the parameters of any plugin with:
- * <refsect2>
- * <title>Inspecting the plugins</title>
+ *
+ * ## Inspecting the plugins
  * |[
  * gst-inspect ladspa-retro-flange-1208-so-retroflange
  * ]| List details of the plugin, parameters, range and defaults included.
- * </refsect2>
  *
  * The elements categorize in:
- * <itemizedlist>
- * <listitem><para>Filter/Effect/Audio/LADSPA:</para>
- * <refsect2>
- * <title>Example Filter/Effect/Audio/LADSPA line with this plugins</title>
+ *
+ * * Filter/Effect/Audio/LADSPA:
+ *
+ * ## Example Filter/Effect/Audio/LADSPA line with this plugins
  * |[
  * gst-launch-1.0 filesrc location="$myfile" ! decodebin ! audioconvert ! audioresample ! ladspa-calf-so-reverb decay-time=15 high-frq-damp=20000 room-size=5 diffusion=1 wet-amount=2 dry-amount=2 pre-delay=50 bass-cut=20000 treble-cut=20000 ! ladspa-tap-echo-so-tap-stereo-echo l-delay=500 r-haas-delay=500 ! autoaudiosink
  * ]| Decode any audio file, filter it through Calf Reverb LADSPA then TAP Stereo Echo, and play it.
- * </refsect2>
- * </listitem>
- * <listitem><para>Source/Audio/LADSPA:</para>
- * <refsect2>
- * <title>Example Source/Audio/LADSPA line with this plugins</title>
+ *
+ * * Source/Audio/LADSPA:
+ *
+ * ## Example Source/Audio/LADSPA line with this plugins
  * |[
  * gst-launch-1.0 ladspasrc-sine-so-sine-fcac frequency=220 amplitude=100 ! audioconvert ! autoaudiosink
  * ]| Generate a sine wave with Sine Oscillator (Freq:control, Amp:control) and play it.
- * </refsect2>
- * <refsect2>
- * <title>Example Source/Audio/LADSPA line with this plugins</title>
+ *
+ * ## Example Source/Audio/LADSPA line with this plugins
  * |[
  * gst-launch-1.0 ladspasrc-caps-so-click bpm=240 volume=1 ! autoaudiosink
  * ]| Generate clicks with CAPS Click - Metronome at 240 beats per minute and play it.
- * </refsect2>
- * <refsect2>
- * <title>Example Source/Audio/LADSPA line with this plugins</title>
+ *
+ * ## Example Source/Audio/LADSPA line with this plugins
  * |[
  * gst-launch-1.0 ladspasrc-random-1661-so-random-fcsc-oa ! ladspa-cmt-so-amp-mono gain=1.5 ! ladspa-caps-so-plate ! tee name=myT myT. ! queue ! autoaudiosink myT. ! queue ! audioconvert ! wavescope ! videoconvert ! autovideosink
  * ]| Generate random wave, filter it trhough Mono Amplifier and Versatile Plate Reverb, and play, while showing, it.
- * </refsect2>
- * </listitem>
- * <listitem><para>Sink/Audio/LADSPA:</para>
- * <refsect2>
- * <title>Example Sink/Audio/LADSPA line with this plugins</title>
+ *
+ * * Sink/Audio/LADSPA:
+ *
+ * ## Example Sink/Audio/LADSPA line with this plugins
  * |[
  * gst-launch-1.0 autoaudiosrc ! ladspa-cmt-so-amp-mono gain=2 ! ladspa-caps-so-plate ! ladspa-tap-echo-so-tap-stereo-echo l-delay=500 r-haas-delay=500 ! tee name=myT myT. ! audioconvert ! audioresample ! queue ! ladspasink-cmt-so-null-ai myT. ! audioconvert ! audioresample ! queue ! goom ! videoconvert ! xvimagesink pixel-aspect-ratio=3/4
  * ]| Get audio input, filter it trhough Mono Amplifier, CAPS Plate LADSPA and TAP Stereo Echo, explicitily anulate audio with Null (Audio Output), and play a visualization (recommended hearphones).
- * </refsect2>
- * </listitem>
- * </itemizedlist>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index ab376c505b20c0b6ed2093d693b14f17edd27ec7..109edadba9f0eb5fca7ea2f1e929cdf46841d7f2 100644 (file)
 
 /**
  * SECTION:element-libde265dec
+ * @title: libde265dec
  *
  * Decodes HEVC/H.265 video.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 filesrc location=bitstream.hevc ! 'video/x-hevc,stream-format=byte-stream,framerate=25/1' ! libde265dec ! autovideosink
  * ]| The above pipeline decodes the HEVC/H.265 bitstream and renders it to the screen.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index acad44355b77cf363ce1bfc32e655b680054e5b3..2c8253dc892233f8c10d9feac7a8341a6660de0a 100644 (file)
@@ -22,6 +22,7 @@
 
 /**
  * SECTION:element-lv2
+ * @title: lv2
  * @short_description: bridge for LV2.
  *
  * LV2 is a standard for plugins and matching host applications,
index 66de0511380c36752cca77b6108e754c7d959fcf..eb9b9bace89c85e31c6c3487186d0c103b534bba 100644 (file)
@@ -24,6 +24,7 @@
 
 /**
  * SECTION:element-openalsink
+ * @title: openalsink
  * @see_also: openalsrc
  * @short_description: capture raw audio samples through OpenAL
  *
@@ -31,8 +32,7 @@
  *
  * Unfortunately the capture API doesn't have a format enumeration/check. all you can do is try opening it and see if it works.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 audiotestsrc ! audioconvert ! volume volume=0.5 ! openalsink
  * ]| will play a sine wave (continuous beep sound) through OpenAL.
@@ -42,7 +42,7 @@
  * |[
  * gst-launch-1.0 openalsrc ! "audio/x-raw,format=S16LE,rate=44100" ! audioconvert ! volume volume=0.25 ! openalsink
  * ]| will capture and play audio through OpenAL.
- * </refsect2>
+ *
  */
 
 /*
index 26e73d49bc3cb5e8e8071fdc1523092e7bbf26bf..4f1e26e77d383d4e9d3344548f220256abb11ff8 100644 (file)
 
  /**
  * SECTION:element-openalsrc
+ * @title: openalsrc
  * @see_also: openalsink
  * @short_description: capture raw audio samples through OpenAL
  *
  * This element captures raw audio samples through OpenAL.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v openalsrc ! audioconvert ! wavenc ! filesink location=stream.wav
  * ]| * will capture sound through OpenAL and encode it to a wav file.
  * |[
  * gst-launch-1.0 openalsrc ! "audio/x-raw,format=S16LE,rate=44100" ! audioconvert ! volume volume=0.25 ! openalsink
  * ]| will capture and play audio through OpenAL.
- * </refsect2>
+ *
  */
 
 /*
index 56e8bb83816249f254b2c162e89cc036153f17e2..4408af6d3e74d69fc27ee3ce192e3799d59248b2 100644 (file)
 
 /**
  * SECTION:element-opusparse
+ * @title: opusparse
  * @see_also: opusenc, opusdec
  *
  * This element parses OPUS packets.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v filesrc location=opusdata ! opusparse ! opusdec ! audioconvert ! audioresample ! alsasink
  * ]| Decode and plays an unmuxed Opus file.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 02d3eb6453581e1b66b9d46a77edcef2fe497e79..4f4b2680f5fc49a0d96d557bcf7a8074e508f4b4 100644 (file)
@@ -369,7 +369,7 @@ rsn_dec_get_type (void)
   return type;
 }
 
-/** Audio decoder subclass */
+/* Audio decoder subclass */
 static GstStaticPadTemplate audio_sink_template =
     GST_STATIC_PAD_TEMPLATE ("sink",
     GST_PAD_SINK,
@@ -422,7 +422,7 @@ rsn_audiodec_init (RsnAudioDec * self)
 {
 }
 
-/** Video decoder subclass */
+/* Video decoder subclass */
 static GstStaticPadTemplate video_sink_template =
 GST_STATIC_PAD_TEMPLATE ("sink",
     GST_PAD_SINK,
index 3849baff4af3365c439d1c1dd341f414f06ef960..678311603b58147ee20ac2eaf438c9dcceab0972 100644 (file)
@@ -25,6 +25,7 @@
 
 /**
  * SECTION:element-input-selector
+ * @title: input-selector
  * @see_also: #GstOutputSelector
  *
  * Direct one out of N input streams to the output pad.
  * The input pads are from a GstPad subclass and have additional
  * properties, which users may find useful, namely:
  *
- * <itemizedlist>
- * <listitem>
- * "running-time": Running time of stream on pad (#gint64)
- * </listitem>
- * <listitem>
- * "tags": The currently active tags on the pad (#GstTagList, boxed type)
- * </listitem>
- * <listitem>
- * "active": If the pad is currently active (#gboolean)
- * </listitem>
- * <listitem>
- * "always-ok" : Make an inactive pads return #GST_FLOW_OK instead of
- * #GST_FLOW_NOT_LINKED
- * </listitem>
- * </itemizedlist>
+ * * "running-time": Running time of stream on pad (#gint64)
+ * * "tags": The currently active tags on the pad (#GstTagList, boxed type)
+ * * "active": If the pad is currently active (#gboolean)
+ * * "always-ok" : Make an inactive pads return #GST_FLOW_OK instead of #GST_FLOW_NOT_LINKED
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 5d5fc8ef6332df382195739c606ef5e0770e26f2..e50a8978d6b680cb9dc16a639b0fdc7d8f8aabea 100644 (file)
  */
 /**
  * SECTION:element-rsvgdec
+ * @title: rsvgdec
  *
  * This elements renders SVG graphics.
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 filesrc location=image.svg ! rsvgdec ! imagefreeze ! videoconvert ! autovideosink
  * ]| render and show a svg image.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index b467dc875a969301fff4e17da04e37a1eea0d98a..5f661b9ad33093f2c05822aa7576eab45508bac8 100644 (file)
@@ -21,6 +21,7 @@
 
 /**
  * SECTION:element-rsvgoverlay
+ * @title: rsvgoverlay
  *
  * This elements overlays SVG graphics over the video. SVG data can
  * either be specified through properties, or fed through the
@@ -44,8 +45,7 @@
  * the values of the x/y/width/height attributes, by setting
  * height-/width-relative to 1.0. and all other attributes to 0.
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 -v videotestsrc ! videoconvert ! rsvgoverlay location=foo.svg ! videoconvert ! autovideosink
  * ]| specifies the SVG location through the filename property.
@@ -55,7 +55,7 @@
  * |[
  * gst-launch-1.0 -v videotestsrc ! videoconvert ! rsvgoverlay data='&lt;svg viewBox="0 0 800 600"&gt;&lt;image x="80%" y="80%" width="10%" height="10%" xlink:href="foo.jpg" /&gt;&lt;/svg&gt;' ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 1815d9c64736be8d65bb5761cc63aee27813b4b8..4e07cc692d9242428cff942645a8809a54277943 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:element-rtmpsink
+ * @title: rtmpsink
  *
  * This element delivers data to a streaming server via RTMP. It uses
  * librtmp, and supports any protocols/urls that librtmp supports.
  * for librtmp, such as 'flashver=version'. See the librtmp documentation
  * for more detail
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! ffenc_flv ! flvmux ! rtmpsink location='rtmp://localhost/path/to/stream live=1'
  * ]| Encode a test video stream to FLV video format and stream it via RTMP.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index db620cc1f87d8eaaf6e260cf09f37edab99a28c4..69cec91a63b7828ed4b10cfaf4badc1c784d59bd 100644 (file)
 
 /**
  * SECTION:element-rtmpsrc
+ * @title: rtmpsrc
  *
  * This plugin reads data from a local or remote location specified
  * by an URI. This location can be specified using any protocol supported by
  * the RTMP library, i.e. rtmp, rtmpt, rtmps, rtmpe, rtmfp, rtmpte and rtmpts.
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 -v rtmpsrc location=rtmp://somehost/someurl ! fakesink
  * ]| Open an RTMP location and pass its content to fakesink.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 5019e8326708faa9b7127f158964aba57ac4d1d2..84b515709210f893e7cf7b068c3dcc221e01c11d 100644 (file)
 
 /**
  * SECTION:element-sbdec
+ * @title: sbdec
  *
  * This element decodes a Bluetooth SBC audio streams to raw integer PCM audio
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v filesrc location=audio.sbc ! sbcparse ! sbcdec ! audioconvert ! audioresample ! autoaudiosink
  * ]| Decode a raw SBC file.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 71aca075321906c9e514861db3cf7e96a182aa3e..c25cd32bee238fbb42caad3183966c49df656031 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:element-sbenc
+ * @title: sbenc
  *
  * This element encodes raw integer PCM audio into a Bluetooth SBC audio.
  *
  * allocation-mode can be set by adding a capsfilter element with appropriate
  * filtercaps after the sbcenc encoder element.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v audiotestsrc ! sbcenc ! rtpsbcpay ! udpsink
  * ]| Encode a sine wave into SBC, RTP payload it and send over the network using UDP
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 120d9c22be8b39e22aaf1d3efc7e178c854736a7..0fdea3b4d21f7e646ef34518aabafea1b0714582 100644 (file)
 
 /**
  * SECTION:element-mssdemux
+ * @title: mssdemux
  *
  * Demuxes a Microsoft's Smooth Streaming manifest into its audio and/or video streams.
  *
- *
  */
 
 /*
index 362edb4f3d5217c7e078bbf9104ee2983e4721de..df7fc7ef1d5e0cb567d91d1088edaa608e9fd8d8 100644 (file)
 
 /**
  * SECTION:element-dtmfdetect
+ * @title: dtmfdetect
  * @short_description: Detects DTMF tones
  *
  * This element will detect DTMF tones and emit messages.
  *
- * The message is called <classname>&quot;dtmf-event&quot;</classname> and has
- * the following fields:
- * <itemizedlist>
- * <listitem>
- *   <para>
- *   gint <classname>type</classname> (0-1):
- *   The application uses this field to specify which of the two methods
+ * The message is called `dtmf-event` and has the following fields:
+ *
+ * * gint `type` (0-1): The application uses this field to specify which of the two methods
  *   specified in RFC 2833 to use. The value should be 0 for tones and 1 for
  *   named events. Tones are specified by their frequencies and events are
  *   specfied by their number. This element can only take events as input.
  *   Do not confuse with "method" which specified the output.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   gint <classname>number</classname> (0-16):
- *   The event number.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   gint <classname>method</classname> (2):
- *   This field will always been 2 (ie sound) from this element.
- *   </para>
- * </listitem>
- * </itemizedlist>
+ * * gint `number` (0-16): The event number.
+ * * gint `method` (2): This field will always been 2 (ie sound) from this element.
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 06e109046aff0a444994d1cf5b0675edb6b9d2ca..f4ccf76897dfbd69601cd6bd18c50c3df5d670fe 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:element-spanplc
+ * @title: spanplc
  *
  * The spanplc (Packet Loss Concealment) element provides a synthetic
  * fill-in signal, to minimise the audible effect of lost packets in
index 9967dd54330a63a11196a6bde2ffd9b76f1db4ef..e1be70e0a29594e68ed98b87509fea761a3e9097 100644 (file)
@@ -46,6 +46,7 @@
 
 /**
  * SECTION:element-srtpdec
+ * @title: srtpdec
  * @see_also: srtpenc
  *
  * gstrtpdec acts as a decoder that removes security from SRTP and SRTCP
@@ -95,8 +96,7 @@
  * other means. If no rollover counter is provided by the user, 0 is
  * used by default.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 udpsrc port=5004 caps='application/x-srtp, payload=(int)8, ssrc=(uint)1356955624, srtp-key=(buffer)012345678901234567890123456789012345678901234567890123456789, srtp-cipher=(string)aes-128-icm, srtp-auth=(string)hmac-sha1-80, srtcp-cipher=(string)aes-128-icm, srtcp-auth=(string)hmac-sha1-80' !  srtpdec ! rtppcmadepay ! alawdec ! pulsesink
  * ]| Receive PCMA SRTP packets through UDP using caps to specify
  * gst-launch-1.0 audiotestsrc ! alawenc ! rtppcmapay ! 'application/x-rtp, payload=(int)8, ssrc=(uint)1356955624' ! srtpenc key="012345678901234567890123456789012345678901234567890123456789" ! udpsink port=5004
  * ]| Send PCMA SRTP packets through UDP, nothing how the SSRC is forced so
  * that the receiver will recognize it.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index c9ae98070faffe5f4a150245ac252768e1029f48..ff17fd03f7e38cda27d90cbbe9f40b48f4ba03b5 100644 (file)
@@ -45,7 +45,8 @@
  */
 
 /**
- * SECTION:gst-plugin-bad-plugins-srtpenc
+ * SECTION:element-srtpenc
+ * @title: srtpenc
  * @see_also: srtpdec
  *
  * gstrtpenc acts as an encoder that adds security to RTP and RTCP
index 7f8a8a6908d41b8ee28422b1e2ed4c6770b82dee..d754e972c6a635779cc7bf3b9c2c1424b59e183d 100644 (file)
 
 /**
  * SECTION:element-teletextdec
+ * @title: teletextdec
  *
  * Decode a stream of raw VBI packets containing teletext information to a RGBA
  * stream.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v -m filesrc location=recording.mpeg ! tsdemux ! teletextdec ! videoconvert ! ximagesink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 6de9a1f75c173ea392a09042a63843dea6e5072a..e6f21bee1ed8cbb767b0a7704f44ec052938337e 100644 (file)
@@ -22,6 +22,7 @@
 
 /**
  * SECTION:element-ttmlparse
+ * @title: ttmlparse
  *
  * Parses timed text subtitle files described using Timed Text Markup Language
  * (TTML). Currently, only the EBU-TT-D profile of TTML, designed for
  * elements. A downstream renderer element uses this information to correctly
  * render the text on top of video frames.
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 filesrc location=<media file location> ! video/quicktime ! qtdemux name=q ttmlrender name=r q. ! queue ! h264parse ! avdec_h264 ! autovideoconvert ! r.video_sink filesrc location=<subtitle file location> blocksize=16777216 ! queue ! ttmlparse ! r.text_sink r. ! ximagesink q. ! queue ! aacparse ! avdec_aac ! audioconvert ! alsasink
  * ]| Parse and render TTML subtitles contained in a single XML file over an
  * MP4 stream containing H.264 video and AAC audio.
- * </refsect2>
+ *
  */
 
 #include <stdio.h>
index 2648facb9b1044aec1b4052f4558a72a94c5a4bb..ee1cb974dd347441e04ec7120d6b9beee8e247fc 100644 (file)
 
 /**
  * SECTION:element-ttmlrender
+ * @title: ttmlrender
  *
  * Renders timed text on top of a video stream. It receives text in buffers
  * from a ttmlparse element; each text string is in its own #GstMemory within
  * the GstBuffer, and the styling and layout associated with each text string
  * is in metadata attached to the #GstBuffer.
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 filesrc location=<media file location> ! video/quicktime ! qtdemux name=q ttmlrender name=r q. ! queue ! h264parse ! avdec_h264 ! autovideoconvert ! r.video_sink filesrc location=<subtitle file location> blocksize=16777216 ! queue ! ttmlparse ! r.text_sink r. ! ximagesink q. ! queue ! aacparse ! avdec_aac ! audioconvert ! alsasink
  * ]| Parse and render TTML subtitles contained in a single XML file over an
  * MP4 stream containing H.264 video and AAC audio:
- * </refsect2>
+ *
  */
 
 #include <gst/video/video.h>
index b8843a3790f8d4b9f5e8b1ae25cb9739a4ae2663..e0c32faa1d992273ae2444deda95ba4e801c4b3f 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstsubtitle
+ * @title: GstSubtitle
  * @short_description: Library for describing sets of static subtitles.
  *
  * This library enables the description of static text scenes made up of a
index 69da5f58be69c50a825f810923b9d7266727e987..cdbfcce24311a5c8bec99fd913759e61061584b1 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstsubtitlemeta
+ * @title: GstSubtitleMeta
  * @short_description: Metadata class for timed-text subtitles.
  *
  * The GstSubtitleMeta class enables the layout and styling information needed
index 9c48ea2051301b87eca8defc92bc3f2ba36a5a41..0580d27f00152b4f9ce5b170da066f59d2a0ff1a 100644 (file)
 
 /**
  * SECTION:element-voaacenc
+ * @title: voaacenc
  *
- * AAC audio encoder based on vo-aacenc library 
+ * AAC audio encoder based on vo-aacenc library
  * <ulink url="http://sourceforge.net/projects/opencore-amr/files/vo-aacenc/">vo-aacenc library source file</ulink>.
- * 
- * <refsect2>
- * <title>Example launch line</title>
+ *
+ * ## Example launch line
  * |[
  * gst-launch-1.0 filesrc location=abc.wav ! wavparse ! audioresample ! audioconvert ! voaacenc ! filesink location=abc.aac
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index f84e576a13e589fe2e3de9b1e536ff0e2a7d9aff..c5eae31d7f702c2dcf5c8687eedf0c5cecc5f7fd 100644 (file)
 
 /**
  * SECTION:element-voamrwbenc
+ * @title: voamrwbenc
  * @see_also: #GstAmrWbDec, #GstAmrWbParse
  *
- * AMR wideband encoder based on the 
+ * AMR wideband encoder based on the
  * <ulink url="http://www.penguin.cz/~utx/amr">reference codec implementation</ulink>.
- * 
- * <refsect2>
- * <title>Example launch line</title>
+ *
+ * ## Example launch line
  * |[
  * gst-launch filesrc location=abc.wav ! wavparse ! audioresample ! audioconvert ! voamrwbenc ! filesink location=abc.amr
  * ]|
  * Please note that the above stream misses the header, that is needed to play
  * the stream.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 7158895a2c56269307a4fed7acab5595facfec67..d553e876055eb9d662051eb979ff06af5837fa73 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:plugin-vulkan
+ * @title: vulkan
  *
  * Cross-platform Vulkan plugin.
  */
index e54d1593061e0a39830b8cb22cc94a511df55ff8..d3b199e74dd7410cedca245d992ac2a4047d8c41 100644 (file)
@@ -26,6 +26,7 @@
 
 /**
  * SECTION:vkbuffermemory
+ * @title: vkbuffermemory
  * @short_description: memory subclass for Vulkan buffer memory
  * @see_also: #GstMemory, #GstAllocator
  *
@@ -420,7 +421,7 @@ gst_vulkan_buffer_memory_init_once (void)
 /**
  * gst_is_vulkan_buffer_memory:
  * @mem:a #GstMemory
- * 
+ *
  * Returns: whether the memory at @mem is a #GstVulkanBufferMemory
  */
 gboolean
index 01fb2fba86962605c323044fe979d71e9add2512..df64358e1832e74b6d225a43b2e1d16c2a563507 100644 (file)
@@ -26,6 +26,7 @@
 
 /**
  * SECTION:vkbufferpool
+ * @title: GstVulkanBufferPool
  * @short_description: buffer pool for #GstVulkanBufferMemory objects
  * @see_also: #GstBufferPool, #GstVulkanBufferMemory
  *
@@ -33,7 +34,7 @@
  *
  * A #GstVulkanBufferPool is created with gst_vulkan_buffer_pool_new()
  *
- * #GstVulkanBufferPool implements the VideoMeta buffer pool option 
+ * #GstVulkanBufferPool implements the VideoMeta buffer pool option
  * #GST_BUFFER_POOL_OPTION_VIDEO_META
  */
 
index 074cf9ac05afc7e2f7a15e6fb3a5d4c3c01c4ab7..025443416ac079bed24ca9c65b5802486df30441 100644 (file)
@@ -26,6 +26,7 @@
 
 /**
  * SECTION:vkimagememory
+ * @title: GstVkImageMemory
  * @short_description: memory subclass for Vulkan image memory
  * @see_also: #GstMemory, #GstAllocator
  *
@@ -559,7 +560,7 @@ gst_vulkan_image_memory_init_once (void)
 /**
  * gst_is_vulkan_image_memory:
  * @mem:a #GstMemory
- * 
+ *
  * Returns: whether the memory at @mem is a #GstVulkanImageMemory
  */
 gboolean
index 52855c13f38103d35f3e56ca985534b47d61dfad..c21c34daa60f265efdfb638ba96fb66c183e3daa 100644 (file)
 
 /**
  * SECTION:vkmemory
+ * @title: GstVkMemory
  * @short_description: memory subclass for Vulkan device memory
  * @see_also: #GstMemory, #GstAllocator
  *
  * GstVulkanMemory is a #GstMemory subclass providing support for the mapping of
- * Vulkan device memory.  
+ * Vulkan device memory.
  */
 
 /* WARNING: while suballocation is allowed, nothing prevents aliasing which
@@ -347,7 +348,7 @@ gst_vulkan_memory_init_once (void)
 /**
  * gst_is_vulkan_memory:
  * @mem:a #GstMemory
- * 
+ *
  * Returns: whether the memory at @mem is a #GstVulkanMemory
  */
 gboolean
index 586d2861df92a6d2f71d114c77cb99ca097f6a7a..c9893deeb16eb68eb7d597845efcc20c1106dfa2 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:element-vulkansink
+ * @title: vulkansink
  *
  * vulkansink renders video frames to a drawable on a local or remote
  * display using Vulkan.
index 4988c640a73057ed612a528fd5f0b59c1892dc06..8839630e99d9d6e54d6c740b0c9ca60ac8a09861 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:element-vulkanupload
+ * @title: vulkanupload
  *
  * vulkanupload uploads data into Vulkan memory objects.
  */
index ab8c45c5fb46eb96112378933e010d3212441c5b..6846e3156e2b3cb76589b7d70f15dbd3538689cb 100644 (file)
@@ -19,7 +19,7 @@
  */
 
 /**
- * SECTION:gstglwindow
+ * SECTION:vkwindow
  * @short_description: window/surface abstraction
  * @title: GstVulkanWindow
  * @see_also: #GstGLContext, #GstGLDisplay
index 0d974196d90fef18d44b0ff955f1089b9099b0b9..46a710fd0bc13f13ceb8ba657117a1063e3be61d 100644 (file)
 
 /**
  * SECTION:element-waylandsink
+ * @title: waylandsink
  *
  *  The waylandsink is creating its own window and render the decoded video frames to that.
  *  Setup the Wayland environment as described in
  *  <ulink url="http://wayland.freedesktop.org/building.html">Wayland</ulink> home page.
  *  The current implementaion is based on weston compositor.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v videotestsrc ! waylandsink
  * ]| test the video rendering in wayland
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 7f380d6da9ef8a66a3604de41619974b6b89b0ac..89bdcebb3f0ce266b609ffb8382dba547b888b42 100644 (file)
@@ -21,6 +21,7 @@
 
 /**
  * SECTION:element-wildmidi
+ * @title: wildmidi
  * @see_also: timidity
  *
  * This element renders midi-files as audio streams using
  * uses the same sound-patches as timidity (it tries the path in $WILDMIDI_CFG,
  * $HOME/.wildmidirc and /etc/wildmidi.cfg)
  *
- * <refsect2>
- * <title>Example pipeline</title>
+ * ## Example pipeline
  * |[
  * gst-launch-1.0 filesrc location=song.mid ! wildmidi ! alsasink
  * ]| This example pipeline will parse the midi and render to raw audio which is
  * played via alsa.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index b48ed0b074d889ec534fc2c8e21af300d1815b6f..2f22a4d21348607423eca687a4efda38b74d7332 100644 (file)
@@ -22,6 +22,7 @@
 
 /**
  * SECTION:element-x265enc
+ * @title: x265enc
  *
  * This element encodes raw video into H265 compressed data.
  *
index e84f48c2f98c2fb3cf5e3ce64f783b6b685f3bf4..18149eb5eeab2587eff279e5a54253986f3ff47d 100644 (file)
 
 /**
  * SECTION:element-zbar
+ * @title: zbar
  *
  * Detect bar codes in the video streams and send them as element messages to
  * the #GstBus if .#GstZBar:message property is %TRUE.
  * If the .#GstZBar:attach-frame property is %TRUE, the posted barcode message
  * includes a sample of the frame where the barcode was detected (Since 1.6).
  *
- * The element generate messages named
- * <classname>&quot;barcode&quot;</classname>. The structure containes these
- * fields:
- * <itemizedlist>
- * <listitem>
- *   <para>
- *   #GstClockTime
- *   <classname>&quot;timestamp&quot;</classname>:
- *   the timestamp of the buffer that triggered the message.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   gchar*
- *   <classname>&quot;type&quot;</classname>:
- *   the symbol type.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   gchar*
- *   <classname>&quot;symbol&quot;</classname>:
- *   the deteted bar code data.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   gint
- *   <classname>&quot;quality&quot;</classname>:
- *   an unscaled, relative quantity: larger values are better than smaller
+ * The element generate messages named`barcode`. The structure containes these fields:
+ *
+ * * #GstClockTime `timestamp`: the timestamp of the buffer that triggered the message.
+ * * gchar * `type`: the symbol type.
+ * * gchar * `symbol`: the deteted bar code data.
+ * * gint `quality`: an unscaled, relative quantity: larger values are better than smaller
  *   values.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   GstSample
- *   <classname>&quot;frame&quot;</classname>:
- *   the frame in which the barcode message was detected, if
+ * * GstSample `frame`: the frame in which the barcode message was detected, if
  *   the .#GstZBar:attach-frame property was set to %TRUE (Since 1.6)
- *   </para>
- * </listitem>
- * </itemizedlist>
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 -m v4l2src ! videoconvert ! zbar ! videoconvert ! xvimagesink
  * ]| This pipeline will detect barcodes and send them as messages.
  * |[
  * gst-launch-1.0 -m v4l2src ! tee name=t ! queue ! videoconvert ! zbar ! fakesink t. ! queue ! xvimagesink
  * ]| Same as above, but running the filter on a branch to keep the display in color
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index d693541eab3ebfd4e179a2fe5feeb507d85beb5b..d0ec234c8bcf2b672fff0d61c881c0cce3ad7038 100644 (file)
  */
 /**
  * SECTION: gstaggregator
+ * @title: GstAggregator
  * @short_description: manages a set of pads with the purpose of
  * aggregating their buffers.
  * @see_also: gstcollectpads for historical reasons.
  *
  * Manages a set of pads with the purpose of aggregating their buffers.
  * Control is given to the subclass when all pads have data.
- * <itemizedlist>
- *  <listitem><para>
- *    Base class for mixers and muxers. Subclasses should at least implement
+ *
+ *  * Base class for mixers and muxers. Subclasses should at least implement
  *    the #GstAggregatorClass.aggregate() virtual method.
- *  </para></listitem>
- *  <listitem><para>
- *    When data is queued on all pads, tha aggregate vmethod is called.
- *  </para></listitem>
- *  <listitem><para>
- *    One can peek at the data on any given GstAggregatorPad with the
+ *
+ *  * When data is queued on all pads, tha aggregate vmethod is called.
+ *
+ *  * One can peek at the data on any given GstAggregatorPad with the
  *    gst_aggregator_pad_get_buffer () method, and take ownership of it
  *    with the gst_aggregator_pad_steal_buffer () method. When a buffer
  *    has been taken with steal_buffer (), a new buffer can be queued
  *    on that pad.
- *  </para></listitem>
- *  <listitem><para>
- *    If the subclass wishes to push a buffer downstream in its aggregate
+ *
+ *  * If the subclass wishes to push a buffer downstream in its aggregate
  *    implementation, it should do so through the
  *    gst_aggregator_finish_buffer () method. This method will take care
  *    of sending and ordering mandatory events such as stream start, caps
  *    and segment.
- *  </para></listitem>
- *  <listitem><para>
- *    Same goes for EOS events, which should not be pushed directly by the
+ *
+ *  * Same goes for EOS events, which should not be pushed directly by the
  *    subclass, it should instead return GST_FLOW_EOS in its aggregate
  *    implementation.
- *  </para></listitem>
- *  <listitem><para>
- *    Note that the aggregator logic regarding gap event handling is to turn
+ *
+ *  * Note that the aggregator logic regarding gap event handling is to turn
  *    these into gap buffers with matching PTS and duration. It will also
  *    flag these buffers with GST_BUFFER_FLAG_GAP and GST_BUFFER_FLAG_DROPPABLE
  *    to ease their identification and subsequent processing.
- *  </para></listitem>
- * </itemizedlist>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index f3485ae33757c3619a88e86bea600586b0ead0ae..86c5e44cc0eb760fb6c9b52b7bf4b9fd564332fb 100644 (file)
 
 /**
  * SECTION:gsth264parser
+ * @title: GstH264Parser
  * @short_description: Convenience library for h264 video
  * bitstream parsing.
  *
  * It offers bitstream parsing in both AVC (length-prefixed) and Annex B
  * (0x000001 start code prefix) format. To identify a NAL unit in a bitstream
  * and parse its headers, first call:
- * <itemizedlist>
- *   <listitem>
- *      #gst_h264_parser_identify_nalu to identify a NAL unit in an Annex B type bitstream
- *   </listitem>
- *   <listitem>
- *      #gst_h264_parser_identify_nalu_avc to identify a NAL unit in an AVC type bitstream
- *   </listitem>
- * </itemizedlist>
+ *
+ *   * #gst_h264_parser_identify_nalu to identify a NAL unit in an Annex B type bitstream
+ *
+ *   * #gst_h264_parser_identify_nalu_avc to identify a NAL unit in an AVC type bitstream
  *
  * The following functions are then available for parsing the structure of the
  * #GstH264NalUnit, depending on the #GstH264NalUnitType:
- * <itemizedlist>
- *   <listitem>
- *      From #GST_H264_NAL_SLICE to #GST_H264_NAL_SLICE_IDR: #gst_h264_parser_parse_slice_hdr
- *   </listitem>
- *   <listitem>
- *      #GST_H264_NAL_SEI: #gst_h264_parser_parse_sei
- *   </listitem>
- *   <listitem>
- *      #GST_H264_NAL_SPS: #gst_h264_parser_parse_sps
- *   </listitem>
- *   <listitem>
- *      #GST_H264_NAL_PPS: #gst_h264_parser_parse_pps
- *   </listitem>
- *   <listitem>
- *      Any other: #gst_h264_parser_parse_nal
- *   </listitem>
- * </itemizedlist>
+ *
+ *   * From #GST_H264_NAL_SLICE to #GST_H264_NAL_SLICE_IDR: #gst_h264_parser_parse_slice_hdr
+ *
+ *   * #GST_H264_NAL_SEI: #gst_h264_parser_parse_sei
+ *
+ *   * #GST_H264_NAL_SPS: #gst_h264_parser_parse_sps
+ *
+ *   * #GST_H264_NAL_PPS: #gst_h264_parser_parse_pps
+ *
+ *   * Any other: #gst_h264_parser_parse_nal
  *
  * One of these functions *must* be called on every NAL unit in the bitstream,
  * in order to keep the internal structures of the #GstH264NalParser up to
  * type, if no special parsing of the current NAL unit is required by the
  * application.
  *
- * For more details about the structures, look at the ITU-T H.264 and ISO/IEC 14496-10  MPEG-4
+ * For more details about the structures, look at the ITU-T H.264 and ISO/IEC 14496-10 â€“ MPEG-4
  * Part 10 specifications, available at:
  *
- * <itemizedlist>
- *   <listitem>
- *     ITU-T H.264: http://www.itu.int/rec/T-REC-H.264
- *   </listitem>
- *   <listitem>
- *     ISO/IEC 14496-10: http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=56538
- *   </listitem>
- * </itemizedlist>
+ *   * ITU-T H.264: http://www.itu.int/rec/T-REC-H.264
+ *
+ *   * ISO/IEC 14496-10: http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=56538
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 52a1fc2a7b1ae0e89c79f42fa72b1a0b44b98067..fd56f15d041b79b3a432b02a34dde197d16877bc 100644 (file)
 
 /**
  * SECTION:gsth265parser
+ * @title: GstH265Parser
  * @short_description: Convenience library for h265 video bitstream parsing.
  *
  * It offers you bitstream parsing in HEVC mode and non-HEVC mode. To identify
  * Nals in a bitstream and parse its headers, you should call:
- * <itemizedlist>
- *   <listitem>
- *      gst_h265_parser_identify_nalu() to identify the following nalu in
+ *
+ *   * gst_h265_parser_identify_nalu() to identify the following nalu in
  *        non-HEVC bitstreams
- *   </listitem>
- *   <listitem>
- *      gst_h265_parser_identify_nalu_hevc() to identify the nalu in
+ *
+ *   * gst_h265_parser_identify_nalu_hevc() to identify the nalu in
  *        HEVC bitstreams
- *   </listitem>
- * </itemizedlist>
  *
  * Then, depending on the #GstH265NalUnitType of the newly parsed #GstH265NalUnit,
  * you should call the differents functions to parse the structure:
- * <itemizedlist>
- *   <listitem>
- *      From #GST_H265_NAL_SLICE_TRAIL_N to #GST_H265_NAL_SLICE_CRA_NUT: gst_h265_parser_parse_slice_hdr()
- *   </listitem>
- *   <listitem>
- *      #GST_H265_NAL_SEI: gst_h265_parser_parse_sei()
- *   </listitem>
- *   <listitem>
- *      #GST_H265_NAL_VPS: gst_h265_parser_parse_vps()
- *   </listitem>
- *   <listitem>
- *      #GST_H265_NAL_SPS: gst_h265_parser_parse_sps()
- *   </listitem>
- *   <listitem>
- *      #GST_H265_NAL_PPS: #gst_h265_parser_parse_pps()
- *   </listitem>
- *   <listitem>
- *      Any other: gst_h265_parser_parse_nal()
- *   </listitem>
- * </itemizedlist>
+ *
+ *   * From #GST_H265_NAL_SLICE_TRAIL_N to #GST_H265_NAL_SLICE_CRA_NUT: gst_h265_parser_parse_slice_hdr()
+ *
+ *   * #GST_H265_NAL_SEI: gst_h265_parser_parse_sei()
+ *
+ *   * #GST_H265_NAL_VPS: gst_h265_parser_parse_vps()
+ *
+ *   * #GST_H265_NAL_SPS: gst_h265_parser_parse_sps()
+ *
+ *   * #GST_H265_NAL_PPS: #gst_h265_parser_parse_pps()
+ *
+ *   * Any other: gst_h265_parser_parse_nal()
  *
  * Note: You should always call gst_h265_parser_parse_nal() if you don't
  * actually need #GstH265NalUnitType to be parsed for your personal use, in
  * For more details about the structures, look at the ITU-T H.265
  * specifications, you can download them from:
  *
- * <itemizedlist>
- *   <listitem>
- *     ITU-T H.265: http://www.itu.int/rec/T-REC-H.265
- *   </listitem>
- * </itemizedlist>
+ *   * ITU-T H.265: http://www.itu.int/rec/T-REC-H.265
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index dba1c50fda1d6c61394811e581782ca1b6328ac7..ab8321f20942f5bc584b5fb0d6e1013acbeb4c5c 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstjpeg2000sampling
+ * @title: GstJpeg2000Sampling
  * @short_description: Manage JPEG 2000 sampling and colorspace fields
  *
  */
index d927854e89e2cbfc1d88cb209ef0c507a32666ea..bbc1f181ee77bc277508afaa4ba8fab6e0ecb1f1 100644 (file)
 
 /**
  * SECTION:gstjpegparser
+ * @title: GstJpegParser
  * @short_description: Convenience library for JPEG bitstream parsing.
  *
- * <refsect2>
- * <para>
  * Provides useful functions for parsing JPEG images
- * </para>
- * </refsect2>
+ *
  */
 
 #include <string.h>
index b4557647b4023bcb047803fba9d11bdd6f9bd88b..977d98590785c5069d4909b78bdd44fc1a309a6b 100644 (file)
@@ -20,6 +20,7 @@
  */
 /**
  * SECTION:gstmpeg4parser
+ * @title: GstMpeg4Parser
  * @short_description: Convenience library for parsing mpeg4 part 2 video
  * bitstream.
  *
index 2cfd32acc895e347f9a6b2cab36284c39615165c..6f1b49419624aa9de4dbd6761d8ce0ec89a1f3c4 100644 (file)
 
 /**
  * SECTION:gstmpegvideoparser
+ * @title: GstMpegvideoParser
  * @short_description: Convenience library for mpeg1 and 2 video
  * bitstream parsing.
  *
- * <refsect2>
- * <para>
  * Provides useful functions for mpeg videos bitstream parsing.
- * </para>
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 7ed73f84615d221395249fc98731fd5a8b5340d8..ac579712d69ac8f555e096ac82c43fa3d69fd5f7 100644 (file)
@@ -20,6 +20,7 @@
  */
 /**
  * SECTION:gstvc1parser
+ * @title: GstVc1Parser
  * @short_description: Convenience library for parsing vc1 video
  * bitstream.
  *
index 8de81934180a448b005f9ef15dc0f32d8f94684b..7a13a89da9827edb741f30f6dd8191a5e163a09e 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:gstvp8parser
+ * @title: GstVp8Parser
  * @short_description: Convenience library for parsing vp8 video bitstream.
  *
  * For more details about the structures, you can refer to the
index efe7950602271fcc891de1c84ec330bbc291116e..43dcd12c2bd9050510b6b541d8d476744a69d6e1 100644 (file)
@@ -72,7 +72,7 @@ typedef enum {
  *   index
  *
  * Dequantization indices.
- */ 
+ */
 struct _GstVp8QuantIndices
 {
   guint8 y_ac_qi;
index 0bd05bca48dd6b455e7cc365a342d0906cf8da05..66e40db5c0fed19dfb38bd2ba15eaa023e5217b6 100644 (file)
@@ -22,6 +22,7 @@
  */
 /**
  * SECTION:gstvp9parser
+ * @title: GstVp9Parser
  * @short_description: Convenience library for parsing vp9 video bitstream.
  *
  * For more details about the structures, you can refer to the
index 5ae9344e1afdc0fba76cce776cdaf8c382d27e7a..8b2fea5052c9326772fb5c34a9f2cfa6af1edf7e 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstglapi
+ * @title: GstGlApi
  * @short_description: OpenGL API specific functionality
  * @see_also: #GstGLDisplay, #GstGLContext
  *
index 0a01dfeafc11551d733cace945788a4c2dc7c590..69b1b8838b95a1d8c5b6577e8c2f48111d1eaeba 100644 (file)
@@ -28,6 +28,7 @@
 
 /**
  * SECTION:gstglbasememory
+ * @title: GstGlBaseMemory
  * @short_description: memory subclass for GL buffers
  * @see_also: #GstMemory, #GstAllocator
  *
@@ -523,7 +524,7 @@ gst_gl_base_memory_allocator_init (GstGLBaseMemoryAllocator * allocator)
 /**
  * gst_is_gl_base_memory:
  * @mem:a #GstMemory
- * 
+ *
  * Returns: whether the memory at @mem is a #GstGLBaseMemory
  *
  * Since: 1.8
index ba67e2d62f031f24c46f0036ffec5920dc339501..73c4b210a969feb3b7ad76e21f66cd77998db074 100644 (file)
 
 /**
  * SECTION:gstglbuffer
+ * @title: GstGlBuffer
  * @short_description: memory subclass for GL buffers
  * @see_also: #GstMemory, #GstAllocator
  *
  * GstGLBuffer is a #GstMemory subclass providing support for the mapping of
- * GL buffers.  
+ * GL buffers.
  *
  * Data is uploaded or downloaded from the GPU as is necessary.
  */
@@ -473,7 +474,7 @@ gst_gl_buffer_init_once (void)
 /**
  * gst_is_gl_buffer:
  * @mem:a #GstMemory
- * 
+ *
  * Returns: whether the memory at @mem is a #GstGLBuffer
  *
  * Since: 1.8
index a12f750e10a51e1dfd9dd5c2270a813d5b9cdfa9..e886557acfffe99ab06342129e2e83949337e4ba 100644 (file)
@@ -28,6 +28,7 @@
 
 /**
  * SECTION:gstglbufferpool
+ * @title: GstGlBufferPool
  * @short_description: buffer pool for #GstGLBaseMemory objects
  * @see_also: #GstBufferPool, #GstGLBaseMemory, #GstGLMemory
  *
@@ -35,7 +36,7 @@
  *
  * A #GstGLBufferPool is created with gst_gl_buffer_pool_new()
  *
- * #GstGLBufferPool implements the VideoMeta buffer pool option 
+ * #GstGLBufferPool implements the VideoMeta buffer pool option
  * %GST_BUFFER_POOL_OPTION_VIDEO_META, the VideoAligment buffer pool option
  * %GST_BUFFER_POOL_OPTION_VIDEO_ALIGNMENT as well as the OpenGL specific
  * %GST_BUFFER_POOL_OPTION_GL_SYNC_META buffer pool option.
index 4373be5d33f372fa0cfb1cae001a4e43212f9f43..89edb164c60b0c9c8be8b3560cc560f2a3989602 100644 (file)
@@ -31,6 +31,7 @@
 
 /**
  * SECTION:gstglcolorconvert
+ * @title: GstGlColorConvert
  * @short_description: convert between video color spaces and formats
  * @see_also: #GstGLUpload, #GstGLMemory, #GstGLBaseMemory
  *
@@ -1231,7 +1232,7 @@ gst_gl_color_convert_fixate_caps (GstGLContext * context,
  * @inbuf: (transfer none): the #GstGLMemory filled #GstBuffer to convert
  *
  * Converts the data contained by @inbuf using the formats specified by the
- * #GstCaps passed to gst_gl_color_convert_set_caps() 
+ * #GstCaps passed to gst_gl_color_convert_set_caps()
  *
  * Returns: (transfer full): a converted #GstBuffer or %NULL
  *
index 792aac726df7a46fc2240f9dd21ed6acac4ff7b6..9af5e1cc8cfcf37a5b6d1d7145332c43c413dd01 100644 (file)
@@ -376,7 +376,7 @@ gst_gl_context_new (GstGLDisplay * display)
  * @context_type: a #GstGLPlatform specifying the type of context in @handle
  * @available_apis: a #GstGLAPI containing the available OpenGL apis in @handle
  *
- * Wraps an existing OpenGL context into a #GstGLContext.  
+ * Wraps an existing OpenGL context into a #GstGLContext.
  *
  * Note: The caller is responsible for ensuring that the OpenGL context
  * represented by @handle stays alive while the returned #GstGLContext is
index 54a135d92de2db3a1598427a962b89d7bd1a330c..b456b1fa47685a16a83e63358632559d67b74608 100644 (file)
@@ -27,7 +27,7 @@
  * @title: GstGLDisplay
  * @see_also: #GstContext, #GstGLContext, #GstGLWindow
  *
- * #GstGLDisplay represents a connection to the underlying windowing system. 
+ * #GstGLDisplay represents a connection to the underlying windowing system.
  * Elements are required to make use of #GstContext to share and propogate
  * a #GstGLDisplay.
  *
  * - GST_GL_API influences the OpenGL API requested by the OpenGL platform.
  *   Common values are 'opengl' and 'gles2'.
  *
- * <note>Certain window systems require a special function to be called to
- * initialize threading support.  As this GStreamer GL library does not preclude
- * concurrent access to the windowing system, it is strongly advised that
- * applications ensure that threading support has been initialized before any
- * other toolkit/library functionality is accessed.  Failure to do so could
- * result in sudden application abortion during execution.  The most notably
- * example of such a function is X11's XInitThreads().</note>
+ * Certain window systems require a special function to be called to
+ * initialize threading support.  As this GStreamer GL library does not preclude
+ * concurrent access to the windowing system, it is strongly advised that
+ * applications ensure that threading support has been initialized before any
+ * other toolkit/library functionality is accessed.  Failure to do so could
+ * result in sudden application abortion during execution.  The most notably
+ * > example of such a function is X11's XInitThreads\().
  */
 
 #ifdef HAVE_CONFIG_H
index 61cce02868ec3354e343e68d642f66c251917e33..e702a1ecfd7cc97f1d254b715dd224e4ee58b33d 100644 (file)
@@ -22,6 +22,7 @@
 
 /**
  * SECTION:gstglfilter
+ * @title: GstGlFilter
  * @short_description: GstBaseTransform subclass for dealing with RGBA textures
  * @see_also: #GstBaseTransform, #GstGLContext, #GstGLFramebuffer
  *
@@ -1174,7 +1175,7 @@ _unbind_buffer (GstGLFilter * filter)
  * gst_gl_filter_draw_fullscreen_quad:
  * @filter: a #GstGLFilter
  *
- * Render a fullscreen quad using the current GL state.  The only GL state this 
+ * Render a fullscreen quad using the current GL state.  The only GL state this
  * modifies is the necessary vertex/index buffers and, if necessary, a
  * Vertex Array Object for drawing a fullscreen quad.  Framebuffer state,
  * any shaders, viewport state, etc must be setup by the caller.
index db66f7f83bb20b5fd8d268011fcd5af28ef66e1c..36aecf2e3dfb5463cd3d83e550bfb6894798c950 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstglformat
+ * @title: GstGlFormat
  * @short_description: utilities for dealing with OpenGL formats
  * @see_also: #GstGLBaseMemory, #GstGLMemory, #GstGLFramebuffer, #GstGLBuffer
  *
index 25f67d7dc52cde92ad2cd37017c159ce4c627283..5e693214678cb4b969beedf8a6cd2415ad9034c0 100644 (file)
 
 /**
  * SECTION:gstglmemory
+ * @title: GstGlMemory
  * @short_description: memory subclass for GL textures
  * @see_also: #GstMemory, #GstAllocator, #GstGLBufferPool
  *
  * GstGLMemory is a #GstGLBaseMemory subclass providing support for the mapping of
- * OpenGL textures.  
+ * OpenGL textures.
  *
  * #GstGLMemory is created or wrapped through gst_gl_base_memory_alloc()
  * with #GstGLVideoAllocationParams.
@@ -1092,7 +1093,7 @@ gst_gl_memory_init_once (void)
 /**
  * gst_is_gl_memory:
  * @mem:a #GstMemory
- * 
+ *
  * Returns: whether the memory at @mem is a #GstGLMemory
  *
  * Since: 1.4
index 7ccef27729310a4d6a591541429429b24e34d5c9..4ae7125a34d5bcd05fe519292c4559256eb284dc 100644 (file)
@@ -31,6 +31,7 @@
 
 /**
  * SECTION:gstglmemorypbo
+ * @title: GstGLMemoryPBO
  * @short_description: memory subclass for GL textures
  * @see_also: #GstMemory, #GstAllocator, #GstGLBufferPool
  *
@@ -846,7 +847,7 @@ gst_gl_memory_pbo_init_once (void)
 /**
  * gst_is_gl_memory_pbo:
  * @mem:a #GstMemory
- * 
+ *
  * Returns: whether the memory at @mem is a #GstGLMemoryPBO
  *
  * Since: 1.8
index 354c1efa58fc8dea955575c020a540e768e6bf65..16c123cd0c06c2da28187146b905612b1fff3543 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstgloverlaycompositor
+ * @title: GstGLOverlayCompositor
  * @short_description: Composite multiple overlays using OpenGL
  * @see_also: #GstGLMemory, #GstGLContext
  */
index bae5b8cb0b4cd3c9726f38ab5a77f11f43f34db4..0cf0f75add65c5adcd77aa308e2131d751b0ccfd 100644 (file)
@@ -22,7 +22,7 @@
  * SECTION:gstglquery
  * @short_description: OpenGL query abstraction
  * @title: GstGLQuery
- * @see_also: 
+ * @see_also:
  *
  * A #GstGLQuery represents and holds an OpenGL query object.  Various types of
  * queries can be run or counters retrieved.
index 154ec004969f8dfc1a5493a0f1d116797268dc2a..72f95f853da88c9c2870338716a43554af3960e3 100644 (file)
 
 /**
  * SECTION:gstglrenderbuffer
+ * @title: GstGLRenderBuffer
  * @short_description: memory subclass for GL renderbuffer objects
  * @see_also: #GstMemory, #GstAllocator
  *
  * GstGLRenderbuffer is a #GstGLBaseMemory subclass providing support for
- * OpenGL renderbuffers.  
+ * OpenGL renderbuffers.
  *
  * #GstGLRenderbuffer is created or wrapped through gst_gl_base_memory_alloc()
  * with #GstGLRenderbufferAllocationParams.
@@ -329,7 +330,7 @@ gst_gl_renderbuffer_init_once (void)
 /**
  * gst_is_gl_renderbuffer:
  * @mem:a #GstMemory
- * 
+ *
  * Returns: whether the memory at @mem is a #GstGLRenderbuffer
  *
  * Since: 1.10
index ba10563c39b8a5e926935ae9188ea38c5544ec6b..c15568dbcbebe8d36b0f59cf4d00eb861fbc44d2 100644 (file)
@@ -29,6 +29,7 @@
 
 /**
  * SECTION:gstglshader
+ * @title: GstGLShader
  * @short_description: object representing an OpenGL shader program
  * @see_also: #GstGLSLStage
  */
index 2a9fa4f23488922961d5e32249788838f5db66a9..78fc45d83b3d564b535489220f58a0225d9b166e 100644 (file)
@@ -29,6 +29,7 @@
 
 /**
  * SECTION:gstglsl
+ * @title: GstGLSL
  * @short_description: helpers for dealing with OpenGL shaders
  * @see_also: #GstGLSLStage, #GstGLShader
  */
index b8822704de24831f1b5961791b5acf16932e39a7..f69e344d0f1844280f938381f7941546bb8473ce 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstglsyncmeta
+ * @title: GstGLSyncMeta
  * @short_description: synchronization primitives
  * @see_also: #GstGLBaseMemory, #GstGLContext
  *
index f19cd6ff5e3f365aaee3690b4e9994ac541c0011..9b81892b0581430206af064bd2ebb93cb2a375c3 100644 (file)
@@ -43,6 +43,7 @@
 
 /**
  * SECTION:gstglupload
+ * @title: GstGLUpload
  * @short_description: an object that uploads to GL textures
  * @see_also: #GstGLDownload, #GstGLMemory
  *
index 2b97111f1a41aad376354009a2f6ad449ba2e5dd..16a866eb3a101ff9651854ec5dd386dc1191e983 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstglutils
+ * @title: GstGLUtils
  * @short_description: some miscellaneous utilities for OpenGL
  * @see_also: #GstGLContext
  */
index 86f877e132be12543f81ebfea38fc2a30769aa68..acb9c850480b4c2bc50ec3823bce4a0eec4d178e 100644 (file)
@@ -22,6 +22,7 @@
 
 /**
  * SECTION:gstglviewconvert
+ * @title: GstGLViewConvert
  * @short_description: convert between steroscopic/multiview video formats
  * @see_also: #GstGLColorConvert, #GstGLContext
  *
@@ -1432,7 +1433,7 @@ gst_gl_view_convert_get_property (GObject * object, guint prop_id,
  * @inbuf: (transfer none): the #GstGLMemory filled #GstBuffer to convert
  *
  * Converts the data contained by @inbuf using the formats specified by the
- * #GstCaps passed to gst_gl_view_convert_set_caps() 
+ * #GstCaps passed to gst_gl_view_convert_set_caps()
  *
  * Returns: (transfer full): a converted #GstBuffer or %NULL
  *
index e7f6e70514040270ef4f51f9a3668a39be21b370..b0fa965071ed13a0c4a55cd8645435c70c8f10c3 100644 (file)
@@ -290,10 +290,10 @@ gboolean gst_mpegts_descriptor_parse_dvb_bouquet_name (const GstMpegtsDescriptor
 /* GST_MTS_DESC_DVB_SERVICE (0x48) */
 /**
  * GstMpegtsDVBServiceType:
- * 
+ *
  * The type of service of a channel.
  *
- * As specified in Table 87 of ETSI EN 300 468 v1.13.1 
+ * As specified in Table 87 of ETSI EN 300 468 v1.13.1
  */
 typedef enum {
   GST_DVB_SERVICE_RESERVED_00               = 0x00,
index 76c501187ab9bed1ff7128d0d56dbf7ea187b95b..babab342d514801a025b64fecc375a43f9170cbf 100644 (file)
@@ -1,7 +1,7 @@
 /*
- * gst-scte-section.h - 
+ * gst-scte-section.h -
  * Copyright (C) 2013, CableLabs, Louisville, CO 80027
- * 
+ *
  * Authors:
  *   RUIH Team <ruih@cablelabs.com>
  *
index c1f57d07a563690e1fa26fb85562239a78ef2c1c..a1cc541cb17109516bea60454b3f79f56c54a902 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstplayer-gmaincontextsignaldispatcher
+ * @title: GstPlayerGMainContextSignalDispatcher
  * @short_description: Player GLib MainContext dispatcher
  *
  */
index 48e4725bcb313e27511846b029e90cda5f837bc4..307d3e56ad5764bf3aa98fb7ff75258b441c0d9f 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstplayer-mediainfo
+ * @title: GstPlayerMediaInfo
  * @short_description: Player Media Information
  *
  */
index 2ba326782a6df9369d97b50948362b725badd01e..a25b008cdaf513c10d06e9d4babc6cf04dea4523 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstplayer-videooverlayvideorenderer
+ * @title: GstPlayerVideoOverlayVideoRenderer
  * @short_description: Player Video Overlay Video Renderer
  *
  */
index 79976a7b2e71ec4e33dd4eccc76f9193b8c0b7e4..0f425a6f68142f8ae01cf2c238fc1ba4b1d5c42b 100644 (file)
@@ -21,6 +21,7 @@
 
 /**
  * SECTION:gstplayer-visualization
+ * @title: GstPlayerVisualization
  * @short_description: Player Visualization
  *
  */
index e15e32564c6afc162ee1c02b7d705bce199cea45..273a480b44cac177bb53ef297fd747f9e3b869b5 100644 (file)
@@ -21,6 +21,7 @@
 
 /**
  * SECTION:gstplayer
+ * @title: GstPlayer
  * @short_description: Player
  *
  */
index e17c111d455cca64638bdd3decf70d6e3b2c7350..1616b27244472c25640fbda9797c0089417a515b 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:gstvideoaggregator
+ * @title: GstVideoAggregator
  * @short_description: Base class for video aggregators
  *
  * VideoAggregator can accept AYUV, ARGB and BGRA video streams. For each of the requested
index f6423b7e6dc5e02a4350dd1ecb1aaf0a8ce8741c..05578d4e18cb7405e9de06db82cbbbb37cca92a0 100644 (file)
@@ -33,6 +33,7 @@
 
 /**
  * SECTION:element-accurip
+ * @title: accurip
  * @short_desc: Computes an AccurateRip CRC
  *
  * The accurip element calculates a CRC for an audio stream which can be used
  * <ulink url="http://accuraterip.com/">AccurateRip</ulink>. This database
  * is used to check for a CD rip accuracy.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -m uridecodebin uri=file:///path/to/song.flac ! audioconvert ! accurip ! fakesink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 0f6d330369137402af1b3b7d17f05fce5e50624c..96cac95bb5c2fd10066c6ad5b7b3b499a97ad678 100644 (file)
@@ -42,6 +42,7 @@
 
 /**
  * SECTION:element-aiffmux
+ * @title: aiffmux
  *
  * Format an audio stream into the Audio Interchange File Format
  *
index faa264770d1558aecbcef88a5d673126846b0b60..b1b11670345e4cf65203670634a6883dc53d0c43 100644 (file)
 
 /**
  * SECTION:element-aiffparse
+ * @title: aiffparse
  *
- * <refsect2>
- * <para>
  * Parse a .aiff file into raw or compressed audio.
- * </para>
- * <para>
+ *
  * The aiffparse element supports both push and pull mode operations, making it
  * possible to stream from a network source.
- * </para>
- * <title>Example launch line</title>
- * <para>
- * <programlisting>
+ *
+ * ## Example launch line
+ *
+ * |[
  * gst-launch-1.0 filesrc location=sine.aiff ! aiffparse ! audioconvert ! alsasink
- * </programlisting>
+ * ]|
  * Read a aiff file and output to the soundcard using the ALSA element. The
  * aiff file is assumed to contain raw uncompressed samples.
- * </para>
- * <para>
- * <programlisting>
+ *
+ * |[
  * gst-launch-1.0 souphttpsrc location=http://www.example.org/sine.aiff ! queue ! aiffparse ! audioconvert ! alsasink
- * </programlisting>
+ * ]|
  * Stream data from a network url.
- * </para>
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 3579a554d841ba5f1cd06c4ad5d077e87344de7e..9896019ffcd6b45e3275a5db0055d9a3d030644f 100644 (file)
@@ -24,6 +24,7 @@
 
 /**
  * SECTION:element-asfmux
+ * @title: asfmux
  *
  * Muxes media into an ASF file/stream.
  *
@@ -31,9 +32,9 @@
  * stream number of the stream that goes through that pad. Stream numbers
  * are assigned sequentially, starting from 1.
  *
- * <refsect2>
- * <title>Example launch lines</title>
- * <para>(write everything in one line, without the backslash characters)</para>
+ * ## Example launch lines
+ *
+ * (write everything in one line, without the backslash characters)
  * |[
  * gst-launch-1.0 videotestsrc num-buffers=250 \
  * ! "video/x-raw,format=(string)I420,framerate=(fraction)25/1" ! avenc_wmv2 \
  * ]| This creates an ASF file containing an WMV video stream
  * with a test picture and WMA audio stream of a test sound.
  *
- * <title>Live streaming</title>
+ * ## Live streaming
  * asfmux and rtpasfpay are capable of generating a live asf stream.
- * asfmux has to set its 'streamable' property to true, because in this 
+ * asfmux has to set its 'streamable' property to true, because in this
  * mode it won't try to seek back to the start of the file to replace
  * some fields that couldn't be known at the file start. In this mode,
  * it won't also send indexes at the end of the data packets (the actual
  * media content)
  * the following pipelines are an example of this usage.
- * <para>(write everything in one line, without the backslash characters)</para>
+ * (write everything in one line, without the backslash characters)
  * Server (sender)
  * |[
  * gst-launch-1.0 -ve videotestsrc ! avenc_wmv2 ! asfmux name=mux streamable=true \
@@ -65,7 +66,7 @@
  * ! videoconvert ! autovideosink \
  * d. ! queue ! audioconvert ! autoaudiosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
@@ -421,7 +422,7 @@ content_description_calc_size_for_tag (const GstTagList * taglist,
 
       text = g_value_get_string (&value);
       /* +1 -> because of the \0 at the end
-       * 2* -> because we have uft8, and asf demands utf16 
+       * 2* -> because we have uft8, and asf demands utf16
        */
       content_size = 2 * (1 + g_utf8_strlen (text, -1));
 
@@ -442,7 +443,7 @@ content_description_calc_size_for_tag (const GstTagList * taglist,
     /* size of the tag content in utf16 +
      * size of the tag name +
      * 3 uint16 (size of the tag name string,
-     * size of the tag content string and 
+     * size of the tag content string and
      * type of content
      */
     asftags->ext_cont_desc_size += content_size +
@@ -465,7 +466,7 @@ content_description_calc_size_for_tag (const GstTagList * taglist,
  * size needed for the default and extended content description objects.
  * This results and a copy of the #GstTagList
  * are stored in the #GstAsfTags. We store a copy so that
- * the sizes estimated here mantain the same until they are 
+ * the sizes estimated here mantain the same until they are
  * written to the asf file.
  */
 static void
@@ -531,7 +532,7 @@ add_metadata_tag_size (const GstTagList * taglist, const gchar * tag,
 
       text = g_value_get_string (&value);
       /* +1 -> because of the \0 at the end
-       * 2* -> because we have uft8, and asf demands utf16 
+       * 2* -> because we have uft8, and asf demands utf16
        */
       content_size = 2 * (1 + g_utf8_strlen (text, -1));
     }
@@ -849,7 +850,7 @@ gst_asf_mux_write_extended_stream_properties (GstAsfMux * asfmux, guint8 ** buf,
  * @size_buf: pointer to the memory position to write the size of the string
  * @str_buf: pointer to the memory position to write the string
  * @str: the string to be writen (in UTF-8)
- * @use32: if the string size should be writen with 32 bits (if true) 
+ * @use32: if the string size should be writen with 32 bits (if true)
  * or with 16 (if false)
  *
  * Writes a string with its size as it is needed in many asf objects.
@@ -870,7 +871,7 @@ gst_asf_mux_write_string_with_size (GstAsfMux * asfmux,
   GST_LOG_OBJECT (asfmux, "Writing extended content description string: "
       "%s", str);
 
-  /* 
+  /*
    * Covert the string to utf16
    * Also force the last bytes to null terminated,
    * tags were with extra weird characters without it.
@@ -909,7 +910,7 @@ gst_asf_mux_write_string_with_size (GstAsfMux * asfmux,
  *
  * Checks if a string tag with tagname exists in the taglist. If it
  * exists it is writen as an UTF-16LE to data_buf and its size in bytes
- * is writen to size_buf. It is used for writing content description 
+ * is writen to size_buf. It is used for writing content description
  * object fields.
  *
  * Returns: the size of the string
@@ -1191,7 +1192,7 @@ gst_asf_mux_write_data_object (GstAsfMux * asfmux, guint8 ** buf)
   /* Data object size. This is always >= ASF_DATA_OBJECT_SIZE. The standard
    * specifically accepts the value 0 in live streams, but WMP is not accepting
    * this while streaming using WMSP, so we default to minimum size also for
-   * live streams. Otherwise this field must be updated later on when we know 
+   * live streams. Otherwise this field must be updated later on when we know
    * the complete stream size.
    */
   GST_WRITE_UINT64_LE (*buf + 16, ASF_DATA_OBJECT_SIZE);
@@ -1338,7 +1339,7 @@ gst_asf_mux_start_file (GstAsfMux * asfmux)
   gst_asf_mux_write_header_object (asfmux, &bufdata, map.size -
       ASF_DATA_OBJECT_SIZE, 2 + stream_num);
 
-  /* get the position of the file properties object for 
+  /* get the position of the file properties object for
    * updating it in gst_asf_mux_stop_file */
   asfmux->file_properties_object_position = bufdata - map.data;
   gst_asf_mux_write_file_properties (asfmux, &bufdata);
@@ -1765,7 +1766,7 @@ cleanup_and_return:
 /**
  * gst_asf_mux_stop_file:
  * @asfmux: #GstAsfMux
- * 
+ *
  * Finalizes the asf stream by pushing the indexes after
  * the data object. Also seeks back to the header positions
  * to rewrite some fields such as the total number of bytes
@@ -1802,7 +1803,7 @@ gst_asf_mux_stop_file (GstAsfMux * asfmux)
       play_duration = pad->play_duration;
   }
 
-  /* going back to file properties object to fill in 
+  /* going back to file properties object to fill in
    * values we didn't know back then */
   GST_DEBUG_OBJECT (asfmux,
       "Sending new segment to file properties object position");
@@ -2134,7 +2135,7 @@ gst_asf_mux_audio_set_caps (GstPad * pad, GstCaps * caps)
   audiopad->audioinfo.rate = (guint32) rate;
 
   /* taken from avimux
-   * codec initialization data, if any 
+   * codec initialization data, if any
    */
   codec_data = gst_structure_get_value (structure, "codec_data");
   if (codec_data) {
@@ -2227,7 +2228,7 @@ gst_asf_mux_video_set_caps (GstPad * pad, GstCaps * caps)
   videopad->vidinfo.height = (gint32) height;
 
   /* taken from avimux
-   * codec initialization data, if any 
+   * codec initialization data, if any
    */
   codec_data = gst_structure_get_value (structure, "codec_data");
   if (codec_data) {
index c2b112926d7807b9a4ecc246b22519e673c3c26a..f8455d970c215ad90054a0cf49d9240c796c8746 100644 (file)
@@ -58,7 +58,7 @@ const Guid guids[] = {
 
 /**
  * gst_asf_generate_file_id:
- * 
+ *
  * Generates a random GUID
  *
  * Returns: The generated GUID
@@ -146,7 +146,7 @@ gst_asf_read_var_size_field (guint8 * data, guint8 field_type)
 /**
  * gst_asf_get_var_size_field_len:
  * @field_type: the asf field type
- * 
+ *
  * Returns: the size in bytes of a variable of field_type type
  */
 guint
@@ -168,7 +168,7 @@ gst_asf_get_var_size_field_len (guint8 field_type)
  * gst_asf_file_info_new:
  *
  * Creates a new #GstAsfFileInfo
- * 
+ *
  * Returns: the created struct
  */
 GstAsfFileInfo *
@@ -180,7 +180,7 @@ gst_asf_file_info_new (void)
 /**
  * gst_asf_file_info_reset:
  * @info: the #GstAsfFileInfo to be reset
- * 
+ *
  * resets the data of a #GstFileInfo
  */
 void
index 7d92a5b268dc69664689d0769fcb1ff3d42f6f05..84e1049f7576dc86ee4be7d868d3bdab270730f6 100644 (file)
  */
 /**
  * SECTION:element-gstaudiochannelmix
+ * @title: gstaudiochannelmix
  *
  * The audiochannelmix element mixes channels in stereo audio based on
  * properties set on the element.  The primary purpose is reconstruct
  * equal left/right channels on an input stream that has audio in only
  * one channel.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v audiotestsrc ! audiochannelmix ! autoaudiosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index f4e9fa1073eaa33bdd69f84faebcc5906f98404d..8d99b3ce132c19e10b4626d0f19c72eeacdc0f80 100644 (file)
@@ -27,7 +27,7 @@
  */
 /**
  * SECTION:element-audiointerleave
- *
+ * @title: audiointerleave
  *
  */
 
@@ -593,7 +593,7 @@ gst_audio_interleave_class_init (GstAudioInterleaveClass * klass)
 
   /**
    * GstInterleave:channel-positions
-   * 
+   *
    * Channel positions: This property controls the channel positions
    * that are used on the src caps. The number of elements should be
    * the same as the number of sink pads and the array should contain
@@ -617,7 +617,7 @@ gst_audio_interleave_class_init (GstAudioInterleaveClass * klass)
 
   /**
    * GstInterleave:channel-positions-from-input
-   * 
+   *
    * Channel positions from input: If this property is set to %TRUE the channel
    * positions will be taken from the input caps if valid channel positions for
    * the output can be constructed from them. If this is set to %TRUE setting the
index de539db828a5d2050bc1f7b2f2e71e9ea79d95ca..ac2f49c04b94160ca9ffa35791a6a296539a74b4 100644 (file)
@@ -23,6 +23,7 @@
  */
 /**
  * SECTION:element-audiomixer
+ * @title: audiomixer
  *
  * The audiomixer allows to mix several streams into one by adding the data.
  * Mixed data is clamped to the min/max values of the data format.
  * The input pads are from a GstPad subclass and have additional
  * properties to mute each pad individually and set the volume:
  *
- * <itemizedlist>
- * <listitem>
- * "mute": Whether to mute the pad or not (#gboolean)
- * </listitem>
- * <listitem>
- * "volume": The volume of the pad, between 0.0 and 10.0 (#gdouble)
- * </listitem>
- * </itemizedlist>
+ * * "mute": Whether to mute the pad or not (#gboolean)
+ * * "volume": The volume of the pad, between 0.0 and 10.0 (#gdouble)
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 audiotestsrc freq=100 ! audiomixer name=mix ! audioconvert ! alsasink audiotestsrc freq=500 ! mix.
  * ]| This pipeline produces two sine waves mixed together.
- * </refsect2>
  *
  */
 
index 6dd59ffd980311321335829c8121f0bad4301f4a..75f4a970a792ee14b2e5bd699551132660eba379 100644 (file)
@@ -22,6 +22,7 @@
 
 /**
  * SECTION:element-audiomixmatrix
+ * @title: audiomixmatrix
  * @short_description: Transform input/output channels according to a matrix
  *
  * This element transforms a given number of input channels into a given
@@ -32,8 +33,7 @@
  * are automatically negotiated and the transformation matrix is a truncated
  * identity matrix.
  *
- * <refsect2>
- * <title>Example matrix generation code</title>
+ * ## Example matrix generation code
  * To generate the matrix using code:
  *
  * |[
  * g_object_set_property (G_OBJECT (audiomixmatrix), "matrix", &v);
  * g_value_unset (&v);
  * ]|
- * </refsect2>
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 audiotestsrc ! audio/x-raw,channels=4 ! audiomixmatrix in-channels=4 out-channels=2 channel-mask=-1 matrix="<<(double)1, (double)0, (double)0, (double)0>, <0.0, 1.0, 0.0, 0.0>>" ! audio/x-raw,channels=2 ! autoaudiosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 5071dc8b1b86e074831fc96156f85f9716ba4b0c..3e59609f32636f783c02acc16e746724f0055eca 100644 (file)
  */
 /**
  * SECTION:element-spacescope
+ * @title: spacescope
  * @see_also: goom
  *
  * Spacescope is a simple audio visualisation element. It maps the left and
  * right channel to x and y coordinates.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 audiotestsrc ! audioconvert ! spacescope ! ximagesink
  * ]|
- * </refsect2>
+ *
  */
 #ifdef HAVE_CONFIG_H
 #include "config.h"
index 10aa7d2f8d39a1017df94837ef190f6a7eb47f3d..5ba73ba11cb43bd16f423e7452b8a57f5ec6e19b 100644 (file)
  */
 /**
  * SECTION:element-spectrascope
+ * @title: spectrascope
  * @see_also: goom
  *
  * Spectrascope is a simple spectrum visualisation element. It renders the
  * frequency spectrum as a series of bars.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 audiotestsrc ! audioconvert ! spectrascope ! ximagesink
  * ]|
- * </refsect2>
+ *
  */
 #ifdef HAVE_CONFIG_H
 #include "config.h"
index f99a753eafe0f85a5c8ced87261f19a2244c7d30..4b5c0ed5ae55be2c53ca52f297447977e9a9e436 100644 (file)
  */
 /**
  * SECTION:element-synaescope
+ * @title: synaescope
  * @see_also: goom
  *
  * Synaescope is an audio visualisation element. It analyzes frequencies and
  * out-of phase properties of audio and draws this as clouds of stars.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 audiotestsrc ! audioconvert ! synaescope ! ximagesink
  * ]|
- * </refsect2>
+ *
  */
 #ifdef HAVE_CONFIG_H
 #include "config.h"
index e4eb8c2fbadd2ead48b565d7cabf224d1c3f79b3..c934daa4d25bb09996c306194ff30545385f52ec 100644 (file)
  */
 /**
  * SECTION:element-wavescope
+ * @title: wavescope
  * @see_also: goom
  *
  * Wavescope is a simple audio visualisation element. It renders the waveforms
  * like on an oscilloscope.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 audiotestsrc ! audioconvert ! wavescope ! ximagesink
  * ]|
- * </refsect2>
+ *
  */
 #ifdef HAVE_CONFIG_H
 #include "config.h"
index 4761f44033fa8ea2949888e5c8e209864d093432..bed5e88e7430b6efcc1c00bc3ea71e6580f41d87 100644 (file)
@@ -21,6 +21,7 @@
  */
 /**
  * SECTION:element-autoconvert
+ * @title: autoconvert
  *
  * The #autoconvert element has one sink and one source pad. It will look for
  * other elements that also have one sink and one source pad.
index de356edffdc5eaa4f4d662ce9c240d1506eb2cd3..a6d24eab1be0dad2eb4e295be4c538c5b69fc236 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:element-bayer2rgb
+ * @title: bayer2rgb
  *
  * Decodes raw camera bayer (fourcc BA81) to RGB.
  */
index 45a0df46af0f36b2e77106f177ce2a0075c4af53..799c86d3ae176f43e53588b99542be9c84173181 100644 (file)
@@ -20,6 +20,7 @@
 
 /**
  * SECTION:camerabingeneral
+ * @title: GstCameraBin2
  * @short_description: helper functions for #GstCameraBin2 and it's modules
  *
  * Common helper functions for #GstCameraBin2, #GstCameraBin2Image and
index 24bb4fbdac23043c78ebaba567eac972c5cb5b97..0e4a3c727e847dc08895a7332a857a64d48c96dd 100644 (file)
  */
 /**
  * SECTION:element-camerabin
+ * @title: camerabin
  *
  * CameraBin is a high-level camera object that encapsulates gstreamer
  * elements, providing an API for controlling a digital camera.
  *
- * <note>
- * Note that camerabin is still UNSTABLE and under development.
- * </note>
+ * > Note that camerabin is still UNSTABLE and under development.
  *
  * CameraBin has the following main features:
- * <itemizedlist>
- * <listitem>
- * Record videos
- * </listitem>
- * <listitem>
- * Capture pictures
- * </listitem>
- * <listitem>
- * Display a viewfinder
- * </listitem>
- * <listitem>
- * Post preview images for each capture (video and image)
- * </listitem>
- * </itemizedlist>
  *
- * <refsect2>
- * <title>Usage</title>
- * <para>
+ * * Record videos
+ * * Capture pictures
+ * * Display a viewfinder
+ * * Post preview images for each capture (video and image)
+ *
+ * ## Usage
+ *
  * Camerabin can be created using gst_element_factory_make() just like
  * any other element. Video or image capture mode can be selected using
  * the #GstCameraBin:mode property and the file to save the capture is
  * In both modes, if #GstCameraBin:post-previews is %TRUE, a #GstBuffer
  * will be post to the #GstBus in a field named 'buffer', in a
  * 'preview-image' message of type %GST_MESSAGE_ELEMENT.
- * </para>
- * </refsect2>
+ *
 
- * <refsect2>
- * <title>Customization</title>
- * <para>
+ *
+ * ## Customization
+ *
  * Camerabin provides various customization properties, allowing the user
  * to set custom filters, selecting the viewfinder sink and formats to
  * use to encode the captured images/videos.
  * of its branches: video capture, image capture, viewfinder and preview.
  * Check #GstCameraBin:video-filter, #GstCameraBin:image-filter,
  * #GstCameraBin:viewfinder-filter and #GstCameraBin:preview-filter.
- * </para>
- * </refsect2>
  *
- * <refsect2>
- * <title>Example launch line</title>
- * <para>
+ * ## Example launch line
+ *
  * Unfortunately, camerabin can't be really used from gst-launch-1.0, as you
  * need to send signals to control it. The following pipeline might be able
  * to show the viewfinder using all the default elements.
  * |[
  * gst-launch-1.0 -v -m camerabin
  * ]|
- * </para>
- * </refsect2>
+ *
 
  */
 
index b936fe455606ac4729a3645efc46052b11d8f631..c7de9a65046e5c8648d7466a3a88703a9ef5dab8 100644 (file)
@@ -21,6 +21,7 @@
 
 /**
  * SECTION:element-digitalzoom
+ * @title: digitalzoom
  *
  * Does digital zooming by cropping and scaling an image.
  *
index 7ff7bd50998be72bacf8d5f12fdcb97b447128e3..1d3da329ae11a887cf95747cb53c210cb67a6c2b 100644 (file)
  */
 /**
  * SECTION:element-gstviewfinderbin
+ * @title: gstviewfinderbin
  *
  * The gstviewfinderbin element is a displaying element for camerabin2.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! viewfinderbin
  * ]|
  * Feeds the viewfinderbin with video test data.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 4c2d8ec12852e2d9923a3682858f23b796295d72..c1c6dc5ee54dba143a9a6c30a73d4f219f7c6ec9 100644 (file)
@@ -22,6 +22,7 @@
 
 /**
  * SECTION:element-wrappercamerabinsrc
+ * @title: wrappercamerabinsrc
  *
  * A camera bin src element that wraps a default video source with a single
  * pad into the 3pad model that camerabin2 expects.
index 011c401ee4af23c7043c7d276da65ca351c3da6f..1ddb4c0722d27d5ddf05a2eef51c5e89ae274f4e 100644 (file)
@@ -23,7 +23,8 @@
 
 /**
  * SECTION:element-chromahold
- * 
+ * @title: chromahold
+ *
  * The chromahold element will remove all color information for
  * all colors except a single one and converts them to grayscale.
  *
index 5a1aea110e0122ee76f9797319490f003283e898..dc26f70dde153ae9f2ff98a2f0ca9bc3dbb1a4d9 100644 (file)
 
 /**
  * SECTION:element-coloreffects
+ * @title: coloreffects
  *
  * Map colors of the video input to a lookup table
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! coloreffects preset=heat ! videoconvert !
  *     autovideosink
  * ]| This pipeline shows the effect of coloreffects on a test stream.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 068d2bb7216c1305c2f8a4381269a2bdd8600557..fab75c6394d2d50efddb64b1a6e3bc2ceffe3eb3 100644 (file)
@@ -22,6 +22,7 @@
 
 /**
  * SECTION:element-compositor
+ * @title: compositor
  *
  * Compositor can accept AYUV, ARGB and BGRA video streams. For each of the requested
  * sink pads it will compare the incoming geometry and framerate to define the
  * biggest incoming video stream and the framerate of the fastest incoming one.
  *
  * Compositor will do colorspace conversion.
- * 
+ *
  * Individual parameters for each input stream can be configured on the
  * #GstCompositorPad:
  *
- * <itemizedlist>
- * <listitem>
- * "xpos": The x-coordinate position of the top-left corner of the picture
- * (#gint)
- * </listitem>
- * <listitem>
- * "ypos": The y-coordinate position of the top-left corner of the picture
- * (#gint)
- * </listitem>
- * <listitem>
- * "width": The width of the picture; the input will be scaled if necessary
- * (#gint)
- * </listitem>
- * <listitem>
- * "height": The height of the picture; the input will be scaled if necessary
- * (#gint)
- * </listitem>
- * <listitem>
- * "alpha": The transparency of the picture; between 0.0 and 1.0. The blending
- * is a simple copy when fully-transparent (0.0) and fully-opaque (1.0).
- * (#gdouble)
- * </listitem>
- * <listitem>
- * "zorder": The z-order position of the picture in the composition
- * (#guint)
- * </listitem>
- * </itemizedlist>
+ * * "xpos": The x-coordinate position of the top-left corner of the picture (#gint)
+ * * "ypos": The y-coordinate position of the top-left corner of the picture (#gint)
+ * * "width": The width of the picture; the input will be scaled if necessary (#gint)
+ * * "height": The height of the picture; the input will be scaled if necessary (#gint)
+ * * "alpha": The transparency of the picture; between 0.0 and 1.0. The blending
+ *   is a simple copy when fully-transparent (0.0) and fully-opaque (1.0). (#gdouble)
+ * * "zorder": The z-order position of the picture in the composition (#guint)
  *
- * <refsect2>
- * <title>Sample pipelines</title>
+ * ## Sample pipelines
  * |[
  * gst-launch-1.0 \
  *   videotestsrc pattern=1 ! \
@@ -85,7 +65,7 @@
  *   compositor name=comp ! videoconvert ! ximagesink \
  *   videotestsrc !  \
  *   video/x-raw, framerate=\(fraction\)5/1, width=320, height=240 ! comp.
- * ]| A pipeline to demostrate bgra comping. (This does not demonstrate alpha blending). 
+ * ]| A pipeline to demostrate bgra comping. (This does not demonstrate alpha blending).
  * |[
  * gst-launch-1.0 videotestsrc pattern=1 ! \
  *   video/x-raw,format =I420, framerate=\(fraction\)10/1, width=100, height=100 ! \
  *   "video/x-raw,format=AYUV,width=800,height=600,framerate=(fraction)10/1" ! \
  *   timeoverlay ! queue2 ! comp.
  * ]| A pipeline to demonstrate synchronized compositing (the second stream starts after 3 seconds)
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 00f89a3e7bdfbb1eb66e1d0871a351e33af68259..9774b6a5273604734ac55fc843b707b6ef92a677 100644 (file)
 
 /**
  * SECTION:element-fpsdisplaysink
+ * @title: fpsdisplaysink
  *
  * Can display the current and average framerate as a testoverlay or on stdout.
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 videotestsrc ! fpsdisplaysink
  * gst-launch-1.0 videotestsrc ! fpsdisplaysink text-overlay=false
  * gst-launch-1.0 filesrc location=video.avi ! decodebin name=d ! queue ! fpsdisplaysink d. ! queue ! fakesink sync=true
  * gst-launch-1.0 playbin uri=file:///path/to/video.avi video-sink="fpsdisplaysink" audio-sink=fakesink
  * ]|
- * </refsect2>
+ *
  */
 /* FIXME:
  * - can we avoid plugging the textoverlay?
index c382d32745d6d2d4f6e7f575a19d2f246e4a2698..bed08befb6092f211721a9fa3c9f1f3cfab2ca41 100644 (file)
  */
 /**
  * SECTION:element-gstchopmydata
+ * @title: gstchopmydata
  *
  * The chopmydata element takes an incoming stream and chops it up
  * into randomly sized buffers.  Size of outgoing buffers are determined
  * by the max-size, min-size, and step-size properties.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v audiotestsrc num-buffers=10 ! chopmydata min-size=100
  * max-size=200 step-size=2 ! fakesink -v
  * ]|
- * 
+ *
  * This pipeline will create 10 buffers that are by default 2048 bytes
  * each (1024 samples each), and chop them up into buffers that range
  * in size from 100 bytes to 200 bytes, with the restriction that sizes
  * are a multiple of 2.  This restriction is important, because the
  * default sample size for audiotestsrc is 2 bytes (one channel, 16-bit
  * audio).
- * 
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index fed2db180ff0cc1b4f3e57ffc04fedaff4a7f0bc..ebf050f6d015ce49e272c146be9d78abf56beb2b 100644 (file)
 
 /**
  * SECTION:element-debugspy
+ * @title: debugspy
  *
  * A spy element that can provide information on buffers going through it, with
  * bus messages.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -m videotestsrc ! debugspy ! fakesink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index ed42a05051c268474fabac3880cec67876a82e71..30e5beee2b419a031132315fd170340ebfe9a588 100644 (file)
 
 /**
  * SECTION:element-errorignore
+ * @title: errorignore
  *
  * Passes through all packets, until it encounters GST_FLOW_ERROR or
  * GST_FLOW_NOT_NEGOTIATED (configurable). At that point it will unref the
- * buffers and return GST_FLOW_OK (configurable) - until the next 
+ * buffers and return GST_FLOW_OK (configurable) - until the next
  * READY_TO_PAUSED, RECONFIGURE or FLUSH_STOP.
- * <refsect2>
- * <title>Example launch line</title>
+ *
+ * ## Example launch line
  * |[
  * gst-launch-1.0 videotestsrc ! errorignore ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 0a4c12e7bb48d4c545b2cff318509c316912ca60..1824cbf3be8a174345dd00e82bf81e5befb71a28 100644 (file)
@@ -19,6 +19,7 @@
  */
 /**
  * SECTION:element-gstwatchdog
+ * @title: watchdog
  *
  * The watchdog element watches buffers and events flowing through
  * a pipeline.  If no buffers are seen for a configurable amount of
  * This element is currently intended for transcoding pipelines,
  * although may be useful in other contexts.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v fakesrc ! watchdog ! fakesink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 75965631a84cfd5fb1c5c243d1a44389f2d2e59f..cddb19ec95466504e52a9339be202b450dbdfc0b 100644 (file)
@@ -45,6 +45,7 @@ static void dvb_sub_init (void);
 
 /**
  * SECTION:dvb-sub
+ * @title: GstDvbSub
  * @short_description: a DVB subtitle parsing class
  * @stability: Unstable
  *
index 7faa31f456f82db20faf1f6b0eb6f91d4b8341cb..5917e7e495147e7cb54253e68ba0467653d70535 100644 (file)
@@ -68,7 +68,7 @@ typedef struct DVBSubtitleRect {
 
 /**
  * DVBSubtitleWindow
- * @version: version 
+ * @version: version
  * @display_window_flag: window_* are valid
  * @display_width: assumed width of display
  * @display_height: assumed height of display
index 1723cae923ab41bedffd306bc699285282e4cbcd..f28590cd9496fe672e337403cf7b9c43c06f6253 100644 (file)
 
 /**
  * SECTION:element-dvbsuboverlay
+ * @title: dvbsuboverlay
  *
  * Renders DVB subtitles on top of a video stream.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[ FIXME
  * gst-launch-1.0 -v filesrc location=/path/to/ts ! mpegtsdemux name=d ! queue ! mpegaudioparse ! mpg123audiodec ! audioconvert ! autoaudiosink \
  *     d. ! queue ! mpegvideoparse ! mpeg2dec ! videoconvert ! r. \
  *     d. ! queue ! "subpicture/x-dvb" ! dvbsuboverlay name=r ! videoconvert ! autovideosink
  * ]| This pipeline demuxes a MPEG-TS file with MPEG2 video, MP3 audio and embedded DVB subtitles and renders the subtitles on top of the video.
- * </refsect2>
+ *
  */
 
 
index fb21748904ecad0c85fce8fd02146a80fc39546d..41c964b0da23a41a760e9cf016cd4ad1a2bd4309 100644 (file)
  */
 /**
  * SECTION:element-dvdspu
+ * @title: dvdspu
  *
  * DVD sub picture overlay element.
- * 
- * <refsect2>
- * <title>Example launch line</title>
+ *
+ * ## Example launch line
  * |[
  * FIXME: gst-launch-1.0 ...
  * ]| FIXME: description for the sample launch pipeline
- * </refsect2>
+ *
  */
 #ifdef HAVE_CONFIG_H
 #  include <config.h>
index 981ec611279c05a2f7dad8b5f62f7943e6ecc88a..73d492ab8c7412a97f5d6be55edda6e154f3e677 100644 (file)
 
 /**
  * SECTION:element-festival
- * 
+ * @title: festival
+ *
  * This element connects to a
  * <ulink url="http://www.festvox.org/festival/index.html">festival</ulink>
  * server process and uses it to synthesize speech. Festival need to run already
  * in server mode, started as <screen>festival --server</screen>
- * 
- * <refsect2>
- * <title>Example pipeline</title>
+ *
+ * ## Example pipeline
  * |[
  * echo 'Hello G-Streamer!' | gst-launch-1.0 fdsrc fd=0 ! festival ! wavparse ! audioconvert ! alsasink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 2b01b51809918db8067c5d5cfa6594573934c3c2..d1ef181a6c298b6ab83351ed1e731d7de61a75f4 100644 (file)
 
 /**
  * SECTION:element-fieldanalysis
+ * @title: fieldanalysis
  *
  * Analyse fields from video buffers to identify whether the buffers are
  * progressive/telecined/interlaced and, if telecined, the telecine pattern
  * used.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v uridecodebin uri=/path/to/foo.bar ! fieldanalysis ! deinterlace ! videoconvert ! autovideosink
  * ]| This pipeline will analyse a video stream with default metrics and thresholds and output progressive frames.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 536452e81db7eb0352e7946024f7c90286d5c11c..f7292e038c189a86d3b7b969cfd80900e68de082 100644 (file)
 
 /**
  * SECTION:element-freeverb
+ * @title: freeverb
  *
  * Reverberation/room effect.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 audiotestsrc wave=saw ! freeverb ! autoaudiosink
  * gst-launch-1.0 filesrc location="melo1.ogg" ! decodebin ! audioconvert ! freeverb ! autoaudiosink
  * ]|
- * </refsect2>
+ *
  */
 
 /* FIXME:
index ee448758456df650aaeab256add95287569e7c65..bf662270a5c65ec3099f7230f345b0aa36642e52 100644 (file)
 
 /**
  * SECTION:element-burn
+ * @title: burn
  *
  * Burn adjusts the colors of a video stream in realtime.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! burn ! videoconvert ! autovideosink
  * ]| This pipeline shows the effect of burn on a test stream
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 65ac5b50c52d27f9479c354aa49a1567e0e33847..fb55aac25cd813d5589ad5be076a483e0cc0e0d0 100644 (file)
 
 /**
  * SECTION:element-chromium
+ * @title: chromium
  *
  * Chromium breaks the colors of a video stream in realtime.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! chromium ! videoconvert ! autovideosink
  * ]| This pipeline shows the effect of chromium on a test stream
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 301135d3b27d10601612f31db43ed3719543b88f..a21ab3d5a8489068e5ce263a061d2584c44f2b4e 100644 (file)
 
 /**
  * SECTION:element-dilate
+ * @title: dilate
  *
  * Dilate adjusts the colors of a video stream in realtime.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! dilate ! videoconvert ! autovideosink
  * ]| This pipeline shows the effect of dilate on a test stream
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index eb5019e7141c7cce51f6fc73aace68c9053cf36a..86b5d9d02199f6987150b34b747e7ecb8e18231e 100644 (file)
 
 /**
  * SECTION:element-dodge
+ * @title: dodge
  *
  * Dodge saturates the colors of a video stream in realtime.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! dodge ! videoconvert ! autovideosink
  * ]| This pipeline shows the effect of dodge on a test stream
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 6ebe825260de3aad7acf9bbaf040794533a9ec42..62445bd06710e10aa7a0534bc450d808e9d5cdb9 100644 (file)
 
 /**
  * SECTION:element-exclusion
+ * @title: exclusion
  *
  * Exclusion saturates the colors of a video stream in realtime.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! exclusion ! videoconvert ! autovideosink
  * ]| This pipeline shows the effect of exclusion on a test stream
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 9c1e0979b60dc667afb6feaf3059ef33394418bb..ff5ca520e5a4949403be534fc65850265d47306f 100644 (file)
 
 /**
  * SECTION:element-gaussianblur
+ * @title: gaussianblur
  *
  * Gaussianblur blurs the video stream in realtime.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! gaussianblur ! videoconvert ! autovideosink
  * ]| This pipeline shows the effect of gaussianblur on a test stream
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 0710d0fd694c19d382ee40f659e0741d63a0ee4e..8fc9ff69e8feae0974089fedfff6cbba6e742025 100644 (file)
 
 /**
  * SECTION:element-solarize
+ * @title: solarize
  *
  * Solarize does a smart inverse in a video stream in realtime.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! solarize ! videoconvert ! autovideosink
  * ]| This pipeline shows the effect of solarize on a test stream
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index d6534ba942fd9d16b0158be0612684381273b7b7..47b0f7b19f76ba0221cc7efd7f608e6280fe26da 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:gstdataprotocol
+ * @title: GstDataProtocol
  * @short_description: Serialization of caps, buffers and events.
  * @see_also: #GstCaps, #GstEvent, #GstBuffer
  *
index b7269bd68650e2befd01d6ad29f86ca8a8ed4394..4d2093870a11f65ad3f794a05b92a3a2d2d73770 100644 (file)
 
 /**
  * SECTION:element-gdpdepay
+ * @title: gdpdepay
  * @see_also: gdppay
  *
  * This element depayloads GStreamer Data Protocol buffers back to deserialized
  * buffers and events.
  *
- * <refsect2>
  * |[
  * gst-launch-1.0 -v -m filesrc location=test.gdp ! gdpdepay ! xvimagesink
  * ]| This pipeline plays back a serialized video stream as created in the
  * example for gdppay.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 6b55895b0afac3db9e03d8e6945d47beebd6aff9..3546dd86a32b33421f73cc1bd13fa580d153fbf2 100644 (file)
 
 /**
  * SECTION:element-gdppay
+ * @title: gdppay
  * @see_also: gdpdepay
  *
  * This element payloads GStreamer buffers and events using the
  * GStreamer Data Protocol.
  *
- * <refsect2>
  * |[
  * gst-launch-1.0 -v -m videotestsrc num-buffers=50 ! gdppay ! filesink location=test.gdp
  * ]| This pipeline creates a serialized video stream that can be played back
  * with the example shown in gdpdepay.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 98a7849ba01549a3c90276840b391a6e9bd1065f..01e850b12b6598269371b4613cfce762ccccfd83 100644 (file)
 
 /**
  * SECTION:element-bulge
+ * @title: bulge
  * @see_also: geometrictransform
  *
  * Bugle is a geometric image transform element. It adds a protuberance in the
  * center point.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! bulge ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index da4f48b0d6ef2b9e1f8910dd3849c649f536ea69..b326fd00ba442e8d20a932b97512a3386fd9645b 100644 (file)
 
 /**
  * SECTION:element-circle
+ * @title: circle
  * @see_also: geometrictransform
  *
  * Circle is a geometric image transform element. It warps the picture into an
  * arc shaped form.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! circle ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 03009c724a7825d60a7599d59193892653fee315..36e4e62a2afa36afb4bbeb87675ea9f0120ecc2e 100644 (file)
 
 /**
  * SECTION:element-diffuse
+ * @title: diffuse
  * @see_also: geometrictransform
  *
  * Diffuse is a geometric image transform element. It diffuses the image by
  * moving its pixels in random directions.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! diffuse ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index d08069c2cff5f408a056d137a0bb73b7caad8c7a..7150e38448f1df0adefa5acbeb3d6f59e52735eb 100644 (file)
 
 /**
  * SECTION:element-fisheye
+ * @title: fisheye
  * @see_also: geometrictransform
  *
  * Fisheye is a geometric image transform element. It simulates a fisheye lens
  * by zooming on the center of the image and compressing the edges.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! fisheye ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index bb1bdfcb81f878e58830f5a6cecd632edea52738..00f988f72aee40727a74f99a6541e0a88fd1d67f 100644 (file)
 
 /**
  * SECTION:element-kaleidoscope
+ * @title: kaleidoscope
  * @see_also: geometrictransform
  *
  * The kaleidscope element applies 'kaleidoscope' geometric transform to the
  * image.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! kaleidoscope ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 68984536693cfc0371a0eb7567980f89df9f0e87..f508d2a5139bc36890111cd0374b06cc78ab6e66 100644 (file)
 
 /**
  * SECTION:element-marble
+ * @title: marble
  * @see_also: geometrictransform
  *
  * Marble is a geometric image transform element. It applies a marbling effect
  * to the image.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! marble ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index df18234d47ab26b1ffdb51af60bda14be8f1bf93..31e0a69c125cdb5cf98ae57e1b82ff540ec48f17 100644 (file)
 
 /**
  * SECTION:element-mirror
+ * @title: mirror
  * @see_also: geometrictransform
  *
  * Mirror is a geometric transform element. It splits the image into two halves
  * and reflects one over each other.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! mirror ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index bafa1fc5dcf734cb1360805585f91cd89d3b234c..e4da32fca00d78e488d6a206406a7a275e43b0c8 100644 (file)
 
 /**
  * SECTION:element-perspective
+ * @title: perspective
  * @see_also: geometrictransform
  *
  * The perspective element applies a 2D perspective transform.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! perspective ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 /* FIXME: suppress warnings for deprecated API such as GValueArray
index d68dcd168a0324b2916453ac7d9a17ebf448e18a..798b9658697542772027b03f4f6ba481de818f22 100644 (file)
 
 /**
  * SECTION:element-pinch
+ * @title: pinch
  * @see_also: geometrictransform
  *
  * Pinch applies a 'pinch' geometric transform to the image.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! pinch ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 1e03339bf8e8f35b5c49f82f6525a5dce40d7a70..d6f65152b1af72940801d11b19080bb7f693affe 100644 (file)
 
 /**
  * SECTION:element-rotate
+ * @title: rotate
  * @see_also: geometrictransform
  *
  * The rotate element transforms the image by rotating it by a specified angle.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! rotate angle=0.78 ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 5f39a4765ce7729974ca9290ca75366b6a816946..90947a86562e43ee32a26ec7f332503c1fa9b33d 100644 (file)
 
 /**
  * SECTION:element-sphere
+ * @title: sphere
  * @see_also: geometrictransform
  *
  * The sphere element applies a 'sphere' geometric transform to the image.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! sphere ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 4b044f19403e11487e6f14d8a9f3ced0377683fa..14271bd1e189b4a3cecbfaaf250d23778b78a496 100644 (file)
 
 /**
  * SECTION:element-square
+ * @title: square
  * @see_also: geometrictransform
  *
  * The square element distorts the center part of the image into a square.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! square zoom=100 ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 61eed37f0f76d451644aa84baeb6b2971d7a86e2..114a0cd227db2352e04fee04e7dc29de12c2b582 100644 (file)
 
 /**
  * SECTION:element-stretch
+ * @title: stretch
  * @see_also: geometrictransform
  *
  * The stretch element stretches the image in a circle around the center point.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! stretch ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 94b6070cc3c51018ecad081950f943ed6485ee68..8668a5282690c5f137622611a1e2ad10bbdb02e4 100644 (file)
 
 /**
  * SECTION:element-tunnel
+ * @title: tunnel
  * @see_also: geometrictransform
  *
  * Tunnel is a geometric image transform element. It applies a light tunnel
  * effect.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! tunnel ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 962d3ba6d29bd5e4230c8005fcde7c17148ad684..54ec46b9c01dcd8a0606a01231ef3a11301e078a 100644 (file)
 
 /**
  * SECTION:element-twirl
+ * @title: twirl
  * @see_also: geometrictransform
  *
  * The twirl element twists the image from the center out.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! twirl ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 96af6e8d70f2a3e45443dbe77f58e7048a08074e..2d39df9db33b0c1750acf6e371376f2cae6392f7 100644 (file)
 
 /**
  * SECTION:element-waterripple
+ * @title: waterripple
  * @see_also: geometrictransform
  *
  * The waterripple element creates a water ripple effect on the image.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! waterripple ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 37c7a4908ac6a70fdcc2de232ea1b6e3ad750f00..ccb23f91a5fc3f7edfd43e87cd720bf3864c6826 100644 (file)
@@ -22,6 +22,7 @@
 
 /**
  * SECTION:element-id3mux
+ * @title: id3mux
  * @see_also: #GstID3Demux, #GstTagSetter
  *
  * This element adds ID3v2 tags to the beginning of a stream, and ID3v1 tags
@@ -34,8 +35,7 @@
  * Tags sent by upstream elements will be picked up automatically (and merged
  * according to the merge mode set via the tag setter interface).
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v filesrc location=foo.ogg ! decodebin ! audioconvert ! id3mux ! filesink location=foo.mp3
  * ]| A pipeline that transcodes a file from Ogg/Vorbis to mp3 format with
@@ -44,7 +44,7 @@
  * |[
  * gst-launch-1.0 -m filesrc location=foo.mp3 ! id3demux ! fakesink silent=TRUE
  * ]| Verify that tags have been written.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 19fc5d2e32821b7e12da0f092a99bf1c58837515..3c30631037d6e0fd9cd96e19edfee80de95a6508 100644 (file)
  */
 /**
  * SECTION:element-gstinteraudiosink
+ * @title: gstinteraudiosink
  *
  * The interaudiosink element is an audio sink element.  It is used
  * in connection with a interaudiosrc element in a different pipeline,
  * similar to intervideosink and intervideosrc.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v audiotestsrc ! queue ! interaudiosink
  * ]|
@@ -34,7 +34,7 @@
  * audio.
  * See the gstintertest.c example in the gst-plugins-bad source code for
  * more details.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 10581ba0dbd09754e041301711ce9bfbbe86476d..886632e26956a23e49b830adda15578506f41be7 100644 (file)
  */
 /**
  * SECTION:element-gstinteraudiosrc
+ * @title: gstinteraudiosrc
  *
  * The interaudiosrc element is an audio source element.  It is used
  * in connection with a interaudiosink element in a different pipeline.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v interaudiosrc ! queue ! autoaudiosink
  * ]|
- * 
+ *
  * The interaudiosrc element cannot be used effectively with gst-launch-1.0,
  * as it requires a second pipeline in the application to send audio.
  * See the gstintertest.c example in the gst-plugins-bad source code for
  * more details.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 038acbbd0945078a00b7348b94b1633957b552e1..62a627491e9a9519c859d9e5d8d0c95dd3205129 100644 (file)
  */
 /**
  * SECTION:element-gstintersubsink
+ * @title: gstintersubsink
  *
  * The intersubsink element is a subtitle sink element.  It is used
  * in connection with a intersubsrc element in a different pipeline.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v ... ! intersubsink
  * ]|
- * 
+ *
  * The intersubsink element cannot be used effectively with gst-launch-1.0,
  * as it requires a second pipeline in the application to send audio.
  * See the gstintertest.c example in the gst-plugins-bad source code for
  * more details.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index ac49265f795ca7a4c7b25e7c9c3fa127df183b2e..2ca1a523ad4bc8480f24b5124b233bdd908212da 100644 (file)
  */
 /**
  * SECTION:element-gstintersubsrc
+ * @title: gstintersubsrc
  *
  * The intersubsrc element is a subtitle source element.  It is used
  * in connection with a intersubsink element in a different pipeline,
  * similar to interaudiosink and interaudiosrc.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v intersubsrc ! kateenc ! oggmux ! filesink location=out.ogv
  * ]|
- * 
+ *
  * The intersubsrc element cannot be used effectively with gst-launch-1.0,
  * as it requires a second pipeline in the application to send subtitles.
  * See the gstintertest.c example in the gst-plugins-bad source code for
  * more details.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index edee11d86c880743ec64ad60e8aac05d6e67e79a..b73a554c287d5901c23da705ff74306c51f5f0de 100644 (file)
  */
 /**
  * SECTION:element-gstintervideosink
+ * @title: gstintervideosink
  *
  * The intervideosink element is a video sink element.  It is used
  * in connection with an intervideosrc element in a different pipeline,
  * similar to interaudiosink and interaudiosrc.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! intervideosink
  * ]|
- * 
+ *
  * The intervideosink element cannot be used effectively with gst-launch-1.0,
  * as it requires a second pipeline in the application to send video to.
  * See the gstintertest.c example in the gst-plugins-bad source code for
  * more details.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index fd41d50915318319f7f61a7d0c21bac0d0bc1f9e..1c20b42195454278fea07ce67895385d8b71f02e 100644 (file)
  */
 /**
  * SECTION:element-gstintervideosrc
+ * @title: gstintervideosrc
  *
  * The intervideosrc element is a video source element.  It is used
  * in connection with a intervideosink element in a different pipeline,
  * similar to interaudiosink and interaudiosrc.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v intervideosrc ! queue ! xvimagesink
  * ]|
- * 
+ *
  * The intersubsrc element cannot be used effectively with gst-launch-1.0,
  * as it requires a second pipeline in the application to send subtitles.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index bf140b5518e8eaef0dce10ed7e2b4d236a2ddbcd..e0ff1aa4b0824dfc12d1bbc906c92b891437a960 100644 (file)
  */
 /**
  * SECTION:element-interlace
+ * @title: interlace
  *
  * The interlace element takes a non-interlaced raw video stream as input,
  * creates fields out of each frame, then combines fields into interlaced
  * frames to output as an interlaced video stream. It can also produce
  * telecined streams from progressive input.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc pattern=ball ! interlace ! xvimagesink
  * ]|
@@ -35,7 +35,7 @@
  * |[
  * gst-launch-1.0 -v filesrc location=/path/to/file ! decodebin ! videorate !
  *   videoscale ! video/x-raw,format=\(string\)I420,width=720,height=480,
- *   framerate=60000/1001,pixel-aspect-ratio=11/10 ! 
+ *   framerate=60000/1001,pixel-aspect-ratio=11/10 !
  *   interlace top-field-first=false ! autovideosink
  * ]|
  * This pipeline converts a progressive video stream into an interlaced
@@ -49,7 +49,7 @@
  * This pipeline converts a 24 frames per second progressive film stream into a
  * 30000/1001 2:3:2:3... pattern telecined stream suitable for displaying film
  * content on NTSC.
- * </refsect2>
+ *
  */
 
 
index 210d39cca5a7685ea765aef7b08a2852a399d272..d55ab5b7c2ef1715fcdf45e58093ca7cd607f8b8 100644 (file)
  */
 /**
  * SECTION:element-gstcombdetect
+ * @title: gstcombdetect
  *
  * The combdetect element detects if combing artifacts are present in
  * a raw video stream, and if so, marks them with a zebra stripe
  * pattern.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v filesrc location=file.mov ! decodebin ! combdetect !
  *     xvimagesink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 09b02a5597ccb92a404205bcd0bc599c78104e00..407fb2f302c57d286682890383004b74646c6361 100644 (file)
  */
 /**
  * SECTION:element-gstivtc
+ * @title: gstivtc
  *
  * The ivtc element is an inverse telecine filter.  It takes interlaced
  * video that was created from progressive content using a telecine
  * filter, and reconstructs the original progressive content.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc pattern=ball ! video/x-raw,framerate=24/1 !
  *     interlace !
@@ -36,7 +36,7 @@
  * converts it to a 60 fields per second interlaced stream.  Then the
  * stream is inversed telecine'd back to 24 fps, yielding approximately
  * the original videotestsrc content.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 75ee746055c216cc530a6d8132db58fff0d334bf..35c506cc91bb0bb2faa867d6c2801d409119d5dc 100644 (file)
  */
 /**
  * SECTION:element-gstjp2kdecimator
+ * @title: gstjp2kdecimator
  *
  * The jp2kdecimator element removes information from JPEG2000 images without reencoding.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc num-buffers=1 ! jp2kenc ! \
  *   gstjp2kdecimator max-decomposition-levels=2 ! jp2kdec ! \
@@ -31,7 +31,7 @@
  * ]|
  * This pipelines encodes a test image to JPEG2000, only keeps 3 decomposition levels
  * decodes the decimated image again and shows it on the screen.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index b1ba175ecfaf223530058b1dacdcc2677fb442f7..517c994ec4f136c2cfb2320c84f834c83acd47a7 100644 (file)
 
 /**
  * SECTION:element-jifmux
+ * @title: jifmux
  * @short_description: JPEG interchange format writer
  *
  * Writes a JPEG image as JPEG/EXIF or JPEG/JFIF including various metadata. The
  * jpeg image received on the sink pad should be minimal (e.g. should not
  * contain metadata already).
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc num-buffers=1 ! jpegenc ! jifmux ! filesink location=...
  * ]|
  * The above pipeline renders a frame, encodes to jpeg, adds metadata and writes
  * it to disk.
- * </refsect2>
+ *
  */
 /*
 jpeg interchange format:
index 6978b57cf773760fb1432553b59d4aa1b3a3d706..dd684d79f1dc5b939c1bc4a3c8f670a39bfe2040 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:element-jpegparse
+ * @title: jpegparse
  * @short_description: JPEG parser
  *
  * Parses a JPEG stream into JPEG images.  It looks for EOI boundaries to
  * image header searching for image properties such as width and height
  * among others. Jpegparse can also extract metadata (e.g. xmp).
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v souphttpsrc location=... ! jpegparse ! matroskamux ! filesink location=...
  * ]|
  * The above pipeline fetches a motion JPEG stream from an IP camera over
  * HTTP and stores it in a matroska file.
- * </refsect2>
+ *
  */
 /* FIXME: output plain JFIF APP marker only. This provides best code reuse.
  * JPEG decoders would not need to handle this part anymore. Also when remuxing
index d58ea3f494d10a5b70035d9d91ea593328ae1bf7..dc3c078ad7921684e69dfe91585a3e8494790c3f 100644 (file)
 
 /**
  * SECTION:element-midiparse
+ * @title: midiparse
  * @see_also: fluiddec
  *
  * This element parses midi-files into midi events. You would need a midi
  * renderer such as fluidsynth to convert the events into raw samples.
  *
- * <refsect2>
- * <title>Example pipeline</title>
+ * ## Example pipeline
  * |[
  * gst-launch-1.0 filesrc location=song.mid ! midiparse ! fluiddec ! pulsesink
  * ]| This example pipeline will parse the midi and render to raw audio which is
  * played via pulseaudio.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 54ceec1df08584cc84d256029edcd5d095066bc0..5c176ac0e64b30c6cc2a778dda0489a51ce6e248 100644 (file)
 
 /**
  * SECTION:element-mxfdemux
+ * @title: mxfdemux
  *
  * mxfdemux demuxes an MXF file into the different contained streams.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v filesrc location=/path/to/mxf ! mxfdemux ! audioconvert ! autoaudiosink
  * ]| This pipeline demuxes an MXF file and outputs one of the contained raw audio streams.
- * </refsect2>
+ *
  */
 
 /* TODO:
index 7de12ac7a69867bad1608a3ed88621385df6fb71..4f66321070a43c7aab14c020c0b329cfa487da83 100644 (file)
 
 /**
  * SECTION:element-mxfmux
+ * @title: mxfmux
  *
  * mxfmux muxes different streams into an MXF file.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v filesrc location=/path/to/audio ! decodebin ! queue ! mxfmux name=m ! filesink location=file.mxf   filesrc location=/path/to/video ! decodebin ! queue ! m.
  * ]| This pipeline muxes an audio and video file into a single MXF file.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index f6b7aceea66da64ecfc55b48c0d990541eaa2eeb..a1d5989ffc9632b56b55a8641f2625edf4e39bc3 100644 (file)
@@ -20,6 +20,7 @@
  */
 /**
  * SECTION:element-irtspparse
+ * @title: irtspparse
  * @short_description: Interleaved RTSP parser
  * @see_also: #GstPcapParse
  *
  * so-called "channels" from received interleaved (TCP) RTSP data
  * (typically extracted from some network capture).
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 filesrc location=h264crasher.pcap ! pcapparse ! irtspparse
  * ! rtph264depay ! ffdec_h264 ! fakesink
  * ]| Read from a pcap dump file using filesrc, extract the raw TCP packets,
  * depayload and decode them.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 4ffa8c1ac99c1fbc5dccb11957350e409815f367..6bd293a75c0f65874f1c2817a9b8ba6d40ee6520 100644 (file)
 
 /**
  * SECTION:element-pcapparse
+ * @title: pcapparse
  *
  * Extracts payloads from Ethernet-encapsulated IP packets.
  * Use #GstPcapParse:src-ip, #GstPcapParse:dst-ip,
  * #GstPcapParse:src-port and #GstPcapParse:dst-port to restrict which packets
  * should be included.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 filesrc location=h264crasher.pcap ! pcapparse ! rtph264depay
  * ! ffdec_h264 ! fakesink
  * ]| Read from a pcap dump file using filesrc, extract the raw UDP packets,
  * depayload and decode them.
- * </refsect2>
+ *
  */
 
 /* TODO:
index 1b5ea51170431dbf44f53bbb6146819ec59308d9..5b624bed4591865dc2a7f27580584f476fb1f006 100644 (file)
 
 /**
  * SECTION:element-pnmdec
+ * @title: pnmdec
  *
  * Decodes pnm images.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 filesrc location=test.pnm ! pnmdec ! videoconvert ! autovideosink
  * ]| The above pipeline reads a pnm file and renders it to the screen.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 2c45191cd1b9a2bdaff3ab62a470f2e38ca86b85..267384733993c17c3c3b9869692c44be574ed78a 100644 (file)
 
 /**
  * SECTION:element-pnmenc
+ * @title: pnmenc
  *
  * Encodes pnm images. This plugin supports both raw and ASCII encoding.
  * To enable ASCII encoding, set the parameter ascii to TRUE. If you omit
  * the parameter or set it to FALSE, the output will be raw encoded.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 videotestsrc num_buffers=1 ! videoconvert ! "video/x-raw,format=GRAY8" ! pnmenc ascii=true ! filesink location=test.pnm
  * ]| The above pipeline writes a test pnm file (ASCII encoding).
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 27884fd1c8a211130f3ebca252c1b22cda3bdc57..e542d46d1a61d7cffac44d5310f43bd397531c6b 100644 (file)
  */
 /**
  * SECTION:element-audioparse
+ * @title: audioparse
  *
  * Converts a byte stream into audio frames.
  *
- * <note>This element is deprecated. Use #GstRawAudioParse instead.</note>
+ * This element is deprecated. Use #GstRawAudioParse instead.
  */
 
 #ifdef HAVE_CONFIG_H
index 9f5b19545562a7db4bc716177649dd0b62fc41b2..3a51ba1ce1f7e93432ae9c40ca9e7ca3754734b5 100644 (file)
  */
 /**
  * SECTION:element-videoparse
+ * @title: videoparse
  *
  * Converts a byte stream into video frames.
  *
- * <note>This element is deprecated. Use #GstRawVideoParse instead.</note>
+ * > This element is deprecated. Use #GstRawVideoParse instead.
  */
 
 #ifdef HAVE_CONFIG_H
index 98456ff5cfca3714d7194d362150577db017a3f6..3af56958e78d7a0ad1f23e8c78cb548b33217434 100644 (file)
 
 /**
  * SECTION:element-removesilence
+ * @title: removesilence
  *
  * Removes all silence periods from an audio stream, dropping silence buffers.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v -m filesrc location="audiofile" ! decodebin ! removesilence remove=true ! wavenc ! filesink location=without_audio.wav
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 6e176c0d2a796a0452dac44bffa0e6cdda6c9155..4fc316d99a1d360838ad5b19907a09792ce0412f 100644 (file)
  */
 /**
  * SECTION:element-sdpdemux
+ * @title: sdpdemux
  *
  * sdpdemux currently understands SDP as the input format of the session description.
  * For each stream listed in the SDP a new stream_\%u pad will be created
  * with caps derived from the SDP media description. This is a caps of mime type
  * "application/x-rtp" that can be connected to any available RTP depayloader
- * element. 
- * 
+ * element.
+ *
  * sdpdemux will internally instantiate an RTP session manager element
  * that will handle the RTCP messages to and from the server, jitter removal,
- * packet reordering along with providing a clock for the pipeline. 
- * 
- * sdpdemux acts like a live element and will therefore only generate data in the 
+ * packet reordering along with providing a clock for the pipeline.
+ *
+ * sdpdemux acts like a live element and will therefore only generate data in the
  * PLAYING state.
- * 
- * <refsect2>
- * <title>Example launch line</title>
+ *
+ * ## Example launch line
  * |[
  * gst-launch-1.0 souphttpsrc location=http://some.server/session.sdp ! sdpdemux ! fakesink
  * ]| Establish a connection to an HTTP server that contains an SDP session description
  * that gets parsed by sdpdemux and send the raw RTP packets to a fakesink.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 78338ae2bd144f26fefcdb70961ec47aa52d1c9d..045bcd6686bc5ec11afbecd3832147df06175ec1 100644 (file)
@@ -21,6 +21,7 @@
  */
 /**
  * SECTION:element-sirendec
+ * @title: sirendec
  *
  * This decodes audio buffers from the Siren 16 codec (a 16khz extension of
  * G.722.1) that is meant to be compatible with the Microsoft Windows Live
index 0be5cd370269a8a00f71e9a78fabefd5ec501c52..b54f29c5edbf65d775d3b2894b70a41a75fdc132 100644 (file)
@@ -21,6 +21,7 @@
  */
 /**
  * SECTION:element-sirenenc
+ * @title: sirenenc
  *
  * This encodes audio buffers into the Siren 16 codec (a 16khz extension of
  * G.722.1) that is meant to be compatible with the Microsoft Windows Live
index 7518de28aaa4db3734eed68e36b47568e91b14fc..8d90518a89f2d8b4b33c785bce89392be0fdf1cc 100644 (file)
 
 /**
  * SECTION:element-speed
+ * @title: speed
  *
  * Plays an audio stream at a different speed (by resampling the audio).
- * 
+ *
  * Do not use this element. Either use the 'pitch' element, or do a seek with
  * a non-1.0 rate parameter, this will have the same effect as using the speed
  * element (but relies on the decoder/demuxer to handle this correctly, also
  * requires a fairly up-to-date gst-plugins-base, as of February 2007).
- * 
- * <refsect2>
- * <title>Example launch line</title>
+ *
+ * ## Example launch line
  * |[
  * gst-launch-1.0 filesrc location=test.ogg ! decodebin ! audioconvert ! speed speed=1.5 ! audioconvert ! audioresample ! autoaudiosink
  * ]| Plays an .ogg file at 1.5x speed.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 35990104affe3fdf738c95e938d59baec049a768..72539d6e12268a22eeb7b35fd9cd2886061baa82 100644 (file)
  */
 /**
  * SECTION:element-stereo
+ * @title: stereo
  *
  * Create a wide stereo effect.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v filesrc location=sine.ogg ! oggdemux ! vorbisdec ! audioconvert ! stereo ! audioconvert ! audioresample ! alsasink
  * ]| Play an Ogg/Vorbis file.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 780ee80dfe8a66015c60ea265df794b7559c6fdb..9ee73ed5742b7c8ffe30820f62bb7b63199d7135 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:element-avwait
+ * @title: avwait
  *
  * This element will drop all buffers until a specific timecode or running
  * time has been reached. It will then pass-through both audio and video,
  * the video). In the "audio-after-video" mode, it only drops audio buffers
  * until video has started.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 filesrc location="my_file" ! decodebin name=d ! "audio/x-raw" ! avwait name=l target-timecode-str="00:00:04:00" ! autoaudiosink d. ! "video/x-raw" ! timecodestamper ! l. l. ! queue ! timeoverlay time-mode=time-code ! autovideosink
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 81860d0dc8d1513cc925d82332e652cbfd2736cb..b3c513ca0ad719c8ca51e7c1a901d8bf276e6502 100644 (file)
 
 /**
  * SECTION:element-timecodestamper
+ * @title: timecodestamper
  * @short_description: Attach a timecode into incoming video frames
  *
  * This element attaches a timecode into every incoming video frame. It starts
  * counting from the stream time of each segment start, which it converts into
  * a timecode.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 videotestsrc ! timecodestamper ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 5adf3ce404ef19cfb2f4b672a0e8ca1f523e61a6..4fef2ac2a40ec112ba81dd4d289e9d48817d4b5c 100644 (file)
@@ -18,6 +18,7 @@
  */
 /**
  * SECTION:element-gstscenechange
+ * @title: gstscenechange
  *
  * The scenechange element detects scene changes (also known as shot
  * changes) in a video stream, and sends a signal when this occurs.
  *
  * The scenechange element does not work with compressed video.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v filesrc location=some_file.ogv ! decodebin !
  *   scenechange ! theoraenc ! fakesink
  * ]|
- * </refsect2>
+ *
  */
 /*
  * The algorithm used for scene change detection is a modification
index 457ebd1d81232a07586eefa8787f30425661f7e0..1181ad3c3087461f5fb5d3369e49c91901f5f40f 100644 (file)
  */
 /**
  * SECTION:element-gstvideodiff
+ * @title: gstvideodiff
  *
  * The videodiff element highlights the difference between a frame and its
  * previous on the luma plane.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc pattern=ball ! videodiff ! videoconvert ! autovideosink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 81f58b87427a3575376fa5855865dbd70266b8da..983f02d52f24c3ecd62a2cffa531b0b0f375eab4 100644 (file)
@@ -18,6 +18,7 @@
  */
 /**
  * SECTION:element-gstzebrastripe
+ * @title: gstzebrastripe
  *
  * The zebrastripe element marks areas of images in a video stream
  * that are brighter than a threshold with a diagonal zebra stripe
@@ -27,8 +28,7 @@
  * threshold setting of 70 is often used to properly adjust skin
  * tones.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc ! zebrastripe ! xvimagesink
  * ]|
@@ -39,7 +39,7 @@
  * property setting can be calculated from IRE by using the formula
  * percent = (IRE * 1.075) - 7.5.  Note that 100 IRE corresponds to
  * 100 %, and 70 IRE corresponds to 68 %.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 46fda779e12219b4bc4d421dbeafc0c37d11b451..bd5b43db5fbbb84fe27c03afd36695cb4bfbfc07 100644 (file)
 
 /**
  * SECTION:element-videoframe-audiolevel
+ * @title: videoframe-audiolevel
  *
  * This element acts like a synchronized audio/video "level". It gathers
  * all audio buffers sent between two video frames, and then sends a message
  * that contains the RMS value of all samples for these buffers.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -m filesrc location="file.mkv" ! decodebin name=d ! "audio/x-raw" ! videoframe-audiolevel name=l ! autoaudiosink d. ! "video/x-raw" ! l. l. ! queue ! autovideosink ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index c674cb835a796d3bbcf3106f9d9bd6eadd6b2cac..219f584a75cab460ef82e6458b213dba027c2c15 100644 (file)
  */
 /**
  * SECTION:element-gstdiracparse
+ * @title: gstdiracparse
  *
  * The gstdiracparse element does FIXME stuff.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v fakesrc ! gstdiracparse ! FIXME ! fakesink
  * ]|
  * FIXME Describe what the pipeline does.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 2a527c32ee9c145de4d0ed92984f4360f1863bca..ae4d0c02a6e43d1db19ae1f3405f6174fa364106 100644 (file)
  */
 /**
  * SECTION:element-simplevideomark
+ * @title: simplevideomark
  * @see_also: #GstVideoDetect
  *
  * This plugin produces #GstSimpleVideoMark::pattern-count squares in the bottom left
- * corner of the video frames. The squares have a width and height of 
+ * corner of the video frames. The squares have a width and height of
  * respectively #GstSimpleVideoMark:pattern-width and #GstSimpleVideoMark:pattern-height.
  * Even squares will be black and odd squares will be white.
- * 
+ *
  * After writing the pattern, #GstSimpleVideoMark:pattern-data-count squares after the
  * pattern squares are produced as the bitarray given in
  * #GstSimpleVideoMark:pattern-data. 1 bits will produce white squares and 0 bits will
  * produce black squares.
- * 
+ *
  * The element can be enabled with the #GstSimpleVideoMark:enabled property. It is
  * mostly used together with the #GstVideoDetect plugin.
- * 
- * <refsect2>
- * <title>Example launch line</title>
+ *
+ * ## Example launch line
  * |[
  * gst-launch-1.0 videotestsrc ! simplevideomark ! videoconvert ! ximagesink
  * ]| Add the default black/white squares at the bottom left of the video frames.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 1e95c815542ef77db5bff3db681ca2411b67534a..d58cff2e270bff28c9c682a6196f5f8a42355148 100644 (file)
  */
 /**
  * SECTION:element-simplevideomarkdetect
+ * @title: simplevideomarkdetect
  * @see_also: #GstVideoMark
  *
  * This plugin detects #GstSimpleVideoMarkDetect:pattern-count squares in the bottom left
  * corner of the video frames. The squares have a width and height of
  * respectively #GstSimpleVideoMarkDetect:pattern-width and #GstSimpleVideoMarkDetect:pattern-height.
  * Even squares must be black and odd squares must be white.
- * 
+ *
  * When the pattern has been found, #GstSimpleVideoMarkDetect:pattern-data-count squares
  * after the pattern squares are read as a bitarray. White squares represent a 1
  * bit and black squares a 0 bit. The bitarray will will included in the element
  * message that is posted (see below).
- * 
+ *
  * After the pattern has been found and the data pattern has been read, an
- * element message called <classname>&quot;GstSimpleVideoMarkDetect&quot;</classname> will
+ * element message called `GstSimpleVideoMarkDetect` will
  * be posted on the bus. If the pattern is no longer found in the frame, the
  * same element message is posted with the have-pattern field set to #FALSE.
  * The message is only posted if the #GstSimpleVideoMarkDetect:message property is #TRUE.
- * 
+ *
  * The message's structure contains these fields:
- * <itemizedlist>
- * <listitem>
- *   <para>
- *   #gboolean
- *   <classname>&quot;have-pattern&quot;</classname>:
- *   if the pattern was found. This field will be set to #TRUE for as long as
+ *
+ * * #gboolean`have-pattern`: if the pattern was found. This field will be set to #TRUE for as long as
  *   the pattern was found in the frame and set to FALSE for the first frame
  *   that does not contain the pattern anymore.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   #GstClockTime
- *   <classname>&quot;timestamp&quot;</classname>:
- *   the timestamp of the buffer that triggered the message.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   #GstClockTime
- *   <classname>&quot;stream-time&quot;</classname>:
- *   the stream time of the buffer.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   #GstClockTime
- *   <classname>&quot;running-time&quot;</classname>:
- *   the running_time of the buffer.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   #GstClockTime
- *   <classname>&quot;duration&quot;</classname>:
- *   the duration of the buffer.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   #guint64
- *   <classname>&quot;data&quot;</classname>:
- *   the data-pattern found after the pattern or 0 when have-signal is #FALSE.
- *   </para>
- * </listitem>
- * </itemizedlist>
- * 
- * <refsect2>
- * <title>Example launch line</title>
+ *
+ * * #GstClockTime `timestamp`: the timestamp of the buffer that triggered the message.
+ *
+ * * #GstClockTime `stream-time`: the stream time of the buffer.
+ *
+ * * #GstClockTime `running-time`: the running_time of the buffer.
+ *
+ * * #GstClockTime `duration`: the duration of the buffer.
+ *
+ * * #guint64 `data`: the data-pattern found after the pattern or 0 when have-signal is #FALSE.
+ *
+ * ## Example launch line
  * |[
  * gst-launch-1.0 videotestsrc ! simplevideomarkdetect ! videoconvert ! ximagesink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index ea52bdf7d028fecc781963ad133a6d35c69bab48..2723c14fdcb62ae81dea1da28f6ea6e4ff7189e7 100644 (file)
  */
 /**
  * SECTION:element-videoanalyse
+ * @title: videoanalyse
  *
  * This plugin analyses every video frame and if the #GstVideoAnalyse:message
  * property is #TRUE, posts an element message with video statistics called
- * <classname>&quot;GstVideoAnalyse&quot;</classname>.
+ * `GstVideoAnalyse`.
  *
  * The message's structure contains these fields:
- * <itemizedlist>
- * <listitem>
- *   <para>
- *   #GstClockTime
- *   <classname>&quot;timestamp&quot;</classname>:
- *   the timestamp of the buffer that triggered the message.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   #GstClockTime
- *   <classname>&quot;stream-time&quot;</classname>:
- *   the stream time of the buffer.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   #GstClockTime
- *   <classname>&quot;running-time&quot;</classname>:
- *   the running_time of the buffer.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   #GstClockTime
- *   <classname>&quot;duration&quot;</classname>:
- *   the duration of the buffer.
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   #gdouble
- *   <classname>&quot;luma-average&quot;</classname>:
- *   the average brightness of the frame. Range: 0.0-1.0
- *   </para>
- * </listitem>
- * <listitem>
- *   <para>
- *   #gdouble
- *   <classname>&quot;luma-variance&quot;</classname>:
- *   the brightness variance of the frame.
- *   </para>
- * </listitem>
- * </itemizedlist>
- * 
- * <refsect2>
- * <title>Example launch line</title>
+ *
+ * * #GstClockTime `timestamp`: the timestamp of the buffer that triggered the message.
+ *
+ * * #GstClockTime `stream-time`: the stream time of the buffer.
+ *
+ * * #GstClockTime `running-time`: the running_time of the buffer.
+ *
+ * * #GstClockTime`duration`:the duration of the buffer.
+ *
+ * * #gdouble`luma-average`: the average brightness of the frame. Range: 0.0-1.0
+ *
+ * * #gdouble`luma-variance`: the brightness variance of the frame.
+ *
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -m videotestsrc ! videoanalyse ! videoconvert ! ximagesink
- * ]| This pipeline emits messages to the console for each frame that has been analysed. 
- * </refsect2>
+ * ]| This pipeline emits messages to the console for each frame that has been analysed.
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 30966b0cca41be077ba233820b497644e6044079..6871381544967a993622e98e3f40007783886907 100644 (file)
  */
 /**
  * SECTION:element-gsty4mdec
+ * @title: gsty4mdec
  *
  * The gsty4mdec element decodes uncompressed video in YUV4MPEG format.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v filesrc location=file.y4m ! y4mdec ! xvimagesink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 2611c644fe75f550b3b2b658c5bd3dd0686a45f0..0056f784591a3402cf932b0dfd0c4e90c42ea4bf 100644 (file)
@@ -18,7 +18,8 @@
  * Boston, MA 02110-1335, USA.
  */
 /**
- * SECTION:element-gstyadif
+ * SECTION:element-yadif
+ * @title: yadif
  *
  * The yadif element deinterlaces video, using the YADIF deinterlacing
  * filter copied from Libav.  This element only handles the simple case
  * inverse telecine and deinterlace cases that are handled by the
  * deinterlace element.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v videotestsrc pattern=ball ! interlace ! yadif ! xvimagesink
  * ]|
  * This pipeline creates an interlaced test pattern, and then deinterlaces
  * it using the yadif filter.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 2fa1d6f2446af5b1c710045aa1bd09b67b0dfa2c..cb23be2e8799911009a7278aea4969a788dd4c5b 100644 (file)
@@ -21,6 +21,7 @@
 
 /**
  * SECTION:element-ahcsrc
+ * @title: ahcsrc
  *
  * ahcsrc can be used to capture video from android devices. It uses the
  * android.hardware.Camera Java API to capture from the system's cameras.
@@ -31,7 +32,7 @@
  * so it can be loaded into the virtual machine.
  * In order for it to work, an environment variable must be set to a writable
  * directory.
- * The source will look for the environment variable “TMP” which must contain
+ * The source will look for the environment variable â€œTMPâ€� which must contain
  * the absolute path to a writable directory.
  * It can be retreived using the following Java code :
  * |[
  * Where the @context variable is an object of type android.content.Context
  * (including its subclasses android.app.Activity or android.app.Application).
  * Another optional environment variable can be set for pointing to the
- * optimized dex classes directory. If the environment variable “DEX” is
- * available, it will be used, otherwise, the directory in the “TMP” environment
+ * optimized dex classes directory. If the environment variable â€œDEXâ€� is
+ * available, it will be used, otherwise, the directory in the â€œTMPâ€� environment
  * variable will be used for the optimized dex directory.
  * The system dex directory can be obtained using the following Java code :
  * |[
- *   context.getDir(“dex”, 0).getAbsolutePath();
+ *   context.getDir("dex", 0).getAbsolutePath();
  * ]|
  *
- * <note>
- * Those environment variable must be set before gst_init is called from
- * the native code.
- * </note>
+ * > Those environment variable must be set before gst_init is called from
+ * > the native code.
  *
- * <note>
- * If the “TMP” environment variable is not available or the directory is not
- * writable or any other issue happens while trying to load the embedded jar
- * file, then the source will fallback on trying to load the class directly
- * from the running application.
- * The file com/gstreamer/GstAhcCallback.java in the source's directory can be
- * copied into the Android application so it can be loaded at runtime
- * as a fallback mechanism.
- * </note>
+ * > If the "TMP" environment variable is not available or the directory is not
+ * > writable or any other issue happens while trying to load the embedded jar
+ * > file, then the source will fallback on trying to load the class directly
+ * > from the running application.
+ * > The file com/gstreamer/GstAhcCallback.java in the source's directory can be
+ * > copied into the Android application so it can be loaded at runtime
+ * > as a fallback mechanism.
  *
  */
 
index 88f8282d678975fae6557c904661a2bae1a9a196..c716378338e81064ac40e563dd7d71c7b08a9b0a 100644 (file)
  * Boston, MA 02110-1301, USA.
  */
 /**
- * SECTION:element-gstahssrc
+ * SECTION:element-ahssrc
+ * @title: gstahssrc
  *
  * The ahssrc element reads data from Android device sensors
  * (android.hardware.Sensor).
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch -v ahssrc ! fakesink
  * ]|
  * Push Android sensor data into a fakesink.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index b14891fd8a9fe17a13d0edbbd860727691549818..a1a2369b7148b80b154b8e7ad3987372797723ee 100644 (file)
  * Boston, MA 02110-1335, USA.
  */
 /**
- * SECTION:element-gstatdec
+ * SECTION:element-atdec
+ * @title: atdec
  *
  * AudioToolbox based decoder.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v filesrc location=file.mov ! qtdemux ! queue ! aacparse ! atdec ! autoaudiosink
  * ]|
  * Decode aac audio from a mov file
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 472e39eb4e691cfd14ad26f9d35da1f747ed8080..d9c943d6a5bcd18e1b9456b5837adb93744e0550 100644 (file)
  * Boston, MA 02110-1335, USA.
  */
 /**
- * SECTION:element-gstvtdec
+ * SECTION:element-vtdec
+ * @title: gstvtdec
  *
  * Apple VideoToolbox based decoder.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v filesrc location=file.mov ! qtdemux ! queue ! h264parse ! vtdec ! videoconvert ! autovideosink
  * ]|
  * Decode h264 video from a mov file.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 9f391a653aa0c3335d6214304f228068c3cac266..9e7f95aaf8bab024dcd446cc409dd38b29bd8221 100644 (file)
@@ -36,7 +36,7 @@ typedef enum
   WINDOW_VISIBILITY_ERROR = 4
 } WindowHandleVisibility;
 
-/** FWD DECLS **/
+/* FWD DECLS */
 
 static gboolean d3d_hidden_window_thread (GstD3DVideoSinkClass * klass);
 static gboolean d3d_window_wndproc_set (GstD3DVideoSink * sink);
@@ -68,7 +68,7 @@ static gint WM_D3DVIDEO_NOTIFY_DEVICE_LOST = 0;
 
 #define WM_QUIT_THREAD  WM_USER+0
 
-/** Helpers **/
+/* Helpers */
 
 #define ERROR_CHECK_HR(hr)                          \
   if(hr != S_OK) {                                  \
@@ -119,7 +119,7 @@ static gint WM_D3DVIDEO_NOTIFY_DEVICE_LOST = 0;
 #define D3DFMT_NV12 MAKEFOURCC ('N', 'V', '1', '2')
 #endif
 
-/** FORMATS **/
+/* FORMATS */
 
 #define CASE(x) case x: return #x;
 static const gchar *
@@ -978,7 +978,7 @@ end:
   return ret;
 }
 
-/** Windows for rendering (User Set or Internal) **/
+/* Windows for rendering (User Set or Internal) */
 
 static void
 d3d_window_wndproc_unset (GstD3DVideoSink * sink)
@@ -1208,7 +1208,7 @@ d3d_stop (GstD3DVideoSink * sink)
   return TRUE;
 }
 
-/** D3D Lost and Reset Device **/
+/* D3D Lost and Reset Device */
 
 static void
 d3d_notify_device_lost (GstD3DVideoSink * sink)
@@ -1256,7 +1256,7 @@ d3d_notify_device_reset (GstD3DVideoSink * sink)
   UNLOCK_SINK (sink);
 }
 
-/** Swap Chains **/
+/* Swap Chains */
 
 static gboolean
 d3d_init_swap_chain (GstD3DVideoSink * sink, HWND hWnd)
@@ -1988,7 +1988,7 @@ end:
 }
 
 
-/** D3D Window Proc Functions **/
+/* D3D Window Proc Functions */
 
 static LRESULT APIENTRY
 d3d_wnd_proc (HWND hWnd, UINT message, WPARAM wParam, LPARAM lParam)
@@ -2110,7 +2110,7 @@ end:
   return ret;
 }
 
-/** Internal Window **/
+/* Internal Window */
 
 static LRESULT APIENTRY
 d3d_wnd_proc_internal (HWND hWnd, UINT message, WPARAM wParam, LPARAM lParam)
@@ -2269,7 +2269,7 @@ d3d_create_internal_window (GstD3DVideoSink * sink)
   return dat.hWnd;
 }
 
-/*** D3D Video Class Methdos ***/
+/* D3D Video Class Methdos */
 
 gboolean
 d3d_class_init (GstD3DVideoSink * sink)
@@ -2590,7 +2590,7 @@ end:;
   UNLOCK_CLASS (NULL, klass);
 }
 
-/** Hidden Window Loop Thread **/
+/* Hidden Window Loop Thread */
 
 static LRESULT APIENTRY
 D3DHiddenWndProc (HWND hWnd, UINT message, WPARAM wParam, LPARAM lParam)
index 88e201edc3eeaf911f263a99db9ecf9ad59e3e5e..74920d78c7bdc48839570ef663ddb6f096e5d6d2 100644 (file)
@@ -54,7 +54,7 @@ static GstStaticPadTemplate sink_template = GST_STATIC_PAD_TEMPLATE ("sink",
 GST_DEBUG_CATEGORY (gst_d3dvideosink_debug);
 #define GST_CAT_DEFAULT gst_d3dvideosink_debug
 
-/** FWD DECLS **/
+/* FWD DECLS */
 /* GstXOverlay Interface */
 static void
 gst_d3dvideosink_video_overlay_interface_init (GstVideoOverlayInterface *
@@ -176,7 +176,7 @@ gst_d3dvideosink_init (GstD3DVideoSink * sink)
   g_rec_mutex_init (&sink->lock);
 }
 
-/** GObject Functions **/
+/* GObject Functions */
 
 static void
 gst_d3dvideosink_finalize (GObject * gobject)
@@ -245,7 +245,7 @@ gst_d3dvideosink_get_property (GObject * object, guint prop_id, GValue * value,
   }
 }
 
-/** GstBaseSinkClass Functions **/
+/* GstBaseSinkClass Functions */
 
 static GstCaps *
 gst_d3dvideosink_get_caps (GstBaseSink * basesink, GstCaps * filter)
@@ -525,7 +525,7 @@ gst_d3dvideosink_propose_allocation (GstBaseSink * bsink, GstQuery * query)
   return TRUE;
 }
 
-/** PUBLIC FUNCTIONS **/
+/* PUBLIC FUNCTIONS */
 
 /* Iterface Registrations */
 
@@ -602,7 +602,7 @@ gst_d3dvideosink_navigation_send_event (GstNavigation * navigation,
   }
 }
 
-/** PRIVATE FUNCTIONS **/
+/* PRIVATE FUNCTIONS */
 
 
 /* Plugin entry point */
index 3977466412bac3203e62a4a0fe0a342cc2cd813e..e4f5b1a7f8f8f86111e8b7e24ac2c089047b6304 100644 (file)
 
 /**
  * SECTION:element-directsoundsrc
+ * @title: directsoundsrc
  *
  * Reads audio data using the DirectSound API.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v directsoundsrc ! audioconvert ! vorbisenc ! oggmux ! filesink location=dsound.ogg
  * ]| Record from DirectSound and encode to Ogg/Vorbis.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index da55bd2a9519a9f2078e1549b71d1c6bf16a931d..7e3f1e2fab85e2cd63df9c19711106d417189b42 100644 (file)
  */
 /**
  * SECTION:element-dvbsrc
+ * @title: dvbsrc
  *
  * dvbsrc can be used to capture media from DVB cards. Supported DTV
  * broadcasting standards include DVB-T/C/S, ATSC, ISDB-T and DTMB.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 dvbsrc modulation="QAM 64" trans-mode=8k bandwidth=8 frequency=514000000 code-rate-lp=AUTO code-rate-hp=2/3 guard=4  hierarchy=0 ! mpegtsdemux name=demux ! queue max-size-buffers=0 max-size-time=0 ! mpegvideoparse ! mpegvideoparse ! mpeg2dec ! xvimagesink demux. ! queue max-size-buffers=0 max-size-time=0 ! mpegaudioparse ! mpg123audiodec ! audioconvert ! pulsesink
  * ]| Captures a full transport stream from DVB card 0 that is a DVB-T card at tuned frequency 514000000 Hz with other parameters as seen in the pipeline and renders the first TV program on the transport stream.
@@ -42,7 +42,7 @@
  * |[
  *  gst-launch-1.0 dvbsrc frequency=503000000 delsys="atsc" modulation="8vsb" pids=48:49:52 ! decodebin name=dec dec. ! videoconvert ! autovideosink dec. ! audioconvert ! autoaudiosink
  * ]| Captures and renders KOFY-HD in San Jose, California. This is an ATSC broadcast, PMT ID 48, Audio/Video elementary stream PIDs 49 and 52 respectively.
- * </refsect2>
+ *
  */
 
 /*
index 82bb6391c40d3c5a482e368858d75916eba3b345..8a9ff365d9aeba4de303542c2f6837ed8008749e 100644 (file)
 
 /**
  * SECTION:element-kmssink
+ * @title: kmssink
  * @short_description: A KMS/DRM based video sink
  *
  * kmssink is a simple video sink that renders video frames directly
  * in a plane of a DRM device.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 videotestsrc ! kmssink
  * ]|
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 24938539a055857ad2957b1668691a4c835600c9..c4c049208eb67dda1bcd194c0fbce0b629ac07ec 100644 (file)
 
 /**
  * SECTION:element-openslessink
+ * @title: openslessink
  * @see_also: openslessrc
  *
  * This element renders raw audio samples using the OpenSL ES API in Android OS.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v filesrc location=music.ogg ! oggdemux ! vorbisdec ! audioconvert ! audioresample ! opeslessink
  * ]| Play an Ogg/Vorbis file.
- * </refsect2>
  *
  */
 
index f32984ab163b7e44e1474e375976d409e868bbcf..66c3031df7d4461c9650aea8a6a107dfb055df33 100644 (file)
 
 /**
  * SECTION:element-openslessrc
+ * @title: openslessrc
  * @see_also: openslessink
  *
  * This element reads data from default audio input using the OpenSL ES API in Android OS.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v openslessrc ! audioconvert ! vorbisenc ! oggmux ! filesink location=recorded.ogg
  * ]| Record from default audio input and encode to Ogg/Vorbis.
- * </refsect2>
  *
  */
 
index 8fcb9596a1b443f4fb4eadfb03cff9adadb1cfb5..b2e7dbeeec9094807d726c730038c7c259257b7e 100644 (file)
  */
 /**
  * SECTION:element-shmsink
+ * @title: shmsink
  *
  * Send data over shared memory to the matching source.
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 -v videotestsrc ! "video/x-raw, format=YUY2, color-matrix=sdtv, \
  * chroma-site=mpeg2, width=(int)320, height=(int)240, framerate=(fraction)30/1" \
  * ! shmsink socket-path=/tmp/blah shm-size=2000000
  * ]| Send video to shm buffers.
- * </refsect2>
+ *
  */
 #ifdef HAVE_CONFIG_H
 #include "config.h"
index 86955602ae98aaf6ba3bfdc058b607d270d94788..068a3484988e1e74c9b1d62713bcb9361378ba64 100644 (file)
  */
 /**
  * SECTION:element-shmsrc
+ * @title: shmsrc
  *
  * Receive data from the shared memory sink.
  *
- * <refsect2>
- * <title>Example launch lines</title>
+ * ## Example launch lines
  * |[
  * gst-launch-1.0 shmsrc socket-path=/tmp/blah ! \
  * "video/x-raw, format=YUY2, color-matrix=sdtv, \
  * chroma-site=mpeg2, width=(int)320, height=(int)240, framerate=(fraction)30/1" \
  * ! queue ! videoconvert ! autovideosink
  * ]| Render video from shm buffers.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 7c7799cea9417e795fc87b4ce50187b44e2eba3c..7d6bf804b99abe511e48fb0a0e180d245ec03c0e 100644 (file)
 
 /**
  * SECTION:element-tinyalsasink
+ * @title: tinyalsasink
  * @see_also: alsasink
  *
  * This element renders raw audio samples using the ALSA audio API via the
  * tinyalsa library.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v uridecodebin uri=file:///path/to/audio.ogg ! audioconvert ! audioresample ! tinyalsasink
  * ]| Play an Ogg/Vorbis file and output audio via ALSA using the tinyalsa
  * library.
- * </refsect2>
+ *
  */
 
 #include <gst/audio/gstaudiobasesink.h>
index e253a0429624fc3f96ba5cebff9f4472af863a2c..e90ac6fbec54eaf4323383b100056b74ed3040e5 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:element-uvch264mjpgdemux
+ * @title: uvch264mjpgdemux
  * @short_description: UVC H264 compliant MJPG demuxer
  *
  * Parses a MJPG stream from a UVC H264 compliant encoding camera and extracts
index 4f2a6f30491a1787ca5ef4f768ede4f761f54335..00bbad69164457c53dacb41225c34fa735f8c678 100644 (file)
@@ -23,6 +23,7 @@
 
 /**
  * SECTION:element-uvch264-src
+ * @title: uvch264-src
  *
  * A camera bin src element that wraps v4l2src and implements UVC H264
  * Extension Units (XU) to control the H264 encoder in the camera
index e5e7e940529692905c2328d5356e3522a2c027cc..04e3bd58826a20e9b0738501e5f7cb87ef800b13 100644 (file)
@@ -86,7 +86,7 @@ struct _GstVdpWindow {
  * @flow_lock: used to protect data flow routines from external calls such as
  * events from @event_thread or methods from the #GstXOverlay interface
  * @par: used to override calculated pixel aspect ratio from @xcontext
- * @synchronous: used to store if XSynchronous should be used or not (for 
+ * @synchronous: used to store if XSynchronous should be used or not (for
  * debugging purpose only)
  * @handle_events: used to know if we should handle select XEvents or not
  *
index 8217653d269547463e69bf29dcc8250f82aa61a6..92aff573ac9615a28732b71da64ec6a055da16ad 100644 (file)
@@ -231,7 +231,7 @@ _vdp_video_mem_free (GstAllocator * allocator, GstMemory * mem)
  * gst_vdp_video_memory_alloc:
  * @device: a #GstVdpDevice
  * @info: the #GstVideoInfo describing the format to use
- * 
+ *
  * Returns: a GstMemory object with a VdpVideoSurface specified by @info
  * from @device
  */
index 7f4f480a406e3c8c74d2555f1336852279d24d42..e2032f4f6a6df2cc8da81b9a69a57eb384d15d96 100644 (file)
 
 /**
  * SECTION:element-vdpauvideopostprocess
+ * @title: vdpauvideopostprocess
  *
  * FIXME:Describe vdpaumpegdec here.
  *
- * <refsect2>
- * <title>Example launch line</title>
+ * ## Example launch line
  * |[
  * gst-launch-1.0 -v -m fakesrc ! vdpauvideopostprocess ! fakesink silent=TRUE
  * ]|
- * </refsect2>
+ *
  */
 
 /*
index 5b35b8e1e5d18e421f346cf4f4f65b9ec3a92d34..fac3cb1bacee162ae6bda8e62ee8bc6ec18f5741 100644 (file)
 
 /**
  * SECTION:element-wasapisink
+ * @title: wasapisink
  *
  * Provides audio playback using the Windows Audio Session API available with
  * Vista and newer.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v audiotestsrc samplesperbuffer=160 ! wasapisink
  * ]| Generate 20 ms buffers and render to the default audio device.
- * </refsect2>
+ *
  */
 #ifdef HAVE_CONFIG_H
 #  include <config.h>
index 20c392964dba419b8f34c91bb695a01b6a5a759a..0fdec2b8efb2a162899b18ec595dab2d6c05138d 100644 (file)
 
 /**
  * SECTION:element-wasapisrc
+ * @title: wasapisrc
  *
  * Provides audio capture from the Windows Audio Session API available with
  * Vista and newer.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v wasapisrc ! fakesink
  * ]| Capture from the default audio device and render to fakesink.
- * </refsect2>
+ *
  */
 #ifdef HAVE_CONFIG_H
 #  include <config.h>
index 0854b29407deffe87f3db1227c0c64de37e3cc78..f957aced480e5974436b0d527875e1b3559f92cc 100644 (file)
 
 /**
  * SECTION:element-ksvideosrc
+ * @title: ksvideosrc
  *
  * Provides low-latency video capture from WDM cameras on Windows.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 -v ksvideosrc do-stats=TRUE ! videoconvert ! dshowvideosink
  * ]| Capture from a camera and render using dshowvideosink.
@@ -32,7 +32,7 @@
  * gst-launch-1.0 -v ksvideosrc do-stats=TRUE ! image/jpeg, width=640, height=480
  * ! jpegdec ! videoconvert ! dshowvideosink
  * ]| Capture from an MJPEG camera and render using dshowvideosink.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 0e2cfb24178d5840f70baa1dfd04ed5dceb65d84..e7ee42984d76ed9a29415ae51810c4bc453c5641 100644 (file)
@@ -19,6 +19,7 @@
 
 /**
  * SECTION:element-dx9screencapsrc
+ * @title: dx9screencapsrc
  *
  * This element uses DirectX to capture the desktop or a portion of it.
  * The default is capturing the whole desktop, but #GstDX9ScreenCapSrc:x,
@@ -27,8 +28,7 @@
  * Use #GstDX9ScreenCapSrc:monitor for changing which monitor to capture
  * from.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 dx9screencapsrc ! videoconvert ! dshowvideosink
  * ]| Capture the desktop and display it.
@@ -36,7 +36,7 @@
  * gst-launch-1.0 dx9screencapsrc x=100 y=100 width=320 height=240 !
  * videoconvert ! dshowvideosink
  * ]| Capture a portion of the desktop and display it.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H
index 6476ed4f35e7d2119cab98933e5e8759f126a816..1ee0400d20dbb3b0e4c8ddf009132ae19676d3d6 100644 (file)
@@ -19,6 +19,7 @@
 
 /**
  * SECTION:element-gdiscreencapsrc
+ * @title: gdiscreencapsrc
  *
  * This element uses GDI to capture the desktop or a portion of it.
  * The default is capturing the whole desktop, but #GstGDIScreenCapSrc:x,
@@ -29,8 +30,7 @@
  *
  * Set #GstGDIScreenCapSrc:cursor to TRUE to include the mouse cursor.
  *
- * <refsect2>
- * <title>Example pipelines</title>
+ * ## Example pipelines
  * |[
  * gst-launch-1.0 gdiscreencapsrc ! videoconvert ! dshowvideosink
  * ]| Capture the desktop and display it.
@@ -39,7 +39,7 @@
  * ! videoconvert ! dshowvideosink
  * ]| Capture a portion of the desktop, including the mouse cursor, and
  * display it.
- * </refsect2>
+ *
  */
 
 #ifdef HAVE_CONFIG_H