]> git.sesse.net Git - ffmpeg/blob - doc/ffmpeg.texi
Merge commit 'fce28c3c6d603b7f42a5dbe36bf240d0470469c8'
[ffmpeg] / doc / ffmpeg.texi
1 \input texinfo @c -*- texinfo -*-
2
3 @settitle ffmpeg Documentation
4 @titlepage
5 @center @titlefont{ffmpeg Documentation}
6 @end titlepage
7
8 @top
9
10 @contents
11
12 @chapter Synopsis
13
14 ffmpeg [@var{global_options}] @{[@var{input_file_options}] -i @file{input_file}@} ... @{[@var{output_file_options}] @file{output_file}@} ...
15
16 @chapter Description
17 @c man begin DESCRIPTION
18
19 @command{ffmpeg} is a very fast video and audio converter that can also grab from
20 a live audio/video source. It can also convert between arbitrary sample
21 rates and resize video on the fly with a high quality polyphase filter.
22
23 @command{ffmpeg} reads from an arbitrary number of input "files" (which can be regular
24 files, pipes, network streams, grabbing devices, etc.), specified by the
25 @code{-i} option, and writes to an arbitrary number of output "files", which are
26 specified by a plain output filename. Anything found on the command line which
27 cannot be interpreted as an option is considered to be an output filename.
28
29 Each input or output file can, in principle, contain any number of streams of
30 different types (video/audio/subtitle/attachment/data). The allowed number and/or
31 types of streams may be limited by the container format. Selecting which
32 streams from which inputs will go into which output is either done automatically
33 or with the @code{-map} option (see the Stream selection chapter).
34
35 To refer to input files in options, you must use their indices (0-based). E.g.
36 the first input file is @code{0}, the second is @code{1}, etc. Similarly, streams
37 within a file are referred to by their indices. E.g. @code{2:3} refers to the
38 fourth stream in the third input file. Also see the Stream specifiers chapter.
39
40 As a general rule, options are applied to the next specified
41 file. Therefore, order is important, and you can have the same
42 option on the command line multiple times. Each occurrence is
43 then applied to the next input or output file.
44 Exceptions from this rule are the global options (e.g. verbosity level),
45 which should be specified first.
46
47 Do not mix input and output files -- first specify all input files, then all
48 output files. Also do not mix options which belong to different files. All
49 options apply ONLY to the next input or output file and are reset between files.
50
51 @itemize
52 @item
53 To set the video bitrate of the output file to 64 kbit/s:
54 @example
55 ffmpeg -i input.avi -b:v 64k -bufsize 64k output.avi
56 @end example
57
58 @item
59 To force the frame rate of the output file to 24 fps:
60 @example
61 ffmpeg -i input.avi -r 24 output.avi
62 @end example
63
64 @item
65 To force the frame rate of the input file (valid for raw formats only)
66 to 1 fps and the frame rate of the output file to 24 fps:
67 @example
68 ffmpeg -r 1 -i input.m2v -r 24 output.avi
69 @end example
70 @end itemize
71
72 The format option may be needed for raw input files.
73
74 @c man end DESCRIPTION
75
76 @chapter Detailed description
77 @c man begin DETAILED DESCRIPTION
78
79 The transcoding process in @command{ffmpeg} for each output can be described by
80 the following diagram:
81
82 @example
83  _______              ______________
84 |       |            |              |
85 | input |  demuxer   | encoded data |   decoder
86 | file  | ---------> | packets      | -----+
87 |_______|            |______________|      |
88                                            v
89                                        _________
90                                       |         |
91                                       | decoded |
92                                       | frames  |
93                                       |_________|
94  ________             ______________       |
95 |        |           |              |      |
96 | output | <-------- | encoded data | <----+
97 | file   |   muxer   | packets      |   encoder
98 |________|           |______________|
99
100
101 @end example
102
103 @command{ffmpeg} calls the libavformat library (containing demuxers) to read
104 input files and get packets containing encoded data from them. When there are
105 multiple input files, @command{ffmpeg} tries to keep them synchronized by
106 tracking lowest timestamp on any active input stream.
107
108 Encoded packets are then passed to the decoder (unless streamcopy is selected
109 for the stream, see further for a description). The decoder produces
110 uncompressed frames (raw video/PCM audio/...) which can be processed further by
111 filtering (see next section). After filtering, the frames are passed to the
112 encoder, which encodes them and outputs encoded packets. Finally those are
113 passed to the muxer, which writes the encoded packets to the output file.
114
115 @section Filtering
116 Before encoding, @command{ffmpeg} can process raw audio and video frames using
117 filters from the libavfilter library. Several chained filters form a filter
118 graph. @command{ffmpeg} distinguishes between two types of filtergraphs:
119 simple and complex.
120
121 @subsection Simple filtergraphs
122 Simple filtergraphs are those that have exactly one input and output, both of
123 the same type. In the above diagram they can be represented by simply inserting
124 an additional step between decoding and encoding:
125
126 @example
127  _________               __________              ______________
128 |         |  simple     |          |            |              |
129 | decoded |  fltrgrph   | filtered |  encoder   | encoded data |
130 | frames  | ----------> | frames   | ---------> | packets      |
131 |_________|             |__________|            |______________|
132
133 @end example
134
135 Simple filtergraphs are configured with the per-stream @option{-filter} option
136 (with @option{-vf} and @option{-af} aliases for video and audio respectively).
137 A simple filtergraph for video can look for example like this:
138
139 @example
140  _______        _____________        _______        ________
141 |       |      |             |      |       |      |        |
142 | input | ---> | deinterlace | ---> | scale | ---> | output |
143 |_______|      |_____________|      |_______|      |________|
144
145 @end example
146
147 Note that some filters change frame properties but not frame contents. E.g. the
148 @code{fps} filter in the example above changes number of frames, but does not
149 touch the frame contents. Another example is the @code{setpts} filter, which
150 only sets timestamps and otherwise passes the frames unchanged.
151
152 @subsection Complex filtergraphs
153 Complex filtergraphs are those which cannot be described as simply a linear
154 processing chain applied to one stream. This is the case, for example, when the graph has
155 more than one input and/or output, or when output stream type is different from
156 input. They can be represented with the following diagram:
157
158 @example
159  _________
160 |         |
161 | input 0 |\                    __________
162 |_________| \                  |          |
163              \   _________    /| output 0 |
164               \ |         |  / |__________|
165  _________     \| complex | /
166 |         |     |         |/
167 | input 1 |---->| filter  |\
168 |_________|     |         | \   __________
169                /| graph   |  \ |          |
170               / |         |   \| output 1 |
171  _________   /  |_________|    |__________|
172 |         | /
173 | input 2 |/
174 |_________|
175
176 @end example
177
178 Complex filtergraphs are configured with the @option{-filter_complex} option.
179 Note that this option is global, since a complex filtergraph, by its nature,
180 cannot be unambiguously associated with a single stream or file.
181
182 The @option{-lavfi} option is equivalent to @option{-filter_complex}.
183
184 A trivial example of a complex filtergraph is the @code{overlay} filter, which
185 has two video inputs and one video output, containing one video overlaid on top
186 of the other. Its audio counterpart is the @code{amix} filter.
187
188 @section Stream copy
189 Stream copy is a mode selected by supplying the @code{copy} parameter to the
190 @option{-codec} option. It makes @command{ffmpeg} omit the decoding and encoding
191 step for the specified stream, so it does only demuxing and muxing. It is useful
192 for changing the container format or modifying container-level metadata. The
193 diagram above will, in this case, simplify to this:
194
195 @example
196  _______              ______________            ________
197 |       |            |              |          |        |
198 | input |  demuxer   | encoded data |  muxer   | output |
199 | file  | ---------> | packets      | -------> | file   |
200 |_______|            |______________|          |________|
201
202 @end example
203
204 Since there is no decoding or encoding, it is very fast and there is no quality
205 loss. However, it might not work in some cases because of many factors. Applying
206 filters is obviously also impossible, since filters work on uncompressed data.
207
208 @c man end DETAILED DESCRIPTION
209
210 @chapter Stream selection
211 @c man begin STREAM SELECTION
212
213 By default, @command{ffmpeg} includes only one stream of each type (video, audio, subtitle)
214 present in the input files and adds them to each output file.  It picks the
215 "best" of each based upon the following criteria: for video, it is the stream
216 with the highest resolution, for audio, it is the stream with the most channels, for
217 subtitles, it is the first subtitle stream. In the case where several streams of
218 the same type rate equally, the stream with the lowest index is chosen.
219
220 You can disable some of those defaults by using the @code{-vn/-an/-sn} options. For
221 full manual control, use the @code{-map} option, which disables the defaults just
222 described.
223
224 @c man end STREAM SELECTION
225
226 @chapter Options
227 @c man begin OPTIONS
228
229 @include fftools-common-opts.texi
230
231 @section Main options
232
233 @table @option
234
235 @item -f @var{fmt} (@emph{input/output})
236 Force input or output file format. The format is normally auto detected for input
237 files and guessed from the file extension for output files, so this option is not
238 needed in most cases.
239
240 @item -i @var{filename} (@emph{input})
241 input file name
242
243 @item -y (@emph{global})
244 Overwrite output files without asking.
245
246 @item -n (@emph{global})
247 Do not overwrite output files, and exit immediately if a specified
248 output file already exists.
249
250 @item -c[:@var{stream_specifier}] @var{codec} (@emph{input/output,per-stream})
251 @itemx -codec[:@var{stream_specifier}] @var{codec} (@emph{input/output,per-stream})
252 Select an encoder (when used before an output file) or a decoder (when used
253 before an input file) for one or more streams. @var{codec} is the name of a
254 decoder/encoder or a special value @code{copy} (output only) to indicate that
255 the stream is not to be re-encoded.
256
257 For example
258 @example
259 ffmpeg -i INPUT -map 0 -c:v libx264 -c:a copy OUTPUT
260 @end example
261 encodes all video streams with libx264 and copies all audio streams.
262
263 For each stream, the last matching @code{c} option is applied, so
264 @example
265 ffmpeg -i INPUT -map 0 -c copy -c:v:1 libx264 -c:a:137 libvorbis OUTPUT
266 @end example
267 will copy all the streams except the second video, which will be encoded with
268 libx264, and the 138th audio, which will be encoded with libvorbis.
269
270 @item -t @var{duration} (@emph{output})
271 Stop writing the output after its duration reaches @var{duration}.
272 @var{duration} may be a number in seconds, or in @code{hh:mm:ss[.xxx]} form.
273
274 -to and -t are mutually exclusive and -t has priority.
275
276 @item -to @var{position} (@emph{output})
277 Stop writing the output at @var{position}.
278 @var{position} may be a number in seconds, or in @code{hh:mm:ss[.xxx]} form.
279
280 -to and -t are mutually exclusive and -t has priority.
281
282 @item -fs @var{limit_size} (@emph{output})
283 Set the file size limit, expressed in bytes.
284
285 @item -ss @var{position} (@emph{input/output})
286 When used as an input option (before @code{-i}), seeks in this input file to
287 @var{position}. Note the in most formats it is not possible to seek exactly, so
288 @command{ffmpeg} will seek to the closest seek point before @var{position}.
289 When transcoding and @option{-accurate_seek} is enabled (the default), this
290 extra segment between the seek point and @var{position} will be decoded and
291 discarded. When doing stream copy or when @option{-noaccurate_seek} is used, it
292 will be preserved.
293
294 When used as an output option (before an output filename), decodes but discards
295 input until the timestamps reach @var{position}.
296
297 @var{position} may be either in seconds or in @code{hh:mm:ss[.xxx]} form.
298
299 @item -itsoffset @var{offset} (@emph{input})
300 Set the input time offset.
301
302 @var{offset} must be a time duration specification,
303 see @ref{time duration syntax,,the Time duration section in the ffmpeg-utils(1) manual,ffmpeg-utils}.
304
305 The offset is added to the timestamps of the input files. Specifying
306 a positive offset means that the corresponding streams are delayed by
307 the time duration specified in @var{offset}.
308
309 @item -timestamp @var{date} (@emph{output})
310 Set the recording timestamp in the container.
311
312 @var{date} must be a time duration specification,
313 see @ref{date syntax,,the Date section in the ffmpeg-utils(1) manual,ffmpeg-utils}.
314
315 @item -metadata[:metadata_specifier] @var{key}=@var{value} (@emph{output,per-metadata})
316 Set a metadata key/value pair.
317
318 An optional @var{metadata_specifier} may be given to set metadata
319 on streams or chapters. See @code{-map_metadata} documentation for
320 details.
321
322 This option overrides metadata set with @code{-map_metadata}. It is
323 also possible to delete metadata by using an empty value.
324
325 For example, for setting the title in the output file:
326 @example
327 ffmpeg -i in.avi -metadata title="my title" out.flv
328 @end example
329
330 To set the language of the first audio stream:
331 @example
332 ffmpeg -i INPUT -metadata:s:a:1 language=eng OUTPUT
333 @end example
334
335 @item -target @var{type} (@emph{output})
336 Specify target file type (@code{vcd}, @code{svcd}, @code{dvd}, @code{dv},
337 @code{dv50}). @var{type} may be prefixed with @code{pal-}, @code{ntsc-} or
338 @code{film-} to use the corresponding standard. All the format options
339 (bitrate, codecs, buffer sizes) are then set automatically. You can just type:
340
341 @example
342 ffmpeg -i myfile.avi -target vcd /tmp/vcd.mpg
343 @end example
344
345 Nevertheless you can specify additional options as long as you know
346 they do not conflict with the standard, as in:
347
348 @example
349 ffmpeg -i myfile.avi -target vcd -bf 2 /tmp/vcd.mpg
350 @end example
351
352 @item -dframes @var{number} (@emph{output})
353 Set the number of data frames to record. This is an alias for @code{-frames:d}.
354
355 @item -frames[:@var{stream_specifier}] @var{framecount} (@emph{output,per-stream})
356 Stop writing to the stream after @var{framecount} frames.
357
358 @item -q[:@var{stream_specifier}] @var{q} (@emph{output,per-stream})
359 @itemx -qscale[:@var{stream_specifier}] @var{q} (@emph{output,per-stream})
360 Use fixed quality scale (VBR). The meaning of @var{q}/@var{qscale} is
361 codec-dependent.
362 If @var{qscale} is used without a @var{stream_specifier} then it applies only
363 to the video stream, this is to maintain compatibility with previous behavior
364 and as specifying the same codec specific value to 2 different codecs that is
365 audio and video generally is not what is intended when no stream_specifier is
366 used.
367
368 @anchor{filter_option}
369 @item -filter[:@var{stream_specifier}] @var{filtergraph} (@emph{output,per-stream})
370 Create the filtergraph specified by @var{filtergraph} and use it to
371 filter the stream.
372
373 @var{filtergraph} is a description of the filtergraph to apply to
374 the stream, and must have a single input and a single output of the
375 same type of the stream. In the filtergraph, the input is associated
376 to the label @code{in}, and the output to the label @code{out}. See
377 the ffmpeg-filters manual for more information about the filtergraph
378 syntax.
379
380 See the @ref{filter_complex_option,,-filter_complex option} if you
381 want to create filtergraphs with multiple inputs and/or outputs.
382
383 @item -filter_script[:@var{stream_specifier}] @var{filename} (@emph{output,per-stream})
384 This option is similar to @option{-filter}, the only difference is that its
385 argument is the name of the file from which a filtergraph description is to be
386 read.
387
388 @item -pre[:@var{stream_specifier}] @var{preset_name} (@emph{output,per-stream})
389 Specify the preset for matching stream(s).
390
391 @item -stats (@emph{global})
392 Print encoding progress/statistics. It is on by default, to explicitly
393 disable it you need to specify @code{-nostats}.
394
395 @item -progress @var{url} (@emph{global})
396 Send program-friendly progress information to @var{url}.
397
398 Progress information is written approximately every second and at the end of
399 the encoding process. It is made of "@var{key}=@var{value}" lines. @var{key}
400 consists of only alphanumeric characters. The last key of a sequence of
401 progress information is always "progress".
402
403 @item -stdin
404 Enable interaction on standard input. On by default unless standard input is
405 used as an input. To explicitly disable interaction you need to specify
406 @code{-nostdin}.
407
408 Disabling interaction on standard input is useful, for example, if
409 ffmpeg is in the background process group. Roughly the same result can
410 be achieved with @code{ffmpeg ... < /dev/null} but it requires a
411 shell.
412
413 @item -debug_ts (@emph{global})
414 Print timestamp information. It is off by default. This option is
415 mostly useful for testing and debugging purposes, and the output
416 format may change from one version to another, so it should not be
417 employed by portable scripts.
418
419 See also the option @code{-fdebug ts}.
420
421 @item -attach @var{filename} (@emph{output})
422 Add an attachment to the output file. This is supported by a few formats
423 like Matroska for e.g. fonts used in rendering subtitles. Attachments
424 are implemented as a specific type of stream, so this option will add
425 a new stream to the file. It is then possible to use per-stream options
426 on this stream in the usual way. Attachment streams created with this
427 option will be created after all the other streams (i.e. those created
428 with @code{-map} or automatic mappings).
429
430 Note that for Matroska you also have to set the mimetype metadata tag:
431 @example
432 ffmpeg -i INPUT -attach DejaVuSans.ttf -metadata:s:2 mimetype=application/x-truetype-font out.mkv
433 @end example
434 (assuming that the attachment stream will be third in the output file).
435
436 @item -dump_attachment[:@var{stream_specifier}] @var{filename} (@emph{input,per-stream})
437 Extract the matching attachment stream into a file named @var{filename}. If
438 @var{filename} is empty, then the value of the @code{filename} metadata tag
439 will be used.
440
441 E.g. to extract the first attachment to a file named 'out.ttf':
442 @example
443 ffmpeg -dump_attachment:t:0 out.ttf -i INPUT
444 @end example
445 To extract all attachments to files determined by the @code{filename} tag:
446 @example
447 ffmpeg -dump_attachment:t "" -i INPUT
448 @end example
449
450 Technical note -- attachments are implemented as codec extradata, so this
451 option can actually be used to extract extradata from any stream, not just
452 attachments.
453
454 @end table
455
456 @section Video Options
457
458 @table @option
459 @item -vframes @var{number} (@emph{output})
460 Set the number of video frames to record. This is an alias for @code{-frames:v}.
461 @item -r[:@var{stream_specifier}] @var{fps} (@emph{input/output,per-stream})
462 Set frame rate (Hz value, fraction or abbreviation).
463
464 As an input option, ignore any timestamps stored in the file and instead
465 generate timestamps assuming constant frame rate @var{fps}.
466
467 As an output option, duplicate or drop input frames to achieve constant output
468 frame rate @var{fps}.
469
470 @item -s[:@var{stream_specifier}] @var{size} (@emph{input/output,per-stream})
471 Set frame size.
472
473 As an input option, this is a shortcut for the @option{video_size} private
474 option, recognized by some demuxers for which the frame size is either not
475 stored in the file or is configurable -- e.g. raw video or video grabbers.
476
477 As an output option, this inserts the @code{scale} video filter to the
478 @emph{end} of the corresponding filtergraph. Please use the @code{scale} filter
479 directly to insert it at the beginning or some other place.
480
481 The format is @samp{wxh} (default - same as source).
482
483 @item -aspect[:@var{stream_specifier}] @var{aspect} (@emph{output,per-stream})
484 Set the video display aspect ratio specified by @var{aspect}.
485
486 @var{aspect} can be a floating point number string, or a string of the
487 form @var{num}:@var{den}, where @var{num} and @var{den} are the
488 numerator and denominator of the aspect ratio. For example "4:3",
489 "16:9", "1.3333", and "1.7777" are valid argument values.
490
491 If used together with @option{-vcodec copy}, it will affect the aspect ratio
492 stored at container level, but not the aspect ratio stored in encoded
493 frames, if it exists.
494
495 @item -vn (@emph{output})
496 Disable video recording.
497
498 @item -vcodec @var{codec} (@emph{output})
499 Set the video codec. This is an alias for @code{-codec:v}.
500
501 @item -pass[:@var{stream_specifier}] @var{n} (@emph{output,per-stream})
502 Select the pass number (1 or 2). It is used to do two-pass
503 video encoding. The statistics of the video are recorded in the first
504 pass into a log file (see also the option -passlogfile),
505 and in the second pass that log file is used to generate the video
506 at the exact requested bitrate.
507 On pass 1, you may just deactivate audio and set output to null,
508 examples for Windows and Unix:
509 @example
510 ffmpeg -i foo.mov -c:v libxvid -pass 1 -an -f rawvideo -y NUL
511 ffmpeg -i foo.mov -c:v libxvid -pass 1 -an -f rawvideo -y /dev/null
512 @end example
513
514 @item -passlogfile[:@var{stream_specifier}] @var{prefix} (@emph{output,per-stream})
515 Set two-pass log file name prefix to @var{prefix}, the default file name
516 prefix is ``ffmpeg2pass''. The complete file name will be
517 @file{PREFIX-N.log}, where N is a number specific to the output
518 stream
519
520 @item -vf @var{filtergraph} (@emph{output})
521 Create the filtergraph specified by @var{filtergraph} and use it to
522 filter the stream.
523
524 This is an alias for @code{-filter:v}, see the @ref{filter_option,,-filter option}.
525 @end table
526
527 @section Advanced Video Options
528
529 @table @option
530 @item -pix_fmt[:@var{stream_specifier}] @var{format} (@emph{input/output,per-stream})
531 Set pixel format. Use @code{-pix_fmts} to show all the supported
532 pixel formats.
533 If the selected pixel format can not be selected, ffmpeg will print a
534 warning and select the best pixel format supported by the encoder.
535 If @var{pix_fmt} is prefixed by a @code{+}, ffmpeg will exit with an error
536 if the requested pixel format can not be selected, and automatic conversions
537 inside filtergraphs are disabled.
538 If @var{pix_fmt} is a single @code{+}, ffmpeg selects the same pixel format
539 as the input (or graph output) and automatic conversions are disabled.
540
541 @item -sws_flags @var{flags} (@emph{input/output})
542 Set SwScaler flags.
543 @item -vdt @var{n}
544 Discard threshold.
545
546 @item -rc_override[:@var{stream_specifier}] @var{override} (@emph{output,per-stream})
547 Rate control override for specific intervals, formatted as "int,int,int"
548 list separated with slashes. Two first values are the beginning and
549 end frame numbers, last one is quantizer to use if positive, or quality
550 factor if negative.
551
552 @item -ilme
553 Force interlacing support in encoder (MPEG-2 and MPEG-4 only).
554 Use this option if your input file is interlaced and you want
555 to keep the interlaced format for minimum losses.
556 The alternative is to deinterlace the input stream with
557 @option{-deinterlace}, but deinterlacing introduces losses.
558 @item -psnr
559 Calculate PSNR of compressed frames.
560 @item -vstats
561 Dump video coding statistics to @file{vstats_HHMMSS.log}.
562 @item -vstats_file @var{file}
563 Dump video coding statistics to @var{file}.
564 @item -top[:@var{stream_specifier}] @var{n} (@emph{output,per-stream})
565 top=1/bottom=0/auto=-1 field first
566 @item -dc @var{precision}
567 Intra_dc_precision.
568 @item -vtag @var{fourcc/tag} (@emph{output})
569 Force video tag/fourcc. This is an alias for @code{-tag:v}.
570 @item -qphist (@emph{global})
571 Show QP histogram
572 @item -vbsf @var{bitstream_filter}
573 Deprecated see -bsf
574
575 @item -force_key_frames[:@var{stream_specifier}] @var{time}[,@var{time}...] (@emph{output,per-stream})
576 @item -force_key_frames[:@var{stream_specifier}] expr:@var{expr} (@emph{output,per-stream})
577 Force key frames at the specified timestamps, more precisely at the first
578 frames after each specified time.
579
580 If the argument is prefixed with @code{expr:}, the string @var{expr}
581 is interpreted like an expression and is evaluated for each frame. A
582 key frame is forced in case the evaluation is non-zero.
583
584 If one of the times is "@code{chapters}[@var{delta}]", it is expanded into
585 the time of the beginning of all chapters in the file, shifted by
586 @var{delta}, expressed as a time in seconds.
587 This option can be useful to ensure that a seek point is present at a
588 chapter mark or any other designated place in the output file.
589
590 For example, to insert a key frame at 5 minutes, plus key frames 0.1 second
591 before the beginning of every chapter:
592 @example
593 -force_key_frames 0:05:00,chapters-0.1
594 @end example
595
596 The expression in @var{expr} can contain the following constants:
597 @table @option
598 @item n
599 the number of current processed frame, starting from 0
600 @item n_forced
601 the number of forced frames
602 @item prev_forced_n
603 the number of the previous forced frame, it is @code{NAN} when no
604 keyframe was forced yet
605 @item prev_forced_t
606 the time of the previous forced frame, it is @code{NAN} when no
607 keyframe was forced yet
608 @item t
609 the time of the current processed frame
610 @end table
611
612 For example to force a key frame every 5 seconds, you can specify:
613 @example
614 -force_key_frames expr:gte(t,n_forced*5)
615 @end example
616
617 To force a key frame 5 seconds after the time of the last forced one,
618 starting from second 13:
619 @example
620 -force_key_frames expr:if(isnan(prev_forced_t),gte(t,13),gte(t,prev_forced_t+5))
621 @end example
622
623 Note that forcing too many keyframes is very harmful for the lookahead
624 algorithms of certain encoders: using fixed-GOP options or similar
625 would be more efficient.
626
627 @item -copyinkf[:@var{stream_specifier}] (@emph{output,per-stream})
628 When doing stream copy, copy also non-key frames found at the
629 beginning.
630
631 @item -hwaccel[:@var{stream_specifier}] @var{hwaccel} (@emph{input,per-stream})
632 Use hardware acceleration to decode the matching stream(s). The allowed values
633 of @var{hwaccel} are:
634 @table @option
635 @item none
636 Do not use any hardware acceleration (the default).
637
638 @item auto
639 Automatically select the hardware acceleration method.
640
641 @item vdpau
642 Use VDPAU (Video Decode and Presentation API for Unix) hardware acceleration.
643 @end table
644
645 This option has no effect if the selected hwaccel is not available or not
646 supported by the chosen decoder.
647
648 Note that most acceleration methods are intended for playback and will not be
649 faster than software decoding on modern CPUs. Additionally, @command{ffmpeg}
650 will usually need to copy the decoded frames from the GPU memory into the system
651 memory, resulting in further performance loss. This option is thus mainly
652 useful for testing.
653
654 @item -hwaccel_device[:@var{stream_specifier}] @var{hwaccel_device} (@emph{input,per-stream})
655 Select a device to use for hardware acceleration.
656
657 This option only makes sense when the @option{-hwaccel} option is also
658 specified. Its exact meaning depends on the specific hardware acceleration
659 method chosen.
660
661 @table @option
662 @item vdpau
663 For VDPAU, this option specifies the X11 display/screen to use. If this option
664 is not specified, the value of the @var{DISPLAY} environment variable is used
665 @end table
666 @end table
667
668 @section Audio Options
669
670 @table @option
671 @item -aframes @var{number} (@emph{output})
672 Set the number of audio frames to record. This is an alias for @code{-frames:a}.
673 @item -ar[:@var{stream_specifier}] @var{freq} (@emph{input/output,per-stream})
674 Set the audio sampling frequency. For output streams it is set by
675 default to the frequency of the corresponding input stream. For input
676 streams this option only makes sense for audio grabbing devices and raw
677 demuxers and is mapped to the corresponding demuxer options.
678 @item -aq @var{q} (@emph{output})
679 Set the audio quality (codec-specific, VBR). This is an alias for -q:a.
680 @item -ac[:@var{stream_specifier}] @var{channels} (@emph{input/output,per-stream})
681 Set the number of audio channels. For output streams it is set by
682 default to the number of input audio channels. For input streams
683 this option only makes sense for audio grabbing devices and raw demuxers
684 and is mapped to the corresponding demuxer options.
685 @item -an (@emph{output})
686 Disable audio recording.
687 @item -acodec @var{codec} (@emph{input/output})
688 Set the audio codec. This is an alias for @code{-codec:a}.
689 @item -sample_fmt[:@var{stream_specifier}] @var{sample_fmt} (@emph{output,per-stream})
690 Set the audio sample format. Use @code{-sample_fmts} to get a list
691 of supported sample formats.
692
693 @item -af @var{filtergraph} (@emph{output})
694 Create the filtergraph specified by @var{filtergraph} and use it to
695 filter the stream.
696
697 This is an alias for @code{-filter:a}, see the @ref{filter_option,,-filter option}.
698 @end table
699
700 @section Advanced Audio options:
701
702 @table @option
703 @item -atag @var{fourcc/tag} (@emph{output})
704 Force audio tag/fourcc. This is an alias for @code{-tag:a}.
705 @item -absf @var{bitstream_filter}
706 Deprecated, see -bsf
707 @item -guess_layout_max @var{channels} (@emph{input,per-stream})
708 If some input channel layout is not known, try to guess only if it
709 corresponds to at most the specified number of channels. For example, 2
710 tells to @command{ffmpeg} to recognize 1 channel as mono and 2 channels as
711 stereo but not 6 channels as 5.1. The default is to always try to guess. Use
712 0 to disable all guessing.
713 @end table
714
715 @section Subtitle options:
716
717 @table @option
718 @item -scodec @var{codec} (@emph{input/output})
719 Set the subtitle codec. This is an alias for @code{-codec:s}.
720 @item -sn (@emph{output})
721 Disable subtitle recording.
722 @item -sbsf @var{bitstream_filter}
723 Deprecated, see -bsf
724 @end table
725
726 @section Advanced Subtitle options:
727
728 @table @option
729
730 @item -fix_sub_duration
731 Fix subtitles durations. For each subtitle, wait for the next packet in the
732 same stream and adjust the duration of the first to avoid overlap. This is
733 necessary with some subtitles codecs, especially DVB subtitles, because the
734 duration in the original packet is only a rough estimate and the end is
735 actually marked by an empty subtitle frame. Failing to use this option when
736 necessary can result in exaggerated durations or muxing failures due to
737 non-monotonic timestamps.
738
739 Note that this option will delay the output of all data until the next
740 subtitle packet is decoded: it may increase memory consumption and latency a
741 lot.
742
743 @item -canvas_size @var{size}
744 Set the size of the canvas used to render subtitles.
745
746 @end table
747
748 @section Advanced options
749
750 @table @option
751 @item -map [-]@var{input_file_id}[:@var{stream_specifier}][,@var{sync_file_id}[:@var{stream_specifier}]] | @var{[linklabel]} (@emph{output})
752
753 Designate one or more input streams as a source for the output file. Each input
754 stream is identified by the input file index @var{input_file_id} and
755 the input stream index @var{input_stream_id} within the input
756 file. Both indices start at 0. If specified,
757 @var{sync_file_id}:@var{stream_specifier} sets which input stream
758 is used as a presentation sync reference.
759
760 The first @code{-map} option on the command line specifies the
761 source for output stream 0, the second @code{-map} option specifies
762 the source for output stream 1, etc.
763
764 A @code{-} character before the stream identifier creates a "negative" mapping.
765 It disables matching streams from already created mappings.
766
767 An alternative @var{[linklabel]} form will map outputs from complex filter
768 graphs (see the @option{-filter_complex} option) to the output file.
769 @var{linklabel} must correspond to a defined output link label in the graph.
770
771 For example, to map ALL streams from the first input file to output
772 @example
773 ffmpeg -i INPUT -map 0 output
774 @end example
775
776 For example, if you have two audio streams in the first input file,
777 these streams are identified by "0:0" and "0:1". You can use
778 @code{-map} to select which streams to place in an output file. For
779 example:
780 @example
781 ffmpeg -i INPUT -map 0:1 out.wav
782 @end example
783 will map the input stream in @file{INPUT} identified by "0:1" to
784 the (single) output stream in @file{out.wav}.
785
786 For example, to select the stream with index 2 from input file
787 @file{a.mov} (specified by the identifier "0:2"), and stream with
788 index 6 from input @file{b.mov} (specified by the identifier "1:6"),
789 and copy them to the output file @file{out.mov}:
790 @example
791 ffmpeg -i a.mov -i b.mov -c copy -map 0:2 -map 1:6 out.mov
792 @end example
793
794 To select all video and the third audio stream from an input file:
795 @example
796 ffmpeg -i INPUT -map 0:v -map 0:a:2 OUTPUT
797 @end example
798
799 To map all the streams except the second audio, use negative mappings
800 @example
801 ffmpeg -i INPUT -map 0 -map -0:a:1 OUTPUT
802 @end example
803
804 Note that using this option disables the default mappings for this output file.
805
806 @item -map_channel [@var{input_file_id}.@var{stream_specifier}.@var{channel_id}|-1][:@var{output_file_id}.@var{stream_specifier}]
807 Map an audio channel from a given input to an output. If
808 @var{output_file_id}.@var{stream_specifier} is not set, the audio channel will
809 be mapped on all the audio streams.
810
811 Using "-1" instead of
812 @var{input_file_id}.@var{stream_specifier}.@var{channel_id} will map a muted
813 channel.
814
815 For example, assuming @var{INPUT} is a stereo audio file, you can switch the
816 two audio channels with the following command:
817 @example
818 ffmpeg -i INPUT -map_channel 0.0.1 -map_channel 0.0.0 OUTPUT
819 @end example
820
821 If you want to mute the first channel and keep the second:
822 @example
823 ffmpeg -i INPUT -map_channel -1 -map_channel 0.0.1 OUTPUT
824 @end example
825
826 The order of the "-map_channel" option specifies the order of the channels in
827 the output stream. The output channel layout is guessed from the number of
828 channels mapped (mono if one "-map_channel", stereo if two, etc.). Using "-ac"
829 in combination of "-map_channel" makes the channel gain levels to be updated if
830 input and output channel layouts don't match (for instance two "-map_channel"
831 options and "-ac 6").
832
833 You can also extract each channel of an input to specific outputs; the following
834 command extracts two channels of the @var{INPUT} audio stream (file 0, stream 0)
835 to the respective @var{OUTPUT_CH0} and @var{OUTPUT_CH1} outputs:
836 @example
837 ffmpeg -i INPUT -map_channel 0.0.0 OUTPUT_CH0 -map_channel 0.0.1 OUTPUT_CH1
838 @end example
839
840 The following example splits the channels of a stereo input into two separate
841 streams, which are put into the same output file:
842 @example
843 ffmpeg -i stereo.wav -map 0:0 -map 0:0 -map_channel 0.0.0:0.0 -map_channel 0.0.1:0.1 -y out.ogg
844 @end example
845
846 Note that currently each output stream can only contain channels from a single
847 input stream; you can't for example use "-map_channel" to pick multiple input
848 audio channels contained in different streams (from the same or different files)
849 and merge them into a single output stream. It is therefore not currently
850 possible, for example, to turn two separate mono streams into a single stereo
851 stream. However splitting a stereo stream into two single channel mono streams
852 is possible.
853
854 If you need this feature, a possible workaround is to use the @emph{amerge}
855 filter. For example, if you need to merge a media (here @file{input.mkv}) with 2
856 mono audio streams into one single stereo channel audio stream (and keep the
857 video stream), you can use the following command:
858 @example
859 ffmpeg -i input.mkv -filter_complex "[0:1] [0:2] amerge" -c:a pcm_s16le -c:v copy output.mkv
860 @end example
861
862 @item -map_metadata[:@var{metadata_spec_out}] @var{infile}[:@var{metadata_spec_in}] (@emph{output,per-metadata})
863 Set metadata information of the next output file from @var{infile}. Note that
864 those are file indices (zero-based), not filenames.
865 Optional @var{metadata_spec_in/out} parameters specify, which metadata to copy.
866 A metadata specifier can have the following forms:
867 @table @option
868 @item @var{g}
869 global metadata, i.e. metadata that applies to the whole file
870
871 @item @var{s}[:@var{stream_spec}]
872 per-stream metadata. @var{stream_spec} is a stream specifier as described
873 in the @ref{Stream specifiers} chapter. In an input metadata specifier, the first
874 matching stream is copied from. In an output metadata specifier, all matching
875 streams are copied to.
876
877 @item @var{c}:@var{chapter_index}
878 per-chapter metadata. @var{chapter_index} is the zero-based chapter index.
879
880 @item @var{p}:@var{program_index}
881 per-program metadata. @var{program_index} is the zero-based program index.
882 @end table
883 If metadata specifier is omitted, it defaults to global.
884
885 By default, global metadata is copied from the first input file,
886 per-stream and per-chapter metadata is copied along with streams/chapters. These
887 default mappings are disabled by creating any mapping of the relevant type. A negative
888 file index can be used to create a dummy mapping that just disables automatic copying.
889
890 For example to copy metadata from the first stream of the input file to global metadata
891 of the output file:
892 @example
893 ffmpeg -i in.ogg -map_metadata 0:s:0 out.mp3
894 @end example
895
896 To do the reverse, i.e. copy global metadata to all audio streams:
897 @example
898 ffmpeg -i in.mkv -map_metadata:s:a 0:g out.mkv
899 @end example
900 Note that simple @code{0} would work as well in this example, since global
901 metadata is assumed by default.
902
903 @item -map_chapters @var{input_file_index} (@emph{output})
904 Copy chapters from input file with index @var{input_file_index} to the next
905 output file. If no chapter mapping is specified, then chapters are copied from
906 the first input file with at least one chapter. Use a negative file index to
907 disable any chapter copying.
908
909 @item -benchmark (@emph{global})
910 Show benchmarking information at the end of an encode.
911 Shows CPU time used and maximum memory consumption.
912 Maximum memory consumption is not supported on all systems,
913 it will usually display as 0 if not supported.
914 @item -benchmark_all (@emph{global})
915 Show benchmarking information during the encode.
916 Shows CPU time used in various steps (audio/video encode/decode).
917 @item -timelimit @var{duration} (@emph{global})
918 Exit after ffmpeg has been running for @var{duration} seconds.
919 @item -dump (@emph{global})
920 Dump each input packet to stderr.
921 @item -hex (@emph{global})
922 When dumping packets, also dump the payload.
923 @item -re (@emph{input})
924 Read input at native frame rate. Mainly used to simulate a grab device.
925 or live input stream (e.g. when reading from a file). Should not be used
926 with actual grab devices or live input streams (where it can cause packet
927 loss).
928 By default @command{ffmpeg} attempts to read the input(s) as fast as possible.
929 This option will slow down the reading of the input(s) to the native frame rate
930 of the input(s). It is useful for real-time output (e.g. live streaming).
931 @item -loop_input
932 Loop over the input stream. Currently it works only for image
933 streams. This option is used for automatic FFserver testing.
934 This option is deprecated, use -loop 1.
935 @item -loop_output @var{number_of_times}
936 Repeatedly loop output for formats that support looping such as animated GIF
937 (0 will loop the output infinitely).
938 This option is deprecated, use -loop.
939 @item -vsync @var{parameter}
940 Video sync method.
941 For compatibility reasons old values can be specified as numbers.
942 Newly added values will have to be specified as strings always.
943
944 @table @option
945 @item 0, passthrough
946 Each frame is passed with its timestamp from the demuxer to the muxer.
947 @item 1, cfr
948 Frames will be duplicated and dropped to achieve exactly the requested
949 constant frame rate.
950 @item 2, vfr
951 Frames are passed through with their timestamp or dropped so as to
952 prevent 2 frames from having the same timestamp.
953 @item drop
954 As passthrough but destroys all timestamps, making the muxer generate
955 fresh timestamps based on frame-rate.
956 @item -1, auto
957 Chooses between 1 and 2 depending on muxer capabilities. This is the
958 default method.
959 @end table
960
961 Note that the timestamps may be further modified by the muxer, after this.
962 For example, in the case that the format option @option{avoid_negative_ts}
963 is enabled.
964
965 With -map you can select from which stream the timestamps should be
966 taken. You can leave either video or audio unchanged and sync the
967 remaining stream(s) to the unchanged one.
968
969 @item -async @var{samples_per_second}
970 Audio sync method. "Stretches/squeezes" the audio stream to match the timestamps,
971 the parameter is the maximum samples per second by which the audio is changed.
972 -async 1 is a special case where only the start of the audio stream is corrected
973 without any later correction.
974
975 Note that the timestamps may be further modified by the muxer, after this.
976 For example, in the case that the format option @option{avoid_negative_ts}
977 is enabled.
978
979 This option has been deprecated. Use the @code{aresample} audio filter instead.
980
981 @item -copyts
982 Do not process input timestamps, but keep their values without trying
983 to sanitize them. In particular, do not remove the initial start time
984 offset value.
985
986 Note that, depending on the @option{vsync} option or on specific muxer
987 processing (e.g. in case the format option @option{avoid_negative_ts}
988 is enabled) the output timestamps may mismatch with the input
989 timestamps even when this option is selected.
990
991 @item -copytb @var{mode}
992 Specify how to set the encoder timebase when stream copying.  @var{mode} is an
993 integer numeric value, and can assume one of the following values:
994
995 @table @option
996 @item 1
997 Use the demuxer timebase.
998
999 The time base is copied to the output encoder from the corresponding input
1000 demuxer. This is sometimes required to avoid non monotonically increasing
1001 timestamps when copying video streams with variable frame rate.
1002
1003 @item 0
1004 Use the decoder timebase.
1005
1006 The time base is copied to the output encoder from the corresponding input
1007 decoder.
1008
1009 @item -1
1010 Try to make the choice automatically, in order to generate a sane output.
1011 @end table
1012
1013 Default value is -1.
1014
1015 @item -shortest (@emph{output})
1016 Finish encoding when the shortest input stream ends.
1017 @item -dts_delta_threshold
1018 Timestamp discontinuity delta threshold.
1019 @item -muxdelay @var{seconds} (@emph{input})
1020 Set the maximum demux-decode delay.
1021 @item -muxpreload @var{seconds} (@emph{input})
1022 Set the initial demux-decode delay.
1023 @item -streamid @var{output-stream-index}:@var{new-value} (@emph{output})
1024 Assign a new stream-id value to an output stream. This option should be
1025 specified prior to the output filename to which it applies.
1026 For the situation where multiple output files exist, a streamid
1027 may be reassigned to a different value.
1028
1029 For example, to set the stream 0 PID to 33 and the stream 1 PID to 36 for
1030 an output mpegts file:
1031 @example
1032 ffmpeg -i infile -streamid 0:33 -streamid 1:36 out.ts
1033 @end example
1034
1035 @item -bsf[:@var{stream_specifier}] @var{bitstream_filters} (@emph{output,per-stream})
1036 Set bitstream filters for matching streams. @var{bitstream_filters} is
1037 a comma-separated list of bitstream filters. Use the @code{-bsfs} option
1038 to get the list of bitstream filters.
1039 @example
1040 ffmpeg -i h264.mp4 -c:v copy -bsf:v h264_mp4toannexb -an out.h264
1041 @end example
1042 @example
1043 ffmpeg -i file.mov -an -vn -bsf:s mov2textsub -c:s copy -f rawvideo sub.txt
1044 @end example
1045
1046 @item -tag[:@var{stream_specifier}] @var{codec_tag} (@emph{input/output,per-stream})
1047 Force a tag/fourcc for matching streams.
1048
1049 @item -timecode @var{hh}:@var{mm}:@var{ss}SEP@var{ff}
1050 Specify Timecode for writing. @var{SEP} is ':' for non drop timecode and ';'
1051 (or '.') for drop.
1052 @example
1053 ffmpeg -i input.mpg -timecode 01:02:03.04 -r 30000/1001 -s ntsc output.mpg
1054 @end example
1055
1056 @anchor{filter_complex_option}
1057 @item -filter_complex @var{filtergraph} (@emph{global})
1058 Define a complex filtergraph, i.e. one with arbitrary number of inputs and/or
1059 outputs. For simple graphs -- those with one input and one output of the same
1060 type -- see the @option{-filter} options. @var{filtergraph} is a description of
1061 the filtergraph, as described in the ``Filtergraph syntax'' section of the
1062 ffmpeg-filters manual.
1063
1064 Input link labels must refer to input streams using the
1065 @code{[file_index:stream_specifier]} syntax (i.e. the same as @option{-map}
1066 uses). If @var{stream_specifier} matches multiple streams, the first one will be
1067 used. An unlabeled input will be connected to the first unused input stream of
1068 the matching type.
1069
1070 Output link labels are referred to with @option{-map}. Unlabeled outputs are
1071 added to the first output file.
1072
1073 Note that with this option it is possible to use only lavfi sources without
1074 normal input files.
1075
1076 For example, to overlay an image over video
1077 @example
1078 ffmpeg -i video.mkv -i image.png -filter_complex '[0:v][1:v]overlay[out]' -map
1079 '[out]' out.mkv
1080 @end example
1081 Here @code{[0:v]} refers to the first video stream in the first input file,
1082 which is linked to the first (main) input of the overlay filter. Similarly the
1083 first video stream in the second input is linked to the second (overlay) input
1084 of overlay.
1085
1086 Assuming there is only one video stream in each input file, we can omit input
1087 labels, so the above is equivalent to
1088 @example
1089 ffmpeg -i video.mkv -i image.png -filter_complex 'overlay[out]' -map
1090 '[out]' out.mkv
1091 @end example
1092
1093 Furthermore we can omit the output label and the single output from the filter
1094 graph will be added to the output file automatically, so we can simply write
1095 @example
1096 ffmpeg -i video.mkv -i image.png -filter_complex 'overlay' out.mkv
1097 @end example
1098
1099 To generate 5 seconds of pure red video using lavfi @code{color} source:
1100 @example
1101 ffmpeg -filter_complex 'color=c=red' -t 5 out.mkv
1102 @end example
1103
1104 @item -lavfi @var{filtergraph} (@emph{global})
1105 Define a complex filtergraph, i.e. one with arbitrary number of inputs and/or
1106 outputs. Equivalent to @option{-filter_complex}.
1107
1108 @item -filter_complex_script @var{filename} (@emph{global})
1109 This option is similar to @option{-filter_complex}, the only difference is that
1110 its argument is the name of the file from which a complex filtergraph
1111 description is to be read.
1112
1113 @item -accurate_seek (@emph{input})
1114 This option enables or disables accurate seeking in input files with the
1115 @option{-ss} option. It is enabled by default, so seeking is accurate when
1116 transcoding. Use @option{-noaccurate_seek} to disable it, which may be useful
1117 e.g. when copying some streams and transcoding the others.
1118
1119 @item -override_ffserver (@emph{global})
1120 Overrides the input specifications from @command{ffserver}. Using this
1121 option you can map any input stream to @command{ffserver} and control
1122 many aspects of the encoding from @command{ffmpeg}. Without this
1123 option @command{ffmpeg} will transmit to @command{ffserver} what is
1124 requested by @command{ffserver}.
1125
1126 The option is intended for cases where features are needed that cannot be
1127 specified to @command{ffserver} but can be to @command{ffmpeg}.
1128
1129 @end table
1130
1131 As a special exception, you can use a bitmap subtitle stream as input: it
1132 will be converted into a video with the same size as the largest video in
1133 the file, or 720x576 if no video is present. Note that this is an
1134 experimental and temporary solution. It will be removed once libavfilter has
1135 proper support for subtitles.
1136
1137 For example, to hardcode subtitles on top of a DVB-T recording stored in
1138 MPEG-TS format, delaying the subtitles by 1 second:
1139 @example
1140 ffmpeg -i input.ts -filter_complex \
1141   '[#0x2ef] setpts=PTS+1/TB [sub] ; [#0x2d0] [sub] overlay' \
1142   -sn -map '#0x2dc' output.mkv
1143 @end example
1144 (0x2d0, 0x2dc and 0x2ef are the MPEG-TS PIDs of respectively the video,
1145 audio and subtitles streams; 0:0, 0:3 and 0:7 would have worked too)
1146
1147 @section Preset files
1148 A preset file contains a sequence of @var{option}=@var{value} pairs,
1149 one for each line, specifying a sequence of options which would be
1150 awkward to specify on the command line. Lines starting with the hash
1151 ('#') character are ignored and are used to provide comments. Check
1152 the @file{presets} directory in the FFmpeg source tree for examples.
1153
1154 Preset files are specified with the @code{vpre}, @code{apre},
1155 @code{spre}, and @code{fpre} options. The @code{fpre} option takes the
1156 filename of the preset instead of a preset name as input and can be
1157 used for any kind of codec. For the @code{vpre}, @code{apre}, and
1158 @code{spre} options, the options specified in a preset file are
1159 applied to the currently selected codec of the same type as the preset
1160 option.
1161
1162 The argument passed to the @code{vpre}, @code{apre}, and @code{spre}
1163 preset options identifies the preset file to use according to the
1164 following rules:
1165
1166 First ffmpeg searches for a file named @var{arg}.ffpreset in the
1167 directories @file{$FFMPEG_DATADIR} (if set), and @file{$HOME/.ffmpeg}, and in
1168 the datadir defined at configuration time (usually @file{PREFIX/share/ffmpeg})
1169 or in a @file{ffpresets} folder along the executable on win32,
1170 in that order. For example, if the argument is @code{libvpx-1080p}, it will
1171 search for the file @file{libvpx-1080p.ffpreset}.
1172
1173 If no such file is found, then ffmpeg will search for a file named
1174 @var{codec_name}-@var{arg}.ffpreset in the above-mentioned
1175 directories, where @var{codec_name} is the name of the codec to which
1176 the preset file options will be applied. For example, if you select
1177 the video codec with @code{-vcodec libvpx} and use @code{-vpre 1080p},
1178 then it will search for the file @file{libvpx-1080p.ffpreset}.
1179 @c man end OPTIONS
1180
1181 @chapter Tips
1182 @c man begin TIPS
1183
1184 @itemize
1185 @item
1186 For streaming at very low bitrates, use a low frame rate
1187 and a small GOP size. This is especially true for RealVideo where
1188 the Linux player does not seem to be very fast, so it can miss
1189 frames. An example is:
1190
1191 @example
1192 ffmpeg -g 3 -r 3 -t 10 -b:v 50k -s qcif -f rv10 /tmp/b.rm
1193 @end example
1194
1195 @item
1196 The parameter 'q' which is displayed while encoding is the current
1197 quantizer. The value 1 indicates that a very good quality could
1198 be achieved. The value 31 indicates the worst quality. If q=31 appears
1199 too often, it means that the encoder cannot compress enough to meet
1200 your bitrate. You must either increase the bitrate, decrease the
1201 frame rate or decrease the frame size.
1202
1203 @item
1204 If your computer is not fast enough, you can speed up the
1205 compression at the expense of the compression ratio. You can use
1206 '-me zero' to speed up motion estimation, and '-g 0' to disable
1207 motion estimation completely (you have only I-frames, which means it
1208 is about as good as JPEG compression).
1209
1210 @item
1211 To have very low audio bitrates, reduce the sampling frequency
1212 (down to 22050 Hz for MPEG audio, 22050 or 11025 for AC-3).
1213
1214 @item
1215 To have a constant quality (but a variable bitrate), use the option
1216 '-qscale n' when 'n' is between 1 (excellent quality) and 31 (worst
1217 quality).
1218
1219 @end itemize
1220 @c man end TIPS
1221
1222 @chapter Examples
1223 @c man begin EXAMPLES
1224
1225 @section Preset files
1226
1227 A preset file contains a sequence of @var{option=value} pairs, one for
1228 each line, specifying a sequence of options which can be specified also on
1229 the command line. Lines starting with the hash ('#') character are ignored and
1230 are used to provide comments. Empty lines are also ignored. Check the
1231 @file{presets} directory in the FFmpeg source tree for examples.
1232
1233 Preset files are specified with the @code{pre} option, this option takes a
1234 preset name as input.  FFmpeg searches for a file named @var{preset_name}.avpreset in
1235 the directories @file{$AVCONV_DATADIR} (if set), and @file{$HOME/.ffmpeg}, and in
1236 the data directory defined at configuration time (usually @file{$PREFIX/share/ffmpeg})
1237 in that order.  For example, if the argument is @code{libx264-max}, it will
1238 search for the file @file{libx264-max.avpreset}.
1239
1240 @section Video and Audio grabbing
1241
1242 If you specify the input format and device then ffmpeg can grab video
1243 and audio directly.
1244
1245 @example
1246 ffmpeg -f oss -i /dev/dsp -f video4linux2 -i /dev/video0 /tmp/out.mpg
1247 @end example
1248
1249 Or with an ALSA audio source (mono input, card id 1) instead of OSS:
1250 @example
1251 ffmpeg -f alsa -ac 1 -i hw:1 -f video4linux2 -i /dev/video0 /tmp/out.mpg
1252 @end example
1253
1254 Note that you must activate the right video source and channel before
1255 launching ffmpeg with any TV viewer such as
1256 @uref{http://linux.bytesex.org/xawtv/, xawtv} by Gerd Knorr. You also
1257 have to set the audio recording levels correctly with a
1258 standard mixer.
1259
1260 @section X11 grabbing
1261
1262 Grab the X11 display with ffmpeg via
1263
1264 @example
1265 ffmpeg -f x11grab -video_size cif -framerate 25 -i :0.0 /tmp/out.mpg
1266 @end example
1267
1268 0.0 is display.screen number of your X11 server, same as
1269 the DISPLAY environment variable.
1270
1271 @example
1272 ffmpeg -f x11grab -video_size cif -framerate 25 -i :0.0+10,20 /tmp/out.mpg
1273 @end example
1274
1275 0.0 is display.screen number of your X11 server, same as the DISPLAY environment
1276 variable. 10 is the x-offset and 20 the y-offset for the grabbing.
1277
1278 @section Video and Audio file format conversion
1279
1280 Any supported file format and protocol can serve as input to ffmpeg:
1281
1282 Examples:
1283 @itemize
1284 @item
1285 You can use YUV files as input:
1286
1287 @example
1288 ffmpeg -i /tmp/test%d.Y /tmp/out.mpg
1289 @end example
1290
1291 It will use the files:
1292 @example
1293 /tmp/test0.Y, /tmp/test0.U, /tmp/test0.V,
1294 /tmp/test1.Y, /tmp/test1.U, /tmp/test1.V, etc...
1295 @end example
1296
1297 The Y files use twice the resolution of the U and V files. They are
1298 raw files, without header. They can be generated by all decent video
1299 decoders. You must specify the size of the image with the @option{-s} option
1300 if ffmpeg cannot guess it.
1301
1302 @item
1303 You can input from a raw YUV420P file:
1304
1305 @example
1306 ffmpeg -i /tmp/test.yuv /tmp/out.avi
1307 @end example
1308
1309 test.yuv is a file containing raw YUV planar data. Each frame is composed
1310 of the Y plane followed by the U and V planes at half vertical and
1311 horizontal resolution.
1312
1313 @item
1314 You can output to a raw YUV420P file:
1315
1316 @example
1317 ffmpeg -i mydivx.avi hugefile.yuv
1318 @end example
1319
1320 @item
1321 You can set several input files and output files:
1322
1323 @example
1324 ffmpeg -i /tmp/a.wav -s 640x480 -i /tmp/a.yuv /tmp/a.mpg
1325 @end example
1326
1327 Converts the audio file a.wav and the raw YUV video file a.yuv
1328 to MPEG file a.mpg.
1329
1330 @item
1331 You can also do audio and video conversions at the same time:
1332
1333 @example
1334 ffmpeg -i /tmp/a.wav -ar 22050 /tmp/a.mp2
1335 @end example
1336
1337 Converts a.wav to MPEG audio at 22050 Hz sample rate.
1338
1339 @item
1340 You can encode to several formats at the same time and define a
1341 mapping from input stream to output streams:
1342
1343 @example
1344 ffmpeg -i /tmp/a.wav -map 0:a -b:a 64k /tmp/a.mp2 -map 0:a -b:a 128k /tmp/b.mp2
1345 @end example
1346
1347 Converts a.wav to a.mp2 at 64 kbits and to b.mp2 at 128 kbits. '-map
1348 file:index' specifies which input stream is used for each output
1349 stream, in the order of the definition of output streams.
1350
1351 @item
1352 You can transcode decrypted VOBs:
1353
1354 @example
1355 ffmpeg -i snatch_1.vob -f avi -c:v mpeg4 -b:v 800k -g 300 -bf 2 -c:a libmp3lame -b:a 128k snatch.avi
1356 @end example
1357
1358 This is a typical DVD ripping example; the input is a VOB file, the
1359 output an AVI file with MPEG-4 video and MP3 audio. Note that in this
1360 command we use B-frames so the MPEG-4 stream is DivX5 compatible, and
1361 GOP size is 300 which means one intra frame every 10 seconds for 29.97fps
1362 input video. Furthermore, the audio stream is MP3-encoded so you need
1363 to enable LAME support by passing @code{--enable-libmp3lame} to configure.
1364 The mapping is particularly useful for DVD transcoding
1365 to get the desired audio language.
1366
1367 NOTE: To see the supported input formats, use @code{ffmpeg -formats}.
1368
1369 @item
1370 You can extract images from a video, or create a video from many images:
1371
1372 For extracting images from a video:
1373 @example
1374 ffmpeg -i foo.avi -r 1 -s WxH -f image2 foo-%03d.jpeg
1375 @end example
1376
1377 This will extract one video frame per second from the video and will
1378 output them in files named @file{foo-001.jpeg}, @file{foo-002.jpeg},
1379 etc. Images will be rescaled to fit the new WxH values.
1380
1381 If you want to extract just a limited number of frames, you can use the
1382 above command in combination with the -vframes or -t option, or in
1383 combination with -ss to start extracting from a certain point in time.
1384
1385 For creating a video from many images:
1386 @example
1387 ffmpeg -f image2 -i foo-%03d.jpeg -r 12 -s WxH foo.avi
1388 @end example
1389
1390 The syntax @code{foo-%03d.jpeg} specifies to use a decimal number
1391 composed of three digits padded with zeroes to express the sequence
1392 number. It is the same syntax supported by the C printf function, but
1393 only formats accepting a normal integer are suitable.
1394
1395 When importing an image sequence, -i also supports expanding
1396 shell-like wildcard patterns (globbing) internally, by selecting the
1397 image2-specific @code{-pattern_type glob} option.
1398
1399 For example, for creating a video from filenames matching the glob pattern
1400 @code{foo-*.jpeg}:
1401 @example
1402 ffmpeg -f image2 -pattern_type glob -i 'foo-*.jpeg' -r 12 -s WxH foo.avi
1403 @end example
1404
1405 @item
1406 You can put many streams of the same type in the output:
1407
1408 @example
1409 ffmpeg -i test1.avi -i test2.avi -map 0:3 -map 0:2 -map 0:1 -map 0:0 -c copy test12.nut
1410 @end example
1411
1412 The resulting output file @file{test12.avi} will contain first four streams from
1413 the input file in reverse order.
1414
1415 @item
1416 To force CBR video output:
1417 @example
1418 ffmpeg -i myfile.avi -b 4000k -minrate 4000k -maxrate 4000k -bufsize 1835k out.m2v
1419 @end example
1420
1421 @item
1422 The four options lmin, lmax, mblmin and mblmax use 'lambda' units,
1423 but you may use the QP2LAMBDA constant to easily convert from 'q' units:
1424 @example
1425 ffmpeg -i src.ext -lmax 21*QP2LAMBDA dst.ext
1426 @end example
1427
1428 @end itemize
1429 @c man end EXAMPLES
1430
1431 @include config.texi
1432 @ifset config-all
1433 @ifset config-avutil
1434 @include utils.texi
1435 @end ifset
1436 @ifset config-avcodec
1437 @include codecs.texi
1438 @include bitstream_filters.texi
1439 @end ifset
1440 @ifset config-avformat
1441 @include formats.texi
1442 @include protocols.texi
1443 @end ifset
1444 @ifset config-avdevice
1445 @include devices.texi
1446 @end ifset
1447 @ifset config-swresample
1448 @include resampler.texi
1449 @end ifset
1450 @ifset config-swscale
1451 @include scaler.texi
1452 @end ifset
1453 @ifset config-avfilter
1454 @include filters.texi
1455 @end ifset
1456 @end ifset
1457
1458 @chapter See Also
1459
1460 @ifhtml
1461 @ifset config-all
1462 @url{ffmpeg.html,ffmpeg}
1463 @end ifset
1464 @ifset config-not-all
1465 @url{ffmpeg-all.html,ffmpeg-all},
1466 @end ifset
1467 @url{ffplay.html,ffplay}, @url{ffprobe.html,ffprobe}, @url{ffserver.html,ffserver},
1468 @url{ffmpeg-utils.html,ffmpeg-utils},
1469 @url{ffmpeg-scaler.html,ffmpeg-scaler},
1470 @url{ffmpeg-resampler.html,ffmpeg-resampler},
1471 @url{ffmpeg-codecs.html,ffmpeg-codecs},
1472 @url{ffmpeg-bitstream-filters.html,ffmpeg-bitstream-filters},
1473 @url{ffmpeg-formats.html,ffmpeg-formats},
1474 @url{ffmpeg-devices.html,ffmpeg-devices},
1475 @url{ffmpeg-protocols.html,ffmpeg-protocols},
1476 @url{ffmpeg-filters.html,ffmpeg-filters}
1477 @end ifhtml
1478
1479 @ifnothtml
1480 @ifset config-all
1481 ffmpeg(1),
1482 @end ifset
1483 @ifset config-not-all
1484 ffmpeg-all(1),
1485 @end ifset
1486 ffplay(1), ffprobe(1), ffserver(1),
1487 ffmpeg-utils(1), ffmpeg-scaler(1), ffmpeg-resampler(1),
1488 ffmpeg-codecs(1), ffmpeg-bitstream-filters(1), ffmpeg-formats(1),
1489 ffmpeg-devices(1), ffmpeg-protocols(1), ffmpeg-filters(1)
1490 @end ifnothtml
1491
1492 @include authors.texi
1493
1494 @ignore
1495
1496 @setfilename ffmpeg
1497 @settitle ffmpeg video converter
1498
1499 @end ignore
1500
1501 @bye