]> git.sesse.net Git - ffmpeg/blob - ffplay.c
Merge remote-tracking branch 'qatar/master'
[ffmpeg] / ffplay.c
1 /*
2  * Copyright (c) 2003 Fabrice Bellard
3  *
4  * This file is part of FFmpeg.
5  *
6  * FFmpeg is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2.1 of the License, or (at your option) any later version.
10  *
11  * FFmpeg is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with FFmpeg; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
19  */
20
21 /**
22  * @file
23  * simple media player based on the FFmpeg libraries
24  */
25
26 #include "config.h"
27 #include <inttypes.h>
28 #include <math.h>
29 #include <limits.h>
30 #include <signal.h>
31 #include "libavutil/avstring.h"
32 #include "libavutil/colorspace.h"
33 #include "libavutil/mathematics.h"
34 #include "libavutil/pixdesc.h"
35 #include "libavutil/imgutils.h"
36 #include "libavutil/dict.h"
37 #include "libavutil/parseutils.h"
38 #include "libavutil/samplefmt.h"
39 #include "libavutil/avassert.h"
40 #include "libavformat/avformat.h"
41 #include "libavdevice/avdevice.h"
42 #include "libswscale/swscale.h"
43 #include "libavcodec/audioconvert.h"
44 #include "libavutil/opt.h"
45 #include "libavcodec/avfft.h"
46 #include "libswresample/swresample.h"
47
48 #if CONFIG_AVFILTER
49 # include "libavfilter/avcodec.h"
50 # include "libavfilter/avfilter.h"
51 # include "libavfilter/avfiltergraph.h"
52 # include "libavfilter/buffersink.h"
53 #endif
54
55 #include <SDL.h>
56 #include <SDL_thread.h>
57
58 #include "cmdutils.h"
59
60 #include <unistd.h>
61 #include <assert.h>
62
63 const char program_name[] = "ffplay";
64 const int program_birth_year = 2003;
65
66 #define MAX_QUEUE_SIZE (15 * 1024 * 1024)
67 #define MIN_AUDIOQ_SIZE (20 * 16 * 1024)
68 #define MIN_FRAMES 5
69
70 /* SDL audio buffer size, in samples. Should be small to have precise
71    A/V sync as SDL does not have hardware buffer fullness info. */
72 #define SDL_AUDIO_BUFFER_SIZE 1024
73
74 /* no AV sync correction is done if below the AV sync threshold */
75 #define AV_SYNC_THRESHOLD 0.01
76 /* no AV correction is done if too big error */
77 #define AV_NOSYNC_THRESHOLD 10.0
78
79 /* maximum audio speed change to get correct sync */
80 #define SAMPLE_CORRECTION_PERCENT_MAX 10
81
82 /* we use about AUDIO_DIFF_AVG_NB A-V differences to make the average */
83 #define AUDIO_DIFF_AVG_NB   20
84
85 /* NOTE: the size must be big enough to compensate the hardware audio buffersize size */
86 #define SAMPLE_ARRAY_SIZE (2 * 65536)
87
88 static int sws_flags = SWS_BICUBIC;
89
90 typedef struct PacketQueue {
91     AVPacketList *first_pkt, *last_pkt;
92     int nb_packets;
93     int size;
94     int abort_request;
95     SDL_mutex *mutex;
96     SDL_cond *cond;
97 } PacketQueue;
98
99 #define VIDEO_PICTURE_QUEUE_SIZE 2
100 #define SUBPICTURE_QUEUE_SIZE 4
101
102 typedef struct VideoPicture {
103     double pts;                                  ///< presentation time stamp for this picture
104     double duration;                             ///< expected duration of the frame
105     int64_t pos;                                 ///< byte position in file
106     int skip;
107     SDL_Overlay *bmp;
108     int width, height; /* source height & width */
109     int allocated;
110     int reallocate;
111     enum PixelFormat pix_fmt;
112
113 #if CONFIG_AVFILTER
114     AVFilterBufferRef *picref;
115 #endif
116 } VideoPicture;
117
118 typedef struct SubPicture {
119     double pts; /* presentation time stamp for this picture */
120     AVSubtitle sub;
121 } SubPicture;
122
123 enum {
124     AV_SYNC_AUDIO_MASTER, /* default choice */
125     AV_SYNC_VIDEO_MASTER,
126     AV_SYNC_EXTERNAL_CLOCK, /* synchronize to an external clock */
127 };
128
129 typedef struct VideoState {
130     SDL_Thread *read_tid;
131     SDL_Thread *video_tid;
132     SDL_Thread *refresh_tid;
133     AVInputFormat *iformat;
134     int no_background;
135     int abort_request;
136     int paused;
137     int last_paused;
138     int seek_req;
139     int seek_flags;
140     int64_t seek_pos;
141     int64_t seek_rel;
142     int read_pause_return;
143     AVFormatContext *ic;
144
145     int audio_stream;
146
147     int av_sync_type;
148     double external_clock; /* external clock base */
149     int64_t external_clock_time;
150
151     double audio_clock;
152     double audio_diff_cum; /* used for AV difference average computation */
153     double audio_diff_avg_coef;
154     double audio_diff_threshold;
155     int audio_diff_avg_count;
156     AVStream *audio_st;
157     PacketQueue audioq;
158     int audio_hw_buf_size;
159     DECLARE_ALIGNED(16,uint8_t,audio_buf2)[AVCODEC_MAX_AUDIO_FRAME_SIZE * 4];
160     uint8_t silence_buf[SDL_AUDIO_BUFFER_SIZE];
161     uint8_t *audio_buf;
162     uint8_t *audio_buf1;
163     unsigned int audio_buf_size; /* in bytes */
164     int audio_buf_index; /* in bytes */
165     int audio_write_buf_size;
166     AVPacket audio_pkt_temp;
167     AVPacket audio_pkt;
168     enum AVSampleFormat audio_src_fmt;
169     enum AVSampleFormat audio_tgt_fmt;
170     int audio_src_channels;
171     int audio_tgt_channels;
172     int64_t audio_src_channel_layout;
173     int64_t audio_tgt_channel_layout;
174     int audio_src_freq;
175     int audio_tgt_freq;
176     struct SwrContext *swr_ctx;
177     double audio_current_pts;
178     double audio_current_pts_drift;
179     int frame_drops_early;
180     int frame_drops_late;
181     AVFrame *frame;
182
183     enum ShowMode {
184         SHOW_MODE_NONE = -1, SHOW_MODE_VIDEO = 0, SHOW_MODE_WAVES, SHOW_MODE_RDFT, SHOW_MODE_NB
185     } show_mode;
186     int16_t sample_array[SAMPLE_ARRAY_SIZE];
187     int sample_array_index;
188     int last_i_start;
189     RDFTContext *rdft;
190     int rdft_bits;
191     FFTSample *rdft_data;
192     int xpos;
193
194     SDL_Thread *subtitle_tid;
195     int subtitle_stream;
196     int subtitle_stream_changed;
197     AVStream *subtitle_st;
198     PacketQueue subtitleq;
199     SubPicture subpq[SUBPICTURE_QUEUE_SIZE];
200     int subpq_size, subpq_rindex, subpq_windex;
201     SDL_mutex *subpq_mutex;
202     SDL_cond *subpq_cond;
203
204     double frame_timer;
205     double frame_last_pts;
206     double frame_last_duration;
207     double frame_last_dropped_pts;
208     double frame_last_returned_time;
209     double frame_last_filter_delay;
210     int64_t frame_last_dropped_pos;
211     double video_clock;                          ///< pts of last decoded frame / predicted pts of next decoded frame
212     int video_stream;
213     AVStream *video_st;
214     PacketQueue videoq;
215     double video_current_pts;                    ///< current displayed pts (different from video_clock if frame fifos are used)
216     double video_current_pts_drift;              ///< video_current_pts - time (av_gettime) at which we updated video_current_pts - used to have running video pts
217     int64_t video_current_pos;                   ///< current displayed file pos
218     VideoPicture pictq[VIDEO_PICTURE_QUEUE_SIZE];
219     int pictq_size, pictq_rindex, pictq_windex;
220     SDL_mutex *pictq_mutex;
221     SDL_cond *pictq_cond;
222 #if !CONFIG_AVFILTER
223     struct SwsContext *img_convert_ctx;
224 #endif
225
226     char filename[1024];
227     int width, height, xleft, ytop;
228     int step;
229
230 #if CONFIG_AVFILTER
231     AVFilterContext *out_video_filter;          ///< the last filter in the video chain
232 #endif
233
234     int refresh;
235 } VideoState;
236
237 static int opt_help(const char *opt, const char *arg);
238
239 /* options specified by the user */
240 static AVInputFormat *file_iformat;
241 static const char *input_filename;
242 static const char *window_title;
243 static int fs_screen_width;
244 static int fs_screen_height;
245 static int screen_width  = 0;
246 static int screen_height = 0;
247 static int audio_disable;
248 static int video_disable;
249 static int wanted_stream[AVMEDIA_TYPE_NB] = {
250     [AVMEDIA_TYPE_AUDIO]    = -1,
251     [AVMEDIA_TYPE_VIDEO]    = -1,
252     [AVMEDIA_TYPE_SUBTITLE] = -1,
253 };
254 static int seek_by_bytes = -1;
255 static int display_disable;
256 static int show_status = 1;
257 static int av_sync_type = AV_SYNC_AUDIO_MASTER;
258 static int64_t start_time = AV_NOPTS_VALUE;
259 static int64_t duration = AV_NOPTS_VALUE;
260 static int workaround_bugs = 1;
261 static int fast = 0;
262 static int genpts = 0;
263 static int lowres = 0;
264 static int idct = FF_IDCT_AUTO;
265 static enum AVDiscard skip_frame       = AVDISCARD_DEFAULT;
266 static enum AVDiscard skip_idct        = AVDISCARD_DEFAULT;
267 static enum AVDiscard skip_loop_filter = AVDISCARD_DEFAULT;
268 static int error_concealment = 3;
269 static int decoder_reorder_pts = -1;
270 static int autoexit;
271 static int exit_on_keydown;
272 static int exit_on_mousedown;
273 static int loop = 1;
274 static int framedrop = -1;
275 static enum ShowMode show_mode = SHOW_MODE_NONE;
276 static const char *audio_codec_name;
277 static const char *subtitle_codec_name;
278 static const char *video_codec_name;
279 static int rdftspeed = 20;
280 #if CONFIG_AVFILTER
281 static char *vfilters = NULL;
282 #endif
283
284 /* current context */
285 static int is_full_screen;
286 static int64_t audio_callback_time;
287
288 static AVPacket flush_pkt;
289
290 #define FF_ALLOC_EVENT   (SDL_USEREVENT)
291 #define FF_REFRESH_EVENT (SDL_USEREVENT + 1)
292 #define FF_QUIT_EVENT    (SDL_USEREVENT + 2)
293
294 static SDL_Surface *screen;
295
296 void av_noreturn exit_program(int ret)
297 {
298     exit(ret);
299 }
300
301 static int packet_queue_put(PacketQueue *q, AVPacket *pkt)
302 {
303     AVPacketList *pkt1;
304
305     /* duplicate the packet */
306     if (pkt != &flush_pkt && av_dup_packet(pkt) < 0)
307         return -1;
308
309     pkt1 = av_malloc(sizeof(AVPacketList));
310     if (!pkt1)
311         return -1;
312     pkt1->pkt = *pkt;
313     pkt1->next = NULL;
314
315
316     SDL_LockMutex(q->mutex);
317
318     if (!q->last_pkt)
319
320         q->first_pkt = pkt1;
321     else
322         q->last_pkt->next = pkt1;
323     q->last_pkt = pkt1;
324     q->nb_packets++;
325     q->size += pkt1->pkt.size + sizeof(*pkt1);
326     /* XXX: should duplicate packet data in DV case */
327     SDL_CondSignal(q->cond);
328
329     SDL_UnlockMutex(q->mutex);
330     return 0;
331 }
332
333 /* packet queue handling */
334 static void packet_queue_init(PacketQueue *q)
335 {
336     memset(q, 0, sizeof(PacketQueue));
337     q->mutex = SDL_CreateMutex();
338     q->cond = SDL_CreateCond();
339     packet_queue_put(q, &flush_pkt);
340 }
341
342 static void packet_queue_flush(PacketQueue *q)
343 {
344     AVPacketList *pkt, *pkt1;
345
346     SDL_LockMutex(q->mutex);
347     for (pkt = q->first_pkt; pkt != NULL; pkt = pkt1) {
348         pkt1 = pkt->next;
349         av_free_packet(&pkt->pkt);
350         av_freep(&pkt);
351     }
352     q->last_pkt = NULL;
353     q->first_pkt = NULL;
354     q->nb_packets = 0;
355     q->size = 0;
356     SDL_UnlockMutex(q->mutex);
357 }
358
359 static void packet_queue_end(PacketQueue *q)
360 {
361     packet_queue_flush(q);
362     SDL_DestroyMutex(q->mutex);
363     SDL_DestroyCond(q->cond);
364 }
365
366 static void packet_queue_abort(PacketQueue *q)
367 {
368     SDL_LockMutex(q->mutex);
369
370     q->abort_request = 1;
371
372     SDL_CondSignal(q->cond);
373
374     SDL_UnlockMutex(q->mutex);
375 }
376
377 /* return < 0 if aborted, 0 if no packet and > 0 if packet.  */
378 static int packet_queue_get(PacketQueue *q, AVPacket *pkt, int block)
379 {
380     AVPacketList *pkt1;
381     int ret;
382
383     SDL_LockMutex(q->mutex);
384
385     for (;;) {
386         if (q->abort_request) {
387             ret = -1;
388             break;
389         }
390
391         pkt1 = q->first_pkt;
392         if (pkt1) {
393             q->first_pkt = pkt1->next;
394             if (!q->first_pkt)
395                 q->last_pkt = NULL;
396             q->nb_packets--;
397             q->size -= pkt1->pkt.size + sizeof(*pkt1);
398             *pkt = pkt1->pkt;
399             av_free(pkt1);
400             ret = 1;
401             break;
402         } else if (!block) {
403             ret = 0;
404             break;
405         } else {
406             SDL_CondWait(q->cond, q->mutex);
407         }
408     }
409     SDL_UnlockMutex(q->mutex);
410     return ret;
411 }
412
413 static inline void fill_rectangle(SDL_Surface *screen,
414                                   int x, int y, int w, int h, int color)
415 {
416     SDL_Rect rect;
417     rect.x = x;
418     rect.y = y;
419     rect.w = w;
420     rect.h = h;
421     SDL_FillRect(screen, &rect, color);
422 }
423
424 #define ALPHA_BLEND(a, oldp, newp, s)\
425 ((((oldp << s) * (255 - (a))) + (newp * (a))) / (255 << s))
426
427 #define RGBA_IN(r, g, b, a, s)\
428 {\
429     unsigned int v = ((const uint32_t *)(s))[0];\
430     a = (v >> 24) & 0xff;\
431     r = (v >> 16) & 0xff;\
432     g = (v >> 8) & 0xff;\
433     b = v & 0xff;\
434 }
435
436 #define YUVA_IN(y, u, v, a, s, pal)\
437 {\
438     unsigned int val = ((const uint32_t *)(pal))[*(const uint8_t*)(s)];\
439     a = (val >> 24) & 0xff;\
440     y = (val >> 16) & 0xff;\
441     u = (val >> 8) & 0xff;\
442     v = val & 0xff;\
443 }
444
445 #define YUVA_OUT(d, y, u, v, a)\
446 {\
447     ((uint32_t *)(d))[0] = (a << 24) | (y << 16) | (u << 8) | v;\
448 }
449
450
451 #define BPP 1
452
453 static void blend_subrect(AVPicture *dst, const AVSubtitleRect *rect, int imgw, int imgh)
454 {
455     int wrap, wrap3, width2, skip2;
456     int y, u, v, a, u1, v1, a1, w, h;
457     uint8_t *lum, *cb, *cr;
458     const uint8_t *p;
459     const uint32_t *pal;
460     int dstx, dsty, dstw, dsth;
461
462     dstw = av_clip(rect->w, 0, imgw);
463     dsth = av_clip(rect->h, 0, imgh);
464     dstx = av_clip(rect->x, 0, imgw - dstw);
465     dsty = av_clip(rect->y, 0, imgh - dsth);
466     lum = dst->data[0] + dsty * dst->linesize[0];
467     cb  = dst->data[1] + (dsty >> 1) * dst->linesize[1];
468     cr  = dst->data[2] + (dsty >> 1) * dst->linesize[2];
469
470     width2 = ((dstw + 1) >> 1) + (dstx & ~dstw & 1);
471     skip2 = dstx >> 1;
472     wrap = dst->linesize[0];
473     wrap3 = rect->pict.linesize[0];
474     p = rect->pict.data[0];
475     pal = (const uint32_t *)rect->pict.data[1];  /* Now in YCrCb! */
476
477     if (dsty & 1) {
478         lum += dstx;
479         cb += skip2;
480         cr += skip2;
481
482         if (dstx & 1) {
483             YUVA_IN(y, u, v, a, p, pal);
484             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
485             cb[0] = ALPHA_BLEND(a >> 2, cb[0], u, 0);
486             cr[0] = ALPHA_BLEND(a >> 2, cr[0], v, 0);
487             cb++;
488             cr++;
489             lum++;
490             p += BPP;
491         }
492         for (w = dstw - (dstx & 1); w >= 2; w -= 2) {
493             YUVA_IN(y, u, v, a, p, pal);
494             u1 = u;
495             v1 = v;
496             a1 = a;
497             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
498
499             YUVA_IN(y, u, v, a, p + BPP, pal);
500             u1 += u;
501             v1 += v;
502             a1 += a;
503             lum[1] = ALPHA_BLEND(a, lum[1], y, 0);
504             cb[0] = ALPHA_BLEND(a1 >> 2, cb[0], u1, 1);
505             cr[0] = ALPHA_BLEND(a1 >> 2, cr[0], v1, 1);
506             cb++;
507             cr++;
508             p += 2 * BPP;
509             lum += 2;
510         }
511         if (w) {
512             YUVA_IN(y, u, v, a, p, pal);
513             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
514             cb[0] = ALPHA_BLEND(a >> 2, cb[0], u, 0);
515             cr[0] = ALPHA_BLEND(a >> 2, cr[0], v, 0);
516             p++;
517             lum++;
518         }
519         p += wrap3 - dstw * BPP;
520         lum += wrap - dstw - dstx;
521         cb += dst->linesize[1] - width2 - skip2;
522         cr += dst->linesize[2] - width2 - skip2;
523     }
524     for (h = dsth - (dsty & 1); h >= 2; h -= 2) {
525         lum += dstx;
526         cb += skip2;
527         cr += skip2;
528
529         if (dstx & 1) {
530             YUVA_IN(y, u, v, a, p, pal);
531             u1 = u;
532             v1 = v;
533             a1 = a;
534             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
535             p += wrap3;
536             lum += wrap;
537             YUVA_IN(y, u, v, a, p, pal);
538             u1 += u;
539             v1 += v;
540             a1 += a;
541             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
542             cb[0] = ALPHA_BLEND(a1 >> 2, cb[0], u1, 1);
543             cr[0] = ALPHA_BLEND(a1 >> 2, cr[0], v1, 1);
544             cb++;
545             cr++;
546             p += -wrap3 + BPP;
547             lum += -wrap + 1;
548         }
549         for (w = dstw - (dstx & 1); w >= 2; w -= 2) {
550             YUVA_IN(y, u, v, a, p, pal);
551             u1 = u;
552             v1 = v;
553             a1 = a;
554             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
555
556             YUVA_IN(y, u, v, a, p + BPP, pal);
557             u1 += u;
558             v1 += v;
559             a1 += a;
560             lum[1] = ALPHA_BLEND(a, lum[1], y, 0);
561             p += wrap3;
562             lum += wrap;
563
564             YUVA_IN(y, u, v, a, p, pal);
565             u1 += u;
566             v1 += v;
567             a1 += a;
568             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
569
570             YUVA_IN(y, u, v, a, p + BPP, pal);
571             u1 += u;
572             v1 += v;
573             a1 += a;
574             lum[1] = ALPHA_BLEND(a, lum[1], y, 0);
575
576             cb[0] = ALPHA_BLEND(a1 >> 2, cb[0], u1, 2);
577             cr[0] = ALPHA_BLEND(a1 >> 2, cr[0], v1, 2);
578
579             cb++;
580             cr++;
581             p += -wrap3 + 2 * BPP;
582             lum += -wrap + 2;
583         }
584         if (w) {
585             YUVA_IN(y, u, v, a, p, pal);
586             u1 = u;
587             v1 = v;
588             a1 = a;
589             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
590             p += wrap3;
591             lum += wrap;
592             YUVA_IN(y, u, v, a, p, pal);
593             u1 += u;
594             v1 += v;
595             a1 += a;
596             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
597             cb[0] = ALPHA_BLEND(a1 >> 2, cb[0], u1, 1);
598             cr[0] = ALPHA_BLEND(a1 >> 2, cr[0], v1, 1);
599             cb++;
600             cr++;
601             p += -wrap3 + BPP;
602             lum += -wrap + 1;
603         }
604         p += wrap3 + (wrap3 - dstw * BPP);
605         lum += wrap + (wrap - dstw - dstx);
606         cb += dst->linesize[1] - width2 - skip2;
607         cr += dst->linesize[2] - width2 - skip2;
608     }
609     /* handle odd height */
610     if (h) {
611         lum += dstx;
612         cb += skip2;
613         cr += skip2;
614
615         if (dstx & 1) {
616             YUVA_IN(y, u, v, a, p, pal);
617             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
618             cb[0] = ALPHA_BLEND(a >> 2, cb[0], u, 0);
619             cr[0] = ALPHA_BLEND(a >> 2, cr[0], v, 0);
620             cb++;
621             cr++;
622             lum++;
623             p += BPP;
624         }
625         for (w = dstw - (dstx & 1); w >= 2; w -= 2) {
626             YUVA_IN(y, u, v, a, p, pal);
627             u1 = u;
628             v1 = v;
629             a1 = a;
630             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
631
632             YUVA_IN(y, u, v, a, p + BPP, pal);
633             u1 += u;
634             v1 += v;
635             a1 += a;
636             lum[1] = ALPHA_BLEND(a, lum[1], y, 0);
637             cb[0] = ALPHA_BLEND(a1 >> 2, cb[0], u, 1);
638             cr[0] = ALPHA_BLEND(a1 >> 2, cr[0], v, 1);
639             cb++;
640             cr++;
641             p += 2 * BPP;
642             lum += 2;
643         }
644         if (w) {
645             YUVA_IN(y, u, v, a, p, pal);
646             lum[0] = ALPHA_BLEND(a, lum[0], y, 0);
647             cb[0] = ALPHA_BLEND(a >> 2, cb[0], u, 0);
648             cr[0] = ALPHA_BLEND(a >> 2, cr[0], v, 0);
649         }
650     }
651 }
652
653 static void free_subpicture(SubPicture *sp)
654 {
655     avsubtitle_free(&sp->sub);
656 }
657
658 static void video_image_display(VideoState *is)
659 {
660     VideoPicture *vp;
661     SubPicture *sp;
662     AVPicture pict;
663     float aspect_ratio;
664     int width, height, x, y;
665     SDL_Rect rect;
666     int i;
667
668     vp = &is->pictq[is->pictq_rindex];
669     if (vp->bmp) {
670 #if CONFIG_AVFILTER
671          if (vp->picref->video->sample_aspect_ratio.num == 0)
672              aspect_ratio = 0;
673          else
674              aspect_ratio = av_q2d(vp->picref->video->sample_aspect_ratio);
675 #else
676
677         /* XXX: use variable in the frame */
678         if (is->video_st->sample_aspect_ratio.num)
679             aspect_ratio = av_q2d(is->video_st->sample_aspect_ratio);
680         else if (is->video_st->codec->sample_aspect_ratio.num)
681             aspect_ratio = av_q2d(is->video_st->codec->sample_aspect_ratio);
682         else
683             aspect_ratio = 0;
684 #endif
685         if (aspect_ratio <= 0.0)
686             aspect_ratio = 1.0;
687         aspect_ratio *= (float)vp->width / (float)vp->height;
688
689         if (is->subtitle_st) {
690             if (is->subpq_size > 0) {
691                 sp = &is->subpq[is->subpq_rindex];
692
693                 if (vp->pts >= sp->pts + ((float) sp->sub.start_display_time / 1000)) {
694                     SDL_LockYUVOverlay (vp->bmp);
695
696                     pict.data[0] = vp->bmp->pixels[0];
697                     pict.data[1] = vp->bmp->pixels[2];
698                     pict.data[2] = vp->bmp->pixels[1];
699
700                     pict.linesize[0] = vp->bmp->pitches[0];
701                     pict.linesize[1] = vp->bmp->pitches[2];
702                     pict.linesize[2] = vp->bmp->pitches[1];
703
704                     for (i = 0; i < sp->sub.num_rects; i++)
705                         blend_subrect(&pict, sp->sub.rects[i],
706                                       vp->bmp->w, vp->bmp->h);
707
708                     SDL_UnlockYUVOverlay (vp->bmp);
709                 }
710             }
711         }
712
713
714         /* XXX: we suppose the screen has a 1.0 pixel ratio */
715         height = is->height;
716         width = ((int)rint(height * aspect_ratio)) & ~1;
717         if (width > is->width) {
718             width = is->width;
719             height = ((int)rint(width / aspect_ratio)) & ~1;
720         }
721         x = (is->width - width) / 2;
722         y = (is->height - height) / 2;
723         is->no_background = 0;
724         rect.x = is->xleft + x;
725         rect.y = is->ytop  + y;
726         rect.w = FFMAX(width,  1);
727         rect.h = FFMAX(height, 1);
728         SDL_DisplayYUVOverlay(vp->bmp, &rect);
729     }
730 }
731
732 static inline int compute_mod(int a, int b)
733 {
734     return a < 0 ? a%b + b : a%b;
735 }
736
737 static void video_audio_display(VideoState *s)
738 {
739     int i, i_start, x, y1, y, ys, delay, n, nb_display_channels;
740     int ch, channels, h, h2, bgcolor, fgcolor;
741     int16_t time_diff;
742     int rdft_bits, nb_freq;
743
744     for (rdft_bits = 1; (1 << rdft_bits) < 2 * s->height; rdft_bits++)
745         ;
746     nb_freq = 1 << (rdft_bits - 1);
747
748     /* compute display index : center on currently output samples */
749     channels = s->audio_tgt_channels;
750     nb_display_channels = channels;
751     if (!s->paused) {
752         int data_used= s->show_mode == SHOW_MODE_WAVES ? s->width : (2*nb_freq);
753         n = 2 * channels;
754         delay = s->audio_write_buf_size;
755         delay /= n;
756
757         /* to be more precise, we take into account the time spent since
758            the last buffer computation */
759         if (audio_callback_time) {
760             time_diff = av_gettime() - audio_callback_time;
761             delay -= (time_diff * s->audio_tgt_freq) / 1000000;
762         }
763
764         delay += 2 * data_used;
765         if (delay < data_used)
766             delay = data_used;
767
768         i_start= x = compute_mod(s->sample_array_index - delay * channels, SAMPLE_ARRAY_SIZE);
769         if (s->show_mode == SHOW_MODE_WAVES) {
770             h = INT_MIN;
771             for (i = 0; i < 1000; i += channels) {
772                 int idx = (SAMPLE_ARRAY_SIZE + x - i) % SAMPLE_ARRAY_SIZE;
773                 int a = s->sample_array[idx];
774                 int b = s->sample_array[(idx + 4 * channels) % SAMPLE_ARRAY_SIZE];
775                 int c = s->sample_array[(idx + 5 * channels) % SAMPLE_ARRAY_SIZE];
776                 int d = s->sample_array[(idx + 9 * channels) % SAMPLE_ARRAY_SIZE];
777                 int score = a - d;
778                 if (h < score && (b ^ c) < 0) {
779                     h = score;
780                     i_start = idx;
781                 }
782             }
783         }
784
785         s->last_i_start = i_start;
786     } else {
787         i_start = s->last_i_start;
788     }
789
790     bgcolor = SDL_MapRGB(screen->format, 0x00, 0x00, 0x00);
791     if (s->show_mode == SHOW_MODE_WAVES) {
792         fill_rectangle(screen,
793                        s->xleft, s->ytop, s->width, s->height,
794                        bgcolor);
795
796         fgcolor = SDL_MapRGB(screen->format, 0xff, 0xff, 0xff);
797
798         /* total height for one channel */
799         h = s->height / nb_display_channels;
800         /* graph height / 2 */
801         h2 = (h * 9) / 20;
802         for (ch = 0; ch < nb_display_channels; ch++) {
803             i = i_start + ch;
804             y1 = s->ytop + ch * h + (h / 2); /* position of center line */
805             for (x = 0; x < s->width; x++) {
806                 y = (s->sample_array[i] * h2) >> 15;
807                 if (y < 0) {
808                     y = -y;
809                     ys = y1 - y;
810                 } else {
811                     ys = y1;
812                 }
813                 fill_rectangle(screen,
814                                s->xleft + x, ys, 1, y,
815                                fgcolor);
816                 i += channels;
817                 if (i >= SAMPLE_ARRAY_SIZE)
818                     i -= SAMPLE_ARRAY_SIZE;
819             }
820         }
821
822         fgcolor = SDL_MapRGB(screen->format, 0x00, 0x00, 0xff);
823
824         for (ch = 1; ch < nb_display_channels; ch++) {
825             y = s->ytop + ch * h;
826             fill_rectangle(screen,
827                            s->xleft, y, s->width, 1,
828                            fgcolor);
829         }
830         SDL_UpdateRect(screen, s->xleft, s->ytop, s->width, s->height);
831     } else {
832         nb_display_channels= FFMIN(nb_display_channels, 2);
833         if (rdft_bits != s->rdft_bits) {
834             av_rdft_end(s->rdft);
835             av_free(s->rdft_data);
836             s->rdft = av_rdft_init(rdft_bits, DFT_R2C);
837             s->rdft_bits = rdft_bits;
838             s->rdft_data = av_malloc(4 * nb_freq * sizeof(*s->rdft_data));
839         }
840         {
841             FFTSample *data[2];
842             for (ch = 0; ch < nb_display_channels; ch++) {
843                 data[ch] = s->rdft_data + 2 * nb_freq * ch;
844                 i = i_start + ch;
845                 for (x = 0; x < 2 * nb_freq; x++) {
846                     double w = (x-nb_freq) * (1.0 / nb_freq);
847                     data[ch][x] = s->sample_array[i] * (1.0 - w * w);
848                     i += channels;
849                     if (i >= SAMPLE_ARRAY_SIZE)
850                         i -= SAMPLE_ARRAY_SIZE;
851                 }
852                 av_rdft_calc(s->rdft, data[ch]);
853             }
854             // least efficient way to do this, we should of course directly access it but its more than fast enough
855             for (y = 0; y < s->height; y++) {
856                 double w = 1 / sqrt(nb_freq);
857                 int a = sqrt(w * sqrt(data[0][2 * y + 0] * data[0][2 * y + 0] + data[0][2 * y + 1] * data[0][2 * y + 1]));
858                 int b = (nb_display_channels == 2 ) ? sqrt(w * sqrt(data[1][2 * y + 0] * data[1][2 * y + 0]
859                        + data[1][2 * y + 1] * data[1][2 * y + 1])) : a;
860                 a = FFMIN(a, 255);
861                 b = FFMIN(b, 255);
862                 fgcolor = SDL_MapRGB(screen->format, a, b, (a + b) / 2);
863
864                 fill_rectangle(screen,
865                             s->xpos, s->height-y, 1, 1,
866                             fgcolor);
867             }
868         }
869         SDL_UpdateRect(screen, s->xpos, s->ytop, 1, s->height);
870         s->xpos++;
871         if (s->xpos >= s->width)
872             s->xpos= s->xleft;
873     }
874 }
875
876 static void stream_close(VideoState *is)
877 {
878     VideoPicture *vp;
879     int i;
880     /* XXX: use a special url_shutdown call to abort parse cleanly */
881     is->abort_request = 1;
882     SDL_WaitThread(is->read_tid, NULL);
883     SDL_WaitThread(is->refresh_tid, NULL);
884
885     /* free all pictures */
886     for (i = 0; i < VIDEO_PICTURE_QUEUE_SIZE; i++) {
887         vp = &is->pictq[i];
888 #if CONFIG_AVFILTER
889         if (vp->picref) {
890             avfilter_unref_buffer(vp->picref);
891             vp->picref = NULL;
892         }
893 #endif
894         if (vp->bmp) {
895             SDL_FreeYUVOverlay(vp->bmp);
896             vp->bmp = NULL;
897         }
898     }
899     SDL_DestroyMutex(is->pictq_mutex);
900     SDL_DestroyCond(is->pictq_cond);
901     SDL_DestroyMutex(is->subpq_mutex);
902     SDL_DestroyCond(is->subpq_cond);
903 #if !CONFIG_AVFILTER
904     if (is->img_convert_ctx)
905         sws_freeContext(is->img_convert_ctx);
906 #endif
907     av_free(is);
908 }
909
910 static void do_exit(VideoState *is)
911 {
912     if (is) {
913         stream_close(is);
914     }
915     av_lockmgr_register(NULL);
916     uninit_opts();
917 #if CONFIG_AVFILTER
918     avfilter_uninit();
919 #endif
920     avformat_network_deinit();
921     if (show_status)
922         printf("\n");
923     SDL_Quit();
924     av_log(NULL, AV_LOG_QUIET, "%s", "");
925     exit(0);
926 }
927
928 static void sigterm_handler(int sig)
929 {
930     exit(123);
931 }
932
933 static int video_open(VideoState *is, int force_set_video_mode)
934 {
935     int flags = SDL_HWSURFACE | SDL_ASYNCBLIT | SDL_HWACCEL;
936     int w,h;
937
938     if (is_full_screen) flags |= SDL_FULLSCREEN;
939     else                flags |= SDL_RESIZABLE;
940
941     if (is_full_screen && fs_screen_width) {
942         w = fs_screen_width;
943         h = fs_screen_height;
944     } else if (!is_full_screen && screen_width) {
945         w = screen_width;
946         h = screen_height;
947 #if CONFIG_AVFILTER
948     } else if (is->out_video_filter && is->out_video_filter->inputs[0]) {
949         w = is->out_video_filter->inputs[0]->w;
950         h = is->out_video_filter->inputs[0]->h;
951 #else
952     } else if (is->video_st && is->video_st->codec->width) {
953         w = is->video_st->codec->width;
954         h = is->video_st->codec->height;
955 #endif
956     } else {
957         w = 640;
958         h = 480;
959     }
960     if (screen && is->width == screen->w && screen->w == w
961        && is->height== screen->h && screen->h == h && !force_set_video_mode)
962         return 0;
963     screen = SDL_SetVideoMode(w, h, 0, flags);
964     if (!screen) {
965         fprintf(stderr, "SDL: could not set video mode - exiting\n");
966         do_exit(is);
967     }
968     if (!window_title)
969         window_title = input_filename;
970     SDL_WM_SetCaption(window_title, window_title);
971
972     is->width  = screen->w;
973     is->height = screen->h;
974
975     return 0;
976 }
977
978 /* display the current picture, if any */
979 static void video_display(VideoState *is)
980 {
981     if (!screen)
982         video_open(is, 0);
983     if (is->audio_st && is->show_mode != SHOW_MODE_VIDEO)
984         video_audio_display(is);
985     else if (is->video_st)
986         video_image_display(is);
987 }
988
989 static int refresh_thread(void *opaque)
990 {
991     VideoState *is= opaque;
992     while (!is->abort_request) {
993         SDL_Event event;
994         event.type = FF_REFRESH_EVENT;
995         event.user.data1 = opaque;
996         if (!is->refresh) {
997             is->refresh = 1;
998             SDL_PushEvent(&event);
999         }
1000         //FIXME ideally we should wait the correct time but SDLs event passing is so slow it would be silly
1001         usleep(is->audio_st && is->show_mode != SHOW_MODE_VIDEO ? rdftspeed*1000 : 5000);
1002     }
1003     return 0;
1004 }
1005
1006 /* get the current audio clock value */
1007 static double get_audio_clock(VideoState *is)
1008 {
1009     if (is->paused) {
1010         return is->audio_current_pts;
1011     } else {
1012         return is->audio_current_pts_drift + av_gettime() / 1000000.0;
1013     }
1014 }
1015
1016 /* get the current video clock value */
1017 static double get_video_clock(VideoState *is)
1018 {
1019     if (is->paused) {
1020         return is->video_current_pts;
1021     } else {
1022         return is->video_current_pts_drift + av_gettime() / 1000000.0;
1023     }
1024 }
1025
1026 /* get the current external clock value */
1027 static double get_external_clock(VideoState *is)
1028 {
1029     int64_t ti;
1030     ti = av_gettime();
1031     return is->external_clock + ((ti - is->external_clock_time) * 1e-6);
1032 }
1033
1034 /* get the current master clock value */
1035 static double get_master_clock(VideoState *is)
1036 {
1037     double val;
1038
1039     if (is->av_sync_type == AV_SYNC_VIDEO_MASTER) {
1040         if (is->video_st)
1041             val = get_video_clock(is);
1042         else
1043             val = get_audio_clock(is);
1044     } else if (is->av_sync_type == AV_SYNC_AUDIO_MASTER) {
1045         if (is->audio_st)
1046             val = get_audio_clock(is);
1047         else
1048             val = get_video_clock(is);
1049     } else {
1050         val = get_external_clock(is);
1051     }
1052     return val;
1053 }
1054
1055 /* seek in the stream */
1056 static void stream_seek(VideoState *is, int64_t pos, int64_t rel, int seek_by_bytes)
1057 {
1058     if (!is->seek_req) {
1059         is->seek_pos = pos;
1060         is->seek_rel = rel;
1061         is->seek_flags &= ~AVSEEK_FLAG_BYTE;
1062         if (seek_by_bytes)
1063             is->seek_flags |= AVSEEK_FLAG_BYTE;
1064         is->seek_req = 1;
1065     }
1066 }
1067
1068 /* pause or resume the video */
1069 static void stream_toggle_pause(VideoState *is)
1070 {
1071     if (is->paused) {
1072         is->frame_timer += av_gettime() / 1000000.0 + is->video_current_pts_drift - is->video_current_pts;
1073         if (is->read_pause_return != AVERROR(ENOSYS)) {
1074             is->video_current_pts = is->video_current_pts_drift + av_gettime() / 1000000.0;
1075         }
1076         is->video_current_pts_drift = is->video_current_pts - av_gettime() / 1000000.0;
1077     }
1078     is->paused = !is->paused;
1079 }
1080
1081 static double compute_target_delay(double delay, VideoState *is)
1082 {
1083     double sync_threshold, diff;
1084
1085     /* update delay to follow master synchronisation source */
1086     if (((is->av_sync_type == AV_SYNC_AUDIO_MASTER && is->audio_st) ||
1087          is->av_sync_type == AV_SYNC_EXTERNAL_CLOCK)) {
1088         /* if video is slave, we try to correct big delays by
1089            duplicating or deleting a frame */
1090         diff = get_video_clock(is) - get_master_clock(is);
1091
1092         /* skip or repeat frame. We take into account the
1093            delay to compute the threshold. I still don't know
1094            if it is the best guess */
1095         sync_threshold = FFMAX(AV_SYNC_THRESHOLD, delay);
1096         if (fabs(diff) < AV_NOSYNC_THRESHOLD) {
1097             if (diff <= -sync_threshold)
1098                 delay = 0;
1099             else if (diff >= sync_threshold)
1100                 delay = 2 * delay;
1101         }
1102     }
1103
1104     av_dlog(NULL, "video: delay=%0.3f A-V=%f\n",
1105             delay, -diff);
1106
1107     return delay;
1108 }
1109
1110 static void pictq_next_picture(VideoState *is) {
1111     /* update queue size and signal for next picture */
1112     if (++is->pictq_rindex == VIDEO_PICTURE_QUEUE_SIZE)
1113         is->pictq_rindex = 0;
1114
1115     SDL_LockMutex(is->pictq_mutex);
1116     is->pictq_size--;
1117     SDL_CondSignal(is->pictq_cond);
1118     SDL_UnlockMutex(is->pictq_mutex);
1119 }
1120
1121 static void update_video_pts(VideoState *is, double pts, int64_t pos) {
1122     double time = av_gettime() / 1000000.0;
1123     /* update current video pts */
1124     is->video_current_pts = pts;
1125     is->video_current_pts_drift = is->video_current_pts - time;
1126     is->video_current_pos = pos;
1127     is->frame_last_pts = pts;
1128 }
1129
1130 /* called to display each frame */
1131 static void video_refresh(void *opaque)
1132 {
1133     VideoState *is = opaque;
1134     VideoPicture *vp;
1135     double time;
1136
1137     SubPicture *sp, *sp2;
1138
1139     if (is->video_st) {
1140 retry:
1141         if (is->pictq_size == 0) {
1142             SDL_LockMutex(is->pictq_mutex);
1143             if (is->frame_last_dropped_pts != AV_NOPTS_VALUE && is->frame_last_dropped_pts > is->frame_last_pts) {
1144                 update_video_pts(is, is->frame_last_dropped_pts, is->frame_last_dropped_pos);
1145                 is->frame_last_dropped_pts = AV_NOPTS_VALUE;
1146             }
1147             SDL_UnlockMutex(is->pictq_mutex);
1148             // nothing to do, no picture to display in the que
1149         } else {
1150             double last_duration, duration, delay;
1151             /* dequeue the picture */
1152             vp = &is->pictq[is->pictq_rindex];
1153
1154             if (vp->skip) {
1155                 pictq_next_picture(is);
1156                 goto retry;
1157             }
1158
1159             /* compute nominal last_duration */
1160             last_duration = vp->pts - is->frame_last_pts;
1161             if (last_duration > 0 && last_duration < 10.0) {
1162                 /* if duration of the last frame was sane, update last_duration in video state */
1163                 is->frame_last_duration = last_duration;
1164             }
1165             delay = compute_target_delay(is->frame_last_duration, is);
1166
1167             time= av_gettime()/1000000.0;
1168             if (time < is->frame_timer + delay)
1169                 return;
1170
1171             if (delay > 0)
1172                 is->frame_timer += delay * FFMAX(1, floor((time-is->frame_timer) / delay));
1173
1174             SDL_LockMutex(is->pictq_mutex);
1175             update_video_pts(is, vp->pts, vp->pos);
1176             SDL_UnlockMutex(is->pictq_mutex);
1177
1178             if (is->pictq_size > 1) {
1179                 VideoPicture *nextvp = &is->pictq[(is->pictq_rindex + 1) % VIDEO_PICTURE_QUEUE_SIZE];
1180                 duration = nextvp->pts - vp->pts; // More accurate this way, 1/time_base is often not reflecting FPS
1181             } else {
1182                 duration = vp->duration;
1183             }
1184
1185             if((framedrop>0 || (framedrop && is->audio_st)) && time > is->frame_timer + duration){
1186                 if(is->pictq_size > 1){
1187                     is->frame_drops_late++;
1188                     pictq_next_picture(is);
1189                     goto retry;
1190                 }
1191             }
1192
1193             if (is->subtitle_st) {
1194                 if (is->subtitle_stream_changed) {
1195                     SDL_LockMutex(is->subpq_mutex);
1196
1197                     while (is->subpq_size) {
1198                         free_subpicture(&is->subpq[is->subpq_rindex]);
1199
1200                         /* update queue size and signal for next picture */
1201                         if (++is->subpq_rindex == SUBPICTURE_QUEUE_SIZE)
1202                             is->subpq_rindex = 0;
1203
1204                         is->subpq_size--;
1205                     }
1206                     is->subtitle_stream_changed = 0;
1207
1208                     SDL_CondSignal(is->subpq_cond);
1209                     SDL_UnlockMutex(is->subpq_mutex);
1210                 } else {
1211                     if (is->subpq_size > 0) {
1212                         sp = &is->subpq[is->subpq_rindex];
1213
1214                         if (is->subpq_size > 1)
1215                             sp2 = &is->subpq[(is->subpq_rindex + 1) % SUBPICTURE_QUEUE_SIZE];
1216                         else
1217                             sp2 = NULL;
1218
1219                         if ((is->video_current_pts > (sp->pts + ((float) sp->sub.end_display_time / 1000)))
1220                                 || (sp2 && is->video_current_pts > (sp2->pts + ((float) sp2->sub.start_display_time / 1000))))
1221                         {
1222                             free_subpicture(sp);
1223
1224                             /* update queue size and signal for next picture */
1225                             if (++is->subpq_rindex == SUBPICTURE_QUEUE_SIZE)
1226                                 is->subpq_rindex = 0;
1227
1228                             SDL_LockMutex(is->subpq_mutex);
1229                             is->subpq_size--;
1230                             SDL_CondSignal(is->subpq_cond);
1231                             SDL_UnlockMutex(is->subpq_mutex);
1232                         }
1233                     }
1234                 }
1235             }
1236
1237             /* display picture */
1238             if (!display_disable)
1239                 video_display(is);
1240
1241             pictq_next_picture(is);
1242         }
1243     } else if (is->audio_st) {
1244         /* draw the next audio frame */
1245
1246         /* if only audio stream, then display the audio bars (better
1247            than nothing, just to test the implementation */
1248
1249         /* display picture */
1250         if (!display_disable)
1251             video_display(is);
1252     }
1253     if (show_status) {
1254         static int64_t last_time;
1255         int64_t cur_time;
1256         int aqsize, vqsize, sqsize;
1257         double av_diff;
1258
1259         cur_time = av_gettime();
1260         if (!last_time || (cur_time - last_time) >= 30000) {
1261             aqsize = 0;
1262             vqsize = 0;
1263             sqsize = 0;
1264             if (is->audio_st)
1265                 aqsize = is->audioq.size;
1266             if (is->video_st)
1267                 vqsize = is->videoq.size;
1268             if (is->subtitle_st)
1269                 sqsize = is->subtitleq.size;
1270             av_diff = 0;
1271             if (is->audio_st && is->video_st)
1272                 av_diff = get_audio_clock(is) - get_video_clock(is);
1273             printf("%7.2f A-V:%7.3f fd=%4d aq=%5dKB vq=%5dKB sq=%5dB f=%"PRId64"/%"PRId64"   \r",
1274                    get_master_clock(is),
1275                    av_diff,
1276                    is->frame_drops_early + is->frame_drops_late,
1277                    aqsize / 1024,
1278                    vqsize / 1024,
1279                    sqsize,
1280                    is->video_st ? is->video_st->codec->pts_correction_num_faulty_dts : 0,
1281                    is->video_st ? is->video_st->codec->pts_correction_num_faulty_pts : 0);
1282             fflush(stdout);
1283             last_time = cur_time;
1284         }
1285     }
1286 }
1287
1288 /* allocate a picture (needs to do that in main thread to avoid
1289    potential locking problems */
1290 static void alloc_picture(void *opaque)
1291 {
1292     VideoState *is = opaque;
1293     VideoPicture *vp;
1294
1295     vp = &is->pictq[is->pictq_windex];
1296
1297     if (vp->bmp)
1298         SDL_FreeYUVOverlay(vp->bmp);
1299
1300 #if CONFIG_AVFILTER
1301     if (vp->picref)
1302         avfilter_unref_buffer(vp->picref);
1303     vp->picref = NULL;
1304
1305     vp->width   = is->out_video_filter->inputs[0]->w;
1306     vp->height  = is->out_video_filter->inputs[0]->h;
1307     vp->pix_fmt = is->out_video_filter->inputs[0]->format;
1308 #else
1309     vp->width   = is->video_st->codec->width;
1310     vp->height  = is->video_st->codec->height;
1311     vp->pix_fmt = is->video_st->codec->pix_fmt;
1312 #endif
1313
1314     vp->bmp = SDL_CreateYUVOverlay(vp->width, vp->height,
1315                                    SDL_YV12_OVERLAY,
1316                                    screen);
1317     if (!vp->bmp || vp->bmp->pitches[0] < vp->width) {
1318         /* SDL allocates a buffer smaller than requested if the video
1319          * overlay hardware is unable to support the requested size. */
1320         fprintf(stderr, "Error: the video system does not support an image\n"
1321                         "size of %dx%d pixels. Try using -lowres or -vf \"scale=w:h\"\n"
1322                         "to reduce the image size.\n", vp->width, vp->height );
1323         do_exit(is);
1324     }
1325
1326     SDL_LockMutex(is->pictq_mutex);
1327     vp->allocated = 1;
1328     SDL_CondSignal(is->pictq_cond);
1329     SDL_UnlockMutex(is->pictq_mutex);
1330 }
1331
1332 static int queue_picture(VideoState *is, AVFrame *src_frame, double pts1, int64_t pos)
1333 {
1334     VideoPicture *vp;
1335     double frame_delay, pts = pts1;
1336
1337     /* compute the exact PTS for the picture if it is omitted in the stream
1338      * pts1 is the dts of the pkt / pts of the frame */
1339     if (pts != 0) {
1340         /* update video clock with pts, if present */
1341         is->video_clock = pts;
1342     } else {
1343         pts = is->video_clock;
1344     }
1345     /* update video clock for next frame */
1346     frame_delay = av_q2d(is->video_st->codec->time_base);
1347     /* for MPEG2, the frame can be repeated, so we update the
1348        clock accordingly */
1349     frame_delay += src_frame->repeat_pict * (frame_delay * 0.5);
1350     is->video_clock += frame_delay;
1351
1352 #if defined(DEBUG_SYNC) && 0
1353     printf("frame_type=%c clock=%0.3f pts=%0.3f\n",
1354            av_get_picture_type_char(src_frame->pict_type), pts, pts1);
1355 #endif
1356
1357     /* wait until we have space to put a new picture */
1358     SDL_LockMutex(is->pictq_mutex);
1359
1360     while (is->pictq_size >= VIDEO_PICTURE_QUEUE_SIZE &&
1361            !is->videoq.abort_request) {
1362         SDL_CondWait(is->pictq_cond, is->pictq_mutex);
1363     }
1364     SDL_UnlockMutex(is->pictq_mutex);
1365
1366     if (is->videoq.abort_request)
1367         return -1;
1368
1369     vp = &is->pictq[is->pictq_windex];
1370
1371     vp->duration = frame_delay;
1372
1373     /* alloc or resize hardware picture buffer */
1374     if (!vp->bmp || vp->reallocate ||
1375 #if CONFIG_AVFILTER
1376         vp->width  != is->out_video_filter->inputs[0]->w ||
1377         vp->height != is->out_video_filter->inputs[0]->h) {
1378 #else
1379         vp->width != is->video_st->codec->width ||
1380         vp->height != is->video_st->codec->height) {
1381 #endif
1382         SDL_Event event;
1383
1384         vp->allocated  = 0;
1385         vp->reallocate = 0;
1386
1387         /* the allocation must be done in the main thread to avoid
1388            locking problems */
1389         event.type = FF_ALLOC_EVENT;
1390         event.user.data1 = is;
1391         SDL_PushEvent(&event);
1392
1393         /* wait until the picture is allocated */
1394         SDL_LockMutex(is->pictq_mutex);
1395         while (!vp->allocated && !is->videoq.abort_request) {
1396             SDL_CondWait(is->pictq_cond, is->pictq_mutex);
1397         }
1398         /* if the queue is aborted, we have to pop the pending ALLOC event or wait for the allocation to complete */
1399         if (is->videoq.abort_request && SDL_PeepEvents(&event, 1, SDL_GETEVENT, SDL_EVENTMASK(FF_ALLOC_EVENT)) != 1) {
1400             while (!vp->allocated) {
1401                 SDL_CondWait(is->pictq_cond, is->pictq_mutex);
1402             }
1403         }
1404         SDL_UnlockMutex(is->pictq_mutex);
1405
1406         if (is->videoq.abort_request)
1407             return -1;
1408     }
1409
1410     /* if the frame is not skipped, then display it */
1411     if (vp->bmp) {
1412         AVPicture pict;
1413 #if CONFIG_AVFILTER
1414         if (vp->picref)
1415             avfilter_unref_buffer(vp->picref);
1416         vp->picref = src_frame->opaque;
1417 #endif
1418
1419         /* get a pointer on the bitmap */
1420         SDL_LockYUVOverlay (vp->bmp);
1421
1422         memset(&pict, 0, sizeof(AVPicture));
1423         pict.data[0] = vp->bmp->pixels[0];
1424         pict.data[1] = vp->bmp->pixels[2];
1425         pict.data[2] = vp->bmp->pixels[1];
1426
1427         pict.linesize[0] = vp->bmp->pitches[0];
1428         pict.linesize[1] = vp->bmp->pitches[2];
1429         pict.linesize[2] = vp->bmp->pitches[1];
1430
1431 #if CONFIG_AVFILTER
1432         // FIXME use direct rendering
1433         av_picture_copy(&pict, (AVPicture *)src_frame,
1434                         vp->pix_fmt, vp->width, vp->height);
1435 #else
1436         sws_flags = av_get_int(sws_opts, "sws_flags", NULL);
1437         is->img_convert_ctx = sws_getCachedContext(is->img_convert_ctx,
1438             vp->width, vp->height, vp->pix_fmt, vp->width, vp->height,
1439             PIX_FMT_YUV420P, sws_flags, NULL, NULL, NULL);
1440         if (is->img_convert_ctx == NULL) {
1441             fprintf(stderr, "Cannot initialize the conversion context\n");
1442             exit(1);
1443         }
1444         sws_scale(is->img_convert_ctx, src_frame->data, src_frame->linesize,
1445                   0, vp->height, pict.data, pict.linesize);
1446 #endif
1447         /* update the bitmap content */
1448         SDL_UnlockYUVOverlay(vp->bmp);
1449
1450         vp->pts = pts;
1451         vp->pos = pos;
1452         vp->skip = 0;
1453
1454         /* now we can update the picture count */
1455         if (++is->pictq_windex == VIDEO_PICTURE_QUEUE_SIZE)
1456             is->pictq_windex = 0;
1457         SDL_LockMutex(is->pictq_mutex);
1458         is->pictq_size++;
1459         SDL_UnlockMutex(is->pictq_mutex);
1460     }
1461     return 0;
1462 }
1463
1464 static int get_video_frame(VideoState *is, AVFrame *frame, int64_t *pts, AVPacket *pkt)
1465 {
1466     int got_picture, i;
1467
1468     if (packet_queue_get(&is->videoq, pkt, 1) < 0)
1469         return -1;
1470
1471     if (pkt->data == flush_pkt.data) {
1472         avcodec_flush_buffers(is->video_st->codec);
1473
1474         SDL_LockMutex(is->pictq_mutex);
1475         // Make sure there are no long delay timers (ideally we should just flush the que but thats harder)
1476         for (i = 0; i < VIDEO_PICTURE_QUEUE_SIZE; i++) {
1477             is->pictq[i].skip = 1;
1478         }
1479         while (is->pictq_size && !is->videoq.abort_request) {
1480             SDL_CondWait(is->pictq_cond, is->pictq_mutex);
1481         }
1482         is->video_current_pos = -1;
1483         is->frame_last_pts = AV_NOPTS_VALUE;
1484         is->frame_last_duration = 0;
1485         is->frame_timer = (double)av_gettime() / 1000000.0;
1486         is->frame_last_dropped_pts = AV_NOPTS_VALUE;
1487         SDL_UnlockMutex(is->pictq_mutex);
1488
1489         return 0;
1490     }
1491
1492     avcodec_decode_video2(is->video_st->codec, frame, &got_picture, pkt);
1493
1494     if (got_picture) {
1495         int ret = 1;
1496
1497         if (decoder_reorder_pts == -1) {
1498             *pts = *(int64_t*)av_opt_ptr(avcodec_get_frame_class(), frame, "best_effort_timestamp");
1499         } else if (decoder_reorder_pts) {
1500             *pts = frame->pkt_pts;
1501         } else {
1502             *pts = frame->pkt_dts;
1503         }
1504
1505         if (*pts == AV_NOPTS_VALUE) {
1506             *pts = 0;
1507         }
1508
1509         if (((is->av_sync_type == AV_SYNC_AUDIO_MASTER && is->audio_st) || is->av_sync_type == AV_SYNC_EXTERNAL_CLOCK) &&
1510              (framedrop>0 || (framedrop && is->audio_st))) {
1511             SDL_LockMutex(is->pictq_mutex);
1512             if (is->frame_last_pts != AV_NOPTS_VALUE && *pts) {
1513                 double clockdiff = get_video_clock(is) - get_master_clock(is);
1514                 double dpts = av_q2d(is->video_st->time_base) * *pts;
1515                 double ptsdiff = dpts - is->frame_last_pts;
1516                 if (fabs(clockdiff) < AV_NOSYNC_THRESHOLD &&
1517                      ptsdiff > 0 && ptsdiff < AV_NOSYNC_THRESHOLD &&
1518                      clockdiff + ptsdiff - is->frame_last_filter_delay < 0) {
1519                     is->frame_last_dropped_pos = pkt->pos;
1520                     is->frame_last_dropped_pts = dpts;
1521                     is->frame_drops_early++;
1522                     ret = 0;
1523                 }
1524             }
1525             SDL_UnlockMutex(is->pictq_mutex);
1526         }
1527
1528         if (ret)
1529             is->frame_last_returned_time = av_gettime() / 1000000.0;
1530
1531         return ret;
1532     }
1533     return 0;
1534 }
1535
1536 #if CONFIG_AVFILTER
1537 typedef struct {
1538     VideoState *is;
1539     AVFrame *frame;
1540     int use_dr1;
1541 } FilterPriv;
1542
1543 static int input_get_buffer(AVCodecContext *codec, AVFrame *pic)
1544 {
1545     AVFilterContext *ctx = codec->opaque;
1546     AVFilterBufferRef  *ref;
1547     int perms = AV_PERM_WRITE;
1548     int i, w, h, stride[AV_NUM_DATA_POINTERS];
1549     unsigned edge;
1550     int pixel_size;
1551
1552     av_assert0(codec->flags & CODEC_FLAG_EMU_EDGE);
1553
1554     if (codec->codec->capabilities & CODEC_CAP_NEG_LINESIZES)
1555         perms |= AV_PERM_NEG_LINESIZES;
1556
1557     if (pic->buffer_hints & FF_BUFFER_HINTS_VALID) {
1558         if (pic->buffer_hints & FF_BUFFER_HINTS_READABLE) perms |= AV_PERM_READ;
1559         if (pic->buffer_hints & FF_BUFFER_HINTS_PRESERVE) perms |= AV_PERM_PRESERVE;
1560         if (pic->buffer_hints & FF_BUFFER_HINTS_REUSABLE) perms |= AV_PERM_REUSE2;
1561     }
1562     if (pic->reference) perms |= AV_PERM_READ | AV_PERM_PRESERVE;
1563
1564     w = codec->width;
1565     h = codec->height;
1566
1567     if(av_image_check_size(w, h, 0, codec))
1568         return -1;
1569
1570     avcodec_align_dimensions2(codec, &w, &h, stride);
1571     edge = codec->flags & CODEC_FLAG_EMU_EDGE ? 0 : avcodec_get_edge_width();
1572     w += edge << 1;
1573     h += edge << 1;
1574     if (codec->pix_fmt != ctx->outputs[0]->format) {
1575         av_log(codec, AV_LOG_ERROR, "Pixel format mismatches %d %d\n", codec->pix_fmt, ctx->outputs[0]->format);
1576         return -1;
1577     }
1578     if (!(ref = avfilter_get_video_buffer(ctx->outputs[0], perms, w, h)))
1579         return -1;
1580
1581     pixel_size = av_pix_fmt_descriptors[ref->format].comp[0].step_minus1 + 1;
1582     ref->video->w = codec->width;
1583     ref->video->h = codec->height;
1584     for (i = 0; i < 4; i ++) {
1585         unsigned hshift = (i == 1 || i == 2) ? av_pix_fmt_descriptors[ref->format].log2_chroma_w : 0;
1586         unsigned vshift = (i == 1 || i == 2) ? av_pix_fmt_descriptors[ref->format].log2_chroma_h : 0;
1587
1588         if (ref->data[i]) {
1589             ref->data[i]    += ((edge * pixel_size) >> hshift) + ((edge * ref->linesize[i]) >> vshift);
1590         }
1591         pic->data[i]     = ref->data[i];
1592         pic->linesize[i] = ref->linesize[i];
1593     }
1594     pic->opaque = ref;
1595     pic->type   = FF_BUFFER_TYPE_USER;
1596     pic->reordered_opaque = codec->reordered_opaque;
1597     if (codec->pkt) pic->pkt_pts = codec->pkt->pts;
1598     else            pic->pkt_pts = AV_NOPTS_VALUE;
1599     return 0;
1600 }
1601
1602 static void input_release_buffer(AVCodecContext *codec, AVFrame *pic)
1603 {
1604     memset(pic->data, 0, sizeof(pic->data));
1605     avfilter_unref_buffer(pic->opaque);
1606 }
1607
1608 static int input_reget_buffer(AVCodecContext *codec, AVFrame *pic)
1609 {
1610     AVFilterBufferRef *ref = pic->opaque;
1611
1612     if (pic->data[0] == NULL) {
1613         pic->buffer_hints |= FF_BUFFER_HINTS_READABLE;
1614         return codec->get_buffer(codec, pic);
1615     }
1616
1617     if ((codec->width != ref->video->w) || (codec->height != ref->video->h) ||
1618         (codec->pix_fmt != ref->format)) {
1619         av_log(codec, AV_LOG_ERROR, "Picture properties changed.\n");
1620         return -1;
1621     }
1622
1623     pic->reordered_opaque = codec->reordered_opaque;
1624     if (codec->pkt) pic->pkt_pts = codec->pkt->pts;
1625     else            pic->pkt_pts = AV_NOPTS_VALUE;
1626     return 0;
1627 }
1628
1629 static int input_init(AVFilterContext *ctx, const char *args, void *opaque)
1630 {
1631     FilterPriv *priv = ctx->priv;
1632     AVCodecContext *codec;
1633     if (!opaque) return -1;
1634
1635     priv->is = opaque;
1636     codec    = priv->is->video_st->codec;
1637     codec->opaque = ctx;
1638     if (codec->codec->capabilities & CODEC_CAP_DR1) {
1639         av_assert0(codec->flags & CODEC_FLAG_EMU_EDGE);
1640         priv->use_dr1 = 1;
1641         codec->get_buffer     = input_get_buffer;
1642         codec->release_buffer = input_release_buffer;
1643         codec->reget_buffer   = input_reget_buffer;
1644         codec->thread_safe_callbacks = 1;
1645     }
1646
1647     priv->frame = avcodec_alloc_frame();
1648
1649     return 0;
1650 }
1651
1652 static void input_uninit(AVFilterContext *ctx)
1653 {
1654     FilterPriv *priv = ctx->priv;
1655     av_free(priv->frame);
1656 }
1657
1658 static int input_request_frame(AVFilterLink *link)
1659 {
1660     FilterPriv *priv = link->src->priv;
1661     AVFilterBufferRef *picref;
1662     int64_t pts = 0;
1663     AVPacket pkt;
1664     int ret;
1665
1666     while (!(ret = get_video_frame(priv->is, priv->frame, &pts, &pkt)))
1667         av_free_packet(&pkt);
1668     if (ret < 0)
1669         return -1;
1670
1671     if (priv->use_dr1 && priv->frame->opaque) {
1672         picref = avfilter_ref_buffer(priv->frame->opaque, ~0);
1673     } else {
1674         picref = avfilter_get_video_buffer(link, AV_PERM_WRITE, link->w, link->h);
1675         av_image_copy(picref->data, picref->linesize,
1676                       priv->frame->data, priv->frame->linesize,
1677                       picref->format, link->w, link->h);
1678     }
1679     av_free_packet(&pkt);
1680
1681     avfilter_copy_frame_props(picref, priv->frame);
1682     picref->pts = pts;
1683
1684     avfilter_start_frame(link, picref);
1685     avfilter_draw_slice(link, 0, link->h, 1);
1686     avfilter_end_frame(link);
1687
1688     return 0;
1689 }
1690
1691 static int input_query_formats(AVFilterContext *ctx)
1692 {
1693     FilterPriv *priv = ctx->priv;
1694     enum PixelFormat pix_fmts[] = {
1695         priv->is->video_st->codec->pix_fmt, PIX_FMT_NONE
1696     };
1697
1698     avfilter_set_common_pixel_formats(ctx, avfilter_make_format_list(pix_fmts));
1699     return 0;
1700 }
1701
1702 static int input_config_props(AVFilterLink *link)
1703 {
1704     FilterPriv *priv  = link->src->priv;
1705     AVStream *s = priv->is->video_st;
1706
1707     link->w = s->codec->width;
1708     link->h = s->codec->height;
1709     link->sample_aspect_ratio = s->sample_aspect_ratio.num ?
1710         s->sample_aspect_ratio : s->codec->sample_aspect_ratio;
1711     link->time_base = s->time_base;
1712
1713     return 0;
1714 }
1715
1716 static AVFilter input_filter =
1717 {
1718     .name      = "ffplay_input",
1719
1720     .priv_size = sizeof(FilterPriv),
1721
1722     .init      = input_init,
1723     .uninit    = input_uninit,
1724
1725     .query_formats = input_query_formats,
1726
1727     .inputs    = (AVFilterPad[]) {{ .name = NULL }},
1728     .outputs   = (AVFilterPad[]) {{ .name = "default",
1729                                     .type = AVMEDIA_TYPE_VIDEO,
1730                                     .request_frame = input_request_frame,
1731                                     .config_props  = input_config_props, },
1732                                   { .name = NULL }},
1733 };
1734
1735 static int configure_video_filters(AVFilterGraph *graph, VideoState *is, const char *vfilters)
1736 {
1737     char sws_flags_str[128];
1738     int ret;
1739     enum PixelFormat pix_fmts[] = { PIX_FMT_YUV420P, PIX_FMT_NONE };
1740     AVBufferSinkParams *buffersink_params = av_buffersink_params_alloc();
1741     AVFilterContext *filt_src = NULL, *filt_out = NULL;
1742     snprintf(sws_flags_str, sizeof(sws_flags_str), "flags=%d", sws_flags);
1743     graph->scale_sws_opts = av_strdup(sws_flags_str);
1744
1745     if ((ret = avfilter_graph_create_filter(&filt_src, &input_filter, "src",
1746                                             NULL, is, graph)) < 0)
1747         return ret;
1748
1749 #if FF_API_OLD_VSINK_API
1750     ret = avfilter_graph_create_filter(&filt_out, avfilter_get_by_name("buffersink"), "out",
1751                                        NULL, pix_fmts, graph);
1752 #else
1753     buffersink_params->pixel_fmts = pix_fmts;
1754     ret = avfilter_graph_create_filter(&filt_out, avfilter_get_by_name("buffersink"), "out",
1755                                        NULL, buffersink_params, graph);
1756 #endif
1757     av_freep(&buffersink_params);
1758     if (ret < 0)
1759         return ret;
1760
1761     if (vfilters) {
1762         AVFilterInOut *outputs = avfilter_inout_alloc();
1763         AVFilterInOut *inputs  = avfilter_inout_alloc();
1764
1765         outputs->name    = av_strdup("in");
1766         outputs->filter_ctx = filt_src;
1767         outputs->pad_idx = 0;
1768         outputs->next    = NULL;
1769
1770         inputs->name    = av_strdup("out");
1771         inputs->filter_ctx = filt_out;
1772         inputs->pad_idx = 0;
1773         inputs->next    = NULL;
1774
1775         if ((ret = avfilter_graph_parse(graph, vfilters, &inputs, &outputs, NULL)) < 0)
1776             return ret;
1777     } else {
1778         if ((ret = avfilter_link(filt_src, 0, filt_out, 0)) < 0)
1779             return ret;
1780     }
1781
1782     if ((ret = avfilter_graph_config(graph, NULL)) < 0)
1783         return ret;
1784
1785     is->out_video_filter = filt_out;
1786
1787     return ret;
1788 }
1789
1790 #endif  /* CONFIG_AVFILTER */
1791
1792 static int video_thread(void *arg)
1793 {
1794     VideoState *is = arg;
1795     AVFrame *frame = avcodec_alloc_frame();
1796     int64_t pts_int = AV_NOPTS_VALUE, pos = -1;
1797     double pts;
1798     int ret;
1799
1800 #if CONFIG_AVFILTER
1801     AVFilterGraph *graph = avfilter_graph_alloc();
1802     AVFilterContext *filt_out = NULL;
1803     int last_w = is->video_st->codec->width;
1804     int last_h = is->video_st->codec->height;
1805
1806     if ((ret = configure_video_filters(graph, is, vfilters)) < 0)
1807         goto the_end;
1808     filt_out = is->out_video_filter;
1809 #endif
1810
1811     for (;;) {
1812 #if !CONFIG_AVFILTER
1813         AVPacket pkt;
1814 #else
1815         AVFilterBufferRef *picref;
1816         AVRational tb = filt_out->inputs[0]->time_base;
1817 #endif
1818         while (is->paused && !is->videoq.abort_request)
1819             SDL_Delay(10);
1820 #if CONFIG_AVFILTER
1821         if (   last_w != is->video_st->codec->width
1822             || last_h != is->video_st->codec->height) {
1823             av_log(NULL, AV_LOG_INFO, "Frame changed from size:%dx%d to size:%dx%d\n",
1824                    last_w, last_h, is->video_st->codec->width, is->video_st->codec->height);
1825             avfilter_graph_free(&graph);
1826             graph = avfilter_graph_alloc();
1827             if ((ret = configure_video_filters(graph, is, vfilters)) < 0)
1828                 goto the_end;
1829             filt_out = is->out_video_filter;
1830             last_w = is->video_st->codec->width;
1831             last_h = is->video_st->codec->height;
1832         }
1833         ret = av_buffersink_get_buffer_ref(filt_out, &picref, 0);
1834         if (picref) {
1835             avfilter_fill_frame_from_video_buffer_ref(frame, picref);
1836             pts_int = picref->pts;
1837             pos     = picref->pos;
1838             frame->opaque = picref;
1839         }
1840
1841         if (av_cmp_q(tb, is->video_st->time_base)) {
1842             av_unused int64_t pts1 = pts_int;
1843             pts_int = av_rescale_q(pts_int, tb, is->video_st->time_base);
1844             av_dlog(NULL, "video_thread(): "
1845                     "tb:%d/%d pts:%"PRId64" -> tb:%d/%d pts:%"PRId64"\n",
1846                     tb.num, tb.den, pts1,
1847                     is->video_st->time_base.num, is->video_st->time_base.den, pts_int);
1848         }
1849 #else
1850         ret = get_video_frame(is, frame, &pts_int, &pkt);
1851         pos = pkt.pos;
1852         av_free_packet(&pkt);
1853 #endif
1854
1855         if (ret < 0)
1856             goto the_end;
1857
1858         is->frame_last_filter_delay = av_gettime() / 1000000.0 - is->frame_last_returned_time;
1859         if (fabs(is->frame_last_filter_delay) > AV_NOSYNC_THRESHOLD / 10.0)
1860             is->frame_last_filter_delay = 0;
1861
1862 #if CONFIG_AVFILTER
1863         if (!picref)
1864             continue;
1865 #endif
1866
1867         pts = pts_int * av_q2d(is->video_st->time_base);
1868
1869         ret = queue_picture(is, frame, pts, pos);
1870
1871         if (ret < 0)
1872             goto the_end;
1873
1874         if (is->step)
1875             stream_toggle_pause(is);
1876     }
1877  the_end:
1878 #if CONFIG_AVFILTER
1879     avfilter_graph_free(&graph);
1880 #endif
1881     av_free(frame);
1882     return 0;
1883 }
1884
1885 static int subtitle_thread(void *arg)
1886 {
1887     VideoState *is = arg;
1888     SubPicture *sp;
1889     AVPacket pkt1, *pkt = &pkt1;
1890     int got_subtitle;
1891     double pts;
1892     int i, j;
1893     int r, g, b, y, u, v, a;
1894
1895     for (;;) {
1896         while (is->paused && !is->subtitleq.abort_request) {
1897             SDL_Delay(10);
1898         }
1899         if (packet_queue_get(&is->subtitleq, pkt, 1) < 0)
1900             break;
1901
1902         if (pkt->data == flush_pkt.data) {
1903             avcodec_flush_buffers(is->subtitle_st->codec);
1904             continue;
1905         }
1906         SDL_LockMutex(is->subpq_mutex);
1907         while (is->subpq_size >= SUBPICTURE_QUEUE_SIZE &&
1908                !is->subtitleq.abort_request) {
1909             SDL_CondWait(is->subpq_cond, is->subpq_mutex);
1910         }
1911         SDL_UnlockMutex(is->subpq_mutex);
1912
1913         if (is->subtitleq.abort_request)
1914             return 0;
1915
1916         sp = &is->subpq[is->subpq_windex];
1917
1918        /* NOTE: ipts is the PTS of the _first_ picture beginning in
1919            this packet, if any */
1920         pts = 0;
1921         if (pkt->pts != AV_NOPTS_VALUE)
1922             pts = av_q2d(is->subtitle_st->time_base) * pkt->pts;
1923
1924         avcodec_decode_subtitle2(is->subtitle_st->codec, &sp->sub,
1925                                  &got_subtitle, pkt);
1926
1927         if (got_subtitle && sp->sub.format == 0) {
1928             sp->pts = pts;
1929
1930             for (i = 0; i < sp->sub.num_rects; i++)
1931             {
1932                 for (j = 0; j < sp->sub.rects[i]->nb_colors; j++)
1933                 {
1934                     RGBA_IN(r, g, b, a, (uint32_t*)sp->sub.rects[i]->pict.data[1] + j);
1935                     y = RGB_TO_Y_CCIR(r, g, b);
1936                     u = RGB_TO_U_CCIR(r, g, b, 0);
1937                     v = RGB_TO_V_CCIR(r, g, b, 0);
1938                     YUVA_OUT((uint32_t*)sp->sub.rects[i]->pict.data[1] + j, y, u, v, a);
1939                 }
1940             }
1941
1942             /* now we can update the picture count */
1943             if (++is->subpq_windex == SUBPICTURE_QUEUE_SIZE)
1944                 is->subpq_windex = 0;
1945             SDL_LockMutex(is->subpq_mutex);
1946             is->subpq_size++;
1947             SDL_UnlockMutex(is->subpq_mutex);
1948         }
1949         av_free_packet(pkt);
1950     }
1951     return 0;
1952 }
1953
1954 /* copy samples for viewing in editor window */
1955 static void update_sample_display(VideoState *is, short *samples, int samples_size)
1956 {
1957     int size, len;
1958
1959     size = samples_size / sizeof(short);
1960     while (size > 0) {
1961         len = SAMPLE_ARRAY_SIZE - is->sample_array_index;
1962         if (len > size)
1963             len = size;
1964         memcpy(is->sample_array + is->sample_array_index, samples, len * sizeof(short));
1965         samples += len;
1966         is->sample_array_index += len;
1967         if (is->sample_array_index >= SAMPLE_ARRAY_SIZE)
1968             is->sample_array_index = 0;
1969         size -= len;
1970     }
1971 }
1972
1973 /* return the wanted number of samples to get better sync if sync_type is video
1974  * or external master clock */
1975 static int synchronize_audio(VideoState *is, int nb_samples)
1976 {
1977     int wanted_nb_samples = nb_samples;
1978
1979     /* if not master, then we try to remove or add samples to correct the clock */
1980     if (((is->av_sync_type == AV_SYNC_VIDEO_MASTER && is->video_st) ||
1981          is->av_sync_type == AV_SYNC_EXTERNAL_CLOCK)) {
1982         double diff, avg_diff;
1983         int min_nb_samples, max_nb_samples;
1984
1985         diff = get_audio_clock(is) - get_master_clock(is);
1986
1987         if (diff < AV_NOSYNC_THRESHOLD) {
1988             is->audio_diff_cum = diff + is->audio_diff_avg_coef * is->audio_diff_cum;
1989             if (is->audio_diff_avg_count < AUDIO_DIFF_AVG_NB) {
1990                 /* not enough measures to have a correct estimate */
1991                 is->audio_diff_avg_count++;
1992             } else {
1993                 /* estimate the A-V difference */
1994                 avg_diff = is->audio_diff_cum * (1.0 - is->audio_diff_avg_coef);
1995
1996                 if (fabs(avg_diff) >= is->audio_diff_threshold) {
1997                     wanted_nb_samples = nb_samples + (int)(diff * is->audio_src_freq);
1998                     min_nb_samples = ((nb_samples * (100 - SAMPLE_CORRECTION_PERCENT_MAX) / 100));
1999                     max_nb_samples = ((nb_samples * (100 + SAMPLE_CORRECTION_PERCENT_MAX) / 100));
2000                     wanted_nb_samples = FFMIN(FFMAX(wanted_nb_samples, min_nb_samples), max_nb_samples);
2001                 }
2002                 av_dlog(NULL, "diff=%f adiff=%f sample_diff=%d apts=%0.3f vpts=%0.3f %f\n",
2003                         diff, avg_diff, wanted_nb_samples - nb_samples,
2004                         is->audio_clock, is->video_clock, is->audio_diff_threshold);
2005             }
2006         } else {
2007             /* too big difference : may be initial PTS errors, so
2008                reset A-V filter */
2009             is->audio_diff_avg_count = 0;
2010             is->audio_diff_cum       = 0;
2011         }
2012     }
2013
2014     return wanted_nb_samples;
2015 }
2016
2017 /* decode one audio frame and returns its uncompressed size */
2018 static int audio_decode_frame(VideoState *is, double *pts_ptr)
2019 {
2020     AVPacket *pkt_temp = &is->audio_pkt_temp;
2021     AVPacket *pkt = &is->audio_pkt;
2022     AVCodecContext *dec = is->audio_st->codec;
2023     int len1, len2, data_size, resampled_data_size;
2024     int64_t dec_channel_layout;
2025     int got_frame;
2026     double pts;
2027     int new_packet = 0;
2028     int flush_complete = 0;
2029     int wanted_nb_samples;
2030
2031     for (;;) {
2032         /* NOTE: the audio packet can contain several frames */
2033         while (pkt_temp->size > 0 || (!pkt_temp->data && new_packet)) {
2034             if (!is->frame) {
2035                 if (!(is->frame = avcodec_alloc_frame()))
2036                     return AVERROR(ENOMEM);
2037             } else
2038                 avcodec_get_frame_defaults(is->frame);
2039
2040             if (flush_complete)
2041                 break;
2042             new_packet = 0;
2043             len1 = avcodec_decode_audio4(dec, is->frame, &got_frame, pkt_temp);
2044             if (len1 < 0) {
2045                 /* if error, we skip the frame */
2046                 pkt_temp->size = 0;
2047                 break;
2048             }
2049
2050             pkt_temp->data += len1;
2051             pkt_temp->size -= len1;
2052
2053             if (!got_frame) {
2054                 /* stop sending empty packets if the decoder is finished */
2055                 if (!pkt_temp->data && dec->codec->capabilities & CODEC_CAP_DELAY)
2056                     flush_complete = 1;
2057                 continue;
2058             }
2059             data_size = av_samples_get_buffer_size(NULL, dec->channels,
2060                                                    is->frame->nb_samples,
2061                                                    dec->sample_fmt, 1);
2062
2063             dec_channel_layout = (dec->channel_layout && dec->channels == av_get_channel_layout_nb_channels(dec->channel_layout)) ? dec->channel_layout : av_get_default_channel_layout(dec->channels);
2064             wanted_nb_samples = synchronize_audio(is, is->frame->nb_samples);
2065
2066             if (dec->sample_fmt != is->audio_src_fmt ||
2067                 dec_channel_layout != is->audio_src_channel_layout ||
2068                 dec->sample_rate != is->audio_src_freq ||
2069                 (wanted_nb_samples != is->frame->nb_samples && !is->swr_ctx)) {
2070                 if (is->swr_ctx)
2071                     swr_free(&is->swr_ctx);
2072                 is->swr_ctx = swr_alloc_set_opts(NULL,
2073                                                  is->audio_tgt_channel_layout, is->audio_tgt_fmt, is->audio_tgt_freq,
2074                                                  dec_channel_layout,           dec->sample_fmt,   dec->sample_rate,
2075                                                  0, NULL);
2076                 if (!is->swr_ctx || swr_init(is->swr_ctx) < 0) {
2077                     fprintf(stderr, "Cannot create sample rate converter for conversion of %d Hz %s %d channels to %d Hz %s %d channels!\n",
2078                         dec->sample_rate,
2079                         av_get_sample_fmt_name(dec->sample_fmt),
2080                         dec->channels,
2081                         is->audio_tgt_freq,
2082                         av_get_sample_fmt_name(is->audio_tgt_fmt),
2083                         is->audio_tgt_channels);
2084                     break;
2085                 }
2086                 is->audio_src_channel_layout = dec_channel_layout;
2087                 is->audio_src_channels = dec->channels;
2088                 is->audio_src_freq = dec->sample_rate;
2089                 is->audio_src_fmt = dec->sample_fmt;
2090             }
2091
2092             resampled_data_size = data_size;
2093             if (is->swr_ctx) {
2094                 const uint8_t *in[] = { is->frame->data[0] };
2095                 uint8_t *out[] = {is->audio_buf2};
2096                 if (wanted_nb_samples != is->frame->nb_samples) {
2097                     if (swr_set_compensation(is->swr_ctx, (wanted_nb_samples - is->frame->nb_samples) * is->audio_tgt_freq / dec->sample_rate,
2098                                                 wanted_nb_samples * is->audio_tgt_freq / dec->sample_rate) < 0) {
2099                         fprintf(stderr, "swr_set_compensation() failed\n");
2100                         break;
2101                     }
2102                 }
2103                 len2 = swr_convert(is->swr_ctx, out, sizeof(is->audio_buf2) / is->audio_tgt_channels / av_get_bytes_per_sample(is->audio_tgt_fmt),
2104                                                 in, is->frame->nb_samples);
2105                 if (len2 < 0) {
2106                     fprintf(stderr, "audio_resample() failed\n");
2107                     break;
2108                 }
2109                 if (len2 == sizeof(is->audio_buf2) / is->audio_tgt_channels / av_get_bytes_per_sample(is->audio_tgt_fmt)) {
2110                     fprintf(stderr, "warning: audio buffer is probably too small\n");
2111                     swr_init(is->swr_ctx);
2112                 }
2113                 is->audio_buf = is->audio_buf2;
2114                 resampled_data_size = len2 * is->audio_tgt_channels * av_get_bytes_per_sample(is->audio_tgt_fmt);
2115             } else {
2116                 is->audio_buf = is->frame->data[0];
2117             }
2118
2119             /* if no pts, then compute it */
2120             pts = is->audio_clock;
2121             *pts_ptr = pts;
2122             is->audio_clock += (double)data_size / (dec->channels * dec->sample_rate * av_get_bytes_per_sample(dec->sample_fmt));
2123 #ifdef DEBUG
2124             {
2125                 static double last_clock;
2126                 printf("audio: delay=%0.3f clock=%0.3f pts=%0.3f\n",
2127                        is->audio_clock - last_clock,
2128                        is->audio_clock, pts);
2129                 last_clock = is->audio_clock;
2130             }
2131 #endif
2132             return resampled_data_size;
2133         }
2134
2135         /* free the current packet */
2136         if (pkt->data)
2137             av_free_packet(pkt);
2138         memset(pkt_temp, 0, sizeof(*pkt_temp));
2139
2140         if (is->paused || is->audioq.abort_request) {
2141             return -1;
2142         }
2143
2144         /* read next packet */
2145         if ((new_packet = packet_queue_get(&is->audioq, pkt, 1)) < 0)
2146             return -1;
2147
2148         if (pkt->data == flush_pkt.data)
2149             avcodec_flush_buffers(dec);
2150
2151         *pkt_temp = *pkt;
2152
2153         /* if update the audio clock with the pts */
2154         if (pkt->pts != AV_NOPTS_VALUE) {
2155             is->audio_clock = av_q2d(is->audio_st->time_base)*pkt->pts;
2156         }
2157     }
2158 }
2159
2160 /* prepare a new audio buffer */
2161 static void sdl_audio_callback(void *opaque, Uint8 *stream, int len)
2162 {
2163     VideoState *is = opaque;
2164     int audio_size, len1;
2165     int bytes_per_sec;
2166     int frame_size = av_samples_get_buffer_size(NULL, is->audio_tgt_channels, 1, is->audio_tgt_fmt, 1);
2167     double pts;
2168
2169     audio_callback_time = av_gettime();
2170
2171     while (len > 0) {
2172         if (is->audio_buf_index >= is->audio_buf_size) {
2173            audio_size = audio_decode_frame(is, &pts);
2174            if (audio_size < 0) {
2175                 /* if error, just output silence */
2176                is->audio_buf      = is->silence_buf;
2177                is->audio_buf_size = sizeof(is->silence_buf) / frame_size * frame_size;
2178            } else {
2179                if (is->show_mode != SHOW_MODE_VIDEO)
2180                    update_sample_display(is, (int16_t *)is->audio_buf, audio_size);
2181                is->audio_buf_size = audio_size;
2182            }
2183            is->audio_buf_index = 0;
2184         }
2185         len1 = is->audio_buf_size - is->audio_buf_index;
2186         if (len1 > len)
2187             len1 = len;
2188         memcpy(stream, (uint8_t *)is->audio_buf + is->audio_buf_index, len1);
2189         len -= len1;
2190         stream += len1;
2191         is->audio_buf_index += len1;
2192     }
2193     bytes_per_sec = is->audio_tgt_freq * is->audio_tgt_channels * av_get_bytes_per_sample(is->audio_tgt_fmt);
2194     is->audio_write_buf_size = is->audio_buf_size - is->audio_buf_index;
2195     /* Let's assume the audio driver that is used by SDL has two periods. */
2196     is->audio_current_pts = is->audio_clock - (double)(2 * is->audio_hw_buf_size + is->audio_write_buf_size) / bytes_per_sec;
2197     is->audio_current_pts_drift = is->audio_current_pts - audio_callback_time / 1000000.0;
2198 }
2199
2200 /* open a given stream. Return 0 if OK */
2201 static int stream_component_open(VideoState *is, int stream_index)
2202 {
2203     AVFormatContext *ic = is->ic;
2204     AVCodecContext *avctx;
2205     AVCodec *codec;
2206     SDL_AudioSpec wanted_spec, spec;
2207     AVDictionary *opts;
2208     AVDictionaryEntry *t = NULL;
2209     int64_t wanted_channel_layout = 0;
2210     int wanted_nb_channels;
2211     const char *env;
2212
2213     if (stream_index < 0 || stream_index >= ic->nb_streams)
2214         return -1;
2215     avctx = ic->streams[stream_index]->codec;
2216
2217     codec = avcodec_find_decoder(avctx->codec_id);
2218     opts = filter_codec_opts(codec_opts, codec, ic, ic->streams[stream_index]);
2219
2220     switch(avctx->codec_type){
2221         case AVMEDIA_TYPE_AUDIO   : if(audio_codec_name   ) codec= avcodec_find_decoder_by_name(   audio_codec_name); break;
2222         case AVMEDIA_TYPE_SUBTITLE: if(subtitle_codec_name) codec= avcodec_find_decoder_by_name(subtitle_codec_name); break;
2223         case AVMEDIA_TYPE_VIDEO   : if(video_codec_name   ) codec= avcodec_find_decoder_by_name(   video_codec_name); break;
2224     }
2225     if (!codec)
2226         return -1;
2227
2228     avctx->workaround_bugs   = workaround_bugs;
2229     avctx->lowres            = lowres;
2230     if(avctx->lowres > codec->max_lowres){
2231         av_log(avctx, AV_LOG_WARNING, "The maximum value for lowres supported by the decoder is %d\n",
2232                 codec->max_lowres);
2233         avctx->lowres= codec->max_lowres;
2234     }
2235     avctx->idct_algo         = idct;
2236     avctx->skip_frame        = skip_frame;
2237     avctx->skip_idct         = skip_idct;
2238     avctx->skip_loop_filter  = skip_loop_filter;
2239     avctx->error_concealment = error_concealment;
2240
2241     if(avctx->lowres) avctx->flags |= CODEC_FLAG_EMU_EDGE;
2242     if (fast)   avctx->flags2 |= CODEC_FLAG2_FAST;
2243     if(codec->capabilities & CODEC_CAP_DR1)
2244         avctx->flags |= CODEC_FLAG_EMU_EDGE;
2245
2246     if (avctx->codec_type == AVMEDIA_TYPE_AUDIO) {
2247         env = SDL_getenv("SDL_AUDIO_CHANNELS");
2248         if (env)
2249             wanted_channel_layout = av_get_default_channel_layout(SDL_atoi(env));
2250         if (!wanted_channel_layout) {
2251             wanted_channel_layout = (avctx->channel_layout && avctx->channels == av_get_channel_layout_nb_channels(avctx->channel_layout)) ? avctx->channel_layout : av_get_default_channel_layout(avctx->channels);
2252             wanted_channel_layout &= ~AV_CH_LAYOUT_STEREO_DOWNMIX;
2253             wanted_nb_channels = av_get_channel_layout_nb_channels(wanted_channel_layout);
2254             /* SDL only supports 1, 2, 4 or 6 channels at the moment, so we have to make sure not to request anything else. */
2255             while (wanted_nb_channels > 0 && (wanted_nb_channels == 3 || wanted_nb_channels == 5 || wanted_nb_channels > 6)) {
2256                 wanted_nb_channels--;
2257                 wanted_channel_layout = av_get_default_channel_layout(wanted_nb_channels);
2258             }
2259         }
2260         wanted_spec.channels = av_get_channel_layout_nb_channels(wanted_channel_layout);
2261         wanted_spec.freq = avctx->sample_rate;
2262         if (wanted_spec.freq <= 0 || wanted_spec.channels <= 0) {
2263             fprintf(stderr, "Invalid sample rate or channel count!\n");
2264             return -1;
2265         }
2266     }
2267
2268     if (!av_dict_get(opts, "threads", NULL, 0))
2269         av_dict_set(&opts, "threads", "auto", 0);
2270     if (!codec ||
2271         avcodec_open2(avctx, codec, &opts) < 0)
2272         return -1;
2273     if ((t = av_dict_get(opts, "", NULL, AV_DICT_IGNORE_SUFFIX))) {
2274         av_log(NULL, AV_LOG_ERROR, "Option %s not found.\n", t->key);
2275         return AVERROR_OPTION_NOT_FOUND;
2276     }
2277
2278     /* prepare audio output */
2279     if (avctx->codec_type == AVMEDIA_TYPE_AUDIO) {
2280         wanted_spec.format = AUDIO_S16SYS;
2281         wanted_spec.silence = 0;
2282         wanted_spec.samples = SDL_AUDIO_BUFFER_SIZE;
2283         wanted_spec.callback = sdl_audio_callback;
2284         wanted_spec.userdata = is;
2285         if (SDL_OpenAudio(&wanted_spec, &spec) < 0) {
2286             fprintf(stderr, "SDL_OpenAudio: %s\n", SDL_GetError());
2287             return -1;
2288         }
2289         is->audio_hw_buf_size = spec.size;
2290         if (spec.format != AUDIO_S16SYS) {
2291             fprintf(stderr, "SDL advised audio format %d is not supported!\n", spec.format);
2292             return -1;
2293         }
2294         if (spec.channels != wanted_spec.channels) {
2295             wanted_channel_layout = av_get_default_channel_layout(spec.channels);
2296             if (!wanted_channel_layout) {
2297                 fprintf(stderr, "SDL advised channel count %d is not supported!\n", spec.channels);
2298                 return -1;
2299             }
2300         }
2301         is->audio_src_fmt = is->audio_tgt_fmt = AV_SAMPLE_FMT_S16;
2302         is->audio_src_freq = is->audio_tgt_freq = spec.freq;
2303         is->audio_src_channel_layout = is->audio_tgt_channel_layout = wanted_channel_layout;
2304         is->audio_src_channels = is->audio_tgt_channels = spec.channels;
2305     }
2306
2307     ic->streams[stream_index]->discard = AVDISCARD_DEFAULT;
2308     switch (avctx->codec_type) {
2309     case AVMEDIA_TYPE_AUDIO:
2310         is->audio_stream = stream_index;
2311         is->audio_st = ic->streams[stream_index];
2312         is->audio_buf_size  = 0;
2313         is->audio_buf_index = 0;
2314
2315         /* init averaging filter */
2316         is->audio_diff_avg_coef  = exp(log(0.01) / AUDIO_DIFF_AVG_NB);
2317         is->audio_diff_avg_count = 0;
2318         /* since we do not have a precise anough audio fifo fullness,
2319            we correct audio sync only if larger than this threshold */
2320         is->audio_diff_threshold = 2.0 * SDL_AUDIO_BUFFER_SIZE / wanted_spec.freq;
2321
2322         memset(&is->audio_pkt, 0, sizeof(is->audio_pkt));
2323         packet_queue_init(&is->audioq);
2324         SDL_PauseAudio(0);
2325         break;
2326     case AVMEDIA_TYPE_VIDEO:
2327         is->video_stream = stream_index;
2328         is->video_st = ic->streams[stream_index];
2329
2330         packet_queue_init(&is->videoq);
2331         is->video_tid = SDL_CreateThread(video_thread, is);
2332         break;
2333     case AVMEDIA_TYPE_SUBTITLE:
2334         is->subtitle_stream = stream_index;
2335         is->subtitle_st = ic->streams[stream_index];
2336         packet_queue_init(&is->subtitleq);
2337
2338         is->subtitle_tid = SDL_CreateThread(subtitle_thread, is);
2339         break;
2340     default:
2341         break;
2342     }
2343     return 0;
2344 }
2345
2346 static void stream_component_close(VideoState *is, int stream_index)
2347 {
2348     AVFormatContext *ic = is->ic;
2349     AVCodecContext *avctx;
2350
2351     if (stream_index < 0 || stream_index >= ic->nb_streams)
2352         return;
2353     avctx = ic->streams[stream_index]->codec;
2354
2355     switch (avctx->codec_type) {
2356     case AVMEDIA_TYPE_AUDIO:
2357         packet_queue_abort(&is->audioq);
2358
2359         SDL_CloseAudio();
2360
2361         packet_queue_end(&is->audioq);
2362         if (is->swr_ctx)
2363             swr_free(&is->swr_ctx);
2364         av_free_packet(&is->audio_pkt);
2365         av_freep(&is->audio_buf1);
2366         is->audio_buf = NULL;
2367         av_freep(&is->frame);
2368
2369         if (is->rdft) {
2370             av_rdft_end(is->rdft);
2371             av_freep(&is->rdft_data);
2372             is->rdft = NULL;
2373             is->rdft_bits = 0;
2374         }
2375         break;
2376     case AVMEDIA_TYPE_VIDEO:
2377         packet_queue_abort(&is->videoq);
2378
2379         /* note: we also signal this mutex to make sure we deblock the
2380            video thread in all cases */
2381         SDL_LockMutex(is->pictq_mutex);
2382         SDL_CondSignal(is->pictq_cond);
2383         SDL_UnlockMutex(is->pictq_mutex);
2384
2385         SDL_WaitThread(is->video_tid, NULL);
2386
2387         packet_queue_end(&is->videoq);
2388         break;
2389     case AVMEDIA_TYPE_SUBTITLE:
2390         packet_queue_abort(&is->subtitleq);
2391
2392         /* note: we also signal this mutex to make sure we deblock the
2393            video thread in all cases */
2394         SDL_LockMutex(is->subpq_mutex);
2395         is->subtitle_stream_changed = 1;
2396
2397         SDL_CondSignal(is->subpq_cond);
2398         SDL_UnlockMutex(is->subpq_mutex);
2399
2400         SDL_WaitThread(is->subtitle_tid, NULL);
2401
2402         packet_queue_end(&is->subtitleq);
2403         break;
2404     default:
2405         break;
2406     }
2407
2408     ic->streams[stream_index]->discard = AVDISCARD_ALL;
2409     avcodec_close(avctx);
2410     switch (avctx->codec_type) {
2411     case AVMEDIA_TYPE_AUDIO:
2412         is->audio_st = NULL;
2413         is->audio_stream = -1;
2414         break;
2415     case AVMEDIA_TYPE_VIDEO:
2416         is->video_st = NULL;
2417         is->video_stream = -1;
2418         break;
2419     case AVMEDIA_TYPE_SUBTITLE:
2420         is->subtitle_st = NULL;
2421         is->subtitle_stream = -1;
2422         break;
2423     default:
2424         break;
2425     }
2426 }
2427
2428 static int decode_interrupt_cb(void *ctx)
2429 {
2430     VideoState *is = ctx;
2431     return is->abort_request;
2432 }
2433
2434 /* this thread gets the stream from the disk or the network */
2435 static int read_thread(void *arg)
2436 {
2437     VideoState *is = arg;
2438     AVFormatContext *ic = NULL;
2439     int err, i, ret;
2440     int st_index[AVMEDIA_TYPE_NB];
2441     AVPacket pkt1, *pkt = &pkt1;
2442     int eof = 0;
2443     int pkt_in_play_range = 0;
2444     AVDictionaryEntry *t;
2445     AVDictionary **opts;
2446     int orig_nb_streams;
2447
2448     memset(st_index, -1, sizeof(st_index));
2449     is->video_stream = -1;
2450     is->audio_stream = -1;
2451     is->subtitle_stream = -1;
2452
2453     ic = avformat_alloc_context();
2454     ic->interrupt_callback.callback = decode_interrupt_cb;
2455     ic->interrupt_callback.opaque = is;
2456     err = avformat_open_input(&ic, is->filename, is->iformat, &format_opts);
2457     if (err < 0) {
2458         print_error(is->filename, err);
2459         ret = -1;
2460         goto fail;
2461     }
2462     if ((t = av_dict_get(format_opts, "", NULL, AV_DICT_IGNORE_SUFFIX))) {
2463         av_log(NULL, AV_LOG_ERROR, "Option %s not found.\n", t->key);
2464         ret = AVERROR_OPTION_NOT_FOUND;
2465         goto fail;
2466     }
2467     is->ic = ic;
2468
2469     if (genpts)
2470         ic->flags |= AVFMT_FLAG_GENPTS;
2471
2472     opts = setup_find_stream_info_opts(ic, codec_opts);
2473     orig_nb_streams = ic->nb_streams;
2474
2475     err = avformat_find_stream_info(ic, opts);
2476     if (err < 0) {
2477         fprintf(stderr, "%s: could not find codec parameters\n", is->filename);
2478         ret = -1;
2479         goto fail;
2480     }
2481     for (i = 0; i < orig_nb_streams; i++)
2482         av_dict_free(&opts[i]);
2483     av_freep(&opts);
2484
2485     if (ic->pb)
2486         ic->pb->eof_reached = 0; // FIXME hack, ffplay maybe should not use url_feof() to test for the end
2487
2488     if (seek_by_bytes < 0)
2489         seek_by_bytes = !!(ic->iformat->flags & AVFMT_TS_DISCONT);
2490
2491     /* if seeking requested, we execute it */
2492     if (start_time != AV_NOPTS_VALUE) {
2493         int64_t timestamp;
2494
2495         timestamp = start_time;
2496         /* add the stream start time */
2497         if (ic->start_time != AV_NOPTS_VALUE)
2498             timestamp += ic->start_time;
2499         ret = avformat_seek_file(ic, -1, INT64_MIN, timestamp, INT64_MAX, 0);
2500         if (ret < 0) {
2501             fprintf(stderr, "%s: could not seek to position %0.3f\n",
2502                     is->filename, (double)timestamp / AV_TIME_BASE);
2503         }
2504     }
2505
2506     for (i = 0; i < ic->nb_streams; i++)
2507         ic->streams[i]->discard = AVDISCARD_ALL;
2508     if (!video_disable)
2509         st_index[AVMEDIA_TYPE_VIDEO] =
2510             av_find_best_stream(ic, AVMEDIA_TYPE_VIDEO,
2511                                 wanted_stream[AVMEDIA_TYPE_VIDEO], -1, NULL, 0);
2512     if (!audio_disable)
2513         st_index[AVMEDIA_TYPE_AUDIO] =
2514             av_find_best_stream(ic, AVMEDIA_TYPE_AUDIO,
2515                                 wanted_stream[AVMEDIA_TYPE_AUDIO],
2516                                 st_index[AVMEDIA_TYPE_VIDEO],
2517                                 NULL, 0);
2518     if (!video_disable)
2519         st_index[AVMEDIA_TYPE_SUBTITLE] =
2520             av_find_best_stream(ic, AVMEDIA_TYPE_SUBTITLE,
2521                                 wanted_stream[AVMEDIA_TYPE_SUBTITLE],
2522                                 (st_index[AVMEDIA_TYPE_AUDIO] >= 0 ?
2523                                  st_index[AVMEDIA_TYPE_AUDIO] :
2524                                  st_index[AVMEDIA_TYPE_VIDEO]),
2525                                 NULL, 0);
2526     if (show_status) {
2527         av_dump_format(ic, 0, is->filename, 0);
2528     }
2529
2530     is->show_mode = show_mode;
2531
2532     /* open the streams */
2533     if (st_index[AVMEDIA_TYPE_AUDIO] >= 0) {
2534         stream_component_open(is, st_index[AVMEDIA_TYPE_AUDIO]);
2535     }
2536
2537     ret = -1;
2538     if (st_index[AVMEDIA_TYPE_VIDEO] >= 0) {
2539         ret = stream_component_open(is, st_index[AVMEDIA_TYPE_VIDEO]);
2540     }
2541     is->refresh_tid = SDL_CreateThread(refresh_thread, is);
2542     if (is->show_mode == SHOW_MODE_NONE)
2543         is->show_mode = ret >= 0 ? SHOW_MODE_VIDEO : SHOW_MODE_RDFT;
2544
2545     if (st_index[AVMEDIA_TYPE_SUBTITLE] >= 0) {
2546         stream_component_open(is, st_index[AVMEDIA_TYPE_SUBTITLE]);
2547     }
2548
2549     if (is->video_stream < 0 && is->audio_stream < 0) {
2550         fprintf(stderr, "%s: could not open codecs\n", is->filename);
2551         ret = -1;
2552         goto fail;
2553     }
2554
2555     for (;;) {
2556         if (is->abort_request)
2557             break;
2558         if (is->paused != is->last_paused) {
2559             is->last_paused = is->paused;
2560             if (is->paused)
2561                 is->read_pause_return = av_read_pause(ic);
2562             else
2563                 av_read_play(ic);
2564         }
2565 #if CONFIG_RTSP_DEMUXER || CONFIG_MMSH_PROTOCOL
2566         if (is->paused &&
2567                 (!strcmp(ic->iformat->name, "rtsp") ||
2568                  (ic->pb && !strncmp(input_filename, "mmsh:", 5)))) {
2569             /* wait 10 ms to avoid trying to get another packet */
2570             /* XXX: horrible */
2571             SDL_Delay(10);
2572             continue;
2573         }
2574 #endif
2575         if (is->seek_req) {
2576             int64_t seek_target = is->seek_pos;
2577             int64_t seek_min    = is->seek_rel > 0 ? seek_target - is->seek_rel + 2: INT64_MIN;
2578             int64_t seek_max    = is->seek_rel < 0 ? seek_target - is->seek_rel - 2: INT64_MAX;
2579 // FIXME the +-2 is due to rounding being not done in the correct direction in generation
2580 //      of the seek_pos/seek_rel variables
2581
2582             ret = avformat_seek_file(is->ic, -1, seek_min, seek_target, seek_max, is->seek_flags);
2583             if (ret < 0) {
2584                 fprintf(stderr, "%s: error while seeking\n", is->ic->filename);
2585             } else {
2586                 if (is->audio_stream >= 0) {
2587                     packet_queue_flush(&is->audioq);
2588                     packet_queue_put(&is->audioq, &flush_pkt);
2589                 }
2590                 if (is->subtitle_stream >= 0) {
2591                     packet_queue_flush(&is->subtitleq);
2592                     packet_queue_put(&is->subtitleq, &flush_pkt);
2593                 }
2594                 if (is->video_stream >= 0) {
2595                     packet_queue_flush(&is->videoq);
2596                     packet_queue_put(&is->videoq, &flush_pkt);
2597                 }
2598             }
2599             is->seek_req = 0;
2600             eof = 0;
2601         }
2602
2603         /* if the queue are full, no need to read more */
2604         if (   is->audioq.size + is->videoq.size + is->subtitleq.size > MAX_QUEUE_SIZE
2605             || (   (is->audioq   .size  > MIN_AUDIOQ_SIZE || is->audio_stream < 0)
2606                 && (is->videoq   .nb_packets > MIN_FRAMES || is->video_stream < 0)
2607                 && (is->subtitleq.nb_packets > MIN_FRAMES || is->subtitle_stream < 0))) {
2608             /* wait 10 ms */
2609             SDL_Delay(10);
2610             continue;
2611         }
2612         if (eof) {
2613             if (is->video_stream >= 0) {
2614                 av_init_packet(pkt);
2615                 pkt->data = NULL;
2616                 pkt->size = 0;
2617                 pkt->stream_index = is->video_stream;
2618                 packet_queue_put(&is->videoq, pkt);
2619             }
2620             if (is->audio_stream >= 0 &&
2621                 is->audio_st->codec->codec->capabilities & CODEC_CAP_DELAY) {
2622                 av_init_packet(pkt);
2623                 pkt->data = NULL;
2624                 pkt->size = 0;
2625                 pkt->stream_index = is->audio_stream;
2626                 packet_queue_put(&is->audioq, pkt);
2627             }
2628             SDL_Delay(10);
2629             if (is->audioq.size + is->videoq.size + is->subtitleq.size == 0) {
2630                 if (loop != 1 && (!loop || --loop)) {
2631                     stream_seek(is, start_time != AV_NOPTS_VALUE ? start_time : 0, 0, 0);
2632                 } else if (autoexit) {
2633                     ret = AVERROR_EOF;
2634                     goto fail;
2635                 }
2636             }
2637             eof=0;
2638             continue;
2639         }
2640         ret = av_read_frame(ic, pkt);
2641         if (ret < 0) {
2642             if (ret == AVERROR_EOF || url_feof(ic->pb))
2643                 eof = 1;
2644             if (ic->pb && ic->pb->error)
2645                 break;
2646             SDL_Delay(100); /* wait for user event */
2647             continue;
2648         }
2649         /* check if packet is in play range specified by user, then queue, otherwise discard */
2650         pkt_in_play_range = duration == AV_NOPTS_VALUE ||
2651                 (pkt->pts - ic->streams[pkt->stream_index]->start_time) *
2652                 av_q2d(ic->streams[pkt->stream_index]->time_base) -
2653                 (double)(start_time != AV_NOPTS_VALUE ? start_time : 0) / 1000000
2654                 <= ((double)duration / 1000000);
2655         if (pkt->stream_index == is->audio_stream && pkt_in_play_range) {
2656             packet_queue_put(&is->audioq, pkt);
2657         } else if (pkt->stream_index == is->video_stream && pkt_in_play_range) {
2658             packet_queue_put(&is->videoq, pkt);
2659         } else if (pkt->stream_index == is->subtitle_stream && pkt_in_play_range) {
2660             packet_queue_put(&is->subtitleq, pkt);
2661         } else {
2662             av_free_packet(pkt);
2663         }
2664     }
2665     /* wait until the end */
2666     while (!is->abort_request) {
2667         SDL_Delay(100);
2668     }
2669
2670     ret = 0;
2671  fail:
2672     /* close each stream */
2673     if (is->audio_stream >= 0)
2674         stream_component_close(is, is->audio_stream);
2675     if (is->video_stream >= 0)
2676         stream_component_close(is, is->video_stream);
2677     if (is->subtitle_stream >= 0)
2678         stream_component_close(is, is->subtitle_stream);
2679     if (is->ic) {
2680         avformat_close_input(&is->ic);
2681     }
2682
2683     if (ret != 0) {
2684         SDL_Event event;
2685
2686         event.type = FF_QUIT_EVENT;
2687         event.user.data1 = is;
2688         SDL_PushEvent(&event);
2689     }
2690     return 0;
2691 }
2692
2693 static VideoState *stream_open(const char *filename, AVInputFormat *iformat)
2694 {
2695     VideoState *is;
2696
2697     is = av_mallocz(sizeof(VideoState));
2698     if (!is)
2699         return NULL;
2700     av_strlcpy(is->filename, filename, sizeof(is->filename));
2701     is->iformat = iformat;
2702     is->ytop    = 0;
2703     is->xleft   = 0;
2704
2705     /* start video display */
2706     is->pictq_mutex = SDL_CreateMutex();
2707     is->pictq_cond  = SDL_CreateCond();
2708
2709     is->subpq_mutex = SDL_CreateMutex();
2710     is->subpq_cond  = SDL_CreateCond();
2711
2712     is->av_sync_type = av_sync_type;
2713     is->read_tid     = SDL_CreateThread(read_thread, is);
2714     if (!is->read_tid) {
2715         av_free(is);
2716         return NULL;
2717     }
2718     return is;
2719 }
2720
2721 static void stream_cycle_channel(VideoState *is, int codec_type)
2722 {
2723     AVFormatContext *ic = is->ic;
2724     int start_index, stream_index;
2725     AVStream *st;
2726
2727     if (codec_type == AVMEDIA_TYPE_VIDEO)
2728         start_index = is->video_stream;
2729     else if (codec_type == AVMEDIA_TYPE_AUDIO)
2730         start_index = is->audio_stream;
2731     else
2732         start_index = is->subtitle_stream;
2733     if (start_index < (codec_type == AVMEDIA_TYPE_SUBTITLE ? -1 : 0))
2734         return;
2735     stream_index = start_index;
2736     for (;;) {
2737         if (++stream_index >= is->ic->nb_streams)
2738         {
2739             if (codec_type == AVMEDIA_TYPE_SUBTITLE)
2740             {
2741                 stream_index = -1;
2742                 goto the_end;
2743             } else
2744                 stream_index = 0;
2745         }
2746         if (stream_index == start_index)
2747             return;
2748         st = ic->streams[stream_index];
2749         if (st->codec->codec_type == codec_type) {
2750             /* check that parameters are OK */
2751             switch (codec_type) {
2752             case AVMEDIA_TYPE_AUDIO:
2753                 if (st->codec->sample_rate != 0 &&
2754                     st->codec->channels != 0)
2755                     goto the_end;
2756                 break;
2757             case AVMEDIA_TYPE_VIDEO:
2758             case AVMEDIA_TYPE_SUBTITLE:
2759                 goto the_end;
2760             default:
2761                 break;
2762             }
2763         }
2764     }
2765  the_end:
2766     stream_component_close(is, start_index);
2767     stream_component_open(is, stream_index);
2768 }
2769
2770
2771 static void toggle_full_screen(VideoState *is)
2772 {
2773     av_unused int i;
2774     is_full_screen = !is_full_screen;
2775 #if defined(__APPLE__) && SDL_VERSION_ATLEAST(1, 2, 14)
2776     /* OS X needs to reallocate the SDL overlays */
2777     for (i = 0; i < VIDEO_PICTURE_QUEUE_SIZE; i++) {
2778         is->pictq[i].reallocate = 1;
2779     }
2780 #endif
2781     video_open(is, 1);
2782 }
2783
2784 static void toggle_pause(VideoState *is)
2785 {
2786     stream_toggle_pause(is);
2787     is->step = 0;
2788 }
2789
2790 static void step_to_next_frame(VideoState *is)
2791 {
2792     /* if the stream is paused unpause it, then step */
2793     if (is->paused)
2794         stream_toggle_pause(is);
2795     is->step = 1;
2796 }
2797
2798 static void toggle_audio_display(VideoState *is)
2799 {
2800     int bgcolor = SDL_MapRGB(screen->format, 0x00, 0x00, 0x00);
2801     is->show_mode = (is->show_mode + 1) % SHOW_MODE_NB;
2802     fill_rectangle(screen,
2803                 is->xleft, is->ytop, is->width, is->height,
2804                 bgcolor);
2805     SDL_UpdateRect(screen, is->xleft, is->ytop, is->width, is->height);
2806 }
2807
2808 /* handle an event sent by the GUI */
2809 static void event_loop(VideoState *cur_stream)
2810 {
2811     SDL_Event event;
2812     double incr, pos, frac;
2813
2814     for (;;) {
2815         double x;
2816         SDL_WaitEvent(&event);
2817         switch (event.type) {
2818         case SDL_KEYDOWN:
2819             if (exit_on_keydown) {
2820                 do_exit(cur_stream);
2821                 break;
2822             }
2823             switch (event.key.keysym.sym) {
2824             case SDLK_ESCAPE:
2825             case SDLK_q:
2826                 do_exit(cur_stream);
2827                 break;
2828             case SDLK_f:
2829                 toggle_full_screen(cur_stream);
2830                 break;
2831             case SDLK_p:
2832             case SDLK_SPACE:
2833                 toggle_pause(cur_stream);
2834                 break;
2835             case SDLK_s: // S: Step to next frame
2836                 step_to_next_frame(cur_stream);
2837                 break;
2838             case SDLK_a:
2839                 stream_cycle_channel(cur_stream, AVMEDIA_TYPE_AUDIO);
2840                 break;
2841             case SDLK_v:
2842                 stream_cycle_channel(cur_stream, AVMEDIA_TYPE_VIDEO);
2843                 break;
2844             case SDLK_t:
2845                 stream_cycle_channel(cur_stream, AVMEDIA_TYPE_SUBTITLE);
2846                 break;
2847             case SDLK_w:
2848                 toggle_audio_display(cur_stream);
2849                 break;
2850             case SDLK_PAGEUP:
2851                 incr = 600.0;
2852                 goto do_seek;
2853             case SDLK_PAGEDOWN:
2854                 incr = -600.0;
2855                 goto do_seek;
2856             case SDLK_LEFT:
2857                 incr = -10.0;
2858                 goto do_seek;
2859             case SDLK_RIGHT:
2860                 incr = 10.0;
2861                 goto do_seek;
2862             case SDLK_UP:
2863                 incr = 60.0;
2864                 goto do_seek;
2865             case SDLK_DOWN:
2866                 incr = -60.0;
2867             do_seek:
2868                     if (seek_by_bytes) {
2869                         if (cur_stream->video_stream >= 0 && cur_stream->video_current_pos >= 0) {
2870                             pos = cur_stream->video_current_pos;
2871                         } else if (cur_stream->audio_stream >= 0 && cur_stream->audio_pkt.pos >= 0) {
2872                             pos = cur_stream->audio_pkt.pos;
2873                         } else
2874                             pos = avio_tell(cur_stream->ic->pb);
2875                         if (cur_stream->ic->bit_rate)
2876                             incr *= cur_stream->ic->bit_rate / 8.0;
2877                         else
2878                             incr *= 180000.0;
2879                         pos += incr;
2880                         stream_seek(cur_stream, pos, incr, 1);
2881                     } else {
2882                         pos = get_master_clock(cur_stream);
2883                         pos += incr;
2884                         stream_seek(cur_stream, (int64_t)(pos * AV_TIME_BASE), (int64_t)(incr * AV_TIME_BASE), 0);
2885                     }
2886                 break;
2887             default:
2888                 break;
2889             }
2890             break;
2891         case SDL_MOUSEBUTTONDOWN:
2892             if (exit_on_mousedown) {
2893                 do_exit(cur_stream);
2894                 break;
2895             }
2896         case SDL_MOUSEMOTION:
2897             if (event.type == SDL_MOUSEBUTTONDOWN) {
2898                 x = event.button.x;
2899             } else {
2900                 if (event.motion.state != SDL_PRESSED)
2901                     break;
2902                 x = event.motion.x;
2903             }
2904                 if (seek_by_bytes || cur_stream->ic->duration <= 0) {
2905                     uint64_t size =  avio_size(cur_stream->ic->pb);
2906                     stream_seek(cur_stream, size*x/cur_stream->width, 0, 1);
2907                 } else {
2908                     int64_t ts;
2909                     int ns, hh, mm, ss;
2910                     int tns, thh, tmm, tss;
2911                     tns  = cur_stream->ic->duration / 1000000LL;
2912                     thh  = tns / 3600;
2913                     tmm  = (tns % 3600) / 60;
2914                     tss  = (tns % 60);
2915                     frac = x / cur_stream->width;
2916                     ns   = frac * tns;
2917                     hh   = ns / 3600;
2918                     mm   = (ns % 3600) / 60;
2919                     ss   = (ns % 60);
2920                     fprintf(stderr, "Seek to %2.0f%% (%2d:%02d:%02d) of total duration (%2d:%02d:%02d)       \n", frac*100,
2921                             hh, mm, ss, thh, tmm, tss);
2922                     ts = frac * cur_stream->ic->duration;
2923                     if (cur_stream->ic->start_time != AV_NOPTS_VALUE)
2924                         ts += cur_stream->ic->start_time;
2925                     stream_seek(cur_stream, ts, 0, 0);
2926                 }
2927             break;
2928         case SDL_VIDEORESIZE:
2929                 screen = SDL_SetVideoMode(event.resize.w, event.resize.h, 0,
2930                                           SDL_HWSURFACE|SDL_RESIZABLE|SDL_ASYNCBLIT|SDL_HWACCEL);
2931                 screen_width  = cur_stream->width  = event.resize.w;
2932                 screen_height = cur_stream->height = event.resize.h;
2933             break;
2934         case SDL_QUIT:
2935         case FF_QUIT_EVENT:
2936             do_exit(cur_stream);
2937             break;
2938         case FF_ALLOC_EVENT:
2939             video_open(event.user.data1, 0);
2940             alloc_picture(event.user.data1);
2941             break;
2942         case FF_REFRESH_EVENT:
2943             video_refresh(event.user.data1);
2944             cur_stream->refresh = 0;
2945             break;
2946         default:
2947             break;
2948         }
2949     }
2950 }
2951
2952 static int opt_frame_size(const char *opt, const char *arg)
2953 {
2954     av_log(NULL, AV_LOG_WARNING, "Option -s is deprecated, use -video_size.\n");
2955     return opt_default("video_size", arg);
2956 }
2957
2958 static int opt_width(const char *opt, const char *arg)
2959 {
2960     screen_width = parse_number_or_die(opt, arg, OPT_INT64, 1, INT_MAX);
2961     return 0;
2962 }
2963
2964 static int opt_height(const char *opt, const char *arg)
2965 {
2966     screen_height = parse_number_or_die(opt, arg, OPT_INT64, 1, INT_MAX);
2967     return 0;
2968 }
2969
2970 static int opt_format(const char *opt, const char *arg)
2971 {
2972     file_iformat = av_find_input_format(arg);
2973     if (!file_iformat) {
2974         fprintf(stderr, "Unknown input format: %s\n", arg);
2975         return AVERROR(EINVAL);
2976     }
2977     return 0;
2978 }
2979
2980 static int opt_frame_pix_fmt(const char *opt, const char *arg)
2981 {
2982     av_log(NULL, AV_LOG_WARNING, "Option -pix_fmt is deprecated, use -pixel_format.\n");
2983     return opt_default("pixel_format", arg);
2984 }
2985
2986 static int opt_sync(const char *opt, const char *arg)
2987 {
2988     if (!strcmp(arg, "audio"))
2989         av_sync_type = AV_SYNC_AUDIO_MASTER;
2990     else if (!strcmp(arg, "video"))
2991         av_sync_type = AV_SYNC_VIDEO_MASTER;
2992     else if (!strcmp(arg, "ext"))
2993         av_sync_type = AV_SYNC_EXTERNAL_CLOCK;
2994     else {
2995         fprintf(stderr, "Unknown value for %s: %s\n", opt, arg);
2996         exit(1);
2997     }
2998     return 0;
2999 }
3000
3001 static int opt_seek(const char *opt, const char *arg)
3002 {
3003     start_time = parse_time_or_die(opt, arg, 1);
3004     return 0;
3005 }
3006
3007 static int opt_duration(const char *opt, const char *arg)
3008 {
3009     duration = parse_time_or_die(opt, arg, 1);
3010     return 0;
3011 }
3012
3013 static int opt_show_mode(const char *opt, const char *arg)
3014 {
3015     show_mode = !strcmp(arg, "video") ? SHOW_MODE_VIDEO :
3016                 !strcmp(arg, "waves") ? SHOW_MODE_WAVES :
3017                 !strcmp(arg, "rdft" ) ? SHOW_MODE_RDFT  :
3018                 parse_number_or_die(opt, arg, OPT_INT, 0, SHOW_MODE_NB-1);
3019     return 0;
3020 }
3021
3022 static void opt_input_file(void *optctx, const char *filename)
3023 {
3024     if (input_filename) {
3025         fprintf(stderr, "Argument '%s' provided as input filename, but '%s' was already specified.\n",
3026                 filename, input_filename);
3027         exit_program(1);
3028     }
3029     if (!strcmp(filename, "-"))
3030         filename = "pipe:";
3031     input_filename = filename;
3032 }
3033
3034 static int opt_codec(void *o, const char *opt, const char *arg)
3035 {
3036     switch(opt[strlen(opt)-1]){
3037     case 'a' :    audio_codec_name = arg; break;
3038     case 's' : subtitle_codec_name = arg; break;
3039     case 'v' :    video_codec_name = arg; break;
3040     }
3041     return 0;
3042 }
3043
3044 static int dummy;
3045
3046 static const OptionDef options[] = {
3047 #include "cmdutils_common_opts.h"
3048     { "x", HAS_ARG, { (void*)opt_width }, "force displayed width", "width" },
3049     { "y", HAS_ARG, { (void*)opt_height }, "force displayed height", "height" },
3050     { "s", HAS_ARG | OPT_VIDEO, { (void*)opt_frame_size }, "set frame size (WxH or abbreviation)", "size" },
3051     { "fs", OPT_BOOL, { (void*)&is_full_screen }, "force full screen" },
3052     { "an", OPT_BOOL, { (void*)&audio_disable }, "disable audio" },
3053     { "vn", OPT_BOOL, { (void*)&video_disable }, "disable video" },
3054     { "ast", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&wanted_stream[AVMEDIA_TYPE_AUDIO] }, "select desired audio stream", "stream_number" },
3055     { "vst", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&wanted_stream[AVMEDIA_TYPE_VIDEO] }, "select desired video stream", "stream_number" },
3056     { "sst", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&wanted_stream[AVMEDIA_TYPE_SUBTITLE] }, "select desired subtitle stream", "stream_number" },
3057     { "ss", HAS_ARG, { (void*)&opt_seek }, "seek to a given position in seconds", "pos" },
3058     { "t", HAS_ARG, { (void*)&opt_duration }, "play  \"duration\" seconds of audio/video", "duration" },
3059     { "bytes", OPT_INT | HAS_ARG, { (void*)&seek_by_bytes }, "seek by bytes 0=off 1=on -1=auto", "val" },
3060     { "nodisp", OPT_BOOL, { (void*)&display_disable }, "disable graphical display" },
3061     { "f", HAS_ARG, { (void*)opt_format }, "force format", "fmt" },
3062     { "pix_fmt", HAS_ARG | OPT_EXPERT | OPT_VIDEO, { (void*)opt_frame_pix_fmt }, "set pixel format", "format" },
3063     { "stats", OPT_BOOL | OPT_EXPERT, { (void*)&show_status }, "show status", "" },
3064     { "bug", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&workaround_bugs }, "workaround bugs", "" },
3065     { "fast", OPT_BOOL | OPT_EXPERT, { (void*)&fast }, "non spec compliant optimizations", "" },
3066     { "genpts", OPT_BOOL | OPT_EXPERT, { (void*)&genpts }, "generate pts", "" },
3067     { "drp", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&decoder_reorder_pts }, "let decoder reorder pts 0=off 1=on -1=auto", ""},
3068     { "lowres", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&lowres }, "", "" },
3069     { "skiploop", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&skip_loop_filter }, "", "" },
3070     { "skipframe", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&skip_frame }, "", "" },
3071     { "skipidct", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&skip_idct }, "", "" },
3072     { "idct", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&idct }, "set idct algo",  "algo" },
3073     { "ec", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&error_concealment }, "set error concealment options",  "bit_mask" },
3074     { "sync", HAS_ARG | OPT_EXPERT, { (void*)opt_sync }, "set audio-video sync. type (type=audio/video/ext)", "type" },
3075     { "autoexit", OPT_BOOL | OPT_EXPERT, { (void*)&autoexit }, "exit at the end", "" },
3076     { "exitonkeydown", OPT_BOOL | OPT_EXPERT, { (void*)&exit_on_keydown }, "exit on key down", "" },
3077     { "exitonmousedown", OPT_BOOL | OPT_EXPERT, { (void*)&exit_on_mousedown }, "exit on mouse down", "" },
3078     { "loop", OPT_INT | HAS_ARG | OPT_EXPERT, { (void*)&loop }, "set number of times the playback shall be looped", "loop count" },
3079     { "framedrop", OPT_BOOL | OPT_EXPERT, { (void*)&framedrop }, "drop frames when cpu is too slow", "" },
3080     { "window_title", OPT_STRING | HAS_ARG, { (void*)&window_title }, "set window title", "window title" },
3081 #if CONFIG_AVFILTER
3082     { "vf", OPT_STRING | HAS_ARG, { (void*)&vfilters }, "video filters", "filter list" },
3083 #endif
3084     { "rdftspeed", OPT_INT | HAS_ARG| OPT_AUDIO | OPT_EXPERT, { (void*)&rdftspeed }, "rdft speed", "msecs" },
3085     { "showmode", HAS_ARG, {(void*)opt_show_mode}, "select show mode (0 = video, 1 = waves, 2 = RDFT)", "mode" },
3086     { "default", HAS_ARG | OPT_AUDIO | OPT_VIDEO | OPT_EXPERT, { (void*)opt_default }, "generic catch all option", "" },
3087     { "i", OPT_BOOL, {(void *)&dummy}, "read specified file", "input_file"},
3088     { "codec", HAS_ARG | OPT_FUNC2, {(void*)opt_codec}, "force decoder", "decoder" },
3089     { NULL, },
3090 };
3091
3092 static void show_usage(void)
3093 {
3094     av_log(NULL, AV_LOG_INFO, "Simple media player\n");
3095     av_log(NULL, AV_LOG_INFO, "usage: %s [options] input_file\n", program_name);
3096     av_log(NULL, AV_LOG_INFO, "\n");
3097 }
3098
3099 static int opt_help(const char *opt, const char *arg)
3100 {
3101     av_log_set_callback(log_callback_help);
3102     show_usage();
3103     show_help_options(options, "Main options:\n",
3104                       OPT_EXPERT, 0);
3105     show_help_options(options, "\nAdvanced options:\n",
3106                       OPT_EXPERT, OPT_EXPERT);
3107     printf("\n");
3108     show_help_children(avcodec_get_class(), AV_OPT_FLAG_DECODING_PARAM);
3109     show_help_children(avformat_get_class(), AV_OPT_FLAG_DECODING_PARAM);
3110 #if !CONFIG_AVFILTER
3111     show_help_children(sws_get_class(), AV_OPT_FLAG_ENCODING_PARAM);
3112 #endif
3113     printf("\nWhile playing:\n"
3114            "q, ESC              quit\n"
3115            "f                   toggle full screen\n"
3116            "p, SPC              pause\n"
3117            "a                   cycle audio channel\n"
3118            "v                   cycle video channel\n"
3119            "t                   cycle subtitle channel\n"
3120            "w                   show audio waves\n"
3121            "s                   activate frame-step mode\n"
3122            "left/right          seek backward/forward 10 seconds\n"
3123            "down/up             seek backward/forward 1 minute\n"
3124            "page down/page up   seek backward/forward 10 minutes\n"
3125            "mouse click         seek to percentage in file corresponding to fraction of width\n"
3126            );
3127     return 0;
3128 }
3129
3130 static int lockmgr(void **mtx, enum AVLockOp op)
3131 {
3132    switch(op) {
3133       case AV_LOCK_CREATE:
3134           *mtx = SDL_CreateMutex();
3135           if(!*mtx)
3136               return 1;
3137           return 0;
3138       case AV_LOCK_OBTAIN:
3139           return !!SDL_LockMutex(*mtx);
3140       case AV_LOCK_RELEASE:
3141           return !!SDL_UnlockMutex(*mtx);
3142       case AV_LOCK_DESTROY:
3143           SDL_DestroyMutex(*mtx);
3144           return 0;
3145    }
3146    return 1;
3147 }
3148
3149 /* Called from the main */
3150 int main(int argc, char **argv)
3151 {
3152     int flags;
3153     VideoState *is;
3154
3155     av_log_set_flags(AV_LOG_SKIP_REPEATED);
3156     parse_loglevel(argc, argv, options);
3157
3158     /* register all codecs, demux and protocols */
3159     avcodec_register_all();
3160 #if CONFIG_AVDEVICE
3161     avdevice_register_all();
3162 #endif
3163 #if CONFIG_AVFILTER
3164     avfilter_register_all();
3165 #endif
3166     av_register_all();
3167     avformat_network_init();
3168
3169     init_opts();
3170
3171     signal(SIGINT , sigterm_handler); /* Interrupt (ANSI).    */
3172     signal(SIGTERM, sigterm_handler); /* Termination (ANSI).  */
3173
3174     show_banner(argc, argv, options);
3175
3176     parse_options(NULL, argc, argv, options, opt_input_file);
3177
3178     if (!input_filename) {
3179         show_usage();
3180         fprintf(stderr, "An input file must be specified\n");
3181         fprintf(stderr, "Use -h to get full help or, even better, run 'man %s'\n", program_name);
3182         exit(1);
3183     }
3184
3185     if (display_disable) {
3186         video_disable = 1;
3187     }
3188     flags = SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER;
3189     if (audio_disable)
3190         flags &= ~SDL_INIT_AUDIO;
3191 #if !defined(__MINGW32__) && !defined(__APPLE__)
3192     flags |= SDL_INIT_EVENTTHREAD; /* Not supported on Windows or Mac OS X */
3193 #endif
3194     if (SDL_Init (flags)) {
3195         fprintf(stderr, "Could not initialize SDL - %s\n", SDL_GetError());
3196         fprintf(stderr, "(Did you set the DISPLAY variable?)\n");
3197         exit(1);
3198     }
3199
3200     if (!display_disable) {
3201 #if HAVE_SDL_VIDEO_SIZE
3202         const SDL_VideoInfo *vi = SDL_GetVideoInfo();
3203         fs_screen_width = vi->current_w;
3204         fs_screen_height = vi->current_h;
3205 #endif
3206     }
3207
3208     SDL_EventState(SDL_ACTIVEEVENT, SDL_IGNORE);
3209     SDL_EventState(SDL_SYSWMEVENT, SDL_IGNORE);
3210     SDL_EventState(SDL_USEREVENT, SDL_IGNORE);
3211
3212     if (av_lockmgr_register(lockmgr)) {
3213         fprintf(stderr, "Could not initialize lock manager!\n");
3214         do_exit(NULL);
3215     }
3216
3217     av_init_packet(&flush_pkt);
3218     flush_pkt.data = "FLUSH";
3219
3220     is = stream_open(input_filename, file_iformat);
3221     if (!is) {
3222         fprintf(stderr, "Failed to initialize VideoState!\n");
3223         do_exit(NULL);
3224     }
3225
3226     event_loop(is);
3227
3228     /* never returns */
3229
3230     return 0;
3231 }