OSDN Git Service

274314e02924ac86c36d707f816e48653bce223f
[handbrake-jp/handbrake-jp-git.git] / libhb / render.c
1 /* $Id: render.c,v 1.17 2005/04/14 17:37:54 titer Exp $
2
3    This file is part of the HandBrake source code.
4    Homepage: <http://handbrake.m0k.org/>.
5    It may be used under the terms of the GNU General Public License. */
6
7 #include "hb.h"
8
9 #include "ffmpeg/avcodec.h"
10 #include "ffmpeg/swscale.h"
11
12 struct hb_work_private_s
13 {
14     hb_job_t * job;
15
16     struct SwsContext  * context;
17     AVPicture            pic_tmp_in;
18     AVPicture            pic_tmp_crop;
19     AVPicture            pic_tmp_out;        
20     hb_buffer_t        * buf_scale;
21     hb_fifo_t          * subtitle_queue;
22     hb_fifo_t          * delay_queue;
23     int                  frames_to_extend;
24     int                  dropped_frames;
25     int                  extended_frames;
26     uint64_t             last_start[4];
27     uint64_t             last_stop[4];
28 };
29
30 int  renderInit( hb_work_object_t *, hb_job_t * );
31 int  renderWork( hb_work_object_t *, hb_buffer_t **, hb_buffer_t ** );
32 void renderClose( hb_work_object_t * );
33
34 hb_work_object_t hb_render =
35 {   
36     WORK_RENDER,
37     "Renderer",
38     renderInit,
39     renderWork,
40     renderClose
41 };
42
43 /*
44  * getU() & getV()
45  *
46  * Utility function that finds where the U is in the YUV sub-picture
47  *
48  * The Y data is at the top, followed by U and V, but the U and V
49  * are half the width of the Y, i.e. each chroma element covers 2x2
50  * of the Y's.
51  */
52 static uint8_t *getU(uint8_t *data, int width, int height, int x, int y)
53 {
54     return(&data[(((y/2) * (width/2)) + (x/2)) + (width*height)]);
55 }
56
57 static uint8_t *getV(uint8_t *data, int width, int height, int x, int y)
58 {
59     return(&data[(((y/2) * (width/2)) + (x/2)) + (width*height) + 
60                  (width*height)/4]);
61 }
62
63 static void ApplySub( hb_job_t * job, hb_buffer_t * buf,
64                       hb_buffer_t ** _sub )
65 {
66     hb_buffer_t * sub = *_sub;
67     hb_title_t * title = job->title;
68     int i, j, offset_top, offset_left;
69     uint8_t * lum, * alpha, * out, * sub_chromaU, * sub_chromaV;
70
71     if( !sub )
72     {
73         return;
74     }
75
76     /* If necessary, move the subtitle so it is not in a cropped zone.
77        When it won't fit, we center it so we loose as much on both ends.
78        Otherwise we try to leave a 20px margin around it. */
79
80     if( sub->height > title->height - job->crop[0] - job->crop[1] - 40 )
81         offset_top = job->crop[0] + ( title->height - job->crop[0] -
82                 job->crop[1] - sub->height ) / 2;
83     else if( sub->y < job->crop[0] + 20 )
84         offset_top = job->crop[0] + 20;
85     else if( sub->y > title->height - job->crop[1] - 20 - sub->height )
86         offset_top = title->height - job->crop[1] - 20 - sub->height;
87     else
88         offset_top = sub->y;
89
90     if( sub->width > title->width - job->crop[2] - job->crop[3] - 40 )
91         offset_left = job->crop[2] + ( title->width - job->crop[2] -
92                 job->crop[3] - sub->width ) / 2;
93     else if( sub->x < job->crop[2] + 20 )
94         offset_left = job->crop[2] + 20;
95     else if( sub->x > title->width - job->crop[3] - 20 - sub->width )
96         offset_left = title->width - job->crop[3] - 20 - sub->width;
97     else
98         offset_left = sub->x;
99
100     lum   = sub->data;
101     alpha = lum + sub->width * sub->height;
102     sub_chromaU = alpha + sub->width * sub->height;
103     sub_chromaV = sub_chromaU + sub->width * sub->height;
104
105     out   = buf->data + offset_top * title->width + offset_left;
106
107     for( i = 0; i < sub->height; i++ )
108     {
109         if( offset_top + i >= 0 && offset_top + i < title->height )
110         {
111             for( j = 0; j < sub->width; j++ )
112             {
113                 if( offset_left + j >= 0 && offset_left + j < title->width )
114                 {
115                     uint8_t *chromaU, *chromaV;
116
117                     /*
118                      * Merge the luminance and alpha with the picture
119                      */
120                     out[j] = ( (uint16_t) out[j] * ( 16 - (uint16_t) alpha[j] ) +
121                                (uint16_t) lum[j] * (uint16_t) alpha[j] ) >> 4;   
122                     /*
123                      * Set the chroma (colour) based on whether there is
124                      * any alpha at all. Don't try to blend with the picture.
125                      */
126                     chromaU = getU(buf->data, title->width, title->height,
127                                    offset_left+j, offset_top+i);
128                     
129                     chromaV = getV(buf->data, title->width, title->height,
130                                    offset_left+j, offset_top+i);
131                     
132                     if( alpha[j] > 0 )
133                     {
134                         /*
135                          * Add the chroma from the sub-picture, as this is 
136                          * not a transparent element.
137                          */
138                         *chromaU = sub_chromaU[j];
139                         *chromaV = sub_chromaV[j];
140                     } 
141                 }
142             }
143         }
144
145         lum   += sub->width;
146         alpha += sub->width;
147         sub_chromaU += sub->width;
148         sub_chromaV += sub->width;
149         out   += title->width;
150     }
151
152     hb_buffer_close( _sub );
153 }
154
155 int renderWork( hb_work_object_t * w, hb_buffer_t ** buf_in,
156                 hb_buffer_t ** buf_out )
157 {
158     hb_work_private_t * pv = w->private_data;
159     hb_job_t   * job   = pv->job;
160     hb_title_t * title = job->title;
161     hb_buffer_t * in = *buf_in, * buf_tmp_in = *buf_in;
162     hb_buffer_t * ivtc_buffer = NULL;
163     
164     if(!in->data)
165     {
166         /* If the input buffer is end of stream, send out an empty one
167          * to the next stage as well. Note that this will result in us
168          * losing the current contents of the delay queue.
169          */
170        *buf_out = hb_buffer_init(0);
171        return HB_WORK_OK;
172     }
173
174     /*
175      * During the indepth_scan ditch the buffers here before applying filters or attempting to
176      * use the subtitles.
177      */
178     if( job->indepth_scan )
179     {      
180         *buf_out = NULL;
181         return HB_WORK_OK;
182     }
183     
184     /* Push subtitles onto queue just in case we need to delay a frame */
185     if( in->sub )
186     {
187         hb_fifo_push( pv->subtitle_queue, in->sub );
188     }
189     else
190     {
191         hb_fifo_push( pv->subtitle_queue,  hb_buffer_init(0) );
192     }
193     
194     /* Setup render buffer */
195     hb_buffer_t * buf_render = hb_buffer_init( 3 * job->width * job->height / 2 );  
196     
197     /* Cache frame start and stop times, so we can renumber
198        time stamps if dropping frames for VFR.              */ 
199     int i;
200     for( i = 3; i >= 1; i-- )
201     {
202         pv->last_start[i] = pv->last_start[i-1];
203         pv->last_stop[i] = pv->last_stop[i-1];
204     }
205     pv->last_start[0] = in->start;
206     pv->last_stop[0] = in->stop;
207     
208     /* Apply filters */
209     if( job->filters )
210     {
211         int filter_count = hb_list_count( job->filters );
212         int i;
213         
214         for( i = 0; i < filter_count; i++ )
215         {
216             hb_filter_object_t * filter = hb_list_item( job->filters, i );
217             
218             if( !filter )
219             {
220                 continue;
221             }            
222             
223             hb_buffer_t * buf_tmp_out = NULL;
224             
225             int result = filter->work( buf_tmp_in,
226                                        &buf_tmp_out, 
227                                        PIX_FMT_YUV420P, 
228                                        title->width, 
229                                        title->height, 
230                                        filter->private_data );
231             
232             /* 
233              * FILTER_OK:      set temp buffer to filter buffer, continue 
234              * FILTER_DELAY:   set temp buffer to NULL, abort 
235              * FILTER_DROP:    set temp buffer to NULL, pop subtitle, abort 
236              * FILTER_FAILED:  leave temp buffer alone, continue 
237              */
238             if( result == FILTER_OK )
239             {
240                 buf_tmp_in = buf_tmp_out;
241             }
242             else if( result == FILTER_DELAY )
243             {
244                 buf_tmp_in = NULL;
245                 break;
246             }            
247             else if( result == FILTER_DROP )
248             {
249                 hb_fifo_get( pv->subtitle_queue );
250                 buf_tmp_in = NULL;
251                 if( job->vfr )
252                 {
253                     pv->frames_to_extend += 4;
254                     pv->dropped_frames++;
255                 }
256                 break;
257             }
258         }
259     }   
260         
261     /* Apply subtitles */
262     if( buf_tmp_in )
263     {
264         hb_buffer_t * subtitles = hb_fifo_get( pv->subtitle_queue );        
265         if( subtitles )
266         {
267             ApplySub( job, buf_tmp_in, &subtitles );
268         }
269     }
270     
271     /* Apply crop/scale if specified */
272     if( buf_tmp_in && pv->context )
273     {
274         avpicture_fill( &pv->pic_tmp_in, buf_tmp_in->data, 
275                         PIX_FMT_YUV420P,
276                         title->width, title->height );
277         
278         avpicture_fill( &pv->pic_tmp_out, buf_render->data, 
279                         PIX_FMT_YUV420P,
280                         job->width, job->height );
281
282         // Crop; this alters the pointer to the data to point to the correct place for cropped frame
283         av_picture_crop( &pv->pic_tmp_crop, &pv->pic_tmp_in, PIX_FMT_YUV420P,
284                          job->crop[0], job->crop[2] );
285
286         // Scale pic_crop into pic_render according to the context set up in renderInit
287         sws_scale(pv->context,
288                   pv->pic_tmp_crop.data, pv->pic_tmp_crop.linesize,
289                   0, title->height - (job->crop[0] + job->crop[1]),
290                   pv->pic_tmp_out.data,  pv->pic_tmp_out.linesize);
291         
292         hb_buffer_copy_settings( buf_render, buf_tmp_in );
293         
294         buf_tmp_in = buf_render;
295     }  
296
297     /* Set output to render buffer */
298     (*buf_out) = buf_render;
299
300     if( buf_tmp_in == NULL )
301     {
302         /* Teardown and cleanup buffers if we are emitting NULL */
303         if( buf_in && *buf_in )
304         {
305             hb_buffer_close( buf_in );
306             *buf_in = NULL;
307         }        
308         if( buf_out && *buf_out )
309         {
310             hb_buffer_close( buf_out );        
311             *buf_out = NULL;
312         }
313     }
314     else if( buf_tmp_in != buf_render )
315     {    
316         /* Copy temporary results and settings into render buffer */
317         memcpy( buf_render->data, buf_tmp_in->data, buf_render->size );
318         hb_buffer_copy_settings( buf_render, buf_tmp_in );
319     }
320     
321     if (*buf_out)
322     {
323         hb_fifo_push( pv->delay_queue, *buf_out );
324         *buf_out = NULL;        
325     }
326
327     /*
328      * Keep the last three frames in our queue, this ensures that we have the last
329      * two always in there should we need to rewrite the durations on them.
330      */
331     if( hb_fifo_size( pv->delay_queue ) >= 3 )
332     {
333         *buf_out = hb_fifo_get( pv->delay_queue );
334     } 
335
336     if( *buf_out )
337     {
338         if( pv->frames_to_extend )
339         {
340             /*
341              * A frame's been dropped by VFR detelecine.
342              * Gotta make up the lost time. This will also
343              * slow down the video to 23.976fps.
344              * The dropped frame ran for 3003 ticks, so
345              * divvy it up amongst the 4 frames left behind.
346              * This is what the delay_queue is for;
347              * telecined sequences start 2 frames before
348              * the dropped frame, so to slow down the right
349              * ones you need a 2 frame delay between
350              * reading input and writing output.
351              */
352             ivtc_buffer = *buf_out;
353             
354             /* The 4th cached frame will be the to use. */
355             ivtc_buffer->start = pv->last_start[3];
356             ivtc_buffer->stop = pv->last_stop[3];
357
358             if (pv->frames_to_extend % 4)
359                 ivtc_buffer->stop += 751;
360             else
361                 ivtc_buffer->stop += 750;
362             
363             /* Set the 3rd cached frame to start when this one stops,
364                and to stop 3003 ticks later -- a normal 29.97fps
365                length frame. If it needs to be extended as well to
366                make up lost time, it'll be handled on the next
367                loop through the renderer.                            */
368             pv->last_start[2] = ivtc_buffer->stop;
369             pv->last_stop[2] = ivtc_buffer->stop + 3003;
370             
371             pv->frames_to_extend--;
372             pv->extended_frames++;
373         }
374
375     }
376
377     return HB_WORK_OK;
378 }
379
380 void renderClose( hb_work_object_t * w )
381 {
382     hb_work_private_t * pv = w->private_data;   
383         
384     hb_log("render: dropped frames: %i (%i ticks)", pv->dropped_frames, (pv->dropped_frames * 3003) );
385     hb_log("render: extended frames: %i (%i ticks)", pv->extended_frames, ( ( pv->extended_frames / 4 ) * 3003 ) );
386     hb_log("render: Lost time: %i frames (%i ticks)", (pv->dropped_frames * 4) - (pv->extended_frames), (pv->dropped_frames * 3003) - ( ( pv->extended_frames / 4 ) * 3003 ) );
387
388     /* Cleanup subtitle queue */
389     if( pv->subtitle_queue )
390     {
391         hb_fifo_close( &pv->subtitle_queue );
392     }
393     
394     if( pv->delay_queue )
395     {
396         hb_fifo_close( &pv->delay_queue );
397     }
398    
399     /* Cleanup filters */
400     /* TODO: Move to work.c? */
401     if( pv->job->filters )
402     {
403         int filter_count = hb_list_count( pv->job->filters );
404         int i;
405         
406         for( i = 0; i < filter_count; i++ )
407         {
408             hb_filter_object_t * filter = hb_list_item( pv->job->filters, i );
409             
410             if( !filter ) continue;
411
412             filter->close( filter->private_data );
413         }
414         
415         hb_list_close( &pv->job->filters );
416     }    
417    
418     /* Cleanup render work structure */
419     free( pv );
420     w->private_data = NULL;    
421 }
422
423 int renderInit( hb_work_object_t * w, hb_job_t * job )
424 {   
425     /* Allocate new private work object */
426     hb_work_private_t * pv = calloc( 1, sizeof( hb_work_private_t ) );
427     pv->job = job;
428     w->private_data = pv;
429
430     /* Get title and title size */
431     hb_title_t * title = job->title;
432
433     /* If crop or scale is specified, setup rescale context */
434     if( job->crop[0] || job->crop[1] || job->crop[2] || job->crop[3] ||
435         job->width != title->width || job->height != title->height )
436     {
437         pv->context = sws_getContext(title->width  - (job->crop[2] + job->crop[3]),
438                                      title->height - (job->crop[0] + job->crop[1]),
439                                      PIX_FMT_YUV420P,
440                                      job->width, job->height, PIX_FMT_YUV420P,
441                                      (uint16_t)(SWS_LANCZOS|SWS_ACCURATE_RND), NULL, NULL, NULL);
442     }   
443     
444     /* Setup FIFO queue for subtitle cache */
445     pv->subtitle_queue = hb_fifo_init( 8 );    
446     pv->delay_queue = hb_fifo_init( 8 );
447     pv->frames_to_extend = 0;
448     pv->dropped_frames = 0;
449     pv->extended_frames = 0;
450     pv->last_start[0] = 0;
451     pv->last_stop[0] = 0;
452     
453     /* Setup filters */
454     /* TODO: Move to work.c? */
455     if( job->filters )
456     {
457         int filter_count = hb_list_count( job->filters );
458         int i;
459         
460         for( i = 0; i < filter_count; i++ )
461         {
462             hb_filter_object_t * filter = hb_list_item( job->filters, i );
463
464             if( !filter ) continue;
465             
466             filter->private_data = filter->init( PIX_FMT_YUV420P,
467                                                  title->width,
468                                                  title->height,
469                                                  filter->settings );
470         }
471     }
472     
473     return 0;
474 }