Chinaunix首页 | 论坛 | 博客
  • 博客访问: 9189926
  • 博文数量: 1728
  • 博客积分: 12961
  • 博客等级: 上将
  • 技术积分: 19870
  • 用 户 组: 普通用户
  • 注册时间: 2009-01-09 11:25
个人简介

偷得浮生半桶水(半日闲), 好记性不如抄下来(烂笔头). 信息爆炸的时代, 学习是一项持续的工作.

文章分类

全部博文(1728)

文章存档

2024年(4)

2023年(26)

2022年(112)

2021年(217)

2020年(157)

2019年(192)

2018年(81)

2017年(78)

2016年(70)

2015年(52)

2014年(40)

2013年(51)

2012年(85)

2011年(45)

2010年(231)

2009年(287)

分类: Android平台

2017-05-03 16:43:49

ffmpeg -re -i /video_test/zz.mp4 -c copy -f flv rtmp://192.168.46.11:2020/hls/film  可以把视频推送到rtmp服务上(例如nginx)

点击(此处)折叠或打开

  1. #!/bin/sh

  2. #ffmpeg -re -i /video_test/zz.mp4 -c copy -f flv rtmp://192.168.46.11:2020/live/film
  3. #ffmpeg -re -i /video_test/zz.mp4 -c copy -f flv rtmp://192.168.46.11:2020/hls/film
  4. #ffmpeg -re -loop 1 -i /video_test/1.jpg -f flv rtmp://192.168.46.11:2020/hls/film
  5. #ffmpeg -f rawvideo -pix_fmt rgb24 -s 320x240 -i /tmp/MyPipe -s 320x240 -f flv rtmp://192.168.46.11:2020/hls/film

  6. ffmpeg -hwaccel vdpau -hwaccel_device vdpau -f video4linux2 -s 640x480 -i /dev/video0 -vcodec libx264 -preset ultrafast -profile:v baseline -vlevel 3.0 -b:v 899k -r 15 -pix_fmt yuv420p -f flv rtmp://192.168.46.11:2020/hls/film
  7. #ffmpeg -r 25 -f video4linux2 -s 640x480 -i /dev/video0 -vcodec libx264 -preset ultrafast -pix_fmt yuv420p -b 60k -ab 128k -f flv rtmp://192.168.46.11:2020/hls/film

点击(此处)折叠或打开

  1. #include <unistd.h>
  2. #include <string.h>
  3. #include <stdio.h>
  4. #include <stdlib.h>
  5. #include <stdint.h>
  6. #include <errno.h>
  7. #include <sys/types.h>
  8. #include <sys/stat.h>
  9. #include <fcntl.h>

  10. #define MyPipe    "/tmp/MyPipe"

  11. int main(int argc, char **argv)
  12. {
  13.     int iret;

  14.     if (((iret=mkfifo(MyPipe, 0777))==-1) && (errno != EEXIST)) {
  15.         printf("FiFo failed.");
  16.         return -1;
  17.     }

  18.     int fd = open(MyPipe, O_WRONLY); //阻塞,知道 ffmpeg 打开pipe 为止.

  19.     unsigned char data[320*240*3];
  20.     unsigned char ivalue;
  21.     while (1) {
  22.         memset(data, ivalue++, sizeof(data));
  23.         write(fd, data, sizeof(data));
  24.         usleep(100000);
  25.         printf("%d.\n", ivalue);
  26.     }
  27.     return 0;
  28. }
这样既可以完成通过管道方式把视频流传递给ffmpeg, 完全利用ffmpeg的目前功能, 无须任何编码.







通过 GTK drawing_area + opencv Mat 可以显示从摄像头获取的每帧数据了, 那么想同时把每帧图像推送到 rmtp服务器上呢, 其实ffmpeg也是吧mp4中的每一帧取出来编码为flv然后送给RTMP服务器,那么编程需要查看 ffmpeg 的源代码,或者 参考官方范例 

跟踪官方示例使用 -loglevel 48, 参照代码,可以找到你所需要的一些参数的设置流程,精简ffmpeg.c代码,然后集成到用户程序中.

点击(此处)折叠或打开

  1. extern "C"
  2. {
  3. #include <libavcodec/avcodec.h>
  4. #include <libavformat/avformat.h>
  5. #include <libavfilter/avfiltergraph.h>
  6. #include <libavfilter/buffersink.h>
  7. #include <libavfilter/buffersrc.h>
  8. #include <libavutil/opt.h>
  9. #include <libavutil/pixdesc.h>
  10. }


点击(此处)折叠或打开

  1. INCDIR += `pkg-config --cflags libavcodec libavformat libavutil`
  2. LIBS += `pkg-config --libs libavcodec libavformat libavutil` -lavdevice -lavfilter -lswscale


http://www.cnblogs.com/youngt/p/3699689.html

http://blog.csdn.net/leixiaohua1020/article/details/12980423

ffmpeg一般情况下支持打开一个本地文件,例如“C:\test.avi”

或者是一个流媒体协议的URL,例如“rtmp://222.31.64.208/vod/test.flv”

其打开文件的函数是avformat_open_input(),直接将文件路径或者流媒体URL的字符串传递给该函数就可以了。

但其是否支持从内存中读取数据呢?这个问题困扰了我很长时间。当时在做项目的时候,通过Winpcap抓取网络上的RTP包,打算直接送给ffmpeg进行解码。一直没能找到合适的方法。因为抓取的数据包是存在内存中的,所以无法传递给avformat_open_input()函数其路径(根本没有路径= =)。当然也可以将抓取的数据报存成文件,然后用ffmpeg打开这个文件,但是这样的话,程序的就太难控制了。

后来经过分析ffmpeg的源代码,发现其竟然是可以从内存中读取数据的,代码很简单,如下所示:

1 AVFormatContext *ic = NULL; 2 ic = avformat_alloc_context();
1 unsigned char * iobuffer=(unsigned char *)av_malloc(32768); 2 AVIOContext *avio =avio_alloc_context(iobuffer, 32768,0,buffer,fill_iobuffer,NULL,NULL); 3 ic->pb=avio; 4 err = avformat_open_input(&ic, is->filename, is->iformat, &format_opts);

关键要在avformat_open_input()之前初始化一个AVIOContext,而且将原本的AVFormatContext的指针pb(AVIOContext类型)指向这个自行初始化AVIOContext。当自行指定了AVIOContext之后,avformat_open_input()里面的URL参数就不起作用了。示例代码开辟了一块空间iobuffer作为AVIOContext的缓存。


此外buffer就是期望读取数据的内存,fill_iobuffer则是读取buffer数据至iobuffer的回调函数。fill_iobuffer()形式(参数,返回值)是固定的,是一个回调函数,如下所示(只是个例子,具体怎么读取数据可以自行设计)。

复制代码
 1 //把数据从buffer向iobuf传-------------------------  2 //AVIOContext使用的回调函数!  3 //注意:返回值是读取的字节数  4 //手动初始化AVIOContext只需要两个东西:内容来源的buffer,和读取这个Buffer到FFmpeg中的函数  5 int fill_iobuffer(void * buffer,uint8_t *iobuf, int bufsize){  6 int i;  7 for(i=0;i){  8 iobuf[i]=mediabuf_get();  9  } 10 return i; 11 }
复制代码


http://blog.csdn.net/leixiaohua1020/article/details/12980423

从内存中读取/写入数据

更新记录(2014.7.24):

1.为了使本文更通俗易懂,更新了部分内容,将例子改为从内存中打开。

2.增加了将数据输出到内存的方法。


从内存中读取数据

ffmpeg一般情况下支持打开一个本地文件,例如“C:\test.avi”

或者是一个流媒体协议的URL,例如“rtmp://222.31.64.208/vod/test.flv”

其打开文件的函数是avformat_open_input(),直接将文件路径或者流媒体URL的字符串传递给该函数就可以了。

但其是否支持从内存中读取数据呢?这个问题困扰了我很长时间。当时在做项目的时候,通过Winpcap抓取网络上的RTP包,打算直接送给ffmpeg进行解码。一直没能找到合适的方法。因为抓取的数据包是存在内存中的,所以无法传递给avformat_open_input()函数其路径(根本没有路径= =)。当然也可以将抓取的数据报存成文件,然后用ffmpeg打开这个文件,但是这样的话,程序的就太难控制了。

后来经过分析ffmpeg的源代码,发现其竟然是可以从内存中读取数据的,代码很简单,如下所示:


[cpp] view plain copy
 在CODE上查看代码片派生到我的代码片
  1. AVFormatContext *ic = NULL;  
  2. ic = avformat_alloc_context();  


[cpp] view plain copy
 在CODE上查看代码片派生到我的代码片
  1. unsigned char * iobuffer=(unsigned char *)av_malloc(32768);  
  2. AVIOContext *avio =avio_alloc_context(iobuffer, 32768,0,NULL,fill_iobuffer,NULL,NULL);  
  3. ic->pb=avio;  
  4. err = avformat_open_input(&ic, "nothing", NULL, NULL);  

关键要在avformat_open_input()之前初始化一个AVIOContext,而且将原本的AVFormatContext的指针pb(AVIOContext类型)指向这个自行初始化AVIOContext。当自行指定了AVIOContext之后,avformat_open_input()里面的URL参数就不起作用了。示例代码开辟了一块空间iobuffer作为AVIOContext的缓存。


fill_iobuffer则是将数据读取至iobuffer的回调函数。fill_iobuffer()形式(参数,返回值)是固定的,是一个回调函数,如下所示(只是个例子,具体怎么读取数据可以自行设计)。示例中回调函数将文件中的内容通过fread()读入内存。


[cpp] view plain copy
 在CODE上查看代码片派生到我的代码片
  1. //读取数据的回调函数-------------------------  
  2. //AVIOContext使用的回调函数!  
  3. //注意:返回值是读取的字节数  
  4. //手动初始化AVIOContext只需要两个东西:内容来源的buffer,和读取这个Buffer到FFmpeg中的函数  
  5. //回调函数,功能就是:把buf_size字节数据送入buf即可  
  6. //第一个参数(void *opaque)一般情况下可以不用  
  7. int fill_iobuffer(void * opaque,uint8_t *buf, int bufsize){  
  8.     if(!feof(fp_open)){  
  9.         int true_size=fread(buf,1,buf_size,fp_open);  
  10.         return true_size;  
  11.     }else{  
  12.         return -1;  
  13.     }  
  14. }  



整体结构大致如下:



[cpp] view plain copy
 在CODE上查看代码片派生到我的代码片
  1. FILE *fp_open;  
  2.   
  3. int fill_iobuffer(void *opaque, uint8_t *buf, int buf_size){  
  4. ...  
  5. }  
  6.   
  7. int main(){  
  8.     ...  
  9.     fp_open=fopen("test.h264","rb+");  
  10.     AVFormatContext *ic = NULL;  
  11.     ic = avformat_alloc_context();  
  12.     unsigned char * iobuffer=(unsigned char *)av_malloc(32768);  
  13.     AVIOContext *avio =avio_alloc_context(iobuffer, 32768,0,NULL,fill_iobuffer,NULL,NULL);  
  14.     ic->pb=avio;  
  15.     err = avformat_open_input(&ic, "nothing", NULL, NULL);  
  16.     ...//解码  
  17. }  


将数据输出到内存


和从内存中读取数据类似,ffmpeg也可以将处理后的数据输出到内存。

回调函数如下示例,可以将输出到内存的数据写入到文件中。


[cpp] view plain copy
 在CODE上查看代码片派生到我的代码片
  1. //写文件的回调函数  
  2. int write_buffer(void *opaque, uint8_t *buf, int buf_size){  
  3.     if(!feof(fp_write)){  
  4.         int true_size=fwrite(buf,1,buf_size,fp_write);  
  5.         return true_size;  
  6.     }else{  
  7.         return -1;  
  8.     }  
  9. }  


主函数如下所示。


[cpp] view plain copy
 在CODE上查看代码片派生到我的代码片
  1. FILE *fp_write;  
  2.   
  3. int write_buffer(void *opaque, uint8_t *buf, int buf_size){  
  4. ...  
  5. }  
  6.   
  7. main(){  
  8.     ...  
  9.     fp_write=fopen("src01.h264","wb+"); //输出文件  
  10.     ...  
  11.     AVFormatContext* ofmt_ctx=NULL;  
  12.     avformat_alloc_output_context2(&ofmt_ctx, NULL, "h264", NULL);  
  13.     unsigned char* outbuffer=(unsigned char*)av_malloc(32768);  
  14.   
  15.     AVIOContext *avio_out =avio_alloc_context(outbuffer, 32768,0,NULL,NULL,write_buffer,NULL);    
  16.   
  17.     ofmt_ctx->pb=avio_out;   
  18.     ofmt_ctx->flags=AVFMT_FLAG_CUSTOM_IO;  
  19.     ...  
  20. }  





阅读(2273) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~