硬盘录像机rtsp是什么 求解 求详细使用方法
RTSP(Real Time Streaming Protocol),实时流传输协议,是TCP/IP协议体系中的一个应用层协议
在海康系列录像机用做流媒体内容传送。
利用流媒体服务器进行监控内容转发。
Linux下利用gnump3d架设流媒体服务器
库文件被安装到:/usr/lib/perl5/586/gnump3d目录
man被安装到:
/usr/man/man1/gnump3d1
/usr/man/man1/gnump3d-index1
/usr/man/man1/gnump3d-top1
/usr/man/man1/gnump3dconf1
3、配置
gnump3d的配置文件被存放在/etc/gnump3d/gnump3dconf ,我们可以对配置文件进行修改。
gnump3d的themes被存放在/usr/share/gnump3d/目录中,所以要想换theme,可以在 gnump3dconf中指定。
媒体文件存放在目录gnump3dconf中,是/home/mp3 ,您也可以改为您媒体文件的目录,或者在/home中建一个mp3目录,把所有的媒体文件拷过去。
4、运行gnump3d流媒体服务器
[root@localhost gnump3d-295]# gnump3d&
或
[root@localhost gnump3d-295]# gnump3d2&
5、访问gnump3d流媒体服务器
访问地址是:http://localhost:8888/ ,您也可以让局域网的其它电脑来访问,当然要把localhost改为您的机器的IP地址,举例来说,如果您的流媒体服务器所在电脑的IP是19216816 ,那么,局域网访问地址应该是:
http://19216816:8888
对属性的配置页面:
http://localhost:8888/prefs/
6、汉化theme让界面变成中文
海康流媒体服务器转发出来的rtsp流不是标准的,不用使用vlc/real player等播放。海康的H264不是标准的,文件头中有hk自己添加的字段。网络摄像设备只能用hk的自己的API访问。
live555库本身实现了做rtsp服务器,客户端可以通过rtsp客户端访问服务器上的文件并播放,支持的文件格式如下:
本次任务实现了把live555移植到嵌入式海思芯片hi3516上做rtsp服务器,除了支持客户端播放服务器上上面格式文件外,另添加了实时播放hi3516摄像头图像与音频的功能。
live555源码目录如下:
四个基本的库分别是:BasicUsageEnvironment, groupsock, liveMedia和UsageEnvironment。
编译后即生成这4个库文件:
这里我只简单说下liveMedia库的功能,其他三个库是live555运行的基础库,太(mei)简(yan)单(jiu),就不说了。
liveMedia库包含了音视频相关的所有功能,包含音视频文件的解析,RTP传输封装等,我们可以看到这个目录下有对h264、AAC等文件解析的支持:
交叉编译过程:略
这里我主要是修改mediaServer文件夹下的示例程序,添加实时预览摄像头图像与mic声音功能。
hi3516芯片,视频编码格式为h264,音频编码格式为AAC。
1添加音频AAC支持
添加类 ADTSAudioLiveSource ,继承自FramedSource
在该类的doGetNextFrame函数里实现获取hi3516音频数据做为rtsp服务器音频源。
注意点:
11 adts默认是带7字节或者9字节的头,传给rtsp的时候是要去掉头的,实际上RTSP通过rtp传输AAC帧的时候是不带adts头的,而是带4个字节的mpeg4-generic头。
12 从FramedSource继承而来的变量
每次doGetNextFrame帧时,从FIFO里取一个完整的AAC帧,把帧拷贝到fTo buf里面,然后比较帧大小与fMaxSize来赋值几个关键的变量:
注意,不管帧长是否大于fMaxSize,每次都需要把完整的帧拷贝到fTo指针,live555内部会根据fNumTruncatedBytes等变量自行处理分包。
13 doGetNextFrame函数最后不管有没有取到帧,都需要执行FramedSource::afterGetting
14 采样率,通道数,configstr等的计算
这几个变量在mediaSubbsession建立RTPsink时要用到,它直接影响了SDP里对于AAC音频描述字段的产生
添加类 AACAudioLiveServerMediaSubsession ,继承自ADTSAudioFileServerMediaSubsession
createNewStreamSource函数创建上面的ADTSAudioLiveSource做为音频输入源,参数estBitrate为预估的码率,海思AAC编码码率设置为24kbps,所以estBitrate设置为24
createNewRTPSink有必要继承,因为需要根据音频源的采样率、通道数等创建RTPSink
2添加h264支持
添加 H264FramedLiveSource ,继承自FramedSource
unsigned maxFrameSize()函数必须继承,里面设置帧最大可能的大小,我设置为100000,如果不继承就是默认的,会出现画面马赛克
doGetNextFrame函数里面和AAC取帧的处理差不多,我加多了一个步骤,就是第一次取帧的时候会调用接口去产生一个关键帧,并且等待这个关键帧到来才处理,这样连接后出图会比较快。
添加类 H264VideoLiveServerMediaSubsession ,继承自H264VideoFileServerMediaSubsession
这个类就是实现createNewStreamSource时创建H264FramedLiveSource
3修改DynamicRTSPServer
修改类DynamicRTSPServer,在lookupServerMediaSession函数里动点手脚,默认在这个函数里面会根据文件名去寻找服务器下相应的文件做为直播源,我这里比较如果是我特定的live源名字则直接返回,相应的live源创建rtsp服务器的时候就添加好
4初始化rtsp server
初始化rtsp服务器,添加一个ServerMediaSession,该mediaSession添加一个AACAudioLiveServerMediaSubsession和一个H264VideoLiveServerMediaSubsession,然后把该mediaSession添加给rtsp服务器。
客户端访问 rtsp://xxxx/ch0live 时就可以看到实时的摄像头图像与声音啦!
0条评论