用DirectShow实现QQ的音视频聊天功能
2005-07-19 14:11作者:智慧的鱼出处:天极网责任编辑:方舟
当下比较流行的即时通信工具,比如MSN,QQ等都实现了视音频的功能,通过视频,音频,我们可以更好的和朋友通过网络进行沟通,本文通过DirectShow技术模拟QQ实现了视频和音频的采集,传输,基本实现了QQ的视音频聊天的功能。
网络视音频系统主要功能就在于视音频的采集,网络传输两个方面,通过Video Capture系列API函数,你就可以轻松的搞定视频捕捉,但是对于视频的网络传输,则要费一番功夫了。 对于视音频数据的传输,只简单地使用数据报套接字传输音视频数据是不可行的,还必须在UDP层上采用RTP(实时传输协议)和RTCP(实时传输控制协议)来改善服务质量。实时传输协议提供具有实时特征的、端到端的数据传输服务。我们在音视频数据前插入包含有载荷标识、序号、时间戳和同步源标识符的RTP包头,然后利用数据报套接字在IP网络上传输RTP包,以此改善连续重放效果和音视频同步。实时传输控制协议RTCP用于RTP的控制,它最基本的功能是利用发送者报告和接收者报告来推断网络的服务质量,若拥塞状况严重,则改用低速率编码标准或降低数据传输比特率,以减少网络负荷,提供较好的Q.S保证。
Directshow对于音视频的采集提供了很好的接口,利用ICaptureGraphBuilder2接口可以很轻松的建立起视频捕捉的graph图,通过枚举音频设备Filter,也可以很轻松的实现音频的捕捉,有点麻烦的是音视频数据的传输,我们可以自己封装RTP和RTCP的协议,来自己实现一个filter,用来发送和接收音视频数据,当然了Directshow也提供了一组支持使用RTP协议的网络传输多媒体流的Filters。你也完全可以用Directshow提供的RTP系列的filter实现数据的传输。
下面分析一下这些RTP Filters。
新定义的Filter包括 RTP Source Filter ,RTP Render Filter,RTP Demux Filter,RTP Receive Playload Handler (RPH) filter,RTP Send Payload (SPH) filter,使用这5个filter构建一个通过RTP协议传输音视频数据的Graph是没有问题的。
RTP Source filter被用来从一个单独的RTP会话中接收RTP和RTCP包。这个filter提供一个指定发送给其它主机RTCP接收器报告和指定网络地址和端口接口来接收RTP会话的接口。
RTP Rend filter是用来将数据发到网络上的一个filter,这个filter也提供了和RTP source Filter 类似的接口。
RTP Demux filter用来多路分离来自 RTP Source filter的RTP 包,这个filter有一个或者多个输出的pin。这个Filter提供了如何控制多路分离和如何分配到特定输出pin的接口。
RTP RPH Filter 是用来网络过来的RTP包还原成原来的数据格式,主要支持H.261,H.263,Indeo,G.711,G.723和G.729和常见的多种音视频负载类型。
RTP SPH filter则和RPH filter的功能相对,它的任务是将音视频 压缩filter输出的 数据分解为RTP包,它提供的接口有指定最大生成包大小和pt值。
下面我们看看如何用这些filter来搭建我们采集和传输的graph图。
图1和图2展示了DirectShow RTP中定义的filters如何运用。图1是一个采集本地多媒体数据并使用RTP协议通过网络发送的filter graph。它包含一个输出原始视频帧的视频采集filter,紧跟一个压缩帧的编码filter。一旦压缩,这些帧就会被发送到RTP SPH filter,分片打包,生成RTP包,对应的发送到 RTP Render filter,通过网络传输这些包。图2展现了一个filter graph,用来接收包含视频流RTP包,播放视频。这个graph由一个用来接收包的RTP Source filter,一个根据源和负载类型进行分类的RTP Demux filter,一个把RTP包转为压缩视频帧的RTP RPH filter组成。这些filter随后的是用来解压帧的解码filter,一个显示未压缩帧的渲染filter。
有了RTP filter的帮助我们就可以完成类似qq的功能了,可以实现在网络上进行视频和音频的交互了,下面我给出在网络上两个客户端A和B进行音频和视频交互的Graph图。这里我对图1和图2中的RTP filter进行了自己封装,将编解码filter直接封装到了RTP Source filter 和RTP Render filter中,这样Graph图就显得很简洁,RTP Source filter只是用来接收网络过来的音视频数据,然后将数据传递给客户程序,RTP Render filter则是将采集到的音视频数据发送到网络上的另一个客户端,编解码则的工作则封装到这两个filter之中。
图3 网络视频和音频交互的Graph图
如果你也想自己封装自己的Source 和Render filter,首先你要选择自己的编解码,视频编解码是选择H261,H263,还是 MEPG4,音频是选择G729还是G711,要首先确定好。选好编解码,封装的工作就简单了。
不多说了,下面看看我给出的代码吧。
首先要定义一下用到的四个RTP filter的CLSID。
view plaincopy to clipboardprint?
01.static const GUID CLSID_FG729Render = { 0x3556f7d8, 0x5b5, 0x4015, { 0xb9, 0x40, 0x65, 0xb8, 0x8, 0x94, 0xc8, 0xf9 } }; //音频发送
02.static const GUID CLSID_FG729Source = { 0x290bf11a, 0x93b4, 0x4662, { 0xb1, 0xa3, 0xa, 0x53, 0x51, 0xeb, 0xe5, 0x8e } };//音频接收
03.static const GUID CLSID_FH263Source = { 0xa0431ccf, 0x75db, 0x463e, { 0xb1, 0xcd, 0xe, 0x9d, 0xb6, 0x67, 0xba, 0x72 } };//视频接收
04.static const GUID CLSID_FH263Render = { 0x787969cf, 0xc1b6, 0x41c5, { 0xba, 0xa8, 0x4e, 0xff, 0xa3, 0xdb, 0xe4, 0x1f } };//视频发送
05.//发送和接收音视频数据的filter
06.CComPtr< IBaseFilter > m_pAudioRtpRender ;
07.CComPtr< IBaseFilter > m_pAudioRtpSource ;
08.CComPtr< IBaseFilter > m_pVideoRtpRender ;
09.CComPtr< IBaseFilter > m_pVideoRtpSource ;
10.
11.char szClientA[100];
12.int iVideoPort = 9937;
13.int iAudioPort = 9938;
14.
15.//构建视频的graph图,并发送数据
16.CComPtr< IGraphBuilder > m_pVideoGraphBuilder; //视频图形管理器
17.CComPtr< ICaptureGraphBuilder2 > m_pVideoCapGraphBuilder;
18.CComPtr< IBaseFilter > m_pFilterVideoCap;
19.CComPtr< IVideoWindow > m_pVideoWindow;
20.CComPtr< IMediaControl > m_pVideoMediaCtrl ;
21.CComPtr< IBaseFilter > m_pVideoRenderFilter;
22.
23.HRESULT CMyDialog::VideoGraphInitAndSend()
24.{
25. HRESULT hr;
26. hr =m_pVideoGraphBuilder.CoCreateInstance( CLSID_FilterGraph );
27. if(FAILED(hr))
28. return hr;
29. hr =m_pVideoCapGraphBuilder.CoCreateInstance( CLSID_CaptureGraphBuilder2);
30. if(FAILED (hr))
31. return hr;
32. m_pVideoCapGraphBuilder->SetFiltergraph(m_pVideoGraphBuilder);
33. m_pVideoGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pVideoMediaCtrl);
34. m_pVideoGraphBuilder->QueryInterface(IID_IVideoWindow,(void**)&m_pVideoWindow)
35.
36. FindDeviceFilter(&m_pFilterVideoCap,CLSID_VideoInputDeviceCategory);
37. if(m_pFilterVideoCap)
38. m_pVideoGraphBuilder->AddFilter( m_pFilterVideoCap,T2W("VideoCap") ) ;
39. //创建预览的filter
40. hr = m_pRenderFilterVideo.CoCreateInstance(CLSID_VideoRenderer);
41. if(FAILED(hr))
42. return hr;
43. m_pVideoGraphBuilder->AddFilter( m_pRenderFilterVideo, L"VideoRenderFilter" );
44. Connect(m_pFilterVideoCap ,m_pRenderFilterVideo) ;
45. //设置预览的窗口
46.
47. CRect rc ;
48. GetClientRect(m_hOwnerWnd, &rc );
49. int iWidth = rc.right - rc.left ;
50. int iHeight = rc.bottom - rc.top ;
51. int iLeft, iTop;
52. if((iHeight*1.0)/(iWidth*1.0) >= 0.75)
53. {
54. //按宽度算
55. int tmpiHeight = iWidth*3/4;
56. iTop = (iHeight - tmpiHeight)/2;
57. iHeight = tmpiHeight;
58. iLeft = 0;
59. }
60. else
61. {
62. //按高度算
63. int tmpiWidth = iHeight*4/3;
64. iLeft = (iWidth - tmpiWidth)/2;
65. iWidth = tmpiWidth;
66. iTop = 0;
67. }
68. m_pVideoWindow->put_Owner( (OAHWND) m_hPreviewWnd ) ;
69. m_pVideoWindow->put_Visible( OATRUE );
70. m_pVideoWindow->put_WindowStyle( WS_CHILD | WS_CLIPSIBLINGS ) ;
71.
72. //连接到网络并发送
73. CComPtr< IRtpOption > pRenderOption;
74. CComPtr< IVideoOption > pVideoOption;
75.
76. tagVideoInfo vif(160,120,24);
77. int t=((int)(m_iFrameRate/5)*5)+5;
78. vif.nBitCount=24;
79. vif.nWidth=160;
80. vif.nHeight=120;
81.
82. hr = ::CoCreateInstance(CLSID_FH263Render, NULL, CLSCTX_INPROC, IID_IBaseFilter, (void **)&m_pVideoRtpRender);
83. if(FAILED(hr))
84. return hr;
85. m_pVideoRtpRender->QueryInterface(IID_IJRTPOption, (void**)&pRenderOption);
86. m_pVideoRtpRender->QueryInterface(IID_IVideoOption,(void**)&pVideoOption);
87. pVideoOption->SetProperty(&vif);
88. pVideoOption->SetSendFrameRate(m_iFrameRate,1);//1 不发送数据,0 实际发送数据
89. Connect(m_pFilterVideoCap ,m_pVideoRtpRender) ;
90. //连接对方
91. hr= pRenderOption->Connect(szClientA,iVideoPort,1024);
92. if(FAILED(hr))
93. return hr;
94. m_pVideoMediaCtrl->Run();
95.}
96.//视频的接收
97.CComPtr< IGraphBuilder > m_pVideoGraphBuilder; //视频图形管理器
98.CComPtr< IBaseFilter > m_pFilterVideoCap;
99.CComPtr< IVideoWindow > m_pVideoWindow;
100.CComPtr< IMediaControl > m_pVideoMediaCtrl ;
101.CComPtr< IBaseFilter > m_pVideoRenderFilter;
102.HWND m_hRenderWnd ;
103.HRESULT VideoRecive()
104.{
105. HRESULT hr;
106. hr=CoCreateInstance(CLSID_FilterGraph,NULL,CLSCTX_INPROC,
107. IID_IFilterGraph,(void**)&m_pVideoGraphBuilder);
108.
109. m_pVideoGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pVideoMediaCtrl);
110. m_pVideoGraphBuilder->QueryInterface(IID_IVideoWindow,(void**)&m_pVideoWindow)
111.
112. hr = ::CoCreateInstance(CLSID_FH263Source, NULL, CLSCTX_INPROC, IID_IBaseFilter, (void **)&m_pVideoRtpSource);
113. if(FAILED(hr))
114. return hr;
115. m_pVideoGraphBuilder->AddFilter(m_pVideoRtpSource, L"My Custom Source");
116.
117. CComPtr< IRtpOption > m_pRtpOption;
118. CComPtr< IVideoOption > m_pVideoOption;
119. m_pVideoRtpSource->QueryInterface(IID_IJRTPOption, (void **)&m_pRtpOption);
120. m_pVideoRtpSource->QueryInterface(IID_IVideoOption, (void **)&m_pVideoOption);
121.
122. tagVideoInfo vif(160, 120 ,24);
123. m_pVideoOption->SetProperty(&vif);
124. hr= pRenderOption->Connect(szClientA,iVideoPort +1,1024);
125. if(FAILED(hr))
126. return hr;
127.
128. //创建预览的filter
129. hr = m_pRenderFilterVideo.CoCreateInstance(CLSID_VideoRenderer);
130. if(FAILED(hr))
131. return hr;
132. m_pVideoGraphBuilder->AddFilter( m_pRenderFilterVideo, L"VideoRenderFilter" );
133. Connect(m_pVideoRtpSource ,m_pRenderFilterVideo) ;
134.
135. CRect rc ;
136. GetClientRect(m_hOwnerWnd, &rc );
137. int iWidth = rc.right - rc.left ;
138. int iHeight = rc.bottom - rc.top ;
139. int iLeft, iTop;
140. if((iHeight*1.0)/(iWidth*1.0) >= 0.75)
141. {
142. //按宽度算
143. int tmpiHeight = iWidth*3/4;
144. iTop = (iHeight - tmpiHeight)/2;
145. iHeight = tmpiHeight;
146. iLeft = 0;
147. }
148. else
149. {
150. //按高度算
151. int tmpiWidth = iHeight*4/3;
152. iLeft = (iWidth - tmpiWidth)/2;
153. iWidth = tmpiWidth;
154. iTop = 0;
155. }
156. m_pVideoWindow->put_Owner( (OAHWND) m_hRenderWnd ) ;
157. m_pVideoWindow->put_Visible( OATRUE );
158. m_pVideoWindow->put_WindowStyle( WS_CHILD | WS_CLIPSIBLINGS ) ;
159. m_pVideoMediaCtrl->Run();
160.
161. return S_OK;
162.}
163.//
164.HRESULT FindDeviceFilter(IBaseFilter ** ppSrcFilter,GUID deviceGUID)
165.{
166. HRESULT hr;
167. IBaseFilter * pSrc = NULL;
168. CComPtr <IMoniker> pMoniker =NULL;
169. ULONG cFetched;
170.
171. if (!ppSrcFilter)
172. return E_POINTER;
173.
174. // Create the system device enumerator
175. CComPtr <ICreateDevEnum> pDevEnum =NULL;
176.
177. hr = CoCreateInstance (CLSID_SystemDeviceEnum, NULL, CLSCTX_INPROC,
178. IID_ICreateDevEnum, (void **) &pDevEnum);
179. if (FAILED(hr))
180. return hr;
181.
182. // Create an enumerator for the video capture devices
183. CComPtr <IEnumMoniker> pClassEnum = NULL;
184.
185. hr = pDevEnum->CreateClassEnumerator (deviceGUID, &pClassEnum, 0);
186. if (FAILED(hr))
187. return hr;
188.
189. if (pClassEnum == NULL)
190. return E_FAIL;
191.
192. if (S_OK == (pClassEnum->Next (1, &pMoniker, &cFetched)))
193. {
194. hr = pMoniker->BindToObject(0,0,IID_IBaseFilter, (void**)&pSrc);
195. if (FAILED(hr))
196. return hr;
197. }
198. else
199. return E_FAIL;
200.
201. *ppSrcFilter = pSrc;
202.
203. return S_OK;
204.}
205.
206.//构建音频Graph图,并发送
207.CComPtr< IGraphBuilder > m_pAudioGraphBuilder; //音频图形管理器
208.CComPtr< ICaptureGraphBuilder2 > m_pCapAudioGraphBuilder;
209.CComPtr< IBaseFilter > m_pFilterAudioCap;
210.CComPtr< IMediaControl > m_pAudioMediaCtrl ;
211.
212.HRESULT AudioGraphInit()
213.{
214. HRESULT hr;
215. hr =m_pAudioGraphBuilder.CoCreateInstance( CLSID_FilterGraph );
216. if(FAILED(hr))
217. return hr;
218. hr =m_pCapAudioGraphBuilder.CoCreateInstance( CLSID_CaptureGraphBuilder2);
219. if(FAILED (hr))
220. return hr;
221. m_pAudioGraphBuilder->SetFiltergraph(m_pCapAudioGraphBuilder);
222. m_pAudioGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pAudioMediaCtrl);
223.
224. FindDeviceFilter(&m_pFilterVideoCap,CLSID_AudioInputDeviceCategory);
225. if(m_pFilterAudioCap)
226. m_pAudioGraphBuilder->AddFilter( m_pFilterAudioCap,T2W("AudioCap") ) ;
227.
228. //发送到网络
229. hr =::CoCreateInstance(CLSID_FG729Render,NULL,CLSCTX_INPROC,
230. IID_IBaseFilter,(void**)&m_pFilterRtpSendAudio)
231. if(FAILED(hr))
232. return hr;
233. m_pAudioGraphBuilder->AddFilter(m_pAudioRtpRender, L"FilterRtpSendAudio");
234. Connect(m_pFilterAudioCap,m_pAudioRtpRender);
235.
236. CComPtr< IRtpOption > pOption ;
237. m_pAudioRtpRender->QueryInterface(IID_IJRTPOption,(void**)&pOption)
238. hr =pOption->Connect(szClientA,iAudioPort,1024);
239. if(FAILED(hr))
240. return hr;
241.
242. m_pAudioMediaCtrl->Run();
243. return S_OK;
244.}
245.//音频的接收
246.CComPtr< IGraphBuilder > m_pAudioGraphBuilder; //音频图形管理器
247.CComPtr< ICaptureGraphBuilder2 > m_pCapAudioGraphBuilder;
248.CComPtr< IBaseFilter > m_pFilterAudioCap;
249.CComPtr< IMediaControl > m_pAudioMediaCtrl ;
250.CComPtr<IBaseFilter> m_pAudioRender;
251.HRESULT AudioRecive()
252.{
253. HRESULT hr;
254. hr =m_pAudioGraphBuilder.CoCreateInstance( CLSID_FilterGraph );
255. if(FAILED(hr))
256. return hr;
257. m_pAudioGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pAudioMediaCtrl);
258.
259. hr = m_pAudioRtpSource->CoCreateInstance(CLSID_FG729Source) ;
260. if(FAILED(hr))
261. return hr;
262. m_pAudioGraphBuilder->AddFilter(m_pAudioRtpSource,L"AudioRtp");
263. //创建声卡Renderfilter
264. FindDeviceFilter(&m_pAudioRender,CLSID_AudioRendererCategory);
265. m_pAudioGraphBuilder->AddFilter(m_pAudioRender,L"AudioRender");
266. CComPtr< IRtpOption > pRtpOption ;
267. m_pAudioRtpSource->QueryInterface(IID_IJRTPOption,(void**)&pRtpOption)
268. hr= pRtpOption->Connect(szClientA,iAudioPort+2,1024);
269. if(FAILED (hr))
270. return hr;
271.
272. Connect(m_pAudioRtpSource,m_pAudioRender);
273.
274. m_pAudioMediaCtrl->Run();
275. return S_OK;
276.}