最经的一个项目需要在app中显示ip camera的视频,当在手机的浏览器中直接输入ip camera的地址是可以浏览到视频的,所以第一感觉就是用WebKit来做,如果可以的话将会变得非常简单,不需要关心视频流等等很多的细节,但是非常失望,当使用WebKit后无法正常显示视频,也不知是什么原因,希望知道的高手可以解答一下,下面就说说我自己的解决办法。
我的办法是采用最原始的方法:就是先获取到ip camera的视频流,然后分包解析为一张一张的图片,再将其显示在界面上。
我所使用的IP CAMER是JPEG格式的,至于H.264可能就不行了。
先用一个抓包软件抓取打开ip camera视频的命令,我所使用的ip camera是HTTP流的,所以是标准的HTTP协议,一般如下:
GET /videostream.cgi?rate=0 HTTP/1.1
Host: 10.24.120.177:8080
User-Agent: Mozilla/5.0 (Windows NT 5.1; rv:12.0) Gecko/20100101 Firefox/12.0
Accept: image/png,image/*;q=0.8,*/*;q=0.5
Accept-Language: zh-cn,zh;q=0.8,en-us;q=0.5,en;q=0.3
Accept-Encoding: gzip, deflate
Connection: keep-alive
Referer: http://10.24.120.177:8080/live.htm
Authorization: Basic YWRtaW46MTIzNDU2
另外还有一个是RTSP流的,这种格式的没有仔细研究过,等以后有时间了一定会补上这方面的知识。好了,经过以上的步骤就可以推算出打开IPcamera的http请求地址了:10.24.120.177:8080/videostream.cgi
下面就是具体的代码实现了
先用http请求连接,一旦连接上之后就会收到连绵不断的视频流,然后将其分帧显示,核心代码cameraStream()函数如下
- //播放camera视频,禁止在UI线程中直接调用
- private void cameraStream() throws IOException {
- URL aURL;
- ByteArrayOutputStream outStream = new ByteArrayOutputStream();
- // try {
- aURL = new URL("http://192.168.0.102/videostream.cgi?user=admin&pwd=&resolution=32&rate=1");
- URLConnection conn = aURL.openConnection();
- conn.connect();
- InputStream input = conn.getInputStream();
- System.out.println("input = " + input);
- if(input != null) mStopStream = false;
- int readLength = -1;
- String strDate; //将读取的数据转化为string类型,以便判断包头
- while(!mStopStream) {
- byte[] buffer = new byte[1024];
- readLength = input.read(buffer,0,1024);//readLength 本次读取数据的长度
- if(readLength > 0) {
- strDate = new String(buffer, readLength);
- //index标记"Content-Length: "的起始位置
- //index1标记"\r\n"的位置,注意是"Content-Length: "之后的第一个位置
- int index = strDate.indexOf(flag);
- int index1 = strDate.indexOf(flag1,index);
- int streamLength = 0;
- if(index1 != -1) {
- //计算本次streamLength的长度
- streamLength = Integer.parseInt(strDate.substring(index+flag.length(), index1));
- }
- if(streamLength > 0) {
- if((index1+4) < readLength) {
- outStream.write(buffer, index1+4, readLength-index1-4);
- streamLength = streamLength - readLength+index1+4;
- }
- //将剩下读取的视频流存储到buffer1
- byte[] buffer1 = new byte[streamLength];
- int length = 0;
- while(length < streamLength) {
- length += input.read(buffer1,length,streamLength-length);
- }
- outStream.write(buffer1,0,streamLength); // 将剩余的stream写入outStream
- byte[] data = outStream.toByteArray();
- bitmap = BitmapFactory.decodeByteArray(data, 0, data.length);
- // System.out.println("bitmap = " + bitmap);
- if(bitmap != null) {
- mHandler.sendEmptyMessage(MSG_REFRESH); //报告到UI界面,更新图像
- }
- outStream.reset();
- }
- }
- }
- // } catch (IOException e) {
- // // TODO Auto-generated catch block
- // e.printStackTrace();
- // }
- // try {
- outStream.close();
- // } catch (IOException e) {
- // // TODO Auto-generated catch block
- // e.printStackTrace();
- // }
- } // cameraStream()
注意,视频流中,每帧之间一般都是通过Content-Type:*** ,Content-Lenght:***来隔开的,具体的可以通过抓包软件来看,注意\r\n。
Content-Type: image/jpeg
Content-Length: 12032
我在代码中是通过解析出Content-Length来分辨每一帧的数据,当获取到完整的一帧之后马上将其解析为图片,接着是下一帧。。。如此不但循环。
当然了,有的时候,当一帧的数据有错误的时候可能会解析失败,可以在最后面加上如下两句:
outStream.write((byte)0xFF);
outStream.write((byte)0xD9);
然后再调用解析函数,这样解析的图片会有内容的丢失,但是起码不会解析失败。是的,你猜对了,FFD9代表是的一帧的结束,而FFD8是开始
当然了,以上所说的都是JPEG格式的。
测试工程的下载连接为:http://download.youkuaiyun.com/detail/songsong_2012/5234452(下代码参考注意:原代码中最下面少个方法定义:cameraStream(),明眼人都能看出来,不知道作者是没注意还是咋地,稍作修改就能运行,此外代码streamLength = Integer.parseInt(strDate.substring(index+flag.length(), index1));经常出现错,建议做try catch一下,我没想到更好的方法)。
运行的时候请将请求地址改为自己的camera的地址
我所测试的Android平台为2.3,还是很流畅的