MediaCodec硬编码pcm为aac音频

MediaCodecAndroid(api>=16)提供的一个多媒体硬解编码库,能实现音视频的编解码。

工作原理:其内部有2个队列,一个是输入队列,一个是输出队列。输入队列负责存储编
解码前的原始数据存储,并输送给MediaCodec处理;输出队列负责存储编解码后
的新数据,可以直接处理或保存到文件中。

AAC 的头部信息介绍 :AAC的ADTS头文件信息介绍-优快云博客

 



 //mediacodec
    private MediaFormat encoderFormat = null;
    private MediaCodec encoder = null;
    private FileOutputStream outputStream = null;
    private MediaCodec.BufferInfo info = null;
    private int perpcmsize = 0;
    private byte[] outByteBuffer = null;
    private int aacsamplerate = 4;
    private double recordTime = 0;
    private int audioSamplerate = 0;

    private void initMediacodec(int samperate, File outfile)
    {
        try {
            aacsamplerate = getADTSsamplerate(samperate);
            //立体声
            encoderFormat = MediaFormat.createAudioFormat(MediaFormat.MIMETYPE_AUDIO_AAC, samperate, 2);
            //96kbps fm音质
            encoderFormat.setInteger(MediaFormat.KEY_BIT_RATE, 96000);
            encoderFormat.setInteger(MediaFormat.KEY_AAC_PROFILE, MediaCodecInfo.CodecProfileLevel.AACObjectLC);
            encoderFormat.setInteger(MediaFormat.KEY_MAX_INPUT_SIZE, 4096);
            encoder = MediaCodec.createEncoderByType(MediaFormat.MIMETYPE_AUDIO_AAC);
            info = new MediaCodec.BufferInfo();
            if(encoder == null)
            {
                MyLog.d("craete encoder wrong");
                return;
            }
            recordTime = 0;
            encoder.configure(encoderFormat, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE);
            outputStream = new FileOutputStream(outfile);
            encoder.start();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

    private void encodecPcmToAAc(int size, byte[] buffer)
    {
        if(buffer != null && encoder != null)
        {
            //录音时间  size/ 采样率*声道数 * bits/8
            recordTime += size * 1.0 / (audioSamplerate * 2 * (16 / 8));
            MyLog.d("recordTime = " + recordTime);
            //回掉
            if(wlOnRecordTimeListener != null)
            {
                wlOnRecordTimeListener.onRecordTime((int) recordTime);
            }

            int inputBufferindex = encoder.dequeueInputBuffer(0);
            if(inputBufferindex >= 0)
            {
                ByteBuffer byteBuffer = encoder.getInputBuffers()[inputBufferindex];
                byteBuffer.clear();
                byteBuffer.put(buffer);
                encoder.queueInputBuffer(inputBufferindex, 0, size, 0, 0);
            }

            int index = encoder.dequeueOutputBuffer(info, 0);
            while(index >= 0)
            {
                try {
                    perpcmsize = info.size + 7;
                    outByteBuffer = new byte[perpcmsize];

                    ByteBuffer byteBuffer = encoder.getOutputBuffers()[index];
                    byteBuffer.position(info.offset);
                    byteBuffer.limit(info.offset + info.size);

                    addADtsHeader(outByteBuffer, perpcmsize, aacsamplerate);

                    byteBuffer.get(outByteBuffer, 7, info.size);
                    byteBuffer.position(info.offset);
                    outputStream.write(outByteBuffer, 0, perpcmsize);

                    encoder.releaseOutputBuffer(index, false);
                    index = encoder.dequeueOutputBuffer(info, 0);
                    outByteBuffer = null;
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
        }
    }

    private void addADtsHeader(byte[] packet, int packetLen, int samplerate)
    {
        int profile = 2; // AAC LC
        int freqIdx = samplerate; // samplerate
        int chanCfg = 2; // CPE

        packet[0] = (byte) 0xFF; // 0xFFF(12bit) 这里只取了8位,所以还差4位放到下一个里面
        packet[1] = (byte) 0xF9; // 第一个t位放F
        packet[2] = (byte) (((profile - 1) << 6) + (freqIdx << 2) + (chanCfg >> 2));
        packet[3] = (byte) (((chanCfg & 3) << 6) + (packetLen >> 11));
        packet[4] = (byte) ((packetLen & 0x7FF) >> 3);
        packet[5] = (byte) (((packetLen & 7) << 5) + 0x1F);
        packet[6] = (byte) 0xFC;
    }

    private int getADTSsamplerate(int samplerate)
    {
        int rate = 4;
        switch (samplerate)
        {
            case 96000:
                rate = 0;
                break;
            case 88200:
                rate = 1;
                break;
            case 64000:
                rate = 2;
                break;
            case 48000:
                rate = 3;
                break;
            case 44100:
                rate = 4;
                break;
            case 32000:
                rate = 5;
                break;
            case 24000:
                rate = 6;
                break;
            case 22050:
                rate = 7;
                break;
            case 16000:
                rate = 8;
                break;
            case 12000:
                rate = 9;
                break;
            case 11025:
                rate = 10;
                break;
            case 8000:
                rate = 11;
                break;
            case 7350:
                rate = 12;
                break;
        }
        return rate;
    }

    private void releaseMedicacodec()
    {
        if(encoder == null)
        {
            return;
        }
        try {
            recordTime = 0;
            outputStream.close();
            outputStream = null;
            encoder.stop();
            encoder.release();
            encoder = null;
            encoderFormat = null;
            info = null;
            initmediacodec = false;

            MyLog.d("录制完成...");
        } catch (IOException e) {
            e.printStackTrace();
        }
        finally {
            if(outputStream != null)
            {
                try {
                    outputStream.close();
                } catch (IOException e) {
                    e.printStackTrace();
                }
                outputStream = null;
            }
        }
    }

参考资源链接:[Android平台音视频数据采集与MP4合成技术详解](https://wenku.youkuaiyun.com/doc/4h99dtzyr6?utm_source=wenku_answer2doc_content) 为了深入理解并实现音视频数据的采集、编码和MP4文件合成的完整流程,你可以参考《Android平台音视频数据采集与MP4合成技术详解》这本书。本书详细介绍了在Android平台上进行音视频数据处理的每一个关键步骤。 首先,使用Camera API从设备的硬件相机中采集图像和视频数据。通常,这些数据会以nv21格式存储,这是一种常用的YUV颜色空间编码格式,特别适用于Android系统。在采集过程中,你需要配置相机参数、启动预览并捕获数据。 接着,使用AudioRecord API来采集音频数据。你需要设置采样率、声道数和缓冲区大小,并将采集到的原始PCM数据存储起来。PCM数据代表了未经压缩的音频信号的数字样本。 采集到的数据需要通过MediaCodec API进行硬编码MediaCodec API允许你直接与设备的编解码硬件进行交互,进行视频的H.264编码音频AAC编码。这个过程中,你需要正确配置编码器,包括输入输出格式、缓冲区配置等,并确保编码后的数据符合要求。 最后,使用MediaMuxer API将编码后的视频和音频轨道数据封装成MP4文件。MediaMuxer负责按照MP4格式的要求组织数据,并将编码后的音视频数据合成一个单一的媒体文件。在这个过程中,需要正确处理时间戳、同步等问题,确保最终的MP4文件可以被正确播放。 整个流程涉及到底层的音视频处理技术,包括数据采集、硬编码处理、容器格式封装等。通过学习本书提供的知识和示例代码,你将能够掌握如何实现一个完整的Android音视频采集和MP4合成的项目。 参考资源链接:[Android平台音视频数据采集与MP4合成技术详解](https://wenku.youkuaiyun.com/doc/4h99dtzyr6?utm_source=wenku_answer2doc_content)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值