h5实现语音识别调用

本文介绍了如何在Vue3应用中使用HZRecorder.js库创建一个简易的语音识别功能,包括创建音频输入源、处理音频数据、录制、停止、获取音频文件以及上传。通过实例展示了如何配合Vant UI组件实现从点击开始说话到语音识别的完整流程。

话不多说,直接上代码(此案例使用的vue3+vant)

创建语音识别功能js, HZRecorder.js

function HZRecorder(stream, config) {
    config = config || {};
    config.sampleBits = config.sampleBits || 16;   //采样数位 8, 16
    config.sampleRate = config.sampleRate || 16000;  //采样率16khz
  
    var context = new (window.webkitAudioContext || window.AudioContext)();
    var audioInput = context.createMediaStreamSource(stream);
    var createScript = context.createScriptProcessor || context.createJavaScriptNode;
    var recorder = createScript.apply(context, [4096, 1, 1]);
  
    var audioData = {
      size: 0     //录音文件长度
      , buffer: []   //录音缓存
      , inputSampleRate: context.sampleRate  //输入采样率
      , inputSampleBits: 16    //输入采样数位 8, 16
      , outputSampleRate: config.sampleRate  //输出采样率
      , oututSampleBits: config.sampleBits    //输出采样数位 8, 16
      , input: function (data) {
        this.buffer.push(new Float32Array(data));
        this.size += data.length;
      }
      , compress: function () { //合并压缩
        //合并
        var data = new Float32Array(this.size);
        var offset = 0;
        for (var i = 0; i < this.buffer.length; i++) {
          data.set(this.buffer[i], offset);
          offset += this.buffer[i].length;
        }
        //压缩
        var compression = parseInt(this.inputSampleRate / this.outputSampleRate);
        var length = data.length / compression;
        var result = new Float32Array(length);
        var index = 0, j = 0;
        while (index < length) {
          result[index] = data[j];
          j += compression;
          index++;
        }
        return result;
      }
      , encodeWAV: function () {
        var sampleRate = Math.min(this.inputSampleRate, this.outputSampleRate);
        var sampleBits = Math.min(this.inputSampleBits, this.oututSampleBits);
        var bytes = this.compress();
        var dataLength = bytes.length * (sampleBits / 8);
        var buffer = new ArrayBuffer(44 + dataLength);
        var data = new DataView(buffer);
  
        var channelCount = 1;//单声道
        var offset = 0;
  
        var writeString = function (str) {
          for (var i = 0; i < str.length; i++) {
            data.setUint8(offset + i, str.charCodeAt(i));
          }
        }
  
        // 资源交换文件标识符
        writeString('RIFF'); offset += 4;
        // 下个地址开始到文件尾总字节数,即文件大小-8
        data.setUint32(offset, 36 + dataLength, true); offset += 4;
        // WAV文件标志
        writeString('WAVE'); offset += 4;
        // 波形格式标志
        writeString('fmt '); offset += 4;
        // 过滤字节,一般为 0x10 = 16
        data.setUint32(offset, 16, true); offset += 4;
        // 格式类别 (PCM形式采样数据)
        data.setUint16(offset, 1, true); offset += 2;
        // 通道数
        data.setUint16(offset, channelCount, true); offset += 2;
        // 采样率,每秒样本数,表示每个通道的播放速度
        data.setUint32(offset, sampleRate, true); offset += 4;
        // 波形数据传输率 (每秒平均字节数) 单声道×每秒数据位数×每样本数据位/8
        data.setUint32(offset, channelCount * sampleRate * (sampleBits / 8), true); offset += 4;
        // 快数据调整数 采样一次占用字节数 单声道×每样本的数据位数/8
        data.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2;
        // 每样本数据位数
        data.setUint16(offset, sampleBits, true); offset += 2;
        // 数据标识符
        writeString('data'); offset += 4;
        // 采样数据总数,即数据总大小-44
        data.setUint32(offset, dataLength, true); offset += 4;
        // 写入采样数据
        if (sampleBits === 8) {
          for (var i = 0; i < bytes.length; i++, offset++) {
            var s = Math.max(-1, Math.min(1, bytes[i]));
            var val = s < 0 ? s * 0x8000 : s * 0x7FFF;
            val = parseInt(255 / (65535 / (val + 32768)));
            data.setInt8(offset, val, true);
          }
        } else {
          for (var i = 0; i < bytes.length; i++, offset += 2) {
            var s = Math.max(-1, Math.min(1, bytes[i]));
            data.setInt16(offset, s < 0 ? s * 0x8000 : s * 0x7FFF, true);
          }
        }
  
        return new Blob([data], { type: 'audio/wav' });
      }
    };
    //开始录音
    this.start = function () {
      audioInput.connect(recorder);
      recorder.connect(context.destination);
    }
  
    //停止
    this.stop = function () {
      recorder.disconnect();
    }
  
    //获取音频文件
    this.getBlob = function () {
      this.stop();
      console.log(audioData.encodeWAV())
      return audioData.encodeWAV();
    }
  
    //回放
    this.play = function (audio) {
      var blob=this.getBlob();
      // saveAs(blob, "F:/3.wav");
      audio.src = window.URL.createObjectURL(this.getBlob());
    }
  
    //上传
    this.upload = function () {
      return this.getBlob()
    }
  
    //音频采集
    recorder.onaudioprocess = function (e) {
      audioData.input(e.inputBuffer.getChannelData(0));
      //record(e.inputBuffer.getChannelData(0));
    }
  
    return this;
  }
  
  export {
    HZRecorder
  }

使用方式

// 触发语音的方法
<van-button
      type="warning"
      @touchstart="speakClick"
      @touchend="speakEndClick"
      square
      >点击说话</van-button
    >

引用js

import { HZRecorder } from "../../utils/HZRecorder";
export default {
	setup() {
	    let recorder;
	    const speakInfo = ref("");
	    // 初始化语音
	    const initAudio = () => {
	      navigator.getUserMedia =
	        navigator.getUserMedia ||
	        navigator.webkitGetUserMedia ||
	        navigator.mozGetUserMedia ||
	        navigator.msGetUserMedia;
	      navigator.getUserMedia(
	        { audio: true },
	        function (stream) {
	          recorder = new HZRecorder(stream);
	
	          console.log("初始化完成");
	        },
	        function (e) {
	          console.log("No live audio input: " + e);
	        }
	      );
	    };
	    // 语音开始
		const speakClick = () => {
	      recorder.start();
	      const toast = Toast({
	        duration: 0,
	        forbidClick: true,
	        message: "语音输入中...",
	      });
	    };
	    // 语音结束
	    const speakEndClick = () => {
	      Toast.clear();
	      let audioData = new FormData();
	      audioData.append("speechFile", recorder.getBlob());
	      getSpeechRecognition(audioData).then((res) => {
	        speakInfo.value = res.data
	      });
	    };
	}
	return {
	  speakClick,
      speakEndClick,
      speakInfo,
	}
}

效果图

完结撒花

在 HTML5 页面中实现语音识别功能,可以使用 Web Speech API 中的 `SpeechRecognition` 接口。Web Speech API 是由 W3C 推出的一项标准,允许开发者在 Web 应用中集成语音识别和语音合成功能,从而提升用户交互体验[^1]。 ### 使用 Web Speech API 实现语音识别的基本步骤 1. **检查浏览器支持情况** 并非所有浏览器都默认支持 Web Speech API,通常需要使用基于 Chromium 的浏览器(如 Chrome)[^2]。可以通过以下方式检测浏览器是否支持语音识别: ```javascript if ('SpeechRecognition' in window || 'webkitSpeechRecognition' in window) { // 浏览器支持语音识别 } else { console.log('当前浏览器不支持 Web Speech API'); } ``` 2. **创建语音识别实例** 通过 `webkitSpeechRecognition` 构造函数创建一个语音识别对象。该对象提供了多个配置选项,例如设置是否连续识别、语言模型等。 ```javascript const recognition = new (window.SpeechRecognition || window.webkitSpeechRecognition)(); recognition.continuous = false; // 设置为非连续识别 recognition.interimResults = false; // 关闭临时结果 recognition.lang = 'zh-CN'; // 设置语言为中文 ``` 3. **启动语音识别** 调用 `start()` 方法启动语音识别功能,用户可以开始说话,浏览器将自动捕获语音输入并进行识别。 ```javascript recognition.start(); ``` 4. **处理识别结果** 语音识别完成后,可以通过监听 `result` 事件获取识别结果,并将其输出到页面上。 ```javascript recognition.onresult = function(event) { const transcript = event.results[0][0].transcript; console.log('识别结果:', transcript); document.getElementById('output').innerText = '识别结果:' + transcript; }; ``` 5. **结束语音识别** 语音识别完成后,调用 `stop()` 方法结束识别过程。 ```javascript recognition.stop(); ``` 6. **处理错误和中断** 可以监听 `error` 和 `end` 事件来处理识别过程中的错误或结束状态。 ```javascript recognition.onerror = function(event) { console.error('语音识别出错:', event.error); }; recognition.onend = function() { console.log('语音识别已结束'); }; ``` ### 完整示例代码 ```html <!DOCTYPE html> <html lang="zh-CN"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>语音识别示例</title> </head> <body> <h3>点击按钮开始语音识别</h3> <button id="startBtn">开始识别</button> <p id="output">识别结果将显示在这里。</p> <script> const startBtn = document.getElementById('startBtn'); const output = document.getElementById('output'); if (!('webkitSpeechRecognition' in window)) { output.innerText = '当前浏览器不支持 Web Speech API'; startBtn.disabled = true; } else { const recognition = new webkitSpeechRecognition(); recognition.continuous = false; recognition.interimResults = false; recognition.lang = 'zh-CN'; recognition.onresult = function(event) { const transcript = event.results[0][0].transcript; output.innerText = '识别结果:' + transcript; }; recognition.onerror = function(event) { output.innerText = '语音识别出错:' + event.error; }; recognition.onend = function() { console.log('语音识别已结束'); }; startBtn.addEventListener('click', function() { recognition.start(); }); } </script> </body> </html> ``` ### 注意事项 - **浏览器兼容性**:目前 Web Speech API 在 Chrome 浏览器中支持最好,其他浏览器可能不支持或部分支持。 - **麦克风权限**:首次运行语音识别时,浏览器会请求麦克风权限,用户需要允许访问麦克风。 - **网络环境**:语音识别功能通常依赖于在线服务,因此需要保持网络连接。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

七七超爱玩

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值