我正在使用RecordRTC在我的javascript客户端录制一些音频数据.我想通过WebSockets将这个音频数据发送到我的Spring RestController.
录制后我在我的javascript客户端中有一个blob对象:Blob {size:65859,type:“audio / webm”}
我尝试使用FileReader将此blob转换为ArrayBuffer对象,看起来像这个ArrayBuffer {} byteLength:65859
我发送ArrayBuffer的javascript代码如下所示:
const reader = new FileReader();
reader.addEventListener( 'loadend', () => {
console.log( 'readerResult', reader.result );
this.stompClient.send( "/app/hello", {}, reader.result );
} );
this.recorder.stopRecording(() => {
const blob = this.recorder.getBlob();
reader.readAsArrayBuffer( blob );
console.log( "blob", blob );
} );
我的Spring Boot应用程序中的WebSocket端点如下所示:
@MessageMapping("/hello")
public void stream(byte[] input) throws Exception {
System.out.println("incoming message ...");
System.out.println(input);
System.out.println(input.length);
}
这是控制台输出:
incoming message ...
[B@6142acb4
20
我的服务器中的bytearray只包含20个字节,看起来只有元数据被传输?
如何将录制的Blob传输到我的Spring服务器并创建它的(webm)文件?我是否必须更改端点的参数?