本文主要包含HTML5,网页录音,压缩等相关知识,匿名希望在学习及工作中可以帮助到您
最近公司需要用到web录音的功能
讲的都差不多
问题1:怎么上传
下载来的栗子也比较简单,可以直接运行
问题1:怎么上传
栗子中最后返回的是Blob数据
return new Blob([dataview], { type: type })
因为对html5不熟,所以又查了一些数据
原来HTML5中使用FormData这个对象好方便
var fd = new FormData(); fd.append("audioData", blob);var xhr = new XMLHttpRequest(); xhr.open("POST", url); xhr.send(fd);
在C#服务器端 如下代码就可以接收了
public void ProcessRequest(HttpContext context) { if (context.Request.Files.Count > 0) { context.Request.Files[0].SaveAs("d:\\1.wav"); } }
问题2:文件体积太大
是的,使用上面的栗子,直接录音保存后基本上2秒就需要400K,一段20秒的录音就达到了的4M
这样的数据根本无法使用,必须想办法压缩数据
我开始尝试读每一段代码
function encodeWAV(samples){ var buffer = new ArrayBuffer(44 + samples.length * 2); var view = new DataView(buffer); /* RIFF identifier */ writeString(view, 0, 'RIFF'); /* file length */ view.setUint32(4, 32 + samples.length * 2, true); /* RIFF type */ writeString(view, 8, 'WAVE'); /* format chunk identifier */ writeString(view, 12, 'fmt '); /* format chunk length */ view.setUint32(16, 16, true); /* sample format (raw) */ view.setUint16(20, 1, true); /* channel count */ view.setUint16(22, 2, true); /* sample rate */ view.setUint32(24, sampleRate, true); /* byte rate (sample rate * block align) */ view.setUint32(28, sampleRate * 4, true); /* block align (channel count * bytes per sample) */ view.setUint16(32, 4, true); /* bits per sample */ view.setUint16(34, 16, true); /* data chunk identifier */ writeString(view, 36, 'data'); /* data chunk length */ view.setUint32(40, samples.length * 2, true); floatTo16BitPCM(view, 44, samples); return view; }
上面的代码,就是把字节数据格式化成wav的格式的过程
所以我又去查了wav的头文件
要压缩,就要从上面三个红圈的地方入手
最简单的就是把双声道改成单声道的,
在录音的时候只需要记录一个声道就可以了
// 创建声音的缓存节点,createJavaScriptNode方法的 // 第二个和第三个参数指的是输入和输出都是双声道。 //recorder = context.createJavaScriptNode(bufferSize, 2, 2); recorder = context.createJavaScriptNode(bufferSize, 1, 1);//这里改成1 this.node.onaudioprocess = function(e){ if (!recording) return; worker.postMessage({ command: 'record', buffer: [ e.inputBuffer.getChannelData(0)//, //e.inputBuffer.getChannelData(1)// 这里只需要保存一个 ] }); } function exportWAV(type){ var bufferL = mergeBuffers(recBuffersL, recLength); //var bufferR = mergeBuffers(recBuffersR, recLength); var interleaved = interleave(bufferL);//, bufferR); //合并数据的时候去到对右声道的处理 var dataview = encodeWAV(interleaved); var audioBlob = new Blob([dataview], { type: type }); this.postMessage(audioBlob); } function interleave(inputL){//, inputR){//混合声道的时候去掉对右声道的处理 var length = inputL.length ;//+ inputR.length; var result = new Float32Array(length); var index = 0, inputIndex = 0; while (index < length){ result[index++] = inputL[inputIndex]; //result[index++] = inputR[inputIndex]; inputIndex++; } return result; }
然后修改一下注释,我不喜欢英文的....
function encodeWAV(samples) { var dataLength = samples.length * 2; var buffer = new ArrayBuffer(44 + dataLength); var view = new DataView(buffer); var sampleRateTmp = sampleRate; var sampleBits = 16; var channelCount = 1; var offset = 0; /* 资源交换文件标识符 */ writeString(view, offset, 'RIFF'); offset += 4; /* 下个地址开始到文件尾总字节数,即文件大小-8 */ view.setUint32(offset, /*32这里地方栗子中的值错了,但是不知道为什么依然可以运行成功*/ 36 + dataLength, true); offset += 4; /* WAV文件标志 */ writeString(view, offset, 'WAVE'); offset += 4; /* 波形格式标志 */ writeString(view, offset, 'fmt '); offset += 4; /* 过滤字节,一般为 0x10 = 16 */ view.setUint32(offset, 16, true); offset += 4; /* 格式类别 (PCM形式采样数据) */ view.setUint16(offset, 1, true); offset += 2; /* 通道数 */ view.setUint16(offset, channelCount, true); offset += 2; /* 采样率,每秒样本数,表示每个通道的播放速度 */ view.setUint32(offset, sampleRateTmp, true); offset += 4; /* 波形数据传输率 (每秒平均字节数) 通道数×每秒数据位数×每样本数据位/8 */ view.setUint32(offset, sampleRateTmp * channelCount * (sampleBits / 8), true); offset += 4; /* 快数据调整数 采样一次占用字节数 通道数×每样本的数据位数/8 */ view.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2; /* 每样本数据位数 */ view.setUint16(offset, sampleBits, true); offset += 2; /* 数据标识符 */ writeString(view, offset, 'data'); offset += 4; /* 采样数据总数,即数据总大小-44 */ view.setUint32(offset, dataLength, true); offset += 4; /* 采样数据 */ floatTo16BitPCM(view, 44, samples); return view; }
一旦把双声道变为单声道,数据直接缩小一半了
但是还不够
继续缩小体积
除了声道以外,还有一个可以缩减的地方就是采样位数 默认是16位的,我们改成8位 又可以减少一半了
function encodeWAV(samples) { var sampleBits = 8;//16;//这里改成8位 var dataLength = samples.length * (sampleBits / 8); var buffer = new ArrayBuffer(44 + dataLength); var view = new DataView(buffer); var sampleRateTmp = sampleRate; var channelCount = 1; var offset = 0; /* 资源交换文件标识符 */ writeString(view, offset, 'RIFF'); offset += 4; /* 下个地址开始到文件尾总字节数,即文件大小-8 */ view.setUint32(offset, /*32这里地方栗子中的值错了,但是不知道为什么依然可以运行成功*/ 36 + dataLength, true); offset += 4; /* WAV文件标志 */ writeString(view, offset, 'WAVE'); offset += 4; /* 波形格式标志 */ writeString(view, offset, 'fmt '); offset += 4; /* 过滤字节,一般为 0x10 = 16 */ view.setUint32(offset, 16, true); offset += 4; /* 格式类别 (PCM形式采样数据) */ view.setUint16(offset, 1, true); offset += 2; /* 通道数 */ view.setUint16(offset, channelCount, true); offset += 2; /* 采样率,每秒样本数,表示每个通道的播放速度 */ view.setUint32(offset, sampleRateTmp, true); offset += 4; /* 波形数据传输率 (每秒平均字节数) 通道数×每秒数据位数×每样本数据位/8 */ view.setUint32(offset, sampleRateTmp * channelCount * (sampleBits / 8), true); offset += 4; /* 快数据调整数 采样一次占用字节数 通道数×每样本的数据位数/8 */ view.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2; /* 每样本数据位数 */ view.setUint16(offset, sampleBits, true); offset += 2; /* 数据标识符 */ writeString(view, offset, 'data'); offset += 4; /* 采样数据总数,即数据总大小-44 */ view.setUint32(offset, dataLength, true); offset += 4; /* 采样数据 */ //floatTo16BitPCM(view, 44, samples); floatTo8BitPCM(view, 44, samples);//这里改