首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >在onclick事件上询问麦克风

在onclick事件上询问麦克风
EN

Stack Overflow用户
提问于 2013-06-15 11:42:09
回答 2查看 5.1K关注 0票数 4

前几天,我偶然发现了一个Javascript音频记录器的例子:

http://webaudiodemos.appspot.com/AudioRecorder/index.html

最后我用它来实现我自己的。我遇到的问题是在这个文件里:

代码语言:javascript
运行
复制
var audioContext = new webkitAudioContext();
var audioInput = null,
    realAudioInput = null,
    inputPoint = null,
    audioRecorder = null;
var rafID = null;
var analyserContext = null;
var canvasWidth, canvasHeight;
var recIndex = 0;

/* TODO:

- offer mono option
- "Monitor input" switch
*/

function saveAudio() {
    audioRecorder.exportWAV( doneEncoding );
}

function drawWave( buffers ) {
    var canvas = document.getElementById( "wavedisplay" );

    drawBuffer( canvas.width, canvas.height, canvas.getContext('2d'), buffers[0] );
}

function doneEncoding( blob ) {
    Recorder.forceDownload( blob, "myRecording" + ((recIndex<10)?"0":"") + recIndex + ".wav" );
    recIndex++;
}

function toggleRecording( e ) {
    if (e.classList.contains("recording")) {
        // stop recording
        audioRecorder.stop();
        e.classList.remove("recording");
        audioRecorder.getBuffers( drawWave );
    } else {
        // start recording
        if (!audioRecorder)
            return;
        e.classList.add("recording");
        audioRecorder.clear();
        audioRecorder.record();
    }
}

// this is a helper function to force mono for some interfaces that return a stereo channel for a mono source.
// it's not currently used, but probably will be in the future.
function convertToMono( input ) {
    var splitter = audioContext.createChannelSplitter(2);
    var merger = audioContext.createChannelMerger(2);

    input.connect( splitter );
    splitter.connect( merger, 0, 0 );
    splitter.connect( merger, 0, 1 );
    return merger;
}
function toggleMono() {
    if (audioInput != realAudioInput) {
        audioInput.disconnect();
        realAudioInput.disconnect();
        audioInput = realAudioInput;
    } else {
        realAudioInput.disconnect();
        audioInput = convertToMono( realAudioInput );
    }

    audioInput.connect(inputPoint);
}


function cancelAnalyserUpdates() {
    window.webkitCancelAnimationFrame( rafID );
    rafID = null;
}

function updateAnalysers(time) {
    if (!analyserContext) {
        var canvas = document.getElementById("analyser");
        canvasWidth = canvas.width;
        canvasHeight = canvas.height;
        analyserContext = canvas.getContext('2d');
    }

    // analyzer draw code here
    {
        var SPACING = 3;
        var BAR_WIDTH = 1;
        var numBars = Math.round(canvasWidth / SPACING);
        var freqByteData = new Uint8Array(analyserNode.frequencyBinCount);

        analyserNode.getByteFrequencyData(freqByteData); 

        analyserContext.clearRect(0, 0, canvasWidth, canvasHeight);
        analyserContext.fillStyle = '#F6D565';
        analyserContext.lineCap = 'round';
        var multiplier = analyserNode.frequencyBinCount / numBars;

        // Draw rectangle for each frequency bin.
        for (var i = 0; i < numBars; ++i) {
            var magnitude = 0;
            var offset = Math.floor( i * multiplier );
            // gotta sum/average the block, or we miss narrow-bandwidth spikes
            for (var j = 0; j< multiplier; j++)
                magnitude += freqByteData[offset + j];
            magnitude = magnitude / multiplier;
            var magnitude2 = freqByteData[i * multiplier];
            analyserContext.fillStyle = "hsl( " + Math.round((i*360)/numBars) + ", 100%, 50%)";
            analyserContext.fillRect(i * SPACING, canvasHeight, BAR_WIDTH, -magnitude);
        }
    }

    rafID = window.webkitRequestAnimationFrame( updateAnalysers );
}

function gotStream(stream) {
    // "inputPoint" is the node to connect your output recording to.
    inputPoint = audioContext.createGainNode();

    // Create an AudioNode from the stream.
    realAudioInput = audioContext.createMediaStreamSource(stream);
    audioInput = realAudioInput;
    audioInput.connect(inputPoint);

//    audioInput = convertToMono( input );

    analyserNode = audioContext.createAnalyser();
    analyserNode.fftSize = 2048;
    inputPoint.connect( analyserNode );

    audioRecorder = new Recorder( inputPoint );

    zeroGain = audioContext.createGainNode();
    zeroGain.gain.value = 0.0;
    inputPoint.connect( zeroGain );
    zeroGain.connect( audioContext.destination );
    updateAnalysers();
}

function initAudio() {
    if (!navigator.webkitGetUserMedia)
        return(alert("Error: getUserMedia not supported!"));

    navigator.webkitGetUserMedia({audio:true}, gotStream, function(e) {
            alert('Error getting audio');
            console.log(e);
        });
}

window.addEventListener('load', initAudio );

正如您可能看到的那样,使用此方法加载页面(读取最后一行)时,将立即调用initAudio()函数(向用户询问使用其麦克风的权限):

代码语言:javascript
运行
复制
window.addEventListener('load', initAudio );

现在,我在HTML中有了以下代码:

代码语言:javascript
运行
复制
<script type="text/javascript" >
$(function() {
  $("#recbutton").on("click", function() {
    $("#entrance").hide();
    $("#live").fadeIn("slow");
    toggleRecording(this);
    $(this).toggle();
    return $("#stopbutton").toggle();
  });
  return $("#stopbutton").on("click", function() {
    audioRecorder.stop();
    $(this).toggle();
    $("#recbutton").toggle();
    $("#live").hide();
    return $("#entrance").fadeIn("slow");
  });
});
</script>

正如您所看到的,我只在按下#recbutton按钮之后才调用toggleRecording(this)函数(该函数将启动记录过程)。现在,这段代码一切正常,但是,一旦页面被加载,用户就会收到麦克风许可提示,我想向他们请求使用麦克风的权限,只在他们单击#recbutton按钮之后,您明白了吗?如果删除第一个文件的最后一行,我会这样做:

代码语言:javascript
运行
复制
window.addEventListener('load', initAudio );

然后修改我嵌入的脚本如下:

代码语言:javascript
运行
复制
<script type="text/javascript" >
$(function() {
  $("#recbutton").on("click", function() {
    $("#entrance").hide();
    $("#live").fadeIn("slow");
    initAudio();
    toggleRecording(this);
    $(this).toggle();
    return $("#stopbutton").toggle();
  });
  return $("#stopbutton").on("click", function() {
    audioRecorder.stop();
    $(this).toggle();
    $("#recbutton").toggle();
    $("#live").hide();
    return $("#entrance").fadeIn("slow");
  });
});
</script>

我可能能够实现我想要的,而实际上我是,用户不会被提示要他/她的麦克风,直到他们点击#recbutton按钮。问题是,音频永远得不到录音的,当你试图下载它时,其结果是空的。

我怎么才能解决这个问题?

我的项目代码位于:https://github.com/Jmlevick/html-recorder

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2013-07-18 00:54:34

我找到了一个优雅而简单的解决方案(至少我是这样认为的):

我所做的是将"main.js""recorder.js"抛到一个getScript调用中,该调用只在用户单击某个按钮(#recorder.js 1)时执行.这些脚本在按下按钮之前不会加载网页本身,但我们需要一些更巧妙的技巧来使其按照我前面描述和希望的方式工作:

main.js中,我更改了:

代码语言:javascript
运行
复制
window.addEventListener('load', initAudio );

适用于:

代码语言:javascript
运行
复制
window.addEventListener('click', initAudio );

因此,当脚本用getScript加载到页面中时,"main.js"文件现在会监听网页中的单击event,以向用户询问麦克风。接下来,我必须在页面上创建一个隐藏按钮(# then 2),在脚本加载到页面上之后,jQuery就会诡异地单击该按钮,因此它触发了“要求麦克风许可”事件,然后,在代码行的下方生成了我添加的假点击:

代码语言:javascript
运行
复制
window.removeEventListener("click", initAudio, false);

因此,这个技巧的“工作流”以如下方式结束:

  1. 用户按下一个使用getScript将必要的js文件加载到页面中的按钮,值得一提的是,现在"main.js“文件侦听窗口上的单击事件,而不是load事件。
  2. 在您单击第一个按钮时,我们有一个隐藏的按钮是jQuery“假装单击”的,因此它会为用户触发允许的事件。
  3. 一旦触发此事件,单击事件侦听器就会从窗口中移除,因此当用户单击页面上的任何位置时,它都不会再次触发"ask for permisson“事件。

现在,当用户进入页面时,他/她永远不会被问到麦克风许可,直到他们按下我想要的页面上的"Rec“按钮。只要点击一下用户,我们就可以在jQuery中做3件事情,但是对于用户来说,似乎什么都没有发生,在他们点击"Rec“按钮后,屏幕上立即出现了”麦克风允许消息“。

票数 0
EN

Stack Overflow用户

发布于 2013-06-16 03:37:00

不,您的问题是getUserMedia()有一个异步回调(gotMedia());您需要在这个回调中包含启动按钮调用(特别是toggleRecording位)中的其余代码逻辑,因为现在在getUserMedia返回之前执行它(并设置音频节点)。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/17123263

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档