web-audio

    5熱度

    1回答

    我需要使用來自不同MediaStream的音頻和視頻創建MediaStream。 var outputTracks = []; outputTracks = outputTracks.concat(outputAudioStream.getTracks()); outputTracks = outputTracks.concat(outputVideoStream.getTra

    0熱度

    1回答

    根據文檔,您應該每頁僅調用一次AudioContext。 當我嘗試正確使用它並在函數外調用它時,沒有聲音產生。上下文變量被定義和填充,在控制檯中沒有引發錯誤,它只是不產生聲音。 當我在每個'onClick'事件被調用的函數中調用它時,它最初都能正常工作,但在第六次調用它時我意料不到地發生錯誤,因爲我已經達到了可以調用它的時間限制。 var context = new AudioContext; /

    3熱度

    1回答

    我按照this article中的說明創建了Javascript節拍器。它利用了Web Audio API,並在其核心部分有精確的時間點audioContext.currentTime。 我的版本,可在this plunker,是由克里斯·威爾遜和可用here的原始非常簡化的版本。爲了讓我的工作,因爲它使用一個實際的音頻文件,並沒有通過振盪器合成聲音,你需要下載plunker和this audio

    -2熱度

    1回答

    我得到這可能不是你的標準「郵政編碼,幫我調試」的問題,但我覺得我在行末,我想我可能會嘗試並得到輸入從放棄之前,你的傢伙。 兩天來,我一直試圖圍繞Web-Audio-API進行打包,就我而言,這是一個名爲「對象和函數,可以幫助您在Javascript中處理聲音」 。 我希望做的一些事情很簡單,例如:錄製用戶麥克風,以隨機比例告訴他音量,從用戶/服務器獲取歌曲文件並向其添加效果......等 但是,我

    0熱度

    2回答

    在詢問之前請嘗試很多事情,但我仍然無法在我的Ionic項目中加載聲音作爲緩衝區。 我不知道這是來自我舊的Firefox瀏覽器26(Fedora 18)的錯誤還是我做錯了。 這裏我的代碼,使用XMLHttpRequest()加載arrayBuffer用於網絡音頻API非常經典的話: var request = new XMLHttpRequest() request.open('GET'

    0熱度

    1回答

    在web音頻中,有沒有一種方法可以讓MediaElementSource節點被垃圾收集? 我已經設置了一個頁面,添加了兩個節點:一個MediaElementSource和一個振盪器。當我斷開它們兩個時,振盪器在垃圾收集後很快被收集,但MediaElementSource保持永久。 (這是根據可視化音頻圖形的Firefox網絡音頻開發工具。) 我在Mac(優勝美地)的Chrome和Firefox中都

    3熱度

    2回答

    我有一個簡單的合成器,可播放音符的時間有些長: // Creating audio graph var audioCtx = new (window.AudioContext || window.webkitAudioContext)(); var oscillator = audioCtx.createOscillator(); var gainNode = audioCtx.create

    0熱度

    2回答

    如何在瀏覽器中將緩衝區的採樣率從44100轉換爲48000 Hz? 我發現圖書館https://github.com/taisel/XAudioJS/blob/master/resampler.js應該允許我這樣做,但不知道如何使用它。

    2熱度

    2回答

    我想爲視頻元素中播放的音頻創建分貝表。視頻元素正在播放WebRTC流。 目前WebRTC流不能傳遞到Web音頻分析器。 (儘管這可能會很快發生變化...)(請參閱Web Audio API analyser node getByteFrequencyData returning blank array) 目前是否有另一種方法從遠程媒體流獲取分貝信息?

    6熱度

    2回答

    我曾在幾篇教程中看到在振盪器節點中使用.disconnect()之後的.stop()。 據我所知,振盪器節點是一次性的,所以當它停止並被扔掉時,它是不是也會斷開連接? 我理解錯了什麼?爲什麼在.stop()之後需要使用.disconnect()?