web-audio

    1熱度

    1回答

    我正在使用HTML5的音頻API,它從另一個域需要的MP3文件,Web應用程序 我寫了這個加載MP3爲arraybuffer,但這不能從另一個域加載文件。 makeSound.prototype.load = function(callback) { var request = new XMLHttpRequest(); var that = this; reques

    1熱度

    1回答

    我有13張照片,我將放入一個滑塊。我想爲每個圖像附加一個聲音,例如,當我到達圖像10時,聲音10開始播放。 我完全不熟悉jQuery,我曾考慮過使用Orbit作爲滑塊,但我不知道如何將聲音集成到它中。 任何簡單的想法做到這一點?

    9熱度

    1回答

    我一直在玩Web Audio API,我試圖載入歌曲的多個部分,並將它們追加到一個新的ArrayBuffer中,然後使用它ArrayBuffer將所有部分作爲一首歌曲播放。在下面的例子中,我使用了相同的歌曲數據(這是一個小循環),而不是歌曲的不同部分。 問題是,它仍然只播放一次而不是兩次,我不知道爲什麼。 Download song function init() { /**

    2熱度

    1回答

    我正在嘗試構建一個接口,該接口允許對Web音頻振盪器節點進行定時/節奏(潛在音高)輸入。實際上創建了「步序列器」。 爲Web Audio API振盪器節點觸發計劃的NoteOn的最佳方式是什麼? 以特定模式,即1/4音符,1/8音符或用戶輸入的模式。

    11熱度

    1回答

    現在修正了Chrome Chrome Can每個http://code.google.com/p/chromium/issues/detail?id=112367阻止麥克風輸入的錯誤。這部分似乎工作。我可以將麥克風輸入分配給音頻元素,並通過揚聲器收聽結果。 但我想連接分析儀節點,以便做FFT。如果我將音頻源設置爲本地文件,分析器節點工作正常。問題是,當連接到麥克風音頻流時,分析儀節點只是返回基本值

    0熱度

    1回答

    我可以使用Adobe AIR使用Javascript和Web Audio API創建應用程序,然後讓所述應用程序在轉變爲獨立的桌面/移動應用程序後仍保留其音頻功能。我還沒有開始使用Adobe AIR,因此我不熟悉該軟件。

    0熱度

    1回答

    代碼中的註釋應該不言自明。 <div id="pad2"></div> <input id="oscPitch" type="range" min="5" max="500" step="1" value="50"/> <p>Pitch</p> <script> context = new webkitAudioContext(); var pad2 = document.ge

    2熱度

    2回答

    我正在學習使用web audio api來合成和處理聲音。我發現我有一個BiquadFilterNode類可以使用,但它只允許指定一個定義的過濾器類型("lowpass", "highpass", "bandpass", "lowshelf", "highshelf", "peaking", "notch", "allpass")並通過這些過濾器的元參數來控制它:Q,gain和center-fre

    3熱度

    1回答

    嗨,大家好我愛Web Audio Api。可能性很棒。據說它仍處於早期階段。我最擔心的是我不知道如何釋放我不再需要的緩衝區/聲音。聲音緩衝器與總是新的sontent,因爲我將混合 音樂家/ DJs /主持人通過websockets連接的現場聲音 以下代碼模擬加載連續播放新緩衝區。我需要網絡音頻api來添加效果混合,所以每個人都可以聽到他的表演效果 不幸的是,這個代碼吃整個RAM和崩潰的移動和桌面S

    5熱度

    2回答

    我想用OscillatorNodes發揮和絃OscillatorNodes和絃: var ac = new (window.AudioContext || window.webkitAudioContext); // C4, E4, G4 var freqs = [261.63, 329.63, 392.00]; for(var i=0;i<freqs.length;i++) {