destination, currentTime
AudioContext的createGain()方法,创建GainNode(调节音量),GainNode通过connect方法连接到AudioContext的一个destination属性上,即AudioDestinationNode(所有音频结点的最终目的地).AC的createAnalyser()创建AnalyserNode。GainNode必须在AN和ADN之间,否则分析的时GainNode改变后的音频数据。
分析音频会把频域信息提供给requestAnimationFrame(function)函数,进行动画绘制。
AudioContext通过createBufferSource()创建AudioBufferSourceNode
ABSN的buffer的buffer属性赋值后,它才真正能获得音频数据。
我们用ajax发起请求,获取的数据时arrayBuffer类型。通过audioContext的decodeAudioDate()方法解码,解码成功得到AudioBuffer。把AudioBuffer赋值给ABSN的buffer属性。然后调用ABSN的start()方法就可以播放音频。