NAudio的錄音和播放錄音都有對應的類,我在使用Wav格式進行錄音和播放錄音時使用的類時WaveIn和WaveOut,這兩個類是對功能的回調和一些事件觸發。html
在WaveIn和WaveOut以外還有對音頻流讀寫使用的WaveFileWriter和WaveFileReader類,具體細節可查看其源碼進行分析。數組
其中繪製音頻波形圖根據錄製和播放須要不一樣途徑實現。ide
1.錄音時實時顯示波形圖,在錄音時實時獲取須要使用WaveIn.DataAvailable回調事件,在這個回調事件中會傳遞出音頻流數據,數據類型Byte[],這就是音頻內容函數
但這個Byte數組須要還原爲真實的數據,它的真實數據類型需根據PCM寫入時的數據格式定,主要有8bit、16bit、24bit、32bit,如寫入時是16bit就需將其轉換爲16bit數據學習
而後根據WaveIn.WaveFormat的channels去獲取音頻波形值,而後輸出出來,具體示例以下:spa
private void waveSource_DataAvailable(object sender, WaveInEventArgs e) { if (waveFile != null) { waveFile.Write(e.Buffer, 0, e.BytesRecorded); waveFile.Flush(); float[] sts = new float[e.Buffer.Length / channels]; int outIndex = 0; for (int n = 0; n < e.Buffer.Length; n += channels) { sts[outIndex++] = BitConverter.ToInt16(e.Buffer, n) / 32768f; } for (int n = 0; n < sts.Length; n += channels) { Add(sts[n]); } } }
其中Add()方法就是添加波形值到UI控件上的方法,可根據本身需求實現。 .net
2.播放錄音文件時顯示波形圖調試
播放錄音時需初始化AudioFileReader類,並傳入須要播放的文件路徑,並將這個類傳入WaveOut類中,最後用繼承自ISampleProvider的類加載和初始化調用Play方法,而後會調用到WaveOut類Read方法時,會可使用AudioFileReader.Read()方法進行獲取參數,獲取的是float數組,可直接用於繪製波形圖code
private void AnalysisRecord_Click(object sender, RoutedEventArgs e) { var inputStream = new AudioFileReader(recordList[0]); ISampleProvider aggregator = new NAudioReader(inputStream); aggregator.MaximumCalculated += Aggregator_MaximumCalculated; aggregator.Start(); waveOutDevice.Init(aggregator); waveOutDevice.Volume = 0; waveOutDevice.PlaybackStopped += WaveOutDevice_PlaybackStopped; waveOutDevice.Play(); }
public int Read(float[] buffer, int offset, int count)///這個函數是ISampleProvider調用的函數
{ var samplesRead = source.Read(buffer, offset, count); for (int n = 0; n < samplesRead; n += channels) { Add(buffer[n + offset]); } return samplesRead; }
至於繪製波形的WPF細節就在Demo中看吧,主要要注意WaveIn和WaveOut、WaveFileReader和WaveFileWriter相關內容,具體可下源碼和Demo看下orm
具體可調試示例以下:示例 (也是粗淺學習,可交流,輕拍磚)
寫的比較亂,可跳轉到下一篇,寫的相對具體點