標準的python已經支持WAV格式的書寫,而實時的聲音輸入輸出須要安裝pyAudio(http://people.csail.mit.edu/hubert/pyaudio)。最後咱們還將使用pyMedia(http://pymedia.org)進行Mp3的解碼和播放。html
音頻信號是模擬信號,咱們須要將其保存爲數字信號,才能對語音進行算法操做,WAV是Microsoft開發的一種聲音文件格式,一般被用來保存未壓縮的聲音數據。python
語音信號有三個重要的參數:聲道數、取樣頻率和量化位數。git
例如CD中所儲存的聲音信號是雙聲道、44.1kHz、16bit。github
若是你須要本身錄製和編輯聲音文件,推薦使用Audacity(http://audacity.sourceforge.net),它是一款開源的、跨平臺、多聲道的錄音編輯軟件。在個人工做中常用Audacity進行聲音信號的錄製,而後再輸出成WAV文件供Python程序處理。算法
wava模塊爲WAV聲音格式提供了方面的界面,他不支持壓縮/解壓,但支持單聲道/立體聲。json
Wave_read = wave.open(file,mode="rb")數組
file一般爲是字符串格式的文件名或者文件路徑緩存
例如voice.wav文件的路徑C:\Users\Never\Desktop\code for the speechapp
則file有如下三種填寫格式:dom
r"C:\Users\Never\Desktop\code for the speech\voice.wav"
"C:/Users/Never/Desktop/code for the speech/voice.wav"
"C:\\Users\\Never\\Desktop\\code for the speech\\voice.wav"
三者等價,右劃線\爲轉意字符,若是要表達\則須要\\,引號前面加r表示原始字符串。
mode是缺省參數,能夠不填,也能夠是"rb":只讀模式;"wb":只寫模式。注意不支持讀/寫格式。
該open()
函數可用於with
聲明中。當with
塊完成時,Wave_read.close()
或Wave_write.close()
方法被調用。Wave_read是讀取的文件流。
Wave_read.
getparams
()
一次性返回全部的音頻參數,返回的是一個元組(聲道數,量化位數(byte單位),採樣頻率,採樣點數,壓縮類型,壓縮類型的描述)。(nchannels, sampwidth, framerate, nframes, comptype, compname)wave模塊只支持非壓縮的數據,所以能夠忽略最後兩個信息。
str_data = Wave_read.
readframes
(nframes)
指定須要讀取的長度(以取樣點爲單位),返回的是字符串類型的數據
wave_data = np.fromstring(str_data, dtype=np.short)
將讀取的字符串數據轉換爲一維short類型的數組。
經過np.fromstring函數將字符串轉換爲數組,經過其參數dtype指定轉換後的數據格式(因爲咱們的聲音格式是以兩個字節表示一個取樣值,所以採用short數據類型轉換)
如今的wave_data是一個一維的short類型的數組,可是由於咱們的聲音文件是雙聲道的,所以它由左右兩個聲道的取樣交替構成:LR
wave_data.shape = (-1, 2) # -1的意思就是沒有指定,根據另外一個維度的數量進行分割,獲得n行2列的數組。
getnchannels, getsampwidth, getframerate, getnframes等方法能夠單獨返回WAV文件的特定的信息。
Wave_read.
close
() 關閉文件流wave
Wave_read.
getnchannels
() 返回音頻通道的數量(1
對於單聲道,2
對於立體聲)。
Wave_read.
getsampwidth
() 以字節爲單位返回樣本寬度
Wave_read.
getframerate
() 返回採樣頻率。
Wave_read.
getnframes
() 返回音頻幀數。
Wave_read.
rewind
() 將文件指針倒回到音頻流的開頭。
Wave_read.
tell
() 返回當前文件指針位置。
# -*- coding: utf-8 -*- # 讀Wave文件而且繪製波形 import wave import matplotlib.pyplot as plt import numpy as np # 打開WAV音頻 f = wave.open(r"C:\Windows\media\Windows Background.wav", "rb") # 讀取格式信息 # (聲道數、量化位數、採樣頻率、採樣點數、壓縮類型、壓縮類型的描述) # (nchannels, sampwidth, framerate, nframes, comptype, compname) params = f.getparams() nchannels, sampwidth, framerate, nframes = params[:4] # nchannels通道數 = 2 # sampwidth量化位數 = 2 # framerate採樣頻率 = 22050 # nframes採樣點數 = 53395 # 讀取nframes個數據,返回字符串格式 str_data = f.readframes(nframes) f.close() #將字符串轉換爲數組,獲得一維的short類型的數組 wave_data = np.fromstring(str_data, dtype=np.short) # 賦值的歸一化 wave_data = wave_data*1.0/(max(abs(wave_data))) # 整合左聲道和右聲道的數據 wave_data = np.reshape(wave_data,[nframes,nchannels]) # wave_data.shape = (-1, 2) # -1的意思就是沒有指定,根據另外一個維度的數量進行分割 # 最後經過採樣點數和取樣頻率計算出每一個取樣的時間 time = np.arange(0, nframes) * (1.0 / framerate) plt.figure() # 左聲道波形 plt.subplot(3,1,1) plt.plot(time, wave_data[:,0]) plt.xlabel("time (seconds)") plt.ylabel("Amplitude") plt.title("Left channel") plt.grid() # 標尺 plt.subplot(3,1,3) # 右聲道波形 plt.plot(time, wave_data[:,1], c="g") plt.xlabel("time (seconds)") plt.ylabel("Amplitude") plt.title("Left channel") plt.title("right channel") plt.grid() plt.show()
效果圖:
from scipy.io import wavfile
sampling_freq, audio = wavfile.read("***.wav")
audio 是直接通過歸一化的數組
import librosa
y, sr = librosa.load(filename)
該函數是會改變聲音的採樣頻率的。若是 sr 缺省,librosa.load()會默認以22050的採樣率讀取音頻文件,高於該採樣率的音頻文件會被下采樣,低於該採樣率的文件會被上採樣。所以,若是但願以原始採樣率讀取音頻文件,sr 應當設爲 None。具體作法爲 y, sr = librosa(filename, sr=None)。
audio 是直接通過歸一化的數組
在寫入第一幀數據時,先經過調用setnframes()
設置好幀數,setnchannels()設置好聲道數,setsampwidth()設置量化位數,setframerate()設置好採樣頻率,
而後writeframes(wave.tostring())
用於寫入幀數據。
Wave_write = wave.open(file,mode="wb")
Wave_write是寫文件流,
Wave_write.
setnchannels
(n) 設置通道數。
Wave_write.
setsampwidth
(n) 將樣本寬度設置爲n個字節,量化位數
Wave_write.
setframerate
(n) 將採樣頻率設置爲n。
Wave_write.
setnframes
(n) 將幀數設置爲n
Wave_write.
setparams
(tuple) 以元組形式設置全部參數(nchannels, sampwidth, framerate, nframes,comptype, compname)
Wave_write.
writeframes
(data) 寫入data個長度的音頻,以採樣點爲單位
Wave_write.
tell
() 返回文件中的當前位置
# -*- coding: utf-8 -*- import wave import numpy as np import scipy.signal as signal framerate = 44100 # 採樣頻率 time = 10 # 持續時間 t = np.arange(0, time, 1.0/framerate) # 調用scipy.signal庫中的chrip函數, # 產生長度爲10秒、取樣頻率爲44.1kHz、100Hz到1kHz的頻率掃描波 wave_data = signal.chirp(t, 100, time, 1000, method='linear') * 10000 # 因爲chrip函數返回的數組爲float64型, # 須要調用數組的astype方法將其轉換爲short型。 wave_data = wave_data.astype(np.short) # 打開WAV音頻用來寫操做 f = wave.open(r"sweep.wav", "wb") f.setnchannels(1) # 配置聲道數 f.setsampwidth(2) # 配置量化位數 f.setframerate(framerate) # 配置取樣頻率 comptype = "NONE" compname = "not compressed" # 也能夠用setparams一次性配置全部參數 # outwave.setparams((1, 2, framerate, nframes,comptype, compname)) # 將wav_data轉換爲二進制數據寫入文件 f.writeframes(wave_data.tostring()) f.close()
import wave import numpy as np import struct f = wave.open(r"C:\Windows\media\Windows Background.wav", "rb") params = f.getparams() nchannels, sampwidth, framerate, nframes = params[:4] strData = f.readframes(nframes) waveData = np.fromstring(strData,dtype=np.int16) f.close() waveData = waveData*1.0/(max(abs(waveData))) # wav文件寫入 # 待寫入wav的數據,這裏仍然取waveData數據 outData = waveData outwave = wave.open("write.wav", 'wb') nchannels = 1 # 通道數設置爲1 sampwidth = 2 # 量化位數設置爲2 framerate = 8000 # 採樣頻率8000 nframes = len(outData) # 採樣點數 comptype = "NONE" compname = "not compressed" outwave.setparams((nchannels, sampwidth, framerate, nframes, comptype, compname)) for i in outData: outwave.writeframes(struct.pack('h', int(i * 64000 / 2))) # struct.pack(FMT, V1)將V1的值轉換爲FMT格式字符串 outwave.close()
from scipy.io.wavfile import write
write(output_filename, freq, audio)
import numpy as np import matplotlib.pyplot as plt from scipy.io.wavfile import write # 定義存儲音頻的輸出文件 output_file = 'output_generated.wav' # 指定音頻生成的參數 duration = 3 # 單位秒 sampling_freq = 44100 # 單位Hz tone_freq = 587 # 音調的頻率 min_val = -2 * np.pi max_val = 2 * np.pi # 生成音頻信號 t = np.linspace(min_val, max_val, duration * sampling_freq) audio = np.sin(2 * np.pi * tone_freq * t) # 添加噪聲(duration * sampling_freq個(0,1]之間的隨機值) noise = 0.4 * np.random.rand(duration * sampling_freq) audio += noise scaling_factor = pow(2,15) - 1 # 轉換爲16位整型數 audio_normalized = audio / np.max(np.abs(audio)) # 歸一化 audio_scaled = np.int16(audio_normalized * scaling_factor) # 這句話什麼意思 write(output_file, sampling_freq, audio_scaled) # 寫入輸出文件 audio = audio[:300] # 取前300個音頻信號 x_values = np.arange(0, len(audio), 1) / float(sampling_freq) x_values *= 1000 # 將時間軸單位轉換爲秒 plt.plot(x_values, audio, color='blue') plt.xlabel('Time (ms)') plt.ylabel('Amplitude') plt.title('Audio signal') plt.show()
librosa.output.
write_wav
(path, y, sr, norm=False)
參數:
合成有音調的音樂
import json import numpy as np from scipy.io.wavfile import write import matplotlib.pyplot as plt # 定義合成音調 def Synthetic_tone(freq, duration, amp=1.0, sampling_freq=44100): # 創建時間軸 t = np.linspace(0, duration, duration * sampling_freq) # 構建音頻信號 audio = amp * np.sin(2 * np.pi * freq * t) return audio.astype(np.int16) # json文件中包含一些音階以及他們的頻率 tone_map_file = 'tone_freq_map.json' # 讀取頻率映射文件 with open(tone_map_file, 'r') as f: tone_freq_map = json.loads(f.read()) print(tone_freq_map) # {'A': 440, 'Asharp': 466, 'B': 494, 'C': 523, 'Csharp': 554, 'D': 587, 'Dsharp': 622, 'E': 659, 'F': 698, 'Fsharp': 740, 'G': 784, 'Gsharp': 831} # 設置生成G調的輸入參數 input_tone = 'G' duration = 2 # seconds amplitude = 10000 # 振幅 sampling_freq = 44100 # Hz # 生成音階 synthesized_tone = Synthetic_tone(tone_freq_map[input_tone], duration, amplitude, sampling_freq) # 寫入輸出文件 write('output_tone.wav', sampling_freq, synthesized_tone) # 音階及其連續時間 tone_seq = [('D', 0.3), ('G', 0.6), ('C', 0.5), ('A', 0.3), ('Asharp', 0.7)] # 構建基於和絃序列的音頻信號 output = np.array([]) for item in tone_seq: input_tone = item[0] duration = item[1] synthesized_tone = Synthetic_tone(tone_freq_map[input_tone], duration, amplitude, sampling_freq) output = np.append(output, synthesized_tone, axis=0) # 寫入輸出文件 write('output_tone_seq.wav', sampling_freq, output)
{ "A": 440, "Asharp": 466, "B": 494, "C": 523, "Csharp": 554, "D": 587, "Dsharp": 622, "E": 659, "F": 698, "Fsharp": 740, "G": 784, "Gsharp": 831 }
wav文件的播放用到的是pyaudio庫
p = pyaudio.PyAudio()
stream = p.open(format = p.get_format_from_width(sampwidth),channels,rate,output = True)
stream.write(data) # 播放data數據
如下列出pyaudio對象的open()方法的主要參數:
rate - 取樣頻率
channels - 聲道數
format - 取樣值的量化格式 (paFloat32, paInt32, paInt24, paInt16, paInt8 ...)。在上面的例子中,使用get_format_from_width方法將wf.sampwidth()的返回值2轉換爲paInt16
input - 輸入流標誌,若是爲True的話則開啓輸入流
output - 輸出流標誌,若是爲True的話則開啓輸出流
input_device_index - 輸入流所使用的設備的編號,若是不指定的話,則使用系統的缺省設備
output_device_index - 輸出流所使用的設備的編號,若是不指定的話,則使用系統的缺省設備
frames_per_buffer - 底層的緩存的塊的大小,底層的緩存由N個一樣大小的塊組成
start - 指定是否當即開啓輸入輸出流,缺省值爲True
# -*- coding: utf-8 -*- import pyaudio import wave chunk = 1024 wf = wave.open(r"c:\WINDOWS\Media\Windows Background.wav", 'rb') p = pyaudio.PyAudio() # 打開聲音輸出流 stream = p.open(format = p.get_format_from_width(wf.getsampwidth()), channels = wf.getnchannels(), rate = wf.getframerate(), output = True) # 寫聲音輸出流到聲卡進行播放 while True: data = wf.readframes(chunk) if data == "": break stream.write(data) stream.stop_stream() stream.close() p.terminate() # 關閉PyAudio
以SAMPLING_RATE爲採樣頻率,每次讀入一塊有NUM_SAMPLES個採樣的數據塊,當讀入的採樣數據中有COUNT_NUM個值大於LEVEL的取樣的時候,將數據保存進WAV文件,一旦開始保存數據,所保存的數據長度最短爲SAVE_LENGTH個塊。WAV文件以保存時的時刻做爲文件名。
從聲卡讀入的數據和從WAV文件讀入的相似,都是二進制數據,因爲咱們用paInt16格式(16bit的short類型)保存採樣值,所以將它本身轉換爲dtype爲np.short的數組。
錄音
''' 以SAMPLING_RATE爲採樣頻率, 每次讀入一塊有NUM_SAMPLES個採樣點的數據塊, 當讀入的採樣數據中有COUNT_NUM個值大於LEVEL的取樣的時候, 將採樣數據保存進WAV文件, 一旦開始保存數據,所保存的數據長度最短爲SAVE_LENGTH個數據塊。 從聲卡讀入的數據和從WAV文件讀入的相似,都是二進制數據, 因爲咱們用paInt16格式(16bit的short類型)保存採樣值, 所以將它本身轉換爲dtype爲np.short的數組。 ''' from pyaudio import PyAudio, paInt16 import numpy as np import wave # 將data中的數據保存到名爲filename的WAV文件中 def save_wave_file(filename, data): wf = wave.open(filename, 'wb') wf.setnchannels(1) # 單通道 wf.setsampwidth(2) # 量化位數 wf.setframerate(SAMPLING_RATE) # 設置採樣頻率 wf.writeframes(b"".join(data)) # 寫入語音幀 wf.close() NUM_SAMPLES = 2000 # pyAudio內部緩存塊的大小 SAMPLING_RATE = 8000 # 取樣頻率 LEVEL = 1500 # 聲音保存的閾值,小於這個閾值不錄 COUNT_NUM = 20 # 緩存快類若是有20個大於閾值的取樣則記錄聲音 SAVE_LENGTH = 8 # 聲音記錄的最小長度:SAVE_LENGTH * NUM_SAMPLES 個取樣 # 開啓聲音輸入 pa = PyAudio() stream = pa.open(format=paInt16, channels=1, rate=SAMPLING_RATE, input=True, frames_per_buffer=NUM_SAMPLES) save_count = 0 # 用來計數 save_buffer = [] # while True: # 讀入NUM_SAMPLES個取樣 string_audio_data = stream.read(NUM_SAMPLES) # 將讀入的數據轉換爲數組 audio_data = np.fromstring(string_audio_data, dtype=np.short) # 計算大於LEVEL的取樣的個數 large_sample_count = np.sum( audio_data > LEVEL ) print(np.max(audio_data)) # 若是個數大於COUNT_NUM,則至少保存SAVE_LENGTH個塊 if large_sample_count > COUNT_NUM: save_count = SAVE_LENGTH else: save_count -= 1 if save_count < 0: save_count = 0 if save_count > 0: # 將要保存的數據存放到save_buffer中 save_buffer.append( string_audio_data ) else: # 將save_buffer中的數據寫入WAV文件,WAV文件的文件名是保存的時刻 if len(save_buffer) > 0: filename = "recorde" + ".wav" save_wave_file(filename, save_buffer) print(filename, "saved") break
語音信號的產生和感知
咱們要對語音進行分析,首先要提取可以表示該語音的特徵參數,有了特徵參數纔可能利用這些參數進行有效的處理,在對語音信號處理的過程當中,語音信號的質量不只取決於處理方法,同時取決於時候選對了合適的特徵參數。
語音信號是一個非平穩的時變信號,但語音信號是由聲門的激勵脈衝經過聲道造成的,而聲道(人的口腔、鼻腔)的肌肉運動是緩慢的,因此「短期」(10~30ms)內能夠認爲語音信號是平穩時不變的。由此構成了語音信號的「短時分析技術」。
在短時分析中,將語音信號分爲一段一段的語音幀,每一幀通常取10~30ms,咱們的研究就創建在每一幀的語音特徵分析上。
提取的不一樣的語音特徵參數對應着不一樣的語音信號分析方法:時域分析、頻域分析、倒譜域分析...因爲語音信號最重要的感知特性反映在功率譜上,而相位變化只起到很小的做用,全部語音頻域分析更加劇要。
一、矩形窗
$$w(n)=\left\{\begin{matrix} 1&&0\leq n\leq L-1\\ 0&&其餘 \end{matrix}\right.$$
二、漢明窗(Hamming)
$$w(n)=\left\{\begin{matrix} \frac{1}{2}(1-cos(\frac{2\pi n}{L-1}))&&0\leq n\leq L-1\\ 0&&其餘 \end{matrix}\right.$$
三、海寧窗(Hanning)
$$w(n)=\left\{\begin{matrix} 0.54-0.46cos(\frac{2\pi n}{L-1})&&0\leq n\leq L-1\\ 0&&其餘 \end{matrix}\right.$$
一般對信號截斷、分幀須要加窗,由於截斷都有頻域能量泄露,而窗函數能夠減小截斷帶來的影響。
窗函數在scipy.signal信號處理工具箱中,如hanning窗:
import matplotlib.pyplot as plt import scipy.signal as signal plt.figure(figsize=(6,2)) plt.plot(signal.hanning(512)) plt.show()
在分幀中,相鄰兩幀之間會有一部分重疊,幀長(wlen) = 重疊(overlap)+幀移(inc),若是相鄰兩幀之間不重疊,那麼因爲窗函數的形狀,截取到的語音幀邊緣會出現損失,因此要設置重疊部分。inc爲幀移,表示後一幀第前一幀的偏移量,fs表示採樣率,fn表示一段語音信號的分幀數。
$$\frac{N-overlap}{inc}=\frac{N-wlen+inc}{inc}$$
信號分幀的理論依據,其中x是語音信號,w是窗函數:
加窗截斷相似採樣,爲了保證相鄰幀不至於差異過大,一般幀與幀之間有幀移,其實就是插值平滑的做用。
給出示意圖:
這裏主要用到numpy工具包,涉及的指令有:
對比一下:
向量狀況:
矩陣狀況:
對於數據:
repeat操做:
tile操做:
對應結果:
對應分幀的代碼實現:
這是沒有加窗的示例:
import numpy as np import wave import os #import math def enframe(signal, nw, inc): '''將音頻信號轉化爲幀。 參數含義: signal:原始音頻型號 nw:每一幀的長度(這裏指採樣點的長度,即採樣頻率乘以時間間隔) inc:相鄰幀的間隔(同上定義) ''' signal_length=len(signal) #信號總長度 if signal_length<=nw: #若信號長度小於一個幀的長度,則幀數定義爲1 nf=1 else: #不然,計算幀的總長度 nf=int(np.ceil((1.0*signal_length-nw+inc)/inc)) pad_length=int((nf-1)*inc+nw) #全部幀加起來總的鋪平後的長度 zeros=np.zeros((pad_length-signal_length,)) #不夠的長度使用0填補,相似於FFT中的擴充數組操做 pad_signal=np.concatenate((signal,zeros)) #填補後的信號記爲pad_signal indices=np.tile(np.arange(0,nw),(nf,1))+np.tile(np.arange(0,nf*inc,inc),(nw,1)).T #至關於對全部幀的時間點進行抽取,獲得nf*nw長度的矩陣 indices=np.array(indices,dtype=np.int32) #將indices轉化爲矩陣 frames=pad_signal[indices] #獲得幀信號 # win=np.tile(winfunc(nw),(nf,1)) #window窗函數,這裏默認取1 # return frames*win #返回幀信號矩陣 return frames def wavread(filename): f = wave.open(filename,'rb') params = f.getparams() nchannels, sampwidth, framerate, nframes = params[:4] strData = f.readframes(nframes)#讀取音頻,字符串格式 waveData = np.fromstring(strData,dtype=np.int16)#將字符串轉化爲int f.close() waveData = waveData*1.0/(max(abs(waveData)))#wave幅值歸一化 waveData = np.reshape(waveData,[nframes,nchannels]).T return waveData filepath = "./data/" #添加路徑 dirname= os.listdir(filepath) #獲得文件夾下的全部文件名稱 filename = filepath+dirname[0] data = wavread(filename) nw = 512 inc = 128 Frame = enframe(data[0], nw, inc)
def enframe(signal, nw, inc, winfunc): '''將音頻信號轉化爲幀。 參數含義: signal:原始音頻型號 nw:每一幀的長度(這裏指採樣點的長度,即採樣頻率乘以時間間隔) inc:相鄰幀的間隔(同上定義) ''' signal_length=len(signal) #信號總長度 if signal_length<=nw: #若信號長度小於一個幀的長度,則幀數定義爲1 nf=1 else: #不然,計算幀的總長度 nf=int(np.ceil((1.0*signal_length-nw+inc)/inc)) pad_length=int((nf-1)*inc+nw) #全部幀加起來總的鋪平後的長度 zeros=np.zeros((pad_length-signal_length,)) #不夠的長度使用0填補,相似於FFT中的擴充數組操做 pad_signal=np.concatenate((signal,zeros)) #填補後的信號記爲pad_signal indices=np.tile(np.arange(0,nw),(nf,1))+np.tile(np.arange(0,nf*inc,inc),(nw,1)).T #至關於對全部幀的時間點進行抽取,獲得nf*nw長度的矩陣 indices=np.array(indices,dtype=np.int32) #將indices轉化爲矩陣 frames=pad_signal[indices] #獲得幀信號 win=np.tile(winfunc,(nf,1)) #window窗函數,這裏默認取1 return frames*win #返回幀信號矩陣
短時能量和短時平均幅度的主要用途:
對於連續語音信號,過零率意味着時域波形經過時間軸,對於離散信號,若是相鄰的取樣值改變符號,則稱爲過零。
做用:
發濁音時因爲聲門波引發譜的高頻跌落,因此語音信號能量約集中在3kHz如下
發清音時多數能量集中在較高的頻率上,
由於高頻意味着高的短時平均過零率,低頻意味着低的短時平均過零率,因此濁音時具備較低的過零率,而清音時具備較高的過零率。
利用短時平均過零率能夠從背景噪聲中找出語音信號,
二、能夠用於判斷寂靜無話段與有話段的起點和終止位置。
三、在背景噪聲較小的時候,用平均能量識別較爲有效,在背景噪聲較大的時候,用短時平均過零率識別較爲有效。
短時自相關函數主要應用於端點檢測和基音的提取,在韻母基因頻率整數倍處將出現峯值特性,一般根據除R(0)外的第一峯值來估計基音,而在聲母的短時自相關函數中看不到明顯的峯值。
用於檢測基音週期,並且在計算上比短時自相關函數更加簡單。
在語音信號處理中,在語音信號處理中,信號在頻域或其餘變換域上的分析處理佔重要的位置,在頻域上研究語音可使信號在時域上沒法表現出來的某些特徵變得十分明顯,一個音頻信號的本質是由其頻率內容決定的,
將時域信號轉換爲頻域信號通常對語音進行短時傅里葉變換。
fft_audio = np.fft.fft(audio)
import numpy as np from scipy.io import wavfile import matplotlib.pyplot as plt sampling_freq, audio = wavfile.read(r"C:\Windows\media\Windows Background.wav") # 讀取文件 audio = audio / np.max(audio) # 歸一化,標準化 # 應用傅里葉變換 fft_signal = np.fft.fft(audio) print(fft_signal) # [-0.04022912+0.j -0.04068997-0.00052721j -0.03933007-0.00448355j # ... -0.03947908+0.00298096j -0.03933007+0.00448355j -0.04068997+0.00052721j] fft_signal = abs(fft_signal) print(fft_signal) # [0.04022912 0.04069339 0.0395848 ... 0.08001755 0.09203427 0.12889393] # 創建時間軸 Freq = np.arange(0, len(fft_signal)) # 繪製語音信號的 plt.figure() plt.plot(Freq, fft_signal, color='blue') plt.xlabel('Freq (in kHz)') plt.ylabel('Amplitude') plt.show()
將信號轉換爲頻域以後,還須要將其轉換爲有用的形式,梅爾頻率倒譜系數(MFCC),MFCC首先計算信號的功率譜,而後用濾波器組和離散餘弦變換的組合來提取特徵。
import numpy as np import matplotlib.pyplot as plt from scipy.io import wavfile from python_speech_features import mfcc, logfbank # 讀取輸入音頻文件 sampling_freq, audio = wavfile.read("input_freq.wav") # 提取MFCC和濾波器組特徵 mfcc_features = mfcc(audio, sampling_freq) filterbank_features = logfbank(audio, sampling_freq) print('\nMFCC:\n窗口數 =', mfcc_features.shape[0]) print('每一個特徵的長度 =', mfcc_features.shape[1]) print('\nFilter bank:\n窗口數 =', filterbank_features.shape[0]) print('每一個特徵的長度 =', filterbank_features.shape[1]) # 畫出特徵圖,將MFCC可視化。轉置矩陣,使得時域是水平的 mfcc_features = mfcc_features.T plt.matshow(mfcc_features) plt.title('MFCC') # 將濾波器組特徵可視化。轉置矩陣,使得時域是水平的 filterbank_features = filterbank_features.T plt.matshow(filterbank_features) plt.title('Filter bank') plt.show()
絕大部分信號均可以分解爲若干不一樣頻率的正弦波。
這些正弦波中,頻率最低的稱爲信號的基波,其他稱爲信號的諧波。
基波只有一個,能夠稱爲一次諧波,諧波能夠有不少個,每次諧波的頻率是基波頻率的整數倍。諧波的大小可能互不相同。
以諧波的頻率爲橫座標,幅值(大小)爲縱座標,繪製的系列條形圖,稱爲頻譜。頻譜可以準確反映信號的內部構造。
語譜圖綜合了時域和頻域的特色,明顯的顯示出來了語音頻率隨時間的變化狀況,語譜圖的橫軸爲時間,縱軸爲頻率任意給定頻率成分在給定時刻的強弱用顏色深淺表示。顏色深表示頻譜值大,顏色淺表示頻譜值小,語譜圖上不一樣的黑白程度造成不一樣的紋路,稱爲聲紋,不用講話者的聲紋是不同的,能夠用作聲紋識別。
其實獲得了分幀信號,頻域變換取幅值,就能夠獲得語譜圖,若是僅僅是觀察,matplotlib.pyplot有specgram指令:
import wave import matplotlib.pyplot as plt import numpy as np f = wave.open(r"C:\Windows\media\Windows Background.wav", "rb") params = f.getparams() nchannels, sampwidth, framerate, nframes = params[:4] strData = f.readframes(nframes)#讀取音頻,字符串格式 waveData = np.fromstring(strData,dtype=np.int16)#將字符串轉化爲int waveData = waveData*1.0/(max(abs(waveData)))#wave幅值歸一化 waveData = np.reshape(waveData,[nframes,nchannels]).T f.close() plt.specgram(waveData[0],Fs = framerate, scale_by_freq = True, sides = 'default') plt.ylabel('Frequency(Hz)') plt.xlabel('Time(s)') plt.show()
[Y,FS]=audioread('p225_355_wb.wav'); % specgram(Y,2048,44100,2048,1536); %Y1爲波形數據 %FFT幀長2048點(在44100Hz頻率時約爲46ms) %採樣頻率44.1KHz %加窗長度,通常與幀長相等 %幀重疊長度,此處取爲幀長的3/4 specgram(Y,2048,FS,2048,1536); xlabel('時間(s)') ylabel('頻率(Hz)') title('「機率」語譜圖')
import os import numpy as np import scipy.io.wavfile as wf import python_speech_features as sf import hmmlearn.hmm as hl # 1. 讀取training文件夾中的訓練音頻樣本,每一個音頻對應一個mfcc矩陣,每一個mfcc都有一個類別(apple...) def search_file(directory): """ :param directory: 訓練音頻的路徑 :return: 字典{'apple':[url, url, url ... ], 'banana':[...]} """ # 使傳過來的directory匹配當前操做系統 directory = os.path.normpath(directory) objects = {} # curdir:當前目錄 # subdirs: 當前目錄下的全部子目錄 # files: 當前目錄下的全部文件名 for curdir, subdirs, files in os.walk(directory): for file in files: if file.endswith('.wav'): label = curdir.split(os.path.sep)[-1] # os.path.sep爲路徑分隔符 if label not in objects: objects[label] = [] # 把路徑添加到label對應的列表中 path = os.path.join(curdir, file) objects[label].append(path) return objects # 讀取訓練集數據 train_samples = search_file('../machine_learning_date/speeches/training') """ 2. 把全部類別爲apple的mfcc合併在一塊兒,造成訓練集。 訓練集: train_x:[mfcc1,mfcc2,mfcc3,...],[mfcc1,mfcc2,mfcc3,...]... train_y:[apple],[banana]... 由上述訓練集樣本能夠訓練一個用於匹配apple的HMM。""" train_x, train_y = [], [] # 遍歷字典 for label, filenames in train_samples.items(): # [('apple', ['url1,,url2...']) # [("banana"),("url1,url2,url3...")]... mfccs = np.array([]) for filename in filenames: sample_rate, sigs = wf.read(filename) mfcc = sf.mfcc(sigs, sample_rate) if len(mfccs) == 0: mfccs = mfcc else: mfccs = np.append(mfccs, mfcc, axis=0) train_x.append(mfccs) train_y.append(label) # 3.訓練模型,有7個句子,建立了7個模型 models = {} for mfccs, label in zip(train_x, train_y): model = hl.GaussianHMM(n_components=4, covariance_type='diag', n_iter=1000) models[label] = model.fit(mfccs) # # {'apple':object, 'banana':object ...} """ 4. 讀取testing文件夾中的測試樣本, 測試集數據: test_x [mfcc1, mfcc2, mfcc3...] test_y [apple, banana, lime] """ test_samples = search_file('../machine_learning_date/speeches/testing') test_x, test_y = [], [] for label, filenames in test_samples.items(): mfccs = np.array([]) for filename in filenames: sample_rate, sigs = wf.read(filename) mfcc = sf.mfcc(sigs, sample_rate) if len(mfccs) == 0: mfccs = mfcc else: mfccs = np.append(mfccs, mfcc, axis=0) test_x.append(mfccs) test_y.append(label) # 5.測試模型 # 1. 分別使用7個HMM模型,對測試樣本計算score得分。 # 2. 取7個模型中得分最高的模型所屬類別做爲預測類別。 pred_test_y = [] for mfccs in test_x: # 判斷mfccs與哪個HMM模型更加匹配 best_score, best_label = None, None # 遍歷7個模型 for label, model in models.items(): score = model.score(mfccs) if (best_score is None) or (best_score < score): best_score = score best_label = label pred_test_y.append(best_label) print(test_y) # ['apple', 'banana', 'kiwi', 'lime', 'orange', 'peach', 'pineapple'] print(pred_test_y) # ['apple', 'banana', 'kiwi', 'lime', 'orange', 'peach', 'pineapple']
我對上面這段代碼專門寫了一篇博客來進一步講解和分析,想詳細瞭解的讀者能夠移步http://www.javashuo.com/article/p-ffdhqyve-bx.html,語音數據集在這裏。
網址:用python作科學計算 http://old.sebug.net/paper/books/scipydoc/index.html#
python標準庫wave模塊https://docs.python.org/3.6/library/wave.html
《python機器學習經典案例》美Prateek Joshi著
傅里葉變換的介紹:http://www.thefouriertransform.com/
各類音階及其對應的頻率 http://pages.mtu.edu/~suits/notefreqs.html