1.篩選有效問卷(根據表8-6的標準)算法
共發放1253份問卷,其中有效問卷數爲930app
2.屬性規約ide
3.數據變換函數
''' 聚類離散化,最後的result的格式爲: 1 2 3 4 A 0 0.178698 0.257724 0.351843 An 240 356.000000 281.000000 53.000000 即(0, 0.178698]有240個,(0.178698, 0.257724]有356個,依此類推。 ''' from __future__ import print_function import pandas as pd from sklearn.cluster import KMeans #導入K均值聚類算法 typelabel ={u'肝氣鬱結證型係數':'A', u'熱毒蘊結證型係數':'B', u'衝任失調證型係數':'C', u'氣血兩虛證型係數':'D', u'脾胃虛弱證型係數':'E', u'肝腎陰虛證型係數':'F'} k = 4 #須要進行的聚類類別數 #讀取數據並進行聚類分析 data = pd.read_excel('data/data.xls') #讀取數據 keys = list(typelabel.keys()) result = pd.DataFrame() if __name__ == '__main__': #判斷是否主窗口運行,若是是將代碼保存爲.py後運行,則須要這句,若是直接複製到命令窗口運行,則不須要這句。 for i in range(len(keys)): #調用k-means算法,進行聚類離散化 print(u'正在進行「%s」的聚類...' % keys[i]) kmodel = KMeans(n_clusters = k, n_jobs = 4) #n_jobs是並行數,通常等於CPU數較好 kmodel.fit(data[[keys[i]]].as_matrix()) #訓練模型 r1 = pd.DataFrame(kmodel.cluster_centers_, columns = [typelabel[keys[i]]]) #聚類中心 r2 = pd.Series(kmodel.labels_).value_counts() #分類統計 r2 = pd.DataFrame(r2, columns = [typelabel[keys[i]]+'n']) #轉爲DataFrame,記錄各個類別的數目 r = pd.concat([r1, r2], axis = 1).sort_values(typelabel[keys[i]]) #匹配聚類中心和類別數目 r.index = [1, 2, 3, 4] r[typelabel[keys[i]]] = pd.rolling_mean(r[typelabel[keys[i]]], 2) #rolling_mean()用來計算相鄰2列的均值,以此做爲邊界點。 r[typelabel[keys[i]]][1] = 0.0 #這兩句代碼將原來的聚類中心改成邊界點。 result = result.append(r.T) result.to_excel('tmp/data_processed.xls')
首先準備apriori.py,代碼沒看懂,不過能夠直接調用優化
#apriori代碼 from __future__ import print_function import pandas as pd #自定義鏈接函數,用於實現L_{k-1}到C_k的鏈接 def connect_string(x, ms): x = list(map(lambda i:sorted(i.split(ms)), x)) l = len(x[0]) r = [] for i in range(len(x)): for j in range(i,len(x)): if x[i][:l-1] == x[j][:l-1] and x[i][l-1] != x[j][l-1]: r.append(x[i][:l-1]+sorted([x[j][l-1],x[i][l-1]])) return r #尋找關聯規則的函數 def find_rule(d, support, confidence, ms = u'--'): result = pd.DataFrame(index=['support', 'confidence']) #定義輸出結果 support_series = 1.0*d.sum()/len(d) #支持度序列 column = list(support_series[support_series > support].index) #初步根據支持度篩選 k = 0 while len(column) > 1: k = k+1 print(u'\n正在進行第%s次搜索...' %k) column = connect_string(column, ms) print(u'數目:%s...' %len(column)) sf = lambda i: d[i].prod(axis=1, numeric_only = True) #新一批支持度的計算函數 #建立鏈接數據,這一步耗時、耗內存最嚴重。當數據集較大時,能夠考慮並行運算優化。 d_2 = pd.DataFrame(list(map(sf,column)), index = [ms.join(i) for i in column]).T support_series_2 = 1.0*d_2[[ms.join(i) for i in column]].sum()/len(d) #計算鏈接後的支持度 column = list(support_series_2[support_series_2 > support].index) #新一輪支持度篩選 support_series = support_series.append(support_series_2) column2 = [] for i in column: #遍歷可能的推理,如{A,B,C}到底是A+B-->C仍是B+C-->A仍是C+A-->B? i = i.split(ms) for j in range(len(i)): column2.append(i[:j]+i[j+1:]+i[j:j+1]) cofidence_series = pd.Series(index=[ms.join(i) for i in column2]) #定義置信度序列 for i in column2: #計算置信度序列 cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))]/support_series[ms.join(i[:len(i)-1])] for i in cofidence_series[cofidence_series > confidence].index: #置信度篩選 result[i] = 0.0 result[i]['confidence'] = cofidence_series[i] result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))] result = result.T.sort_values(['confidence','support'], ascending = False) #結果整理,輸出 print(u'\n結果爲:') print(result) return result
from __future__ import print_function import pandas as pd from apriori import * #導入自行編寫的apriori函數 import time #導入時間庫用來計算用時 data = pd.read_csv('data/apriori.txt', header = None, dtype = object) #讀取數據 start = time.clock() #計時開始 print(u'\n轉換原始數據至0-1矩陣...') ct = lambda x : pd.Series(1, index = x[pd.notnull(x)]) #轉換0-1矩陣的過渡函數 b = map(ct, data.as_matrix()) #用map方式執行 data = pd.DataFrame(list(b)).fillna(0) #實現矩陣轉換,空值用0填充 end = time.clock() #計時結束 print(u'\n轉換完畢,用時:%0.2f秒' %(end-start)) del b #刪除中間變量b,節省內存 support = 0.06 #最小支持度 confidence = 0.75 #最小置信度 ms = '---' #鏈接符,默認'--',用來區分不一樣元素,如A--B。須要保證原始表格中不含有該字符 start = time.clock() #計時開始 print(u'\n開始搜索關聯規則...') find_rule(data, support, confidence, ms) end = time.clock() #計時結束 print(u'\n搜索完成,用時:%0.2f秒' %(end-start))