[機器學習]推薦系統之協同過濾算法

在現今的推薦技術和算法中,最被你們普遍承認和採用的就是基於協同過濾的推薦方法。本文將帶你深刻了解協同過濾的祕密。下面直接進入正題.python

1. 什麼是推薦算法

推薦算法最先在1992年就提出來了,可是火起來其實是最近這些年的事情,由於互聯網的爆發,有了更大的數據量能夠供咱們使用,推薦算法纔有了很大的用武之地。算法

最開始,因此咱們在網上找資料,都是進yahoo,而後分門別類的點進去,找到你想要的東西,這是一我的工過程,到後來,咱們用google,直接搜索本身須要的內容,這些均可以比較精準的找到你想要的東西,可是,若是我本身都不知道本身要找什麼腫麼辦?最典型的例子就是,若是我打開豆瓣找電影,或者我去買說,我實際上不知道我想要買什麼或者看什麼,這時候推薦系統就能夠派上用場了。數組

2. 推薦算法的條件

如今的各類各樣的推薦算法,可是無論怎麼樣,都繞不開幾個條件,這是推薦的基本條件網絡

1.根據和你共同喜愛的人來給你推薦 
2.根據你喜歡的物品找出和它類似的來給你推薦 
3.根據你給出的關鍵字來給你推薦,這實際上就退化成搜索算法了 
4.根據上面的幾種條件組合起來給你推薦數據結構

3. 推薦算法分類

推薦算法大體能夠分爲三類:app

3.1 基於內容的推薦算法

基於內容的推薦算法,原理是用戶喜歡和本身關注過的Item在內容上相似的Item,好比你看了哈利波特I,基於內容的推薦算法發現哈利波特II-VI,與你之前觀看的在內容上面(共有不少關鍵詞)有很大關聯性,就把後者推薦給你,這種方法能夠避免Item的冷啓動問題(冷啓動:若是一個Item從沒有被關注過,其餘推薦算法則不多會去推薦,可是基於內容的推薦算法能夠分析Item之間的關係,實現推薦),弊端在於推薦的Item可能會重複,典型的就是新聞推薦,若是你看了一則關於MH370的新聞,極可能推薦的新聞和你瀏覽過的,內容一致;另一個弊端則是對於一些多媒體的推薦(好比音樂、電影、圖片等)因爲很難提內容特徵,則很難進行推薦,一種解決方式則是人工給這些Item打標籤。機器學習

3.2 協同過濾推薦算法

協同過濾算法,原理是用戶喜歡那些具備類似興趣的用戶喜歡過的商品,好比你的朋友喜歡電影哈利波特I,那麼就會推薦給你,這是最簡單的基於用戶的協同過濾算法(user-based collaboratIve filtering),還有一種是基於Item的協同過濾算法(item-based collaborative filtering),這兩種方法都是將用戶的全部數據讀入到內存中進行運算的,所以成爲Memory-based Collaborative Filtering,另外一種則是Model-based collaborative filtering,包括Aspect Model,pLSA,LDA,聚類,SVD,Matrix Factorization等,這種方法訓練過程比較長,可是訓練完成後,推薦過程比較快。工具

3.3基於知識的推薦算法。

最後一種方法是基於知識的推薦算法,也有人將這種方法歸爲基於內容的推薦,這種方法比較典型的是構建領域本體,或者是創建必定的規則,進行推薦。 混合推薦算法,則會融合以上方法,以加權或者串聯、並聯等方式盡心融合。 固然,推薦系統還包括不少方法,其實機器學習或者數據挖掘裏面的方法,不少均可以應用在推薦系統中,好比說LR、GBDT、RF(這三種方法在一些電商推薦裏面常常用到),社交網絡裏面的圖結構等,均可以說是推薦方法。學習

今天這篇文章要講的基於用戶的協同過濾算法.測試

3 什麼是協同過濾

協同過濾是利用集體智慧的一個典型方法。要理解什麼是協同過濾 (Collaborative Filtering, 簡稱 CF),首先想一個簡單的問題,若是你如今想看個電影,但你不知道具體看哪部,你會怎麼作?大部分的人會問問周圍的朋友,看看最近有什麼好看的電影推薦,而咱們通常更傾向於從口味比較相似的朋友那裏獲得推薦。這就是協同過濾的核心思想。

換句話說,就是借鑑和你相關人羣的觀點來進行推薦,很好理解。

4 協同過濾的實現

要實現協同過濾的推薦算法,要進行如下三個步驟:

4.1)收集數據

4.2)找到類似用戶和物品

4.3進行推薦

4.1 收集數據

這裏的數據指的都是用戶的歷史行爲數據,好比用戶的購買歷史,關注,收藏行爲,或者發表了某些評論,給某個物品打了多少分等等,這些均可以用來做爲數據供推薦算法使用,服務於推薦算法。須要特別指出的在於,不一樣的數據準確性不一樣,粒度也不一樣,在使用時須要考慮到噪音所帶來的影響。

4.2找到類似用戶和物品

這一步也很簡單,其實就是計算用戶間以及物品間的類似度。如下是幾種計算類似度的方法: 
這裏寫圖片描述

4.3 進行推薦

在知道了如何計算類似度後,就能夠進行推薦了。

在協同過濾中,有兩種主流方法:

1)基於用戶的協同過濾

2)基於物品的協同過濾

具體怎麼來闡述他們的原理呢,看個圖你們就明白了

基於用戶的 CF 的基本思想至關簡單,基於用戶對物品的偏好找到相鄰鄰居用戶,而後將鄰居用戶喜歡的推薦給當前用戶。計算上,就是將一個用戶對全部物品的偏好做爲一個向量來計算用戶之間的類似度,找到 K 鄰居後,根據鄰居的類似度權重以及他們對物品的偏好,預測當前用戶沒有偏好的未涉及物品,計算獲得一個排序的物品列表做爲推薦。 下圖給出了一個例子,對於用戶 A,根據用戶的歷史偏好,這裏只計算獲得一個鄰居 - 用戶 C,而後將用戶 C 喜歡的物品 D 推薦給用戶 A。 
這裏寫圖片描述 
基於物品的 CF 的原理和基於用戶的 CF 相似,只是在計算鄰居時採用物品自己,而不是從用戶的角度,即基於用戶對物品的偏好找到類似的物品,而後根據用戶的歷史偏好,推薦類似的物品給他。從計算的角度看,就是將全部用戶對某個物品的偏好做爲一個向量來計算物品之間的類似度,獲得物品的類似物品後,根據用戶歷史的偏好預測當前用戶尚未表示偏好的物品,計算獲得一個排序的物品列表做爲推薦。下圖給出了一個例子,對於物品 A,根據全部用戶的歷史偏好,喜歡物品 A 的用戶都喜歡物品 C,得出物品 A 和物品 C 比較類似,而用戶 C 喜歡物品 A,那麼能夠推斷出用戶 C 可能也喜歡物品 C。 
這裏寫圖片描述

算法存在的問題

這個算法實現起來也比較簡單,可是在實際應用中有時候也會有問題的。

好比一些很是流行的商品可能不少人都喜歡,這種商品推薦給你就沒什麼意義了,因此計算的時候須要對這種商品加一個權重或者把這種商品徹底去掉也行。

再有,對於一些通用的東西,好比買書的時候的工具書,如現代漢語詞典,新華字典神馬的,通用性太強了,推薦也沒什麼必要了。

適用場景

  在非社交網絡的網站中,內容內在的聯繫是很重要的推薦原則,它比基於類似用戶的推薦原則更加有效。好比在購書網站上,當你看一本書的時候,推薦引擎會給你推薦相關的書籍,這個推薦的重要性遠遠超過了網站首頁對該用戶的綜合推薦。能夠看到,在這種狀況下,Item CF 的推薦成爲了引導用戶瀏覽的重要手段。同時 Item CF 便於爲推薦作出解釋,在一個非社交網絡的網站中,給某個用戶推薦一本書,同時給出的解釋是某某和你有類似興趣的人也看了這本書,這很難讓用戶信服,由於用戶可能根本不認識那我的;但若是解釋說是由於這本書和你之前看的某本書類似,用戶可能就以爲合理而採納了此推薦。

具體實現

# -*- coding=utf-8 -*- import math import sys from texttable import Texttable # # 使用 |A&B|/sqrt(|A || B |)計算餘弦距離 # # # def calcCosDistSpe(user1,user2): avg_x=0.0 avg_y=0.0 for key in user1: avg_x+=key[1] avg_x=avg_x/len(user1) for key in user2: avg_y+=key[1] avg_y=avg_y/len(user2) u1_u2=0.0 for key1 in user1: for key2 in user2: if key1[1] > avg_x and key2[1]>avg_y and key1[0]==key2[0]: u1_u2+=1 u1u2=len(user1)*len(user2)*1.0 sx_sy=u1_u2/math.sqrt(u1u2) return sx_sy # # 計算餘弦距離 # # def calcCosDist(user1,user2): sum_x=0.0 sum_y=0.0 sum_xy=0.0 for key1 in user1: for key2 in user2: if key1[0]==key2[0] : sum_xy+=key1[1]*key2[1] sum_y+=key2[1]*key2[1] sum_x+=key1[1]*key1[1] if sum_xy == 0.0 : return 0 sx_sy=math.sqrt(sum_x*sum_y) return sum_xy/sx_sy # # # 類似餘弦距離 # # # def calcSimlaryCosDist(user1,user2): sum_x=0.0 sum_y=0.0 sum_xy=0.0 avg_x=0.0 avg_y=0.0 for key in user1: avg_x+=key[1] avg_x=avg_x/len(user1) for key in user2: avg_y+=key[1] avg_y=avg_y/len(user2) for key1 in user1: for key2 in user2: if key1[0]==key2[0] : sum_xy+=(key1[1]-avg_x)*(key2[1]-avg_y) sum_y+=(key2[1]-avg_y)*(key2[1]-avg_y) sum_x+=(key1[1]-avg_x)*(key1[1]-avg_x) if sum_xy == 0.0 : return 0 sx_sy=math.sqrt(sum_x*sum_y) return sum_xy/sx_sy # # 讀取文件 # # def readFile(file_name): contents_lines=[] f=open(file_name,"r") contents_lines=f.readlines() f.close() return contents_lines # # 解壓rating信息,格式:用戶id\t硬盤id\t用戶rating\t時間 # 輸入:數據集合 # 輸出:已經解壓的排名信息 # def getRatingInformation(ratings): rates=[] for line in ratings: rate=line.split("\t") rates.append([int(rate[0]),int(rate[1]),int(rate[2])]) return rates # # 生成用戶評分的數據結構 # # 輸入:因此數據 [[2,1,5],[2,4,2]...] # 輸出:1.用戶打分字典 2.電影字典 # 使用字典,key是用戶id,value是用戶對電影的評價, # rate_dic[2]=[(1,5),(4,2)].... 表示用戶2對電影1的評分是5,對電影4的評分是2 # def createUserRankDic(rates): user_rate_dic={} item_to_user={} for i in rates: user_rank=(i[1],i[2]) if i[0] in user_rate_dic: user_rate_dic[i[0]].append(user_rank) else: user_rate_dic[i[0]]=[user_rank] if i[1] in item_to_user: item_to_user[i[1]].append(i[0]) else: item_to_user[i[1]]=[i[0]] return user_rate_dic,item_to_user # # 計算與指定用戶最相近的鄰居 # 輸入:指定用戶ID,因此用戶數據,因此物品數據 # 輸出:與指定用戶最相鄰的鄰居列表 # def calcNearestNeighbor(userid,users_dic,item_dic): neighbors=[] #neighbors.append(userid) for item in users_dic[userid]: for neighbor in item_dic[item[0]]: if neighbor != userid and neighbor not in neighbors: neighbors.append(neighbor) neighbors_dist=[] for neighbor in neighbors: dist=calcSimlaryCosDist(users_dic[userid],users_dic[neighbor]) #calcSimlaryCosDist calcCosDist calcCosDistSpe neighbors_dist.append([dist,neighbor]) neighbors_dist.sort(reverse=True) #print neighbors_dist return neighbors_dist # # 使用UserFC進行推薦 # 輸入:文件名,用戶ID,鄰居數量 # 輸出:推薦的電影ID,輸入用戶的電影列表,電影對應用戶的反序表,鄰居列表 # def recommendByUserFC(file_name,userid,k=5): #讀取文件數據 test_contents=readFile(file_name) #文件數據格式化成二維數組 List[[用戶id,電影id,電影評分]...] test_rates=getRatingInformation(test_contents) #格式化成字典數據 # 1.用戶字典:dic[用戶id]=[(電影id,電影評分)...] # 2.電影字典:dic[電影id]=[用戶id1,用戶id2...] test_dic,test_item_to_user=createUserRankDic(test_rates) #尋找鄰居 neighbors=calcNearestNeighbor(userid,test_dic,test_item_to_user)[:k] recommend_dic={} for neighbor in neighbors: neighbor_user_id=neighbor[1] movies=test_dic[neighbor_user_id] for movie in movies: #print movie if movie[0] not in recommend_dic: recommend_dic[movie[0]]=neighbor[0] else: recommend_dic[movie[0]]+=neighbor[0] #print len(recommend_dic) #創建推薦列表 recommend_list=[] for key in recommend_dic: #print key recommend_list.append([recommend_dic[key],key]) recommend_list.sort(reverse=True) #print recommend_list user_movies = [ i[0] for i in test_dic[userid]] return [i[1] for i in recommend_list],user_movies,test_item_to_user,neighbors # # # 獲取電影的列表 # # # def getMoviesList(file_name): #print sys.getdefaultencoding() movies_contents=readFile(file_name) movies_info={} for movie in movies_contents: movie_info=movie.split("|") movies_info[int(movie_info[0])]=movie_info[1:] return movies_info #主程序 #輸入 : 測試數據集合 if __name__ == '__main__': reload(sys) sys.setdefaultencoding('utf-8') movies=getMoviesList("/Users/wuyinghao/Downloads/ml-100k/u.item") recommend_list,user_movie,items_movie,neighbors=recommendByUserFC("/Users/wuyinghao/Downloads/ml-100k/u.data",179,80) neighbors_id=[ i[1] for i in neighbors] table = Texttable() table.set_deco(Texttable.HEADER) table.set_cols_dtype(['t', # text 't', # float (decimal) 't']) # automatic table.set_cols_align(["l", "l", "l"]) rows=[] rows.append([u"movie name",u"release", u"from userid"]) for movie_id in recommend_list[:20]: from_user=[] for user_id in items_movie[movie_id]: if user_id in neighbors_id: from_user.append(user_id) rows.append([movies[movie_id][0],movies[movie_id][1],""]) table.add_rows(rows) print table.draw()

1

  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172
  • 173
  • 174
  • 175
  • 176
  • 177
  • 178
  • 179
  • 180
  • 181
  • 182
  • 183
  • 184
  • 185
  • 186
  • 187
  • 188
  • 189
  • 190
  • 191
  • 192
  • 193
  • 194
  • 195
  • 196
  • 197
  • 198
  • 199
  • 200
  • 201
  • 202
  • 203
  • 204
  • 205
  • 206
  • 207
  • 208
  • 209
  • 210
  • 211
  • 212
  • 213
  • 214
  • 215
  • 216
  • 217
  • 218
  • 219
  • 220
  • 221
  • 222
  • 223
  • 224
  • 225
  • 226
  • 227
  • 228
  • 229
  • 230
  • 231
  • 232
  • 233
  • 234
  • 235
  • 236
  • 237
  • 238
  • 239
  • 240
  • 241
  • 242
  • 243
  • 244
  • 245
  • 246
  • 247
  • 248
  • 249
  • 250
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172
  • 173
  • 174
  • 175
  • 176
  • 177
  • 178
  • 179
  • 180
  • 181
  • 182
  • 183
  • 184
  • 185
  • 186
  • 187
  • 188
  • 189
  • 190
  • 191
  • 192
  • 193
  • 194
  • 195
  • 196
  • 197
  • 198
  • 199
  • 200
  • 201
  • 202
  • 203
  • 204
  • 205
  • 206
  • 207
  • 208
  • 209
  • 210
  • 211
  • 212
  • 213
  • 214
  • 215
  • 216
  • 217
  • 218
  • 219
  • 220
  • 221
  • 222
  • 223
  • 224
  • 225
  • 226
  • 227
  • 228
  • 229
  • 230
  • 231
  • 232
  • 233
  • 234
  • 235
  • 236
  • 237
  • 238
  • 239
  • 240
  • 241
  • 242
  • 243
  • 244
  • 245
  • 246
  • 247
  • 248
  • 249
  • 250

推薦結果

movie name                release     
======================================================= Contact (1997) 11-Jul-1997 Scream (1996) 20-Dec-1996 Liar Liar (1997) 21-Mar-1997 Saint, The (1997) 14-Mar-1997 English Patient, The (1996) 15-Nov-1996 Titanic (1997) 01-Jan-1997 Air Force One (1997) 01-Jan-1997 Star Wars (1977) 01-Jan-1977 Conspiracy Theory (1997) 08-Aug-1997 Toy Story (1995) 01-Jan-1995 Fargo (1996) 14-Feb-1997 

參考文章

博客園,暱稱::~大器晚成 csdn暱稱:ygrx的[推薦算法]基於用戶的協同過濾算法

相關文章
相關標籤/搜索