內容來源:2017年6月11日,滬江數據挖掘總監王新義在「餓了麼&七牛雲聯合論壇 大數據最新場景化應用實踐」進行《自適應學習:機器學習在開心詞場中應用》演講分享。IT 大咖說做爲獨家視頻合做方,經主辦方和講者審閱受權發佈。
算法
閱讀字數:2768 | 4分鐘閱讀網絡
嘉賓演講視頻回顧及PPT:t.cn/RncA1LBsession
教育是最傳統和複雜的社會活動,如何使用AI(機器學習)技術改造和促進人類自身學習(提升學習效率和學習效果) ,是互聯網教育大數據及挖掘的基本問題;簡單介紹AI 技術應用滬江各個產品線(核心包括輔助學生「個性化」學習和輔助教師教學工做)的狀況,重點分享:使用DM、ML技術結合RM(Retention Model)、IRT(Item Response Theory)、DKT(Deep Knowledge Tracing)等模型在開心詞場中應用實踐和認識。機器學習
教育是最傳統、最複雜、涉及面廣的社會活動,而學習是痛苦的,人類都是不愛學習可是渴望成長。
函數
互聯網教育的特色是低頻、高交互。咱們的使命就是使用機器學習技術改造和促進人類自身學習,讓學習更快樂,提升學習效率和學習效果。
工具
機器學習在滬江網應用主要四個維度出發:老師(網師)、學生者、內容、工具,進行構建四大應用場景:
學習
自適應學習、人機交互、教學過程監控、內容加工。
測試
機器學習能夠在大數據基礎上幫助網師全方位洞察學生者、洞察本身,以及洞察整個市場。
大數據
洞察學生是要知道全部學習該課程的學生的學習狀況如何,瞭解每一個細節知識點的掌握程度。
優化
洞察本身是發現網師在講課過程當中哪些知識點、流程或節點會使你們在理解上有問題,並輔助網師對課件進行修改。
洞察市場是歸納地從整個大方向來講,哪些課程會比較熱門。
隨着人工智能在教育及互聯網教育上逐步應用和發展,老師(網師)角色也在改變,逐步從「知識傳遞」的角色轉移「能力培養」和「品德培養」。
自適應學習分爲智能導學服務和智能學習助手。智能導學是把一門課拆分紅不一樣的知識塊,給每一個人提供不一樣的合理學習路徑。智能學習助手就是從新定義老師和機器的定位,將老師的一些重複性工做交給機器來完成。
咱們在豐富的大數據基礎上,充分利用數據分析、挖掘和機器學習技術,根據學習者詳盡學習軌跡數據從學習需求、學習意願、學習能力、經濟能力、學習毅力等維度構建用戶模型。
在學習過程(學習系統)中作一些高交互的改進,優化課件的內容和設計,在題庫等內容庫上推薦題目和學習資料,在考試過程當中提供合理的評測週期,帶來豐富多樣的學習體驗。
教育場景中存在老師、學生、教學輔助人員等多種⻆色。⻆色互動時會產生大量數據,包括並不限於文本、圖片、音頻、視頻、用戶行爲等內容形態。傳統教學中,除了少部分能被老師感知的部分,大量數據都沒有獲得利用。
充分地對數據進行收集,並構建一種面向教育行業的標籤體系;一方面,將這些數據沉澱爲結構化的知識,讓他們具有教學價值;另外一方面,在不一樣的應⽤場景,這些數據也能對商業化提供幫助。
標籤及度量體系:教育場景存在大量維度,經過數據挖掘和機器學習,對內容進行打標,輸出對應標籤及相關性、相關度量指數。
構建各學科、各層次知識圖譜,題庫及資料庫。全部課件、知識點的內容都會關聯到知識圖譜上。在知識圖譜上咱們能夠作不少工做,好比一個知識點掌握得很差,能夠經過知識圖譜進行分析關聯。
爲加速內容的產品化和助推內容商品化提供一些開源的數據、算法支撐。
機器學習在工具線應用主要包括如下三方面:
經過開放接口與教學場景深度融合;
開放用戶行爲感知和數據分析;
應用智能雲服務。
經過數據和機器學習技術構建學、練、測等全流程的智能化、個性化的工具。
開心詞場是滬江旗下的背詞練習工具,經過學習、測試、複習的遊戲闖關模式,掌握詞彙,更添學習樂趣。機器學習在開心詞場中應用主要介紹兩個模塊:基於IRT模型的自適應詞彙量測試和基於記憶模型的個性化闖關路徑。
基於IRT模型的自適應詞彙量測試:基於IRT模型最少用戶交互準確評估用戶的詞彙量,在自適應詞彙量測試的基礎上,推薦一些合理的詞書。
基於記憶模型的個性化闖關路徑:在背單詞的過程當中,根據每一個人的記憶特色計算記憶曲線,利用這個記憶曲線來安排合理的關卡。
靜態考卷:每一個人所作的題目相同,學生在確定會作的容易題和確定不會作的難題上浪費較多時間,影響用戶體驗。
動態交互式測試:每一個學生所作的題目不一樣,下一道題目根據歷史作題的反饋動態改變。算法能夠聚焦於算法不肯定的題目,請學生回答,從而避免在確定會作和確定不會作的題目上浪費太多時間。
人能力越高,答對機率越大;
詞難度越高,答對機率越小,曲線越靠右;
人能力=詞難度, 則答對機率0.5。
選難度和當前能力估計最接近的,且用戶沒有回答過的詞。對於該詞,P(答對|詞難度,人能力)~0.5,即最不肯定,從而避免兩種可能浪費時間的詞。
若是存在多個學習路徑,可使用混合IRT。
使用深度神經網絡,能夠很好的解釋現有的數據。
推題策略的改進就是使用MDP。
基於記憶模型的個性化闖關路徑:在背單詞的過程當中,根據每一個人的記憶特色計算記憶曲線,利用這個記憶曲線來安排合理的關卡。基於記憶模型的個性化闖關路徑的算法模型經歷三個主要階段:艾賓浩斯記憶曲線、間隔效應、Act-R;接下來正實施MCM模型。第一段(艾賓浩斯記憶曲線):主要構建羣體艾賓浩斯記憶曲線及每一個學習者的個性化記憶曲線;第二階段考慮間隔效應進行構建曲線模型;第三階段基於Act-R算法建模。
艾賓浩斯記憶曲線→間隔效應→Act-R→MCM
機率隨着時間指數衰減:
其中m,h,f是常數,分別解釋爲初始學習的程度(0<m<1),時間的縮放因子(h>0),以及記憶的衰減指數(f>0)
艾賓浩斯記憶曲線:y=1-0.56x^0.06
屢次學習對記憶的影響:間隔效應(Spacing effect)兩次學習的間隔記做ISI(intersession interval),第二次學習和最後的測驗的時間記做RI(retention interval)。
ACT-R假設每次學習會有不一樣的記憶機率軌跡,並且記憶機率隨着時間的增加成冪函數衰減:tk,dk指的是第k條軌跡的記憶時間和衰減指數,β是和學生或者記憶事物有關的影響記憶強度的參數。bk指的是每條記憶軌跡的顯著性,這個數越大表示一次學習的效果越好。
軌跡的衰減和學習發生的時間點有關:這裏c和α是常數,若是第k次學習和前一次的間隔比較短,會致使當前的一條衰減的比較快。
回憶的機率和記憶活性m單調相關:其中和是相應的參數。整個模型有6個自由的參數。
MCM提出了一個假設,每次新的學習學到的東西是分別存儲在不一樣的軌跡中,並且會按照不一樣的速率衰減。雖然每條跡會指數衰減,這些軌跡的和隨着時間的衰減是一個冪函數,丼例來講,第i條軌跡,xi的衰減以下面公式所示:
其中是衰減時間常數,並且後續的軌跡具備比較小的衰減時間常數,軌跡1-k使用了一個加權平均,最後合成了一個總的軌跡強度。
其中。yi是一個權重因子,表明了第i條軌跡的貢獻,在總共k條軌跡中,記憶的機率是其中的最小值:
間隔效應發生的主要緣由是軌跡的更新規則(Staddon et al.,2002)。一條軌跡只有在其它軌跡沒法保持對材料的記憶的時候纔會更新。這個規則影響了信息在不一樣發生頻率和不一樣環境下的記憶效果。當一個材料被學習的時候,第i條軌跡貢獻的上升和前面軌跡的總強度負相關:
我今天的分享就到這裏,謝謝你們!