2016年機(jī)器學(xué)習(xí)領(lǐng)域取得了很多可以銘記在歷史中的進(jìn)展,將其稱為”機(jī)器學(xué)習(xí)元年”也并不為過。市場上各大公司都在進(jìn)行機(jī)器學(xué)習(xí)的研究,即使沒有,他們也通過收購各類機(jī)器學(xué)習(xí)初創(chuàng)公司來快速進(jìn)入這個(gè)領(lǐng)域。
造就這一輪機(jī)器學(xué)習(xí)的熱潮的原因很多。雖然Google 開源Tensorflow 框架才過去短短一年,Tensorflow已然成為Github上最為炙手可熱的項(xiàng)目,使用場景橫跨從藥物研發(fā)到 自動(dòng)音樂生成 等各個(gè)領(lǐng)域。Google并不是唯一開源了機(jī)器學(xué)習(xí)基本框架的科技巨頭,微軟的 CNTK ,百度的 PaddlePaddle 都是目前被廣泛使用的機(jī)器學(xué)習(xí)框架。Amazon雖然沒有自己研發(fā)的機(jī)器學(xué)習(xí)框架,但他們已經(jīng)宣布將在未來支持 MXNet ,以期推廣他們最新的AWS ML平臺。而Facebook目前主要支持兩個(gè)深度學(xué)習(xí)平臺: Torch 以及 Caffe 。Google本身也同時(shí)在支持在學(xué)術(shù)和工業(yè)界都取得重大成功的機(jī)器學(xué)習(xí)框架 Keras 。在這個(gè)意義上來說,在AI的這場技術(shù)”軍備大戰(zhàn)”中,Google與Facebook算是打成了平手。
除了各大技術(shù)公司爭相開源自己的機(jī)器學(xué)習(xí)框架,2016年也見證了無數(shù)優(yōu)質(zhì)的機(jī)器學(xué)習(xí)的應(yīng)用,這些工作即使放到幾個(gè)月前都是不可想象的。
我特別印象深刻的是 Wavenet 的音頻生成的質(zhì)量。過去我曾經(jīng)處理過類似的問題,對比之下對于那些他們所完成的結(jié)果我很欣賞。我也要強(qiáng)調(diào)一些最近在唇讀方面的成就,一個(gè)偉大的視頻識別的應(yīng)用,在不久的將來可能是非常有用的(也許是可怕的)。 我還應(yīng)該提到谷歌在機(jī)器翻譯方面取得的令人印象深刻的進(jìn)步。看到這一領(lǐng)域在一年內(nèi)有這么大進(jìn)步真是令人驚訝。
事實(shí)上,機(jī)器翻譯并不是我們在過去一年中在機(jī)器學(xué)習(xí)在自然語言技術(shù)領(lǐng)域看到的唯一有價(jià)值的進(jìn)步。 通過結(jié)合深度序列神經(jīng)網(wǎng)絡(luò)以及語言相關(guān)的一些信息,我們可以生成一些更為豐富的語言模型。 例如在“A Neural Knowledge Language Model”這篇論文中,Bengio的團(tuán)隊(duì)將知識圖譜與RNN相結(jié)合,而在“Contextual LSTM models for Large scale NLP Tasks”的論文中,Deepmind團(tuán)隊(duì)將文章的主題提取同時(shí)納入到LSTM模型。 此外,我們還看到了許多在建模語言模型的attention和memory(這兩個(gè)詞在學(xué)術(shù)方面有專門的含義,解釋成注意力和記憶也沒錯(cuò),但是總覺得有點(diǎn)不太對)方面的有趣工作。 作為一個(gè)例子,我推薦在今年的ICML(國際機(jī)器學(xué)習(xí)大會(huì))中發(fā)表的論文“ Ask Me Anything: Dynamic Memory Networks for NLP ”。
此外,我還想要提及一些發(fā)表于2016年在巴塞羅那舉行的NIPS上的工作。遺憾的是,我錯(cuò)過了這次在我的家鄉(xiāng)舉行的會(huì)議。從我了解的內(nèi)容來看,兩個(gè)最熱門的話題可能是 生成式對抗網(wǎng)絡(luò) (包括Ian Goodfellow的非常受歡迎的教程)和結(jié)合概率模型的深度學(xué)習(xí)相關(guān)的課題。
另外我也想談一下機(jī)器學(xué)習(xí)在我的主要專業(yè)領(lǐng)域,推薦系統(tǒng)方面的一些進(jìn)步。 毫無疑問,深度學(xué)習(xí)也深刻影響了這一領(lǐng)域。 雖然我個(gè)人仍然不建議將DL作為推薦系統(tǒng)的默認(rèn)方法,但看它如何在實(shí)際工作中大規(guī)模的使用是很有趣的,例如通過像Youtube這樣的產(chǎn)品我們可以看到DL對比傳統(tǒng)的方法上還是取得了一定進(jìn)展(這里有一篇Google的paper https://static.googleusercontent.com/media/research.google.com/en//pubs/archive/45530.pdf)。 也就是說,在該領(lǐng)域還是有一些有趣的研究與深度學(xué)習(xí)無關(guān)。 例如今年ACM Recsys的最佳論文獎(jiǎng)?lì)C給了“Local Item-Item Models For Top-N Recommendation”,這篇工作主要是針對稀疏線性方法(即SLIM)的一個(gè)有趣擴(kuò)展,通過增加一個(gè)初始化非監(jiān)督聚類的步驟提升效果。 此外,“Field-aware Factorization Machines for CTR Prediction”主要詳細(xì)解釋了在Kaggle上的Criteo CTR預(yù)測挑戰(zhàn)賽中的獲勝算法,我們不得不正視在推薦領(lǐng)域,Factorization Machine仍然是你的ML工具包中非常實(shí)用的一個(gè)工具。
我可以繼續(xù)在接下來的段落中列舉出機(jī)器學(xué)習(xí)在過去12個(gè)月里取得的有影響力的進(jìn)步。例如與圖像識別或者深度強(qiáng)化學(xué)習(xí)相關(guān)的突破,一些重要的可應(yīng)用場景包括自動(dòng)駕駛汽車,聊天機(jī)器人或游戲?qū)?zhàn),這些領(lǐng)域在2016年都獲得了巨大的進(jìn)步。此外還有各類關(guān)于機(jī)器學(xué)習(xí)如何具有或可能對社會(huì)有負(fù)面影響的爭論,以及關(guān)于算法偏差和公平性的討論的興起。
1、本文只代表作者個(gè)人觀點(diǎn),不代表本站觀點(diǎn),僅供大家學(xué)習(xí)參考;
2、本站屬于非營利性網(wǎng)站,如涉及版權(quán)和名譽(yù)問題,請及時(shí)與本站聯(lián)系,我們將及時(shí)做相應(yīng)處理;
3、歡迎各位網(wǎng)友光臨閱覽,文明上網(wǎng),依法守規(guī),IP可查。
作者 相關(guān)信息
2016年,機(jī)器學(xué)習(xí)和人工智能領(lǐng)域有什么重大進(jìn)
2017-01-12內(nèi)容 相關(guān)信息
李飛飛最新演講全文:機(jī)器已能“看懂”圖像和視頻,但我們?nèi)哉驹谌斯ぶ悄苎芯康钠瘘c(diǎn)
2017-11-03李德毅院士《AI:人類社會(huì)發(fā)展的加速器》 | 人工智能如何驅(qū)動(dòng)實(shí)體經(jīng)濟(jì)?六大領(lǐng)域展望
2017-10-27今日Nature: 人工智能從0到1, 無師自通完爆阿法狗100-0
2017-10-21? 昆侖專題 ?
? 十九大報(bào)告深度談 ?
? 新征程 新任務(wù) 新前景 ?
? 我為中國夢獻(xiàn)一策 ?
? 國資國企改革 ?
? 雄安新區(qū)建設(shè) ?
? 黨要管黨 從嚴(yán)治黨 ?
? 社會(huì)調(diào)查 ?
圖片新聞