郭一璞 發(fā)自 凹非寺量子位 報道 | 公眾號 QbitAI
機器學習的黑箱性一直讓很多人感到頭大。
對許多技術人員來說,機器學習在出現問題的時候,總會讓人一頭霧水,搞不清楚具體是哪里出了問題。
而對于商業(yè)應用來說,在醫(yī)療等高風險的情況下,機器學習的黑箱性給推廣普及造成了困難,說不清楚,要如何讓吃瓜群眾和監(jiān)管部門信任?
現在,了解機器學習黑箱性,有了一本系統(tǒng)全面的書:
Christoph Molnar年初公開的《可解釋的機器學習(Interpretable Machine Learning)》
這本書總共耗時兩年完成,長達250頁。
在它的GitHub項目頁上,一共有了1297個commits,除了作者Christoph Molnar之外,還有25位貢獻者為它做出了貢獻和修改。
Readme里的備注總共記錄了從v0.1到v1.2出了10版,可謂是“披閱二載,增刪十次”,是眾人智慧的結晶。
因此,這本書也吸引了1277名用戶標星,而作者將其公之于眾的推特也吸引了近千轉發(fā),3000多人點贊。
Hacker News上不少人都對這本書嘖嘖稱贊:
我在搞關于這個問題的學術研究,這是我當前找到的唯一一本相關的書,簡直太棒了。
這本書簡直太讓人愛了,而且非常有用,既清晰又易讀,還給出了許多在既定情況下如何操作的方法,提供了充足的細節(jié)方便你做決策。
甚至,還有中國出版社的編輯看上了這本書,希望引進出版中文版本:
而且,此書完整電子版免費閱讀。
那,這本書里究竟寫了些啥?
書里寫了啥
除了前言、致謝等內容外,整本書的核心部分有8個章節(jié)。分別是:
1.機器學習簡介2.可解釋性3.數據集4.可解釋的模型5.模型不可知方法6.基于實例的解釋7.神經網絡解釋8.機器學習與可解釋性研究的未來
每個部分作者都做了充足的解釋與介紹,比如第四章《可解釋的模型》中,作者介紹了線性回歸、邏輯回歸、決策樹等模型,并進行了針對性的解釋,介紹了基本的原理和特點,還提出了如果這個模型出現問題時的一些解決辦法。
而且,對于更為基礎的概念介紹章節(jié),作者用許多平實的語言,結合各類現實生活中的例子介紹了相關的概念,還配了參考鏈接可以進一步學習了解。
此外,還提供了相關的例子,都有現成的鏈接,是用R語言寫的。
作者介紹
這本書的作者Christoph Molnar,目前是慕尼黑大學的博士生,研究的專業(yè)就是可解釋的機器學習,此前也在慕尼黑大學讀了統(tǒng)計學碩士,主要研究將數據轉換成產品。
除了這本書之外,他還有一個名為Machine Master的博客,分享關于神經網絡、Python、統(tǒng)計學、數據處理等方面經驗。
評論列表
差一點就放棄了,幸好遇見你們,真的很感謝你們的幫助!
可以幫助復合嗎?
求助