前言 ==== 力求每行代码都有注释,重要部分注明公式来源。具体会追求下方这样的代码,学习者可以照着公式看程序,让代码有据可查。 ![image](https://github.com/Dod-o/Statistical-Learning-Method_Code/blob/master/CodePic.png) 如果时间充沛的话,可能会试着给每一章写一篇博客。先放个博客链接吧:[传送门](http://www.pkudodo.com/)。 ##### 注:其中Mnist数据集已转换为csv格式,由于体积为107M超过限制,改为压缩包形式。下载后务必先将Mnist文件内压缩包直接解压。 实现 ====== ### 第二章 感知机: 博客:[统计学习方法|感知机原理剖析及实现](http://www.pkudodo.com/2018/11/18/1-4/) 实现:[perceptron/perceptron_dichotomy.py](https://github.com/Dod-o/Statistical-Learning-Method_Code/blob/master/perceptron/perceptron_dichotomy.py) ### 第三章 K近邻: 博客:[统计学习方法|K近邻原理剖析及实现](http://www.pkudodo.com/2018/11/19/1-2/) 实现:[KNN/KNN.py](https://github.com/Dod-o/Statistical-Learning-Method_Code/blob/master/KNN/KNN.py) ### 第四章 朴素贝叶斯: 博客:[统计学习方法|朴素贝叶斯原理剖析及实现](http://www.pkudodo.com/2018/11/21/1-3/) 实现:[NaiveBayes/NaiveBayes.py](https://github.com/Dod-o/Statistical-Learning-Method_Code/blob/master/NaiveBayes/NaiveBayes.py) ### 第五章 决策树: 博客:[统计学习方法|决策树原理剖析及实现](http://www.pkudodo.com/2018/11/30/1-5/) 实现:[DecisionTree/DecisionTree.py](https://github.com/Dod-o/Statistical-Learning-Method_Code/blob/master/DecisionTree/DecisionTree.py) ### 第六章 逻辑斯蒂回归与最大熵模型: (实现)逻辑斯蒂回归:[Logistic_and_maximum_entropy_models/logisticRegression.py](https://github.com/Dod-o/Statistical-Learning-Method_Code/blob/master/Logistic_and_maximum_entropy_models/logisticRegression.py) (实现)最大熵:[Logistic_and_maximum_entropy_models/maxEntropy.py](https://github.com/Dod-o/Statistical-Learning-Method_Code/blob/master/Logistic_and_maximum_entropy_models/maxEntropy.py) ### 第七章 支持向量机: 实现:[SVM/SVM.py](https://github.com/Dod-o/Statistical-Learning-Method_Code/blob/master/SVM/SVM.py)