
1 sanddudu 2014 年 4 月 7 日 线性回归方程? |
3 rock_cloud 2014 年 4 月 7 日 这个是最简单的线性分类啊,把OO的所有点坐标带入kx+b得到y1,XX的所有点坐标带入kx+b得到y2,然后最大化(y2-y1)^2就可以了。 |
4 11 2014 年 4 月 7 日 线性判别分析(Linear Discriminant Analysis, LDA) |
5 u 2014 年 4 月 7 日 同楼上。最基本的模式识别。 |
6 wuyazi OP https://gist.github.com/10017286 代码转自: http://blog.csdn.net/ranchlai/article/details/10303031 是这种方法吗? 第六行shift的变量原来是3,我改成1,想得到OO和XX交叉的分类结果,可是得到的图是这样的。。。 http://ntu.me/di/0TOLB/.jpg |
7 wuyazi OP |
8 die4live 2014 年 4 月 7 日 SVM |
9 wuyazi OP |
10 msg7086 2014 年 4 月 7 日 LDA 我记得是 machine learning 的技术吧…… |
11 wuyazi OP |
13 yangzh 2014 年 4 月 7 日 请考虑 svm |
15 die4live 2014 年 4 月 7 日 理论方面可以看看 [支持向量机通俗导论(理解SVM的三层境界) - 结构之法 算法之道 - 博客频道 - CSDN.NET](http://blog.csdn.net/v_july_v/article/details/7624837#t34) [支持向量机系列 Free Mind](http://blog.pluskid.org/?page_id=683) 刚才用R试了下是可行的 设为线性核的话 也是可以得到k和b的 |