统计机器学习的教材(机器学习中不明觉厉的专业术语)

很多学科里都有一些唬人的、不明觉厉的术语,主要有两个原因,第一,为了纪念这个理论的发明者;第二,一些新学科,很多理论还是由一堆论文组成,还没出现一个领军人物去总体概括,接下来我们就来聊聊关于统计机器学习的教材?以下内容大家不妨参考一二希望能帮到您!

统计机器学习的教材(机器学习中不明觉厉的专业术语)

统计机器学习的教材

很多学科里都有一些唬人的、不明觉厉的术语,主要有两个原因,第一,为了纪念这个理论的发明者;第二,一些新学科,很多理论还是由一堆论文组成,还没出现一个领军人物去总体概括。

像数学这种学科已经出现了上千年,很多难理解的术语早已被驯化的通俗易懂,假如把圆周率叫做祖冲之率,把勾股定律叫做毕达哥拉斯定理,只能把简单问题复杂化。但在很多新学科里,不明觉厉的术语为初学者造成了很大的理解障碍。

我感觉《统计学》是使用不明觉厉术语最多的学科之一,很多术语背后的思想很简单

极大似然估计。maximum likelihood estimate ,直译“极大可能估计”,一个猎人和一个没用过枪的普通人去打猎,一声枪响后一只兔子被打死,请问谁打死兔子的概率大?当然是猎人。

朴素贝叶斯。naive bayes,选择具有最高概率的决策。一个人平时喜欢乐于助人,你说这个人是好人的概率大?还是坏人的概率大?

马尔可夫链。前天,昨天,今天的天气都会影响明天的天气,但影响最大的是今天的天气

高斯分布:也叫正态分布 normal distribution ,正态:比较正常姿态,不是abnormal变态。师范大学的英文是Normal University,Normal就是正态、正经、为人师表

回归分析,regression analysis,一个省份的人平均身高在100年内几乎是不变的,假设是1.7米,即使出现了2.26米的姚明,但姚明的后代身高肯定要往1.7米回归,不可能超过2.26米,即使姚明的女儿10岁时已经1.7米。可以用万有引力,物极必反来理解。

Logistics回归:最小二乘法计算回归线

Apriori。拉丁语:来自以前,如果某个集合频繁出现(比如购物篮中的商品),那么他的子集也频繁出现

德尔菲法则。Delphi Method,意见加权平均。市场调查时,给不同水平的专家设置不同的权重,因为院士、教授、总经理、经理,普通员工,经验和知识水平差别很大,避免1人1票制的弊端。

神经网络:Artificial Neural Network,模仿人的大脑决策,分为好几层神经元,每层神经元权重不同。这个和德尔菲法有点像,调查一个企业对明年收益的看法,先调研经理层,再调查总监层,再调查总裁层,每层人的意见权重不一样,最后得到一个结论。

欧氏距离,Euclidean Distance,欧:欧几里得,二维空间两个点的距离 = (x1-x2)2 (y1-y2)2 ,再开平方。可以推广到N维空间。

曼哈顿距离,Manhattan Distance,两个点的距离 = |x1-x2| |y1-y2|,取名的原因是便于出租车司机计算A点到B点的街区距离,因为从A点到B点的路线一般不是一条直线

决策树。找相亲对象:有房吗?→有车吗?→ 帅吗?→ 1.8m以上吗?回答是才能继续。每个决策节点都有清晰的界限,可以把相亲对象清晰的分类

假设检验,Hypothesis test 统计学里用来证明小概率事件不会发生的一套八股文方法,不能保证绝对准确

例子:某公司开发了一种新药,假设药效和旧药效果没差别(H0,不希望出现的事),找两组病人做药效对照试验,发现新药有效的概率大于旧药,拒绝H0假设(当然对照试验只能代表一批样本,不能代表整体,也有可能新药和旧药效果没差别,但在目前的概率下,认为新药效果好)

支持向量机。Support Vector Machine,寻找一个分割平面,使平面附近的数据点,到分割平面的距离最大,与最小二乘法(回归)类似

K-mean聚类:根据数据点之间的(欧氏)距离,把数据点分为K类

kNN近邻算法:k-Nearst Neighbor, 近朱者赤近墨者黑,一个人的认知水平,与他最关注的k个人有关,可以与最大关注的人的水平化为一类

新上市一个车型,应该划分到哪个细分市场?找与他竞争强度最大的k个车型(可使用汽车网站的车型对比数据),选排名第一的竞品所在的细分市场

张量:一维数据叫向量,二维数据叫矩阵,三维数据叫张量

成本函数/代价函数/损失函数,loss/cost function,预测错了要被惩罚,犯错的成本、代价 ,L(w,b)是w和b的函数,不针对特征变量x

梯度下降,gradient descent,机器学习的精髓,像下山一样,找到一个低点,走过去,环顾四周,再找到一个低点,继续网下走,直到到达山脚下,每走一步都更接近山脚,不是瞎走

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页