24种人工智能算法原理、缺点及投资使用场景

1.线性回归

线性回归(Linear Regression)可能是最流行的机器学习算法。线性回归就是要找一条直线,并且让这条直线尽可能地拟合散点图中的数据点。它试图通过将直线方程与该数据拟合来表示自变量(x 值)和数值结果(y 值)。然后就可以用这条线来预测未来的值!

这种算法最常用的技术是最小二乘法(Least of squares)。这个方法计算出优异拟合线,以使得与直线上每个数据点的垂直距离最小。总距离是所有数据点的垂直距离(绿线)的平方和。其思想是通过最小化这个平方误差或距离来拟合模型。

2.逻辑回归

逻辑回归(Logistic regression)与线性回归类似,但逻辑回归的结果只能有两个的值。如果说线性回归是在预测一个开放的数值,那逻辑回归更像是做一道是或不是的判断题。逻辑回归经常被电商或者外卖平台用来预测用户对品类的购买偏好。

3.线性判别分析

线性判别式分析(Linear Discriminant Analysis, LDA),也叫做Fisher线性判别(Fisher Linear Discriminant ,FLD),是模式识别的经典算法,它是在1996年由Belhumeur引入模式识别和人工智能领域的。性鉴别分析的基本思想是将高维的模式样本投影到优异鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有优异的可分离性。因此,它是一种有效的特征抽取方法。

4.决策树

决策树是一种通过对训练数据进行测算,实现对测试数据进行分类和预测的算法。

决策树通常由3个主要部分组成,分别为决策节点,分支,和叶节点。其中决策树最顶部的决策节点是根决策节点。每一个分支都有一个新的决策节点。决策节点下面是叶节点。每个决策节点表示一个待分类的数据类别或属性,每个叶节点表示一种结果。整个决策的过程从根决策节点开始,从上到下。根据数据的分类在每个决策节点给出不同的结果。

5.学习矢量量化

学习矢量量化(Learning Vector Quantization,LVQ),是一种用于模式分类的有监督的学习算法,也是一种结构简单、功能强大的有监督的神经网络分类算法。

6.支持向量机

支持向量机(Support Vector Machine)是一种用于分类问题的监督算法。采用最大分类间隔准则实现有限训练样本情况下推广能力的优化。通过核函数间接实现非线性分类或函数回归,支持向量机通常简写作SVM。

7.最近邻算法

K-最近邻算法(K-Nearest Neighbors,KNN)非常简单。KNN通过在整个训练集中搜索K个最相似的实例,即K个邻居,并为所有这些K个实例分配一个公共输出变量,来对对象进行分类。

8.随机森林算法

随机森林(Random Forest)是一种非常流行的集成机器学习算法。它是通过集成学习的思想将多棵树集成的一种算法,它的基本单元是决策树,而它的本质属于机器学习的一大分支——集成学习(Ensemble Learning)方法。在集成学习中,主要分为bagging 算法和boosting 算法,而这里的随机森林则主要运用了bagging 算法。

9.人工神经网络

人工神经网络算法模拟生物神经网络,是一类模式匹配算法。通常用于解决分类和回归问题。人工神经网络是机器学习的一个庞大的分支,有几百种不同的算法。

10.贝叶斯算法

朴素贝叶斯(Naive Bayes ,NB)算法是基于贝叶斯定理与特征条件独立假设的分类方法,该算法是有监督的学习算法,解决的是分类问题,是将一个未知样本分到几个预先已知类别的过程。

朴素贝叶斯的思想就是根据某些个先验概率计算Y变量属于某个类别的后验概率,也就是根据先前事件的有关数据估计未来某个事件发生的概率。

发表评论

电子邮件地址不会被公开。 必填项已用*标注