导航:首页 > 车辆百科 > 数据挖掘车辆

数据挖掘车辆

发布时间:2021-09-16 16:35:34

1、爬虫和数据挖掘的区别

爬虫是在获取数据,数据挖掘是在已经获取到的数据中做一些处理

2、求一个数据挖掘的算法,在线等,可以追分

试论贝叶斯分类、决策树分类分类挖掘算法的优势与劣势,以及解决维度效应的策略

引言 数据分类是指按照分析对象的属性、特征,建立不同的组类来描述事物。数据分类是数据挖掘的主要内容之一,主要是通过分析训练数据样本,产生关于类别的精确描述。这种类别通常由分类规则组成,可以用来对未来的数据进行分类和预测。分类技术解决问题的关键是构造分类器。 一.数据分类 数据分类一般是两个步骤的过程: 第1步:建立一个模型,描述给定的数据类集或概念集(简称训练集)。通过分析由属性描述的数据库元组来构造模型。每个元组属于一个预定义的类,由类标号属性确定。用于建立模型的元组集称为训练数据集,其中每个元组称为训练样本。由于给出了类标号属性,因此该步骤又称为有指导的学习。如果训练样本的类标号是未知的,则称为无指导的学习(聚类)。学习模型可用分类规则、决策树和数学公式的形式给出。 第2步:使用模型对数据进行分类。包括评估模型的分类准确性以及对类标号未知的元组按模型进行分类。 常用的分类规则挖掘方法 分类规则挖掘有着广泛的应用前景。对于分类规则的挖掘通常有以下几种方法,不同的方法适用于不同特点的数据: 1.贝叶斯方法 2.决策树方法 3.人工神经网络方法 4.约略集方法 5.遗传算法 分类方法的评估标准: 准确率:模型正确预测新数据类标号的能力。速度:产生和使用模型花费的时间。健壮性:有噪声数据或空缺值数据时模型正确分类或预测的能力。伸缩性:对于给定的大量数据,有效地构造模型的能力。可解释性:学习模型提供的理解和观察的层次。 影响一个分类器错误率的因素 (1) 训练集的记录数量。生成器要利用训练集进行学习,因而训练集越大,分类器也就越可靠。然而,训练集越大,生成器构造分类器的时间也就越长。错误率改善情况随训练集规模的增大而降低。 (2) 属性的数目。更多的属性数目对于生成器而言意味着要计算更多的组合,使得生成器难度增大,需要的时间也更长。有时随机的关系会将生成器引入歧途,结果可能构造出不够准确的分类器(这在技术上被称为过分拟合)。因此,如果我们通过常识可以确认某个属性与目标无关,则将它从训练集中移走。 (3) 属性中的信息。有时生成器不能从属性中获取足够的信息来正确、低错误率地预测标签(如试图根据某人眼睛的颜色来决定他的收入)。加入其他的属性(如职业、每周工作小时数和年龄),可以降低错误率。 (4) 待预测记录的分布。如果待预测记录来自不同于训练集中记录的分布,那么错误率有可能很高。比如如果你从包含家用轿车数据的训练集中构造出分类器,那么试图用它来对包含许多运动用车辆的记录进行分类可能没多大用途,因为数据属性值的分布可能是有很大差别的。 评估方法 有两种方法可以用于对分类器的错误率进行评估,它们都假定待预测记录和训练集取自同样的样本分布。 (1) 保留方法(Holdout):记录集中的一部分(通常是2/3)作为训练集,保留剩余的部分用作测试集。生成器使用2/3 的数据来构造分类器,然后使用这个分类器来对测试集进行分类,得出的错误率就是评估错误率。虽然这种方法速度快,但由于仅使用2/3 的数据来构造分类器,因此它没有充分利用所有的数据来进行学习。如果使用所有的数据,那么可能构造出更精确的分类器。 (2) 交叉纠错方法(Cross validation):数据集被分成k 个没有交叉数据的子集,所有子集的大小大致相同。生成器训练和测试共k 次;每一次,生成器使用去除一个子集的剩余数据作为训练集,然后在被去除的子集上进行测试。把所有得到的错误率的平均值作为评估错误率。交叉纠错法可以被重复多次(t),对于一个t 次k 分的交叉纠错法,k *t 个分类器被构造并被评估,这意味着交叉纠错法的时间是分类器构造时间的k *t 倍。增加重复的次数意味着运行时间的增长和错误率评估的改善。我们可以对k 的值进行调整,将它减少到3 或5,这样可以缩短运行时间。然而,减小训练集有可能使评估产生更大的偏差。通常Holdout 评估方法被用在最初试验性的场合,或者多于5000 条记录的数据集;交叉纠错法被用于建立最终的分类器,或者很小的数据集。 二.贝叶斯分类 贝叶斯分类方法是一种具有最小错误率的概率分类方法,可以用数学公式的精确方法表示出来,并且可以用很多种概率理论来解决。 设(Ω,Θ,P)为概率空间,Ai∈Θ(i=1,2,…,n)为Ω的一个有穷剖分,且P(Ai)>0 (i=1,2,…,n),则对任意B∈Θ且P(B)>0,有 P(Ai|B)= (i=1,2,…,n) 上式称为贝叶斯公式。贝叶斯定理为我们提供了一个计算假设h的后验概率的方法 P(h|D)= 分类有规则分类和非规则分类,贝叶斯分类是非规则分类,它通过训练集训练而归纳出分类器,并利用分类器对没有分类的数据进行分类。 贝叶斯分类的特点贝叶斯分类具有如下特点: (1) 贝叶斯分类并不把一个对象绝对地指派给某一类,而是通过计算得出属于某一类的概率,具有最大概率的类便是该对象所属的类; (2) 一般情况下在贝叶斯分类中所有的属性都潜在地起作用,即并不是一个或几个属性决定分类,而是所有的属性都参与分类; (3) 贝叶斯分类对象的属性可以是离散的、连续的,也可以是混合的。 贝叶斯定理给出了最小化误差的最优解决方法,可用于分类和预测。理论上,它看起来很完美,但在实际中,它并不能直接利用,它需要知道证据的确切分布概率,而实际上我们并不能确切的给出证据的分布概率。因此我们在很多分类方法中都会作出某种假设以逼近贝叶斯定理的要求。 三.决策树分类 决策树(Decision Tree)又称为判定树,是运用于分类的一种树结构。其中的每个内部结点(internal node)代表对某个属性的一次测试,每条边代表一个测试结果,叶结点(leaf)代表某个类(class)或者类的分布(class distribution),最上面的结点是根结点。决策树分为分类树和回归树两种,分类树对离散变量做决策树,回归树对连续变量做决策树。 构造决策树是采用自上而下的递归构造方法。决策树构造的结果是一棵二叉或多叉树,它的输入是一组带有类别标记的训练数据。二叉树的内部结点(非叶结点)一般表示为一个逻辑判断,如形式为(a = b)的逻辑判断,其中a 是属性,b是该属性的某个属性值;树的边是逻辑判断的分支结果。多叉树(ID3)的内部结点是属性,边是该属性的所有取值,有几个属性值,就有几条边。树的叶结点都是类别标记。 使用决策树进行分类分为两步: 第1步:利用训练集建立并精化一棵决策树,建立决策树模型。这个过程实际上是一个从数据中获取知识,进行机器学习的过程。 第2步:利用生成完毕的决策树对输入数据进行分类。对输入的记录,从根结点依次测试记录的属性值,直到到达某个叶结点,从而找到该记录所在的类。 问题的关键是建立一棵决策树。这个过程通常分为两个阶段: (1) 建树(Tree Building):决策树建树算法见下,可以看得出,这是一个递归的过程,最终将得到一棵树。 (2) 剪枝(Tree Pruning):剪枝是目的是降低由于训练集存在噪声而产生的起伏。 决策树方法的评价。 优点 与其他分类算法相比决策树有如下优点: (1) 速度快:计算量相对较小,且容易转化成分类规则。只要沿着树根向下一直走到叶,沿途的分裂条件就能够唯一确定一条分类的谓词。 (2) 准确性高:挖掘出的分类规则准确性高,便于理解,决策树可以清晰的显示哪些字段比较重要。 缺点 一般决策树的劣势: (1) 缺乏伸缩性:由于进行深度优先搜索,所以算法受内存大小限制,难于处理大训练集。一个例子:在Irvine机器学习知识库中,最大可以允许的数据集仅仅为700KB,2000条记录。而现代的数据仓库动辄存储几个G-Bytes的海量数据。用以前的方法是显然不行的。 (2) 为了处理大数据集或连续量的种种改进算法(离散化、取样)不仅增加了分类算法的额外开销,而且降低了分类的准确性,对连续性的字段比较难预测,当类别太多时,错误可能就会增加的比较快,对有时间顺序的数据,需要很多预处理的工作。 但是,所用的基于分类挖掘的决策树算法没有考虑噪声问题,生成的决策树很完美,这只不过是理论上的,在实际应用过程中,大量的现实世界中的数据都不是以的意愿来定的,可能某些字段上缺值(missing values);可能数据不准确含有噪声或者是错误的;可能是缺少必须的数据造成了数据的不完整。 另外决策树技术本身也存在一些不足的地方,例如当类别很多的时候,它的错误就可能出现甚至很多。而且它对连续性的字段比较难作出准确的预测。而且一般算法在分类的时候,只是根据一个属性来分类的。 在有噪声的情况下,完全拟合将导致过分拟合(overfitting),即对训练数据的完全拟合反而不具有很好的预测性能。剪枝是一种克服噪声的技术,同时它也能使树得到简化而变得更容易理解。另外,决策树技术也可能产

3、福特的转型之路,为何会从数据挖掘开始?

1. 传统汽车制造销售利润率较低

作为一家美国上市公司,股价的高低是衡量管理层领导能力的决定性因素。

福特股价屡创新低,不仅是因为其在全球范围内除美国外其它区域销售成绩都不佳,拖累公司整体盈利水平下降,更是因为美国投资者对包括传统燃油汽车制造在内的业务在未来的发展抱有悲观态度所致。

纵观全球范围内的汽车制造行业,抛开一些超豪华品牌,利润率达到10%的汽车公司凤毛麟角。将汽车制造销售业务在未来公司的总体业务中比例下调,开发新的盈利增长点,对于注重财务数据更多的美国汽车公司来说,尤为关键。

2. 以数据挖掘为代表的新业务利润率更高

百年福特通过持续产生的销量已经积累了大量的客户信息资源,而通过对这部分信息资源的再挖掘、再开发而产生的新的业务模式,几乎不需要更多的硬件成本投入,只需要招聘相关的数据分析专家,就可以实现该项业务的开展,未来由此带来的收益可能会出乎人们的意料。

以Facebook为例,其通过后台收集的个人信息,进行归纳整理,然后将在Facebook上投放的广告精准地推送到目标客户人群上,达到最好的广告投放效果。

对于福特来说,如果未来的移动出行愿景可以实现,那意味着福特可以知道自己的车队上乘坐的乘客是谁,也可以的达到类似Facebook这样精准的投放效果。更进一步考虑,一旦北美三大汽车巨头可以联手,那在北美地区形成的投放效果甚至堪比大型互联网平台。

翻看这类互联网公司惊人的股价以及较高的盈利水平,再比较福特当前不足5%的利润率,就可以发现,福特去做这样的转型、寻找数据挖掘这样的新业务的迫切性。

数据挖掘是福特转型道路上的一个重要方向,以此为起点,这家目前处于困境中的百年老厂有更多寄托的努力,主要有三个方面:

1. 中国业务

中国作为全球最大的汽车市场,对于每一家希望有所作为的汽车公司来说,其至关重要的程度不言而喻。最近拖累福特全球业绩最大的原因之一就在于中国业务成绩不佳。在2018Q3甚至给福特全球造成了3.87亿美元的亏损,大大影响了福特全球的业绩。

为此福特也在中国进行了一系列的业务布局,期待在中国的业绩反转。具体包括:发布2025计划;挖来福特旧将陈安宁掌管单列的中国区业务;与百度在AI、无人驾驶领域进行合作,为本土化无人驾驶进行前瞻性研究;与众泰汽车在新能源以及移动出行方面成立合资公司;将旗下乘用车销售渠道进行整合。

4、用什么软件进行仿真车辆轨迹数据,要做轨迹数据挖掘

之前滴滴出行可以,但是现在滴滴出行被封了【摘要】
用什么软件进行仿真车辆轨迹数据,要做轨迹数据挖掘【提问】
之前滴滴出行可以,但是现在滴滴出行被封了【回答】
还有哪个可以做货车假轨迹【提问】
请回答
【提问】
现在没有了【回答】

5、无主之地2数据挖掘 像火车箱是的一个管道 那个任务怎么过 知道的可以告诉我么

你过去之后。。梯子坏掉。。不能用不是么。。。。然后要你去吧泵站的气压调高。。去拧几个把手,然后用车去撞那个位置。。。就OK了。进管道便是

6、大数据,数据挖掘在交通领域有哪些应用

交通领域大数据分析和应用的场景会相当多,这里面要注意两点,一个是大数据本身的技术处理平台,一个是数据分析和挖掘算法。具体场景当时写过点内容,如下:
对于公交线路规划和设计是一个大数据潜在的应用场景,传统的公交线路规划往往需要在前期投入大量的人力进行OD调查和数据收集。特别是在公交卡普及后可以看到,对于OD流量数据完全可以从公交一卡通中采集到相关的交通流量和流向数据,包括同一张卡每天的行走路线和换乘次数等详细信息。对于一个上千万人口的大城市而言,每天的流量数据都会相当大,单一分析一天的数据可能没有相关的价值,而分析一个周期的数据趋势变化则会相当有价值。结合交通流量流向数据趋势变化,可以很好的帮助公交部门进行公交运营线路的调整,换乘站的设计等很多内容。这个方法可能很早就有人想到,但是在公交卡没有普及或海量数据处理和计算能力没有跟上的时候确实很难实际落地操作,而现在则是完全可以落地操作的时候了。
从单一的公交流量流向数据动态分析仅仅是一个方面,大数据往往更加强调相关性分析。比如对于在某一个时间段内公交流量和流向数据发生明细的趋势变化的时候,这个趋势变化的究竟和哪些潜在的大事件或其它影响因素的变化存在相关性,如何去分析这些相关性并做出正确的应对。举个简单的例子来说,当市中心区内的房屋租金持续增长的时候一定会影响到交通流的变化,很多人可能会搬离到更远的地方去居住,自然会形成更多的新增公交流量和流向信息。在《大数据时代》里面谈到更多的会关心相关性而不是因果只是一个方面的内容,实际上往往探索因果仍然很重要,就拿尿片和啤酒的例子来说看起来很简单,但是究竟是谁发现了这种相关性才更加重要,发现相关性的过程往往是从果寻因的过程,否则你也很难真正就确定是具备相关性。
其次就智能交通来说,现在的智慧交通应用往往已经能够很方面的进行整个大城市环境下的交通状况监控并发布相应的道路状况信息。在GPS导航中往往也可以实时的看到相应的拥堵路况等信息,而方便驾驶者选择新的路线。但是这仍然是一种事后分析和处理的机制,一个好的智能导航和交通流诱导系统一定是基于大量的实时数据分析为每个车辆给出最好的导航路线,而不是在事后进行处理。对于智能交通中的交通流分配和诱导等模型很复杂,而且面对大量的实时数据采集,根据模型进行实时分分析和计算,给出有价值的结果,这个在原有的信息技术下确实很难解决。随着物联网和车联网,分布式计算,基于大数据的实时流处理等各种技术的不断城市,智能的交通导航和趋势分析预测将逐步成为可能。
还有一个在国外大片中经常能够看到的就是实时的车辆追踪,随着智慧城市的建设,城市里面到处都是摄像头采集数据,当锁定一个车辆后如何根据车辆的特征或车牌号等信息,实时的追踪到车辆的行走路线和位置。这里面往往需要实时的视频数据采集,采集数据的实时分析和比对,给出相应的参考信息和数据。这个个人认为是具有相当大的难度,要知道对于视频流和图像信息的比对和分析往往更加耗费计算资源,需要更长的计算周期,要从城市成千上万个摄像头里面采集数据并进行实时分析完全满足大数据常说的海量数据,异构数据,速度和价值等四个维度的特征。基于车辆能够做到,基于人当然同样也可以做到,希望这类应用能够逐步的出现,至少现在从硬件水平能力和技术基础上已经具备这种大数据应用的能力。
-

7、滴滴打车订单数据有哪些数据挖掘

要把你的问题说清楚才可以呀~否则别人没法帮助你的!
百度提问页面的顶端可以看到逗我要提问地这选项,输入框中输入您的问题,或直接点击逗我要提问地进入提问页,在这里您需要描述清楚您的问题,为了更好地得到答案,可通过文字、截图,对问题进行更详细的描述并悬赏!

8、求一个数据挖掘的算法

试论贝叶斯分类、决策树分类分类挖掘算法的优势与劣势,以及解决维度效应的策略

引言 数据分类是指按照分析对象的属性、特征,建立不同的组类来描述事物。数据分类是数据挖掘的主要内容之一,主要是通过分析训练数据样本,产生关于类别的精确描述。这种类别通常由分类规则组成,可以用来对未来的数据进行分类和预测。分类技术解决问题的关键是构造分类器。 一.数据分类 数据分类一般是两个步骤的过程: 第1步:建立一个模型,描述给定的数据类集或概念集(简称训练集)。通过分析由属性描述的数据库元组来构造模型。每个元组属于一个预定义的类,由类标号属性确定。用于建立模型的元组集称为训练数据集,其中每个元组称为训练样本。由于给出了类标号属性,因此该步骤又称为有指导的学习。如果训练样本的类标号是未知的,则称为无指导的学习(聚类)。学习模型可用分类规则、决策树和数学公式的形式给出。 第2步:使用模型对数据进行分类。包括评估模型的分类准确性以及对类标号未知的元组按模型进行分类。 常用的分类规则挖掘方法 分类规则挖掘有着广泛的应用前景。对于分类规则的挖掘通常有以下几种方法,不同的方法适用于不同特点的数据: 1.贝叶斯方法 2.决策树方法 3.人工神经网络方法 4.约略集方法 5.遗传算法 分类方法的评估标准: 准确率:模型正确预测新数据类标号的能力。速度:产生和使用模型花费的时间。健壮性:有噪声数据或空缺值数据时模型正确分类或预测的能力。伸缩性:对于给定的大量数据,有效地构造模型的能力。可解释性:学习模型提供的理解和观察的层次。 影响一个分类器错误率的因素 (1) 训练集的记录数量。生成器要利用训练集进行学习,因而训练集越大,分类器也就越可靠。然而,训练集越大,生成器构造分类器的时间也就越长。错误率改善情况随训练集规模的增大而降低。 (2) 属性的数目。更多的属性数目对于生成器而言意味着要计算更多的组合,使得生成器难度增大,需要的时间也更长。有时随机的关系会将生成器引入歧途,结果可能构造出不够准确的分类器(这在技术上被称为过分拟合)。因此,如果我们通过常识可以确认某个属性与目标无关,则将它从训练集中移走。 (3) 属性中的信息。有时生成器不能从属性中获取足够的信息来正确、低错误率地预测标签(如试图根据某人眼睛的颜色来决定他的收入)。加入其他的属性(如职业、每周工作小时数和年龄),可以降低错误率。 (4) 待预测记录的分布。如果待预测记录来自不同于训练集中记录的分布,那么错误率有可能很高。比如如果你从包含家用轿车数据的训练集中构造出分类器,那么试图用它来对包含许多运动用车辆的记录进行分类可能没多大用途,因为数据属性值的分布可能是有很大差别的。 评估方法 有两种方法可以用于对分类器的错误率进行评估,它们都假定待预测记录和训练集取自同样的样本分布。 (1) 保留方法(Holdout):记录集中的一部分(通常是2/3)作为训练集,保留剩余的部分用作测试集。生成器使用2/3 的数据来构造分类器,然后使用这个分类器来对测试集进行分类,得出的错误率就是评估错误率。虽然这种方法速度快,但由于仅使用2/3 的数据来构造分类器,因此它没有充分利用所有的数据来进行学习。如果使用所有的数据,那么可能构造出更精确的分类器。 (2) 交叉纠错方法(Cross validation):数据集被分成k 个没有交叉数据的子集,所有子集的大小大致相同。生成器训练和测试共k 次;每一次,生成器使用去除一个子集的剩余数据作为训练集,然后在被去除的子集上进行测试。把所有得到的错误率的平均值作为评估错误率。交叉纠错法可以被重复多次(t),对于一个t 次k 分的交叉纠错法,k *t 个分类器被构造并被评估,这意味着交叉纠错法的时间是分类器构造时间的k *t 倍。增加重复的次数意味着运行时间的增长和错误率评估的改善。我们可以对k 的值进行调整,将它减少到3 或5,这样可以缩短运行时间。然而,减小训练集有可能使评估产生更大的偏差。通常Holdout 评估方法被用在最初试验性的场合,或者多于5000 条记录的数据集;交叉纠错法被用于建立最终的分类器,或者很小的数据集。 二.贝叶斯分类 贝叶斯分类方法是一种具有最小错误率的概率分类方法,可以用数学公式的精确方法表示出来,并且可以用很多种概率理论来解决。 设(Ω,Θ,P)为概率空间,Ai∈Θ(i=1,2,…,n)为Ω的一个有穷剖分,且P(Ai)>0 (i=1,2,…,n),则对任意B∈Θ且P(B)>0,有 P(Ai|B)= (i=1,2,…,n) 上式称为贝叶斯公式。贝叶斯定理为我们提供了一个计算假设h的后验概率的方法 P(h|D)= 分类有规则分类和非规则分类,贝叶斯分类是非规则分类,它通过训练集训练而归纳出分类器,并利用分类器对没有分类的数据进行分类。 贝叶斯分类的特点贝叶斯分类具有如下特点: (1) 贝叶斯分类并不把一个对象绝对地指派给某一类,而是通过计算得出属于某一类的概率,具有最大概率的类便是该对象所属的类; (2) 一般情况下在贝叶斯分类中所有的属性都潜在地起作用,即并不是一个或几个属性决定分类,而是所有的属性都参与分类; (3) 贝叶斯分类对象的属性可以是离散的、连续的,也可以是混合的。 贝叶斯定理给出了最小化误差的最优解决方法,可用于分类和预测。理论上,它看起来很完美,但在实际中,它并不能直接利用,它需要知道证据的确切分布概率,而实际上我们并不能确切的给出证据的分布概率。因此我们在很多分类方法中都会作出某种假设以逼近贝叶斯定理的要求。 三.决策树分类 决策树(Decision Tree)又称为判定树,是运用于分类的一种树结构。其中的每个内部结点(internal node)代表对某个属性的一次测试,每条边代表一个测试结果,叶结点(leaf)代表某个类(class)或者类的分布(class distribution),最上面的结点是根结点。决策树分为分类树和回归树两种,分类树对离散变量做决策树,回归树对连续变量做决策树。 构造决策树是采用自上而下的递归构造方法。决策树构造的结果是一棵二叉或多叉树,它的输入是一组带有类别标记的训练数据。二叉树的内部结点(非叶结点)一般表示为一个逻辑判断,如形式为(a = b)的逻辑判断,其中a 是属性,b是该属性的某个属性值;树的边是逻辑判断的分支结果。多叉树(ID3)的内部结点是属性,边是该属性的所有取值,有几个属性值,就有几条边。树的叶结点都是类别标记。 使用决策树进行分类分为两步: 第1步:利用训练集建立并精化一棵决策树,建立决策树模型。这个过程实际上是一个从数据中获取知识,进行机器学习的过程。 第2步:利用生成完毕的决策树对输入数据进行分类。对输入的记录,从根结点依次测试记录的属性值,直到到达某个叶结点,从而找到该记录所在的类。 问题的关键是建立一棵决策树。这个过程通常分为两个阶段: (1) 建树(Tree Building):决策树建树算法见下,可以看得出,这是一个递归的过程,最终将得到一棵树。 (2) 剪枝(Tree Pruning):剪枝是目的是降低由于训练集存在噪声而产生的起伏。 决策树方法的评价。 优点 与其他分类算法相比决策树有如下优点: (1) 速度快:计算量相对较小,且容易转化成分类规则。只要沿着树根向下一直走到叶,沿途的分裂条件就能够唯一确定一条分类的谓词。 (2) 准确性高:挖掘出的分类规则准确性高,便于理解,决策树可以清晰的显示哪些字段比较重要。 缺点 一般决策树的劣势: (1) 缺乏伸缩性:由于进行深度优先搜索,所以算法受内存大小限制,难于处理大训练集。一个例子:在Irvine机器学习知识库中,最大可以允许的数据集仅仅为700KB,2000条记录。而现代的数据仓库动辄存储几个G-Bytes的海量数据。用以前的方法是显然不行的。 (2) 为了处理大数据集或连续量的种种改进算法(离散化、取样)不仅增加了分类算法的额外开销,而且降低了分类的准确性,对连续性的字段比较难预测,当类别太多时,错误可能就会增加的比较快,对有时间顺序的数据,需要很多预处理的工作。 但是,所用的基于分类挖掘的决策树算法没有考虑噪声问题,生成的决策树很完美,这只不过是理论上的,在实际应用过程中,大量的现实世界中的数据都不是以的意愿来定的,可能某些字段上缺值(missing values);可能数据不准确含有噪声或者是错误的;可能是缺少必须的数据造成了数据的不完整。 另外决策树技术本身也存在一些不足的地方,例如当类别很多的时候,它的错误就可能出现甚至很多。而且它对连续性的字段比较难作出准确的预测。而且一般算法在分类的时候,只是根据一个属性来分类的。 在有噪声的情况下,完全拟合将导致过分拟合(overfitting),即对训练数据的完全拟合反而不具有很好的预测性能。剪枝是一种克服噪声的技术,同时它也能使树得到简化而变得更容易理解。另外,决策树技术也可能产


与数据挖掘车辆相关的内容