人工智能学习经验总结范文精选3篇全文.docx

上传人:b****6 文档编号:15857477 上传时间:2023-07-08 格式:DOCX 页数:8 大小:22.89KB
下载 相关 举报
人工智能学习经验总结范文精选3篇全文.docx_第1页
第1页 / 共8页
人工智能学习经验总结范文精选3篇全文.docx_第2页
第2页 / 共8页
人工智能学习经验总结范文精选3篇全文.docx_第3页
第3页 / 共8页
人工智能学习经验总结范文精选3篇全文.docx_第4页
第4页 / 共8页
人工智能学习经验总结范文精选3篇全文.docx_第5页
第5页 / 共8页
人工智能学习经验总结范文精选3篇全文.docx_第6页
第6页 / 共8页
人工智能学习经验总结范文精选3篇全文.docx_第7页
第7页 / 共8页
人工智能学习经验总结范文精选3篇全文.docx_第8页
第8页 / 共8页
亲,该文档总共8页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

人工智能学习经验总结范文精选3篇全文.docx

《人工智能学习经验总结范文精选3篇全文.docx》由会员分享,可在线阅读,更多相关《人工智能学习经验总结范文精选3篇全文.docx(8页珍藏版)》请在冰点文库上搜索。

人工智能学习经验总结范文精选3篇全文.docx

人工智能学习经验总结范文精选3篇全文

人工智能学习经验总结范文精选3篇(全文)

一、本课题研究目的和意义

研究目的:

曾几何时,教育在某种程度上偏离了正常运行轨道,传统课堂的满堂灌、填鸭式、“题海战术”让学生不堪重负、身心受损,教育已成为沉重而艰难的话题,接受优质教育成了人民群众的迫切需求。

当今经济全球化、知识大爆炸的现实背景和建设学习型、创新型国家的时代背景都对教育提出了更严峻的挑战。

推进课程改革,创新教学模式,提高课堂效率也就成了我们教育工(具体如图1所示)。

三者间的关系是,全面风险管理的8个要素都是为企业的4个目标服务的,企业各个层级都要坚持同样的4个目标,每个层级都必须从以上8个方面进行风险管理。

该框架适合各种类型的企业或机构的风险管理。

(二)企业财务风险管理在ERM中的定位企业财务风险管理是ERM框架中的重要组成部分。

一方面,从目标维度讲,由于财务数据是基于价值标准对企业信息的综合反映,因而ERM中的经营、战略等目标中许多属于财务目标的内容。

另一方面,从要素维度讲,财务风险是风险事项识别、评估的重要内容,更是风险应对的重要手段。

而且,如图2所示的企业风险结构“金字塔”,上层的宏观、中观风险和底层微观的各项风险都最终会对财务风险产生影响,财务风险则是企业风险最综合的、往往也是最致命的表现,因此,财务风险是要素维度中最重要的因素。

(三)FDMP整体架构按照管理信息系统的一般原理,FDMP架构可以按照流程分为输入、处理、输出三个部分,即财务风险因素识别子系统、财务风险度量(评估)子系统和财务风险报告子系统。

同时,FDMP作为企业整体信息系统中一个子系统,还要考虑企业的整体信息环境,设计与其他系统的衔接及相互支撑的接口子系统。

FDMP总体架构如图3所示。

二、FDMP的构成

(一)风险因素识别子系统财务风险因素识别是指在事前,针对特定企业所处的内外部环境,辩识和确认构成企业财务风险的事项及其对应的风险容量,并在实际运行中,采取一定方法从信息源获取风险事项变动的及时信息形成对FDMP系统的输入。

由于财务风险影响因素众多,如何识别并选择适当的变量作为系统输入一直是学者们关注的一个重要问题。

从实用性角度考虑,所选择的风险因素(指标)总体上应符合以下原则:

(1)综合性。

传统的财务风险定量识别是根据一个或数个变量来作出决策,导致不同变量可能得出不同结论,如果某企业的流动比率、速动比率很低,不考虑其他变量,容易得出该企业将陷入财务困境的结论,但若该企业盈利能力很强,流动性困难极有可能是短暂的,未必一定会陷入财务困境。

因此,指标体系应综合反映企业营运能力、偿债能力、盈利能力、发展能力。

同时,还要将一些重要的定性指标经过矢量化后包括进来,如公司治理状况的有关指标。

(2)敏感性。

指标必须具有较高的敏感性,以迅速反映财务状况的变化。

(3)可得性。

即能够根据现有财务核算数据和相关管理资料,直接或间接地计算出来。

通过总结已有研究成果可以为确定风险变量提供指引,本文搜集了财务风险预测方面的国内外文献,其中代表性的有:

Beaver(1966)、Altman(1968,1977,1994)、Ohlson(1980)、Beyon&Peel(2021)、

VanGestel(2021)、陈静(1999)、陈晓(2000)、吴世农和卢贤义(2021)、联合资信(2021)、王宗军等(2021)、宋鹏等(2021)的研究,在这些研究中被广泛使用且经模型检验有效的变量主要包括:

偿债能力方面主要是流动比率、负债比率、现金及现金等价物净增加额/总负债;盈利能力方面主要是净利润率、净资产收益率、总资产收益率(以利润总额或以息税前利润为分子);成长性方面主要是主营业务收入增长率、净利润增长率、总资产增长率;营运能力方面主要是总资产周转率、应收账款周转率等。

很少有研究将公司治理变量纳入,但笔者认为公司治理对企业运作、长远发展和财务信息质量都有重大影响,应当在量化后纳入其中,如用郝芬达指数反映股权集中度等。

需要强调的是,每个企业应当根据自己的具体特征来选择风险变量,这方面并不存在绝对的统一标准。

(二)度量评估子系统该部分是将输入的数据通过适当的模型进行处理,以得到企业财务状况整体的一个二分类结果(好或坏)或风险等级划分结果。

根据风险管理目标、企业特征、数据条件等构建一个适当的模型非常关键,其技术水平和适用性将决定风险评估的有效性,从而从根本上决定财务风险动态监测的效果,因而是FDMP的技术核心。

财务风险度量模型经过半个多世纪的发展,已经历了单变量判定模型、多元线性判定模型、logit和probit概率模型、神经XX络(NN)分析模型。

由于NN模型具有自学习能力,因而也就实现了模型的动态调整,从而达到动态预测的目的。

当前,支撑向量机(SVM)由于比NN有更强的泛化能力、不易限入局部最优、维数不敏感等优点,已在财务风险度量领域得到初步成功应用,因而应重点考虑应用SVM技术来构建模型。

(三)财务风险报告系统该部分负责财务风险信息的对外披露,主要是根据组织特征决定在何时、以何频率、以详略得当的方式,将风险监测信息和警报信号在恰当的范围内传播,以便管理者及时了解财务风险情况并采取相应措施。

三、FDMP关键技术――财务风险评估模型的构建

(一)财务风险评估预测方法的演变与SVM的优势自20世纪60年代以来,不少研究者对企业财务风险的评估预测方法由简至繁地尝试了多种方法,并仍在不断摸索创新,至今大体已经历了单变量判定、多元线性判定、概率模型、人工智能方法等阶段,杨海军和太雷(2021)对此做了很好的综述。

Beaver(1966)利用单一的财务比率,最早提出公司财务预警分析模型,随后Altman(1968,1977)提出了著名的多元线性判别模型――Z系列模型,该模型确定了资产营运资本率、资产留存收益率、资产报酬率、债务权益市价率和总资产周转率这5个变量作为判别变量,产生了一个综合判别公司财务状况恶化程度的概率值,即Z值。

但线性判别模型对预测变量有着严格的联合正态分布要求,或者要求协方差矩阵相等,而事实上大多数财务比率并不满足这一假设要求。

为克服这些局限性,Martin(1977)和Ohlson(1980)等提出了逻辑回归模型,与前述的模型相比逻辑回归模型很好地解决了上述问题,因此具有更广泛的适用性,然而逻辑回归模型仍存在自身的缺陷,诸如线性、非线性的传统统计学的严格假设条件,要求预测变量之间、函数形式关系之间相互独立,但在现实世界中这些函数关系以及预测变量都不是完全独立的。

为了开发一种更为精确更为通用的预测方法来解决这个问题,包括决策树、神经XX络、模糊逻辑、遗传算法、支持向量机等方法的数据挖掘和机器学习技术被广泛引入,并取得了较好的结果。

Odom(1990)、Franco&Varetto(1998)运用人工神经元XX络模型进行财务困境预测的研究,Min&Lee(2021)采用支持向量机(SVM)方法对上市公司财务困境问题进行预测,并得出SVM方法优于神经XX络、多元判别分析和Logistic回归的结果。

SVM是目前较新的一种性能优势的模式识别技术,是由Vapnik等人根据统计学理论提出的一种新的通用学习方法,它是建立在统计学理论的VC维理论和结构风险最小化原理基础上,能较好地解决小样本、非线性、高维数和局部极小点等实际问题,泛化能力强,具有其它以经验风险最小化原理为基础的算法难以比拟的优越性。

因而,FDMP的风险度量评估模型在当前条件下应当基于SVM技术构建。

应当指出的是,本文讨论的是如何为一个企业构建财务风险监测平台,由于每个企业的情况存在许多差异,而且SVM作为一种人工智能学习技术,其最终成果――最优分类函数受学习样本数据影响会隐含许多的企业特征,因而,试图构建一个一般化的模型以适应所有企业并不具有太多实践意义,需要针对特定企业根据其数据构建专属的具体模型,所以,在此讨论模型构建的主要问题及其处理原则更有指导意义。

(二)SVM在财务风险动态监测应用中的主要问题及处理一是模型大类的选择。

在模型构建过程中,有许多技术方面需要做出选择,其中最基本的也是一开始就要做出的选择是模型的大类。

支持向量机是针对二值分类问题提出的,经过发展,目前也成功应用于解函数回归问题,同时也用于多值分类问题。

因此,从大类上来讲,支持向量机有二分类支持向量机、支持向量机回归(通常称为SVR)、多值分类支持向量机(分类支持向量机可统称为SVC)。

它们区别在于:

(1)二分类与回归比较,若给出训练样本集为:

(xi,yi),xi∈Rn,i=1,…,?

而yi对于分类问题∈{+1,-1},而对于回归情况则∈R。

原始数据经非线性映射?

准到一个高维特征空间后,然后在高维特征空间中进行线性分类或回归运算,分类问题是解下面的二次规划:

min■||w||2+C■ξi,约束条件为yi(+b)?

叟1-ξi;ξi?

叟0,其中:

是向量点积,w为权向量,b为阈值,C为惩罚因子,表示了对误差样本的惩罚程度,ξ为考虑拟合误差而引入的松弛因子。

而在回归问题中,设回归函数为:

f(x)=+b,它的任务是解如下二次规划:

min■||w||2+C■(ξi+ξ*i),约束条件为:

yi-(+b)≤?

着+ξi;(+b)-yi≤?

着+ξi;ξi,ξ*i?

叟0,其中为ε为一种损失函数。

(2)二分类与多值分类比较,通常是将多值分类做一定转换,再利用二分类方法处理。

通常的做法有“一对多”、“一对一”、决策树法等,“一对多”就是把某一种类别的样本当作一个类别,剩余其他类别的样本当作另一个类别,而“一对一”就是每次只考虑两类样本,即对每两类样本设计一个SVM模型,总共需要设计k(k-l)/2个SVM模型。

通常构造多值分类的方法具有很高的计算复杂性,孙德山(2021)提出了一种相对简单又有效的处理方法。

该方法是在高维特征空间中对每一类样本求出一个超球体中心,然后计算待测试样本到每类中心的距离,最后根据最小距离来判断该点所属的类,他所得到的多值分类问题最终优化方程中,待优化的参数个数是样本总数?

,计算复杂性只与总的样本数量有关,而与样本的分类数无关,因此比用SVM构造一系列二值优化器要简单得多。

那么应当选择哪一类型的支持向量机呢?

这是一个需要根据实际情况进行折衷处理的问题。

从技术成熟度看,目前支持向量机在解决二值分类方面获得了巨大成功,技术相对成熟,而SVR比SVC复杂,技术成熟度不如二分类SVC,多值分类则更次之。

而从进行财务风险监测的需要来看,希望得到尽可能细化的分类结果以较准确地反映企业的财务风险水平,所以选择的顺序是SVR、多值分类、二分类,因为SVR的评估结果是一个连续值,多值分类结果是一个多等级值,例如五级分类,而二分类只有好与坏两个值。

面对这种冲突,应有的处理原则是,根据ERM框架确定的风险管理目标水平、数据获取情况和企业管理技术水平来决定评估所期望的精度,从而选择相应的模型种类。

二是参数的确定。

要把模型构建落到实处,接下来就必须确定模型中的各项参数。

对于支持向量机,影响模型效果的重要参数主要包括:

(1)核函数形式及其参数。

对于非线性问题(现实中大量问题属非线性的,财务风险即为典型),支持向量机无法直接得到最优分类超平面,而是利用非线性映射函数将样本映射到高维线性空间,然后在此空间构造线性分类器或回归函数。

样本在高维空间的点积运算可以用低维输入空间的核函数来实现(这也是支持向量机最巧妙之处),而核函数的类型和参数间接决定了样本在高维线性空间的分布,从而影响了支持向量机的性能。

目前研究最多的核函数主要有如下几类:

(a)多项式核函数,形为K(x,y)=[?

啄+c]q,

其中:

q为多项式的阶数,?

啄、c为设计者选择的常数;(b)径向基函数(RBF),形为K(x,y)=exp{-■};(c)多层感知器Sigmoid核函数,形为K(x,y)=tan(?

啄+c);(d)Fourier序列核函数K(x,y)=■;(e)B样条核函数K(x,y)=B2N+1(x-y)。

(2)误差惩罚参数C,是调整模型复杂性和经验风险的参数。

C越大意味着对分类误差的惩罚越大,误分类的数据点数目越少;反之,C越小意味着忽略那些似是而非的误分类数据点,同时得到更宽的分类间隔。

(3)对于SVR类模型,损失函数的选择也至关重要,主要有ε不敏感损失函数、平方损失函数、Laplace损失函数、Huber损失函数等,最常用是Vapnik提出的ε不敏感损失函数。

目前对于参数的选择还没有明确的指导方法,在实际应用中,可以在如下两种方式中选其一:

(1)经验确定。

经验确定是按照样本的分布规律,对函数形式和各个参数给出经验估计值,这一方法需要使用者有较深厚的理论基础。

目前研究中有许多经验总结可借鉴。

如,Lanckriet(2021)指出可以利用半正定规划技术直接从数据中学习核矩阵(各种可能核形式)来得到最适合的核函数形式;刘靖旭等(2021)研究表明对于ε-SVR模型,ε的不同取值,预测误差随参数对(λ,C)具有相似的变化趋势,且对于较佳的组合,几乎在相同的ε值处取得较小的预测误差,这表明ε的选取在某种程度上独立于(λ,C)的选择,因此,可以先确定ε,把三参数优化问题转化为二参数优化问题;杨海军和太雷(2021)指出可使用模糊化的惩罚项(而不固定的惩罚参数值)来降低不重要数据点的影响,即根据外点侦测结果,使用一个权重函数,对外点赋予较大的惩罚值等。

(2)XX格搜索。

如果使用者缺乏经验,则可用XX格搜索方法,它的做法是将参数所处的空间划分成XX格,在每一个XX格点上将参数代入进行试估计,并将估计结果的误识率进行比较,最终选择那些使误识率最低的参数。

这一方法的明显优点是广泛适用性,但其局限是计算量随着参数数量的增加呈指数增长,对于实际中很多大型回归分析问题由于计算量太大而不实用。

三是样本问题。

有效样本的获取与处理是构建模型的基础,它不仅影响模型上述方面的技术选择,并最终决定了模型估计的有效性。

样本问题主要涉及样本规模和样本结构均衡性两个方面,当实际操作中碰到此类问题时,有时需要在参数选择方面做调整,有时通过一定方法对样本进行预处理就可基本解决。

(1)样本规模问题。

支持向量机最初是针对小样本提出的一种方法,依据小样本得到泛化能力强的模型是它的优势。

但与其他任何机器学习技术一样,样本规模不能过小,过小则会发生欠学习问题,即模型不能从训练样本中得到足够信息,因而模型的预测能力就会不理想。

支持向量机的小训练样本优势同时也给它带来了在大样本场景下应用的局限性,如对于大型企业或涉及金融资产较多的企业,只有较大的样本才可能提供比较充分的财务风险信息。

支持向量机在大样本中的局限主要是因为其训练过程实质是求解一个二次规划问题,其求解时间复杂度为O(N3),由于要存储核矩阵,空间复杂度为O(N2),其中N是样本数。

当训练集规模巨大时,支持向量机的训练时间会太长,同时核矩阵的规模太大将导致内存空间不足。

另一方面,支持向量机的训练结果是用支持向量表示的,当支持向量数目太大时会导致超出内存限制,使得分类器不能全部装入内存,影响分类器的使用。

在众多处理支持向量机大样本应用问题的技术中,不涉及到参数调整,可单纯通过样本预处理实现的有减少训练样本、训练集分解两种方法。

减少训练样本方法是采取某种策略,通过挑选最可能为支持向量的训练样本,或筛减最不可能为支持向量的训练样本,或以上两种方法同时采用对训练集实施预处理,以实现训练集规模的减小。

具体处理方法主要有:

(a)邻域算法,即通过一定算法(如k邻域算法)计算样本点邻域信息,从而挑选那些位于分类超平面附近的样本作为最终训练集,实现训练过程加速的同时确保分类器泛化能力(Shin,2021)。

(b)聚类方法,即使用聚类分析技术对大样本进行预处理,抽取聚类子集的有效信息,从而实现训练样本的筛减。

如Boley(2021)提出了一种自适应聚类方法,首先将训练集按照类别分别实施聚类,用每个子集的中心作为该子集的“代表”,然后用这些“代表”的集合训练初始支持向量机,从而初步发现训练集中可能的非支持向量,非支持向量子集用该子集的中心代表,从而起到筛减非支持向量的目的。

训练集分解方法就是基于某种策略将训练集分解成若干子集,在每个子集上训练支持向量机,最后采用某种策略将各支持向量机组合。

具体实现有串行、并行两种方式。

并行的训练集分解方法有:

贝叶斯支持向量机(BC-SVM)、最小最大模块化支持向量机M3-SVM、并行混合支持向量机专家、快速模块化支持向量机(FastmodularnetworkimplementationforSVM)、分布式支持向量机(Distributed-SVM)等。

串行方法主要是使用Boosting算法来扩展支持向量机,它是用上次训练过程产生的分类器在整个训练集上的测试准确率决定下次样本的抽取,这将使被前面产生分类器错分的样本更可能出现在下次的训练集中。

(2)样本均衡性问题。

如果训练样本出现明显的非均衡性,如某一类样本特别少,而另一类样本特别多,在这种情况下经传统处理方法训练出来的支持向量机在分类时就会出现偏向大类的倾向,换言之,当两类训练样本数目相差悬殊时,分类平面明显偏向少数类训练样本一方,从而产生“有偏性”。

而财务风险、医学诊断、入侵检测等都属典型非均衡问题。

如何处理这一问题,目前主要有两种思路,一是改造分类算法,另一个是对数据进行预处理。

改造分类算法主要通过对不同类的样本设置不同的权值,改变概率密度,调整分类边界等措施解决,如赵会等(2021)提出一种基于中心距离比的分类算法;而谢丹蕊等(2021)提出的平衡策略则是,首先基于Fisher判别思想,计算出两类样本在分类超平面法向量上投影后的均值和方差,再依据两类错分概率相等准则,给出新的阈值计算方法对超平面进行调整。

数据预处理方法通过样本数据的修剪来解决非均衡问题,具体方法包括向下取样、向上取样等。

向下取样是减少多数样本的数量,使不同类的数量接衡,从而提高分类能力。

该方法的缺点是容易丢失多数类的一些重要信息。

向上取样是通过增加少数类的样本数量提高分类器的分类能力,但新样本难以保证与原样本同分布,且增加了训练器负担。

因此,不同方法各有利弊,还有待进一步发展成熟。

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 自然科学 > 物理

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2