SVM支持向量机预测作业-房价预测模型
- 格式:ppt
- 大小:899.91 KB
- 文档页数:16
如何使用支持向量机进行多类别分类支持向量机(Support Vector Machine,SVM)是一种常用的机器学习算法,广泛应用于分类和回归问题。
在分类问题中,SVM可以有效地处理二分类任务。
但在面对多类别分类问题时,需要采取一些特殊的策略来适应多类别情况。
本文将介绍如何使用支持向量机进行多类别分类。
1. 一对多(One-vs-Rest)策略一对多策略是最常用的多类别分类方法之一。
它将多类别问题转化为多个二分类问题。
对于有N个类别的问题,我们需要训练N个SVM模型,每个模型都将一个类别作为正例,其他类别作为负例。
在预测时,将样本输入到这N个模型中,选择输出概率最高的类别作为最终的分类结果。
这种策略的优点是简单易懂,容易实现。
同时,由于每个模型只需要区分一个类别和其他类别,相对于直接使用多类别分类模型,计算量较小。
然而,这种方法可能会出现类别不平衡的问题,即某些类别的样本数量较少,导致模型对这些类别的预测效果较差。
2. 一对一(One-vs-One)策略一对一策略是另一种常用的多类别分类方法。
它将多类别问题转化为多个二分类问题,每个二分类问题只涉及两个类别。
对于有N个类别的问题,我们需要训练N*(N-1)/2个SVM模型,每个模型都将两个类别作为正例和负例。
在预测时,将样本输入到这些模型中,通过投票或者加权投票的方式确定最终的分类结果。
相对于一对多策略,一对一策略的优点是可以避免类别不平衡的问题。
每个模型只需要区分两个类别,相对于直接使用多类别分类模型,计算量较小。
然而,这种方法的缺点是需要训练大量的模型,计算复杂度较高。
当类别数量较多时,训练时间和内存消耗可能会成为问题。
3. 多类别扩展除了以上介绍的一对多和一对一策略,还有一些其他方法可以用于多类别分类。
例如,多类别扩展方法将多类别问题转化为二分类问题,但是通过一些技巧将多个二分类模型组合起来。
常见的多类别扩展方法有Error-Correcting Output Codes (ECOC)和Directed Acyclic Graph(DAG)等。
基于最小二乘支持向量机的短期负荷预测模型作者:张宁,许承权,薛小铃,郑宗华来源:《现代电子技术》2010年第18期摘要:支持向量机(SVM)是近年来发展起来的机器学习的新方法,它较好地解决了小样本、非线性、高维数、局部极小点等实际问题。
研究了支持向量机的拓展算法——最小二乘支持向量机(LSSVM),并将其应用于电力系统短期负荷时间序列预测。
通过实例并与神经网络模型预测结果相比较表明,LSSVM模型的预测精度要明显高于神经网络模型,验证了LSSVM模型可以很好地应用于短期负荷时间序列预测,并且具有较高的准确性与有效性,这为短期负荷预测提供了一个新的解决思路。
关键词:最小二乘支持向量机; 神经网络; 短期负荷预测;时间序列预测中图分类号:TN715-34文献标识码:A文章编号:1004-373X(2010)18-0131-03Short-term Load Forecasting Model Based on Least Square Support Vector MachineZHANG Ning1, XU Cheng-quan2, Xue Xiao-ling1, ZHENG Zong-hua1(1. Department of Physics & Electronic Information, Minjiang University, Fuzhou 350108, China;2. Department of Geograpgy, Minjiang University, Fuzhou 350108, China)Abstract: Support vector machine (SVM) is a novel machine learning method, which is powerful for solving the problems characterized by small samples, nonlinearity, high dimension, local minima, and other practical problems. The extension algorithm of the support vector mac hine-least squares support vector machine(LSSVM) is studied and applied to the time series forecasting of short-term load in power system. Compared with the predicting outcomings of the neural network model through some examples, the result shows that the forecast accuracy of LSSVM model is higher than that of neural network model, and verifies LSSVM model can apply effectively to short-term load forecasting. This provides a new resolution for short-term load forecasting .Keywords:least square support vector machine; neural network; short-term load prediction; time-sequence forcasting0 引言短期负荷预测是电力系统的重要工作之一。
基于SVM的股票指数预测邹存利;张蕾;王玥;丛琳【摘要】随着中国经济的飞速发展,越来越多的人加入到股市这个大家庭中来。
由于股票市场具有高噪声、不确定等特性,使得股票的价格预测极为困难。
而较为准确的预测股票价格,有利于人们的投资。
本文选用国泰君安大智慧软件中2007年1月4日至2017年12月29日的沪深300指数中2676个交易日数据作为原始分析数据,通过建立支持向量机模型和ARMA模型进行分析并做出短期预测。
实验结果:采用支持向量机模型的预测数据与实际数据的拟合度较高,相对误差控制在4%左右;说明支持向量机模型可以对股票市场做出更准确的价格预测,可以为沪深股票市场股票价格走势的研究提供一些借鉴。
【期刊名称】《计算机科学与应用》【年(卷),期】2018(008)004【总页数】8页(P421-428)【关键词】沪深300指数;支持向量机;ARMA模型;股票预测;数据归一化【作者】邹存利;张蕾;王玥;丛琳【作者单位】[1]辽宁师范大学数学学院,辽宁大连;;[1]辽宁师范大学数学学院,辽宁大连;;[1]辽宁师范大学数学学院,辽宁大连;;[1]辽宁师范大学数学学院,辽宁大连;【正文语种】中文【中图分类】F21.引言股票市场瞬息万变,风险很高,而对股票指数的预测可以为我们从整体上把握股市的变动提供有效的信息。
沪深300指数是沪深证交所联合发布,以流动性和规模作为两大选样的根本标准,是一个能反映A股市场价格整体走势的指标。
所以对于沪深指数的预测具有十分重要的意义。
基于支持向量机的优良性能,考虑将其应用于股市指数的预测[5]。
支持向量机于1995年由Cortes和Vapnik等人正式发表,由于其在文本分类任务中显示出卓越性能,很快成为机器学习的主流技术,并直接掀起了“统计学习”在2000年前后的高潮。
Vapnik等人从六、七十年代开始致力于此方面研究,直到九十年代才使抽象的理论转化为通用的学习算法,其中核技巧才真正成为机器学习的通用基本技术。
支持向量回归的训练流程和测试过程支持向量回归的训练流程和测试过程支持向量回归(Support Vector Regression, SVR)是一种基于支持向量机(Support Vector Machine, SVM)的回归方法,它通过寻找最优的超平面来拟合数据。
本文将详细介绍SVR的训练流程和测试过程。
一、SVR的训练流程1. 数据预处理首先需要对数据进行预处理,包括数据清洗、特征选择和特征缩放等。
对于SVR,特征缩放非常重要,因为SVR是基于距离度量来计算样本之间的相似性的。
通常采用标准化或归一化方法将特征缩放到相同的尺度上。
2. 选择核函数核函数是SVR中最重要的参数之一,它用于将原始特征映射到高维空间中,以便更好地拟合非线性关系。
常用的核函数包括线性核、多项式核和径向基函数(Radial Basis Function, RBF)核等。
根据实际问题选择合适的核函数非常重要。
3. 确定超参数超参数是指那些在模型训练过程中需要手动调整的参数,例如正则化系数C、惩罚因子epsilon等。
这些参数的选择对模型的性能和泛化能力有很大影响。
通常采用交叉验证等方法来确定最优的超参数。
4. 训练模型在确定好核函数和超参数后,可以开始训练SVR模型了。
SVR的训练过程可以看作是一个求解最优化问题的过程,即在满足一定约束条件下,最小化目标函数。
常用的求解方法包括序列最小优化(Sequential Minimal Optimization, SMO)算法和梯度下降算法等。
5. 模型评估训练好SVR模型后,需要对其进行评估。
常用的评估指标包括均方误差(Mean Squared Error, MSE)、均方根误差(Root Mean Squared Error, RMSE)和决定系数(Coefficient of Determination, R-squared)等。
通过评估指标可以判断模型的性能和泛化能力。
二、SVR的测试过程1. 数据预处理与训练过程类似,需要对测试数据进行预处理,包括数据清洗、特征选择和特征缩放等。
svm 损失函数
SVM(支持向量机)是一种常见的监督学习模型,用于分类和回归问题。
在SVM模型中,我们最常用的是线性SVM,它是一种线性分类器,通过寻找最佳的超平面来将数据点分为不同的类别。
SVM模型的损失函数是非常重要的,因为它决定了模型的优化方式。
在SVM中,常用的损失函数是Hinge Loss(铰链损失),它可以使模型更加关注分类错误的点,从而提高模型的准确性。
Hinge Loss的公式如下:
L(y, f(x)) = max(0, 1 - y*f(x))
其中,y是真实的类别标签,f(x)是模型对样本x的预测值。
如果y*f(x) > 1,则说明模型预测正确,损失为0;如果y*f(x) < 1,则说明模型预测错误,损失为1-y*f(x)。
这个损失函数的意义是,如果模型预测错误,我们就希望损失更大,以鼓励模型更加关注分类错误的点。
在训练SVM模型时,我们的目标是最小化总损失,即:
min Σi max(0, 1 - y(i)*f(x(i))) + αΣw(i)^2
其中,第一项是Hinge Loss,第二项是正则化项,用于控制模型的复杂度。
正则化参数α越大,模型的复杂度越低,对训练数据的拟合就越差,但是对新数据的泛化能力更好。
在实际应用中,我们可以使用梯度下降等优化算法来求解这个损失函数的最小值,从而得到最佳的超平面和模型参数w。
- 1 -。
第1篇一、实验背景与目的随着大数据时代的到来,数据挖掘和统计分析在各个领域中的应用越来越广泛。
回归模型作为一种重要的统计方法,被广泛应用于预测和分析变量之间的关系。
本实验旨在通过实际数据的分析,掌握回归模型的基本原理、建模方法和预测技巧,并验证模型的预测效果。
二、实验数据与工具1. 实验数据本实验选取了某电商平台近一年的销售数据作为实验数据,包含以下变量:- 用户ID- 产品类别- 产品价格- 用户年龄- 用户性别- 用户购买频率- 实际销售额2. 实验工具- Python编程语言- NumPy、Pandas、Matplotlib等库- Scikit-learn机器学习库三、实验步骤1. 数据预处理- 数据清洗:去除缺失值、异常值等无效数据。
- 数据转换:将分类变量转换为数值型变量,如使用独热编码(One-Hot Encoding)。
- 数据标准化:对数值型变量进行标准化处理,使其均值为0,标准差为1。
2. 模型选择根据实验目的,本实验选择了以下两种回归模型:- 线性回归模型:用于预测销售额。
- 逻辑回归模型:用于预测用户购买频率。
3. 模型训练与验证- 使用Scikit-learn库中的训练函数,将数据集划分为训练集和测试集。
- 使用训练集对模型进行训练,并使用测试集对模型进行验证。
- 调整模型参数,优化模型性能。
4. 模型评估- 使用均方误差(MSE)、均方根误差(RMSE)等指标评估线性回归模型的预测效果。
- 使用准确率、召回率、F1值等指标评估逻辑回归模型的预测效果。
四、实验结果与分析1. 线性回归模型- 模型训练过程中,选取了最优的岭回归系数λ=0.01。
- 在测试集上的MSE为0.006,RMSE为0.079。
- 可见,线性回归模型能够较好地预测销售额。
2. 逻辑回归模型- 模型训练过程中,选取了最优的惩罚参数C=1.0。
- 在测试集上的准确率为0.876,召回率为0.843,F1值为0.858。
基于支持向量机的矿震危险性预测摘要:本文研究了基于支持向量机(SVM)的矿震危险性预测方法。
首先,它介绍了用于预测目标变量的SVM理论背景知识,并讨论了实验数据集特征选择过程。
其次,本文基于SVM对不同数据集进行了矿震危险性预测,并与传统的朴素贝叶斯(NB)分类器进行了比较。
最后,通过对实验结果的分析,我们发现,使用SVM预测结果比NBY更准确,有效地预测了矿震危险性。
关键词:支持向量机,矿震危险性,预测,朴素贝叶斯正文:矿震危险性预测是用来估计未来矿震活动性和破坏性的一种重要方法。
近年来,随着新技术和大数据技术的发展,如机器学习、人工智能和传感器技术,准确地预测矿震危险性变得更加重要。
在本文中,我们将探讨基于支持向量机(SVM)的矿震危险性预测方法。
首先,我们提供了关于SVM的理论背景知识,包括其基本原理、核函数和实现技术,用于预测矿震危险性的目标变量。
其次,我们讨论了实验数据集的特征选择过程,并使用对象关系图(ORG)模型对数据集进行了分析和可视化。
然后,我们基于SVM算法,将实验数据集分成训练集和测试集,并使用模型训练和评估来预测矿震危险性。
最后,基于SVM和朴素贝叶斯(NB)分类器的实验结果的分析表明,使用SVM模型对于矿震危险性的预测准确率更高。
本文中所提出的SVM-based预测方法有助于准确预测矿震危险性,为未来矿震预警提供了重要依据。
接下来,本文将展示准确预测矿震危险性的一些其他方法,例如神经网络(NN)、深度学习(DL)和关联规则挖掘(ARM)。
NN是使用人工神经元建立数学模型的算法,可用于从已知数据中学习和推理。
这种学习方法在分类、回归和其他特定任务上表现出色,对矿震危险性预测也有重要作用。
另一方面,DL算法利用多层神经网络,旨在从原始数据中识别模式,以及模拟真实世界中的函数映射。
随着这种算法的不断完善,它正在变得越来越有用,可以用于众多领域的机器学习应用,包括矿震危险性预测。
# 从sklearn.datasets导入波士顿房价数据from sklearn.datasets import load_boston# 读取房价数据存储在变量X,y中X,y = load_boston(return_X_y=True)print(X.shape)print(y.shape)# 数据分割from sklearn.model_selection import train_test_split# 70%作为训练样本,30%数据作为测试样本X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)print(X_train.shape)print(X_test.shape)print(y_train.shape)print(y_test.shape)# 数据标准化from sklearn.preprocessing import StandardScalerscaler_X = StandardScaler()scaler_y = StandardScaler()# 分别对训练和测试数据的特征以及目标值进行标准化处理X_train = scaler_X.fit_transform(X_train)y_train = scaler_y.fit_transform(y_train.reshape(-1, 1))X_test = scaler_X.transform(X_test)y_test = scaler_y.transform(y_test.reshape(-1, 1))# 从sklearn.linear_model导入LinearRegressionfrom sklearn.linear_model import LinearRegression# 使用默认参数值实例化线性回归器LinearRegressionlr = LinearRegression()# 使用训练数据进行训练lr.fit(X_train, y_train)# 对测试数据进行回归预测lr_y = lr.predict(X_test)# 导入r2_score、mean_squared_error以及mean_absolute_error from sklearn.metrics import r2_scoreprint("LinearRegression的R_squared:",r2_score(y_test, lr_y))from sklearn.metrics import mean_squared_errorprint("LinearRegression均方误差:",mean_squared_error(scaler_y.inverse_transform(y_test), scaler_y.inverse_transform(lr_y))) from sklearn.metrics import mean_absolute_errorprint("LinearRegression绝对值误差:",mean_absolute_error(scaler_y.inverse_transform(y_test),scaler_y.inverse_transform(lr_y)))# 使用LinearRegression 自带的评估函数print("LinearRegression自带的评估函数",lr.score(X_test, y_test))print("---" * 20)# 从sklearn.linear_model导入SGDRegressorfrom sklearn.linear_model import SGDRegressorsgdr = SGDRegressor(max_iter=5, tol=None)# 使用训练数据进行训练sgdr.fit(X_train, y_train.ravel())# 使用SGDRegressor模型自带的评估函数print("SGDRegressor自带的评估函数:",sgdr.score(X_test, y_test))# 从sklearn.neighbors导入KNeighborsRegressorfrom sklearn.neighbors import KNeighborsRegressor# 初始化K近邻回归knr_uni = KNeighborsRegressor(weights="uniform")knr_uni.fit(X_train, y_train.ravel())print('KNeighorRegression(weights="uniform")自带的评估函数:', knr_uni.score(X_test, y_test))knr_dis = KNeighborsRegressor(weights='distance')# 使用训练数据进行训练knr_dis.fit(X_train, y_train.ravel())print('KNeighorRegression(weights="distance")自带的评估函数:', knr_dis.score(X_test, y_test))# 房价预测—支持向量回归from sklearn.svm import SVR# 使用SVR训练模型,并对测试数据做出预测svr_linear = SVR(kernel='linear')svr_linear.fit(X_train, y_train.ravel())print('SVR(kernel="linear")自带的评估函数:',svr_linear.score(X_test, y_test))svr_poly = SVR(kernel='poly')svr_poly.fit(X_train, y_train.ravel())print('SVR(kernel="poly")自带的评估函数:',svr_poly.score(X_test, y_test))svr_rbf = SVR(kernel='rbf')svr_rbf.fit(X_train, y_train.ravel())print('SVR(kernel="rbf")自带的评估函数:',svr_rbf.score(X_test, y_test))# 从sklearn.tree中导入DecisionTreeRegressor。
基于GWO-SVM算法的油气井产能预测模型研究
杨毅;赵洪绪;袁胜斌
【期刊名称】《能源与环保》
【年(卷),期】2024(46)2
【摘要】油气井产能对于油藏完井方式选择及相关作业起着决定性作用,是油气藏开发的关键指标之一。
当前基于机器学习算法的油气井产能预测过程中预测结果受样本数据影响明显。
针对支持向量机方法和灰狼算法在处理小数据样本时的特征及优势,将支持向量机与灰狼算法相结合,形成了灰狼算法—支持向量机算法(GWO-SVM算法)。
利用某油田数据实际井数据对优化前后的算法及当前常用的机器学习算法进行对比测试,结果表明,优化后的GWO-SVM算法在计算速度和计算精度上表现出了明显优势,能更准确地确定油气井产能。
研究结果对油气井产能预测具有一定指导意义。
【总页数】6页(P178-183)
【作者】杨毅;赵洪绪;袁胜斌
【作者单位】中法渤海地质服务有限公司
【正文语种】中文
【中图分类】TE988.2
【相关文献】
1.基于GWO-SVM的财务困境预测模型研究
2.基于GWO-SVM算法的物联网入侵检测研究
3.基于GWO-SVM算法的工业互联AI入侵检测方法研究
4.基于GWO-SVM岩爆分级预测模型
因版权原因,仅展示原文概要,查看原文内容请购买。
基于改进支持向量机的温室大棚温度预测【摘要】本文基于改进支持向量机方法,针对温室大棚温度预测进行研究。
首先介绍支持向量机(SVM)的基本原理,然后详细探讨改进的支持向量机方法。
接着构建温室大棚温度预测模型,并通过实验结果与分析验证其有效性。
最后对模型性能进行评估。
研究表明,改进的支持向量机方法在温室大棚温度预测中具有很好的性能。
本文总结了研究成果并展望未来的研究方向,强调了该研究在农业生产中的重要意义。
未来可以进一步完善模型,提高预测精度,为温室大棚温度控制提供更有效的方法。
【关键词】支持向量机(SVM)、改进、温室大棚、温度预测、模型构建、实验结果、性能评估、总结、展望、未来展望。
1. 引言1.1 研究背景温室大棚是一种用于种植作物的设施,通过控制环境条件如温度、湿度等,可以提高作物产量和质量。
在温室大棚种植中,准确预测温室内的温度变化对于作物生长至关重要。
支持向量机(SVM)是一种机器学习算法,能够有效处理非线性和高维数据,因此可以应用于温室大棚温度预测。
过去的研究表明,传统的支持向量机方法在温室大棚温度预测中存在一些问题,如模型拟合不足、预测精度低等。
我们需要改进支持向量机方法,以提高温室大棚温度预测的准确性和稳定性。
本研究旨在基于改进支持向量机方法,构建温室大棚温度预测模型,从而更好地指导温室大棚种植管理。
通过对温室大棚环境数据进行收集和分析,我们希望能够提高温室大棚温度预测的精度,实现对作物生长环境的更好控制和优化。
1.2 研究意义温室大棚温度预测在现代农业生产中具有重要的意义。
通过准确预测温室内的温度变化,可以帮助农户更好地管理大棚环境,提高农作物的产量和质量。
温室大棚温度预测可以帮助农户及时调整温室内的通风、加热、降温等措施,以确保农作物处于最适宜的生长环境中。
温室大棚温度预测也对农业生产的可持续发展具有重要意义。
准确的温度预测可以减少能源的浪费,降低生产成本,提高农业生产的效益。
文章标题:深度探究Matlab中LS-SVMLab工具箱的使用案例在本文中,我将以深度和广度的方式来探讨Matlab中LS-SVMLab工具箱的使用案例。
LS-SVMLab是一个用于支持向量机(SVM)的Matlab工具箱,它具有灵活性、高性能和易用性。
在本文中,我们将通过具体的案例来展示LS-SVMLab的功能和优势,以及其在实际应用中的价值。
一、LS-SVMLab工具箱简介LS-SVMLab是一个用于实现线性支持向量机(LS-SVM)和核支持向量机(KS-SVM)的Matlab工具箱。
它由比利时根特大学的Bart De Moor教授团队开发,提供了一系列的函数和工具,用于支持向量机的建模、训练和预测。
LS-SVMLab具有数学严谨性和代码优化性,适用于各种复杂的数据分析和模式识别任务。
二、LS-SVMLab的使用案例在这个部分,我们将通过一个实际的案例来展示LS-SVMLab的使用。
假设我们有一个包含多个特征和标签的数据集,我们希望利用支持向量机来进行分类和预测。
我们需要加载数据集,并将其分割为训练集和测试集。
接下来,我们可以使用LS-SVMLab提供的函数来构建支持向量机模型,并进行参数优化。
我们可以利用训练好的模型来对测试集进行预测,并评估模型的性能。
具体地,我们可以使用LS-SVMLab中的`svm`函数来构建支持向量机模型,`gridsearch`函数来进行参数优化,以及`svmpredict`函数来进行预测。
在实际操作中,我们可以根据数据集的特点和任务的要求,灵活地调整模型的参数和优化方法。
通过这个案例,我们可以清晰地看到LS-SVMLab在支持向量机建模和应用方面的优势和价值。
三、个人观点和总结在本文中,我们深入探讨了Matlab中LS-SVMLab工具箱的使用案例。
通过具体的案例,我们展示了LS-SVMLab在支持向量机建模和应用中的灵活性和高性能。
在实际应用中,LS-SVMLab可以帮助我们快速、准确地构建支持向量机模型,解决各种复杂的数据分析和模式识别问题。
基于改进支持向量机的温室大棚温度预测【摘要】基于改进支持向量机的温室大棚温度预测是当前研究的热点之一。
本文首先介绍了研究背景、研究意义和研究目的,然后详细讨论了支持向量机(SVM)和支持向量回归(SVR)算法的基本原理。
接着,提出了改进的支持向量机在温室大棚温度预测中的应用方法,并介绍了相应的数据预处理方法。
通过实验结果分析验证了改进支持向量机在温室大棚温度预测中的有效性。
结论部分总结了研究成果,并展望了未来可能的进展方向。
本研究在温室大棚温度预测方面具有一定的实际应用意义和学术价值。
【关键词】支持向量机,支持向量回归,改进算法,温室大棚,温度预测,数据预处理,实验结果分析,研究总结,研究展望,论文贡献。
1. 引言1.1 研究背景温室大棚是一种重要的设施农业种植方式,可以提供温度、湿度等环境条件对植物进行调控,从而提高农作物的产量和质量。
大棚温度的准确预测对于种植者来说是至关重要的,因为过高或过低的温度都会对作物生长产生不利影响。
在过去的研究中,许多学者利用传统的温度预测方法来预测温室大棚的温度,但这些方法往往存在精度不高、泛化能力弱等问题。
有必要研究并应用更加有效且精确的预测方法来提高大棚温度的预测准确性。
基于改进支持向量机的温室大棚温度预测是当前研究的热点之一。
支持向量机(SVM)是一种机器学习算法,具有较强的泛化能力和良好的预测性能。
通过将改进的支持向量机算法应用于温室大棚温度预测中,可以有效地提高预测精度和泛化能力,为种植者提供更可靠的温度预测结果。
本研究将探讨如何利用改进的支持向量机算法来实现温室大棚温度的准确预测,为温室大棚的管理和种植提供更好的决策支持。
1.2 研究意义温室大棚是农业生产中常用的一种保温设施,能够提供恒定的温度和湿度环境,有助于种植作物的生长。
在当前气候变化不稳定的情况下,有效预测温室大棚内部的温度变化越发显得重要。
温室大棚温度的准确预测可以帮助农民更好地管理作物生长,合理调控温室环境,提高农作物产量和质量。
支持向量模型的自适用航运量预测研究【摘要】针对目前航运流量复杂性和精确度不高的特点,本文在标准SVM 基础上改进了核函数和目标参数,通过对湖南某航运段流量进行建模并对数据的输入采用归一化处理,采用反归一化对数据进行输出。
通过对某航运段的实际数据进行仿真分析,改进SVM算法在运算时间比标准的SVM算法的时间要短,预测的精度比标准的SVM算法提高了3%左右,相对误差比标准的SVM算法要少。
实验表明改进的SVM具有较好的实际价值和应用前景。
【关键词】航运流量;归一化;预测精度;相对误差;SVM0 引言随着我国经济的快速发展,航运也成为交通运输的重要组成部分。
目前我国发展航空运输主要问题是:航运技术的先进性与航运管理落后之间的矛盾,而航运管理最重要的参考依据是航运流量预测。
航运预测是指根据来自国际航运市场调研的市场信息和各类统计资料,运用现代数理经济方法,对国际航运市场的供求发展趋势以及与之相关联的各种因素,进行分析、计算、推测和判断,进而为航运企业确定经营战略和策略,制订各类经营计划提供可靠的依据[1]。
通过对航运预测的数据进行科学决策,使目前航运资源得到最大优化和配置。
现在越来越多的航空公司十分重视航运预测,通过短、中、长期预测每条航线的运输量和需求分析。
进而制定相应的飞机数量和规模,并制定相应的航班计划。
因此,航运预测对航空公司进行有效资源进行最佳配合和备用飞机都具有重要的理论和实际价值。
目前在航运流量的预测上,学者们提出了不同的研究方法,根据不同的标准可分为3类:定量预测法、定性预测法以及综合判断分析法。
定量分析法是根据已有的历史数据进行统计分析,采用分类规划,从而推测未来的发展趋势,如灰色预测法、回归分析法等,但这种方法的精确度不高,对指标的依赖程度过高。
定性分析法是依据专家的经验和判断来进行定性分析[2]。
对数据的分析要就不高,其优点是简单,快速。
缺点是人的影响因素太高。
综合分析法是定量和定性的相结合,在一定程度上弥补了两种算法的缺点,但在实际应用上,由于数据和人的判断存在较大的误差,因此实际应用中难易解决复杂的航运预测。