Bayesian input variable selection using posterior probabilities and expected utilities
- 格式:pdf
- 大小:312.00 KB
- 文档页数:29
贝叶斯信息准则 rmse
贝叶斯信息准则(Bayesian Information Criterion, BIC)是一种用于模型选择的统计量,常用于评估模型的拟合程度和复杂度。
BIC通过平衡模型的拟合优度和参数的数量,提供了一种可靠的方式来选择最佳的模型。
在使用BIC进行模型选择时,我们通常会比较不同模型的BIC值。
BIC的计算公式为BIC = n * ln(RMSE) + k * ln(n),其中n是样本量,RMSE是模型的均方根误差,k是模型的参数个数。
BIC值越小,说明模型的拟合优度越好。
使用BIC可以避免过拟合问题。
过拟合是指模型过于复杂,过度拟合了训练数据,但在新数据上的预测效果却很差。
BIC考虑了模型的复杂度,并对参数个数给予了惩罚,因此可以有效地避免过拟合的发生。
BIC在实际应用中具有广泛的用途。
例如,在回归分析中,我们可以使用BIC来选择最佳的回归模型。
在聚类分析中,BIC可以帮助我们确定最佳的聚类数目。
在时间序列分析中,BIC可以用来选择最合适的模型来预测未来的值。
贝叶斯信息准则是一种重要的模型选择工具,可以帮助我们评估模型的拟合程度和复杂度。
通过使用BIC,我们可以选择最佳的模型,并避免过拟合问题的发生。
无论是在科学研究还是实际应用中,BIC
都发挥着重要的作用。
贝叶斯空间计量模型贝叶斯空间计量模型⼀、采⽤贝叶斯空间计量模型的原因残差项可能存在异⽅差,⽽ML 估计⽅法的前提是同⽅差,因此,当残差项存在异⽅差时,采⽤ML ⽅法估计出的参数结果不具备稳健性。
⼆、贝叶斯空间计量模型的估计⽅法(⼀)待估参数对于空间计量模型(以空间⾃回归模型为例)ερ+=Wy y假设残差项是异⽅差的,即),,(),0(~212n v v v diag V V N =σε上述模型需要估计的参数有:n v v v 21σρ共计n+2个参数,存在⾃由度问题,难以进⾏参数检验。
为此根据⼤数定律,增加了新的假设:v i 服从⾃由度为r 的卡⽅分布。
如此以来,待估参数将减少为3个。
(⼆)参数估计⽅法采⽤MCMC(Markov Chain Monte Carlo)参数估计思想,具体的抽样⽅法选择吉布斯抽样⽅法(Gibbs sampling approach)在随意给定待估参数⼀个初始值之后,开始⽣成参数的新数值,并根据新数值⽣成其他参数的新数值,如此往复,对每⼀个待估参数,将得到⼀组⽣成的数值,根据该组数值,计算其均值,即为待估参数的贝叶斯估计值。
三、贝叶斯空间计量模型的类型空间⾃回归模型far_g()空间滞后模型(空间回归⾃回归混合模型)sar_g()空间误差模型sem_g()⼴义空间模型(空间⾃相关模型)sac_g()四、贝叶斯空间模型与普通空间模型的选择标准⾸先按照参数显著性,以及极⼤似然值,确定普通空间计量模型的具体类型,之后对于该确定的类型,再判断是否需要进⼀步采⽤贝叶斯估计⽅法。
标准⼀:对普通空间计量模型的残差项做图,观察参数项是否是正态分布,若⾮正态分布,则考虑使⽤贝叶斯⽅法估计。
技巧:r=30的贝叶斯估计等价于普通空间计量模型估计,此时可以做出v的分布图,观察其是否基本等于1,若否,则应采⽤贝叶斯估计⽅法。
标准⼆:若按标准⼀发现存在异⽅差,采⽤贝叶斯估计后,如果参数结果与普通空间计量⽅法存在较⼤差异,则说明采⽤贝叶斯估计是必要的。
贝叶斯分类的优缺点
贝叶斯分类(Bayesian classification)是一种基于贝叶斯定理的分类方法,该方法通过计算给定特征的条件下,目标变量的概率来进行分类预测。
贝叶斯分类的优点和缺点如下:
优点:
1. 简单有效:贝叶斯分类器是一种非常简单的分类方法,易于理解和实现。
它只需要估计类别的先验概率和给定各个特征的条件概率,计算简单快速。
2. 能够处理小样本问题:由于贝叶斯分类器使用概率模型,可以在有限的样本情况下进行有准确性的估计。
3. 对缺失数据不敏感:贝叶斯分类器在估计条件概率时,对缺失数据不敏感,可以处理特征中存在缺失值的情况。
4. 适用于多分类问题:贝叶斯分类器可以直接应用于多分类问题,不需要额外的转换或修改。
缺点:
1. 对特征独立性的假设:贝叶斯分类器假设所有特征之间是独立的,即特征之间没有相互关系。
在实际应用中,这个假设并不总是成立,特征之间的依赖关系会影响分类准确性。
2. 数据较大时计算复杂:贝叶斯分类器需要计算每个特征的条件概率,当特征数量较大时,计算量会显著增加,导致计算复杂性提高。
3. 需要足够的训练样本:贝叶斯分类器的准确性依赖于训练数据,特别是在特征维度较高或数据噪声较大的情况下,需要足够的训练样本以获得可靠的概率估计。
4. 对输入数据分布的假设:贝叶斯分类器假设输入数据符合特
定的分布(如高斯分布),如果输入数据的分布与其假设不匹配,可能会导致较低的分类准确性。
心理科学进展 2018, Vol. 26, No. 6, 951–965 Advances in Psychological ScienceDOI: 10.3724/SP.J.1042.2018.00951951·研究方法(Research Method)·贝叶斯因子及其在JASP 中的实现胡传鹏1,2 孔祥祯3 Eric-Jan Wagenmakers 4 Alexander Ly 4,5 彭凯平1(1清华大学心理学系, 北京 100084) (2 Neuroimaging Center, Johannes Gutenberg University Medical Center, 55131 Mainz, Germany) (3 Language and Genetics Department, Max Planck Institute for Psycholinguistics, 6500 AH Nijmegen, The Netherlands) (4 Department of Psychological Methods, University of Amsterdam, 1018 VZ Amsterdam, The Netherlands) (5 Centrum Wiskunde & Informatica, 1090 GB Amsterdam, The Netherlands) 摘 要 统计推断在科学研究中起到关键作用, 然而当前科研中最常用的经典统计方法——零假设检验(Null hypothesis significance test, NHST)却因难以理解而被部分研究者误用或滥用。
有研究者提出使用贝叶斯因子(Bayes factor)作为一种替代和(或)补充的统计方法。
贝叶斯因子是贝叶斯统计中用来进行模型比较和假设检验的重要方法, 其可以解读为对零假设H 0或者备择假设H 1的支持程度。
贝叶斯统计方法贝叶斯统计方法是一种基于贝叶斯定理的统计分析方法,它在各个领域中被广泛应用。
本文将介绍贝叶斯统计方法的原理、应用以及优势。
一、贝叶斯统计方法的原理贝叶斯统计方法基于贝叶斯定理,该定理描述了如何根据已知的先验知识和新的数据进行推理和预测。
其基本公式如下:P(A|B) = (P(B|A) * P(A)) / P(B)其中,P(A|B)表示在已知B发生的前提下,A发生的概率;P(B|A)表示在已知A发生的前提下,B发生的概率;P(A)和P(B)分别表示A 和B分别独立发生的概率。
贝叶斯统计方法通过更新先验概率得到后验概率,从而更准确地估计参数或预测结果。
二、贝叶斯统计方法的应用1. 机器学习中的分类问题贝叶斯统计方法在机器学习中的分类任务中得到广泛应用。
通过构建贝叶斯分类器,可以根据已知的先验概率和数据集训练结果,对新的样本进行分类。
2. 自然语言处理中的文本分类贝叶斯统计方法在文本分类任务中也有着重要应用。
通过构建朴素贝叶斯分类器,可以根据文本的词频信息将其分类到不同的类别中。
3. 医学诊断中的预测贝叶斯统计方法在医学诊断中的预测也得到了广泛应用。
通过结合病人的先验信息和检测结果,可以计算患病的后验概率,从而辅助医生进行准确的诊断。
三、贝叶斯统计方法的优势1. 考虑先验知识贝叶斯统计方法通过引入先验知识,能够较好地处理具有先验信息的问题。
相比之下,频率统计方法仅根据样本数据进行推断,无法很好地利用已有的先验概率信息。
2. 灵活性高贝叶斯统计方法可以适应不同的问题和数据情况。
通过不同的先验分布和模型选择,可以灵活地对参数进行估计和预测。
3. 适用于小样本情况贝叶斯统计方法在小样本情况下仍能表现出良好的性能。
由于引入了先验知识,能够在样本量较小的情况下提供相对可靠的推断结果。
四、总结贝叶斯统计方法基于贝叶斯定理,通过更新先验概率得到后验概率,可用于各个领域中的数据分析、模型估计和预测问题。
贝叶斯回归公式贝叶斯回归是一种用于解决回归问题的统计模型。
它基于贝叶斯定理,通过计算后验概率来预测目标变量的值。
贝叶斯回归公式可以描述为:后验概率 = (先验概率 * 似然函数) / 证据在贝叶斯回归中,我们首先需要定义一个先验概率分布,它表示对目标变量的先前知识或信念。
然后,我们根据给定的数据集计算似然函数,它表示观测到的数据在不同参数值下的可能性。
最后,通过将先验概率与似然函数相乘,并除以证据(归一化常数),可以得到后验概率。
贝叶斯回归公式的应用非常广泛。
它可以用于解决各种回归问题,例如房价预测、销售量预测等。
与传统的最小二乘法不同,贝叶斯回归可以通过引入先验概率来处理过拟合问题,并提供更加准确的预测结果。
在贝叶斯回归中,先验概率的选择非常重要。
先验概率可以基于领域知识、经验或其他先前信息来确定。
如果没有先验信息可用,可以选择一个非具体的先验概率分布,如高斯分布。
然后,通过观察数据,根据贝叶斯定理来更新先验概率,得到后验概率。
贝叶斯回归还可以用于处理多个输入变量的情况。
在这种情况下,可以使用多元线性回归模型,并将贝叶斯回归公式推广到多维空间。
通过引入多个参数和对应的先验概率,可以建立一个更加灵活和准确的模型。
贝叶斯回归的优点之一是可以提供预测结果的不确定性估计。
通过计算后验概率分布,可以得到目标变量的概率分布,而不仅仅是一个点估计。
这对于决策制定者来说非常有价值,因为他们可以了解预测的可靠性,并相应地采取行动。
贝叶斯回归还可以进行模型选择和变量选择。
通过比较不同模型的后验概率,可以选择最合适的模型。
同样,通过比较不同变量组合的后验概率,可以选择最相关的变量。
虽然贝叶斯回归在理论上是非常有吸引力的,但在实践中也存在一些挑战。
首先,计算后验概率需要对参数空间进行积分,这在高维空间中是非常困难的。
为了克服这个问题,可以使用近似方法,如马尔可夫链蒙特卡洛(MCMC)方法。
贝叶斯回归的性能也受到先验概率的选择和参数设置的影响。
贝叶斯优化算法高斯过程贝叶斯优化算法和高斯过程在机器学习中被广泛应用,用于优化复杂函数的参数。
本文将介绍贝叶斯优化算法和高斯过程的基本原理、应用场景以及其优点和局限性。
一、贝叶斯优化算法的原理贝叶斯优化算法是一种基于贝叶斯统计和序列模型的优化方法。
它通过建立一个先验模型和一个观测模型来推断待优化函数的最优解。
具体来说,它通过不断地选择下一个样本点进行评估来逐步优化函数的参数,直到找到全局最优解或达到一定的停止准则。
二、高斯过程的原理高斯过程是一种概率模型,用于对随机变量的概率分布进行建模。
它假设任意有限个变量的线性组合服从多元高斯分布。
在贝叶斯优化算法中,高斯过程被用来建立待优化函数的先验模型。
通过观测已有的样本点,可以利用高斯过程进行预测,从而选择下一个最有可能是最优解的样本点进行评估。
三、贝叶斯优化算法的应用场景贝叶斯优化算法在很多领域都有广泛的应用。
例如,在超参数优化中,可以使用贝叶斯优化算法来选择最优的超参数组合,从而提高模型的性能。
在自动化机器学习中,贝叶斯优化算法可以自动选择合适的模型和算法,并进行参数调优。
此外,贝叶斯优化算法还可以应用于网络流量优化、物理实验设计等领域。
四、高斯过程在贝叶斯优化中的优点高斯过程作为一种非参数模型,具有很强的灵活性和适应性。
它可以根据观测数据自适应地调整模型的复杂度,并能够提供对未知函数的预测和不确定性的估计。
同时,高斯过程还具有数学上的优良性质,如可微性和闭式解等,使得贝叶斯优化算法更加高效和稳定。
五、贝叶斯优化算法的局限性虽然贝叶斯优化算法在很多问题上表现出色,但它也存在一些局限性。
首先,贝叶斯优化算法对待优化函数的光滑性和凸性有一定的要求。
当函数具有峰值或存在多个局部最优解时,贝叶斯优化算法可能无法找到全局最优解。
其次,贝叶斯优化算法在高维空间中的表现较差,因为样本点的评估成本很高,导致算法的收敛速度较慢。
六、总结贝叶斯优化算法和高斯过程是一对强力组合,在机器学习中被广泛应用于优化复杂函数的参数。
贝叶斯算法简单介绍贝叶斯算法是一种基于统计学的算法,主要用于机器学习与人工智能领域中的分类问题。
该算法是在 18 世纪由英国数学家托马斯·贝叶斯发明的,因此得名贝叶斯算法。
在机器学习领域中,贝叶斯算法被用于解决分类问题。
分类问题就是将一个实例归类到已有类别中的某一个类别中,如将一条邮件归类为垃圾邮件或非垃圾邮件。
贝叶斯算法的基本思想是:给定一个分类问题和一组特征,通过求解特征的条件概率来得到每个类别的概率,从而将实例分到概率最大的那个类别中。
在贝叶斯算法中,最重要的是先验概率和后验概率。
先验概率是指在没有任何与特征相关的信息时,每个类别的概率。
例如,在分类汉字的问题中,让我们假设“大” 字比“小” 字常见,这样我们就可以认为“大” 字的先验概率比“小” 字的先验概率高。
后验概率是基于输入数据的特征,通过学习得出的概率。
例如,当给出一个汉字时,通过学习得出该字是“大” 字的后验概率。
通过计算先验概率和后验概率,就得到了分类问题的最终概率。
下面我们来看一个具体的例子,假设我们要通过贝叶斯算法判断一个邮箱中的邮件是否是垃圾邮件。
我们可以将邮件的内容和标题等相关特征看成先验概率,将垃圾邮件和非垃圾邮件看成后验概率,应用贝叶斯公式进行计算。
具体步骤如下:首先,我们需要收集一些已知类别的邮件数据,将其分为两个类别:垃圾邮件和非垃圾邮件。
然后,我们需要对每个单词进行分析,看它们与垃圾邮件和非垃圾邮件的关系。
例如,“买药”这个词汇就与垃圾邮件有强关系,而“会议”这个词汇就与非垃圾邮件有强关系。
接下来,我们将每个单词与它们在垃圾邮件和非垃圾邮件中的出现次数进行记录。
这个过程中,我们需要使用平滑处理的技巧,避免数据稀疏问题。
之后,通过贝叶斯公式,我们可以得到该邮件为垃圾邮件的概率,也可以得到非垃圾邮件的概率。
根据这些概率,我们可以将邮件进行分类,并进行后续的处理。
当然,贝叶斯算法并不仅仅适用于垃圾邮件分类问题,还可以应用于医学诊断、自然语言处理、金融风险管理等领域。
贝叶斯公式的原理与应用1. 贝叶斯公式的原理贝叶斯公式是统计学中一种经典的概率计算方法。
它是由英国数学家托马斯·贝叶斯(Thomas Bayes)发现并发展起来的,被广泛应用于机器学习、自然语言处理、垃圾邮件过滤等领域。
贝叶斯公式的原理基于条件概率的定义,利用已知的信息来计算未知事件发生的概率。
贝叶斯公式的原理可以表示为:\[ P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)} \]其中,P(A)和P(B)分别表示事件A和事件B的概率,P(A|B)表示在事件B发生的条件下事件A发生的概率,P(B|A)表示在事件A发生的条件下事件B发生的概率。
2. 贝叶斯公式的应用贝叶斯公式广泛应用于各个领域,包括机器学习、自然语言处理、垃圾邮件过滤等。
下面介绍一些实际应用案例。
2.1. 垃圾邮件过滤垃圾邮件过滤是贝叶斯公式的经典应用之一。
通过分析已知的垃圾邮件和非垃圾邮件的特征,可以计算出在给定的特征条件下,某封邮件是垃圾邮件的概率。
具体步骤如下:1.收集一组已知的垃圾邮件和非垃圾邮件,并提取它们的特征,比如邮件中的关键词、发件人等信息。
2.计算垃圾邮件和非垃圾邮件的概率P(Spam)和P(Non-spam)。
3.对于待分类的邮件,计算在垃圾邮件和非垃圾邮件的条件下,它是垃圾邮件的概率P(Spam|Email)和P(Non-spam|Email)。
4.根据计算得到的概率,将待分类的邮件判定为垃圾邮件或非垃圾邮件。
2.2. 文本分类贝叶斯公式在文本分类中也有广泛的应用。
文本分类是将一段给定的文本划分到某个预定义的类别中。
使用贝叶斯公式可以计算某个文本属于某个类别的概率,从而进行文本分类。
具体步骤如下:1.收集一组已知类别的文本样本,并提取它们的特征,比如词频和关键词等信息。
2.计算每个类别的先验概率P(C),表示每个类别的出现概率。
3.计算每个特征在各个类别下的条件概率P(Feature|C),表示在每个类别下特征出现的概率。
HelsinkiUniversityofTechnology,LaboratoryofComputationalEngineeringpublications.ReportB.ISSN1457-1404BayesianInputVariableSelectionUsingPosteriorProbabilitiesandExpectedUtilities
ResearchreportB31.ISBN951-22-6229-0.AkiVehtariandJoukoLampinenLaboratoryofComputationalEngineeringHelsinkiUniversityofTechnologyP.O.Box9203,FIN-02015,HUT,Finland{Aki.Vehtari,Jouko.Lampinen}@hut.fi
May28,2002RevisedDecember20,2002
AbstractWeconsidertheinputvariableselectionincomplexBayesianhierarchicalmodels.Ourgoalistofindamodelwiththesmallestnumberofinputvariableshavingstatisticallyorpracticallyatleastthesameexpectedutilityasthefullmodelwithalltheavailableinputs.Agoodestimatefortheexpectedutilitycanbecomputedusingcross-validationpredictivedensities.Inthecaseofinputselectionandalargenumberofinputcombinations,thecomputationofthecross-validationpredictiveden-sitiesforeachmodeleasilybecomescomputationallyprohibitive.WeproposetousetheposteriorprobabilitiesobtainedviavariabledimensionMCMCmethodstofindoutpotentiallyusefulinputcombinations,forwhichthefinalmodelchoiceandassessmentisdoneusingtheexpectedutilities.VariabledimensionMCMCmethodsvisitthemodelsaccordingtotheirposteriorprobabilities.Asmodelswithnegligibleprobabilityareprobablynotvisitedinafinitetime,thecomputationalsavingscanbeconsiderablecomparedtogoingthroughallpossiblemodels.Ifthereisproblemofobtainingenoughsamplesinreasonabletimetoestimatetheprobabilitiesofthemodelswell,weproposetousethemarginalposteriorprobabilitiesoftheinputstoestimatetheirrelevance.AsillustrativeexamplesweuseMLPneuralnetworksandGaussianprocessesinonetoyproblemandintwochallengingrealworldproblems.ResultsshowthatusingposteriorprobabilityestimatescomputedwithvariabledimensionMCMChelpsfindingusefulmodels.Furthermore,benefitsofusingexpectedutilitiesforinputvariableselectionarethatitislesssensitivetopriorchoicesanditprovidesusefulmodelassessment.
Keywords:Bayesianmodelchoice;inputvariableselection;expectedutility;cross-validation;vari-abledimensionMarkovchainMonteCarlo;MLPneuralnetworks;Gaussianprocesses;AutomaticRel-evanceDeterminationBayesianInputVariableSelectionUsingPosteriorProbabilitiesandExpectedUtilities21IntroductionInpracticalproblems,itisoftenpossibletomeasuremanyvariables,butitisnotnecessarilyknownwhichofthemarerelevantandrequiredtosolvetheproblem.InBayesianhierarchicalmodels,itisusuallyfeasibletouselargenumberofpotentiallyrelevantinputvariablesbyusingsuitablepriorswithhyperparameterscontrollingtheeffectoftheinputsinthemodel(see,e.g.,Lampinen&Vehtari,2001).Althoughsuchmodelsmayhavegoodpredictiveperformance,itmaybedifficulttoanalysethem,orcostlytomakemeasurementsorcomputations.Tomakethemodelmoreexplainable(easiertogainscientificinsights)ortoreducethemeasurementcostorthecomputationtime,itmaybeusefultoselectasmallersetofinputvariables.Inaddition,iftheassumptionsofthemodelandpriordonotmatchwellthepropertiesofthedata,reducingthenumberofinputvariablesmayevenimprovetheperformanceofthemodel.Inpredictionanddecisionproblems,itisnaturaltoassessthepredictiveabilityofthemodelbyesti-matingtheexpectedutilities,astheprincipleofrationaldecisionsisbasedonmaximizingtheexpectedutility(Good,1952;Bernardo&Smith,1994)andthemaximizationofexpectedlikelihoodmaximizestheinformationgained(Bernardo,1979).Inmachinelearningcommunityexpectedutilityissometimescalledgeneralizationerror.Followingsimplicitypostulate(Jeffreys,1961),itisusefultostartfromsim-plermodelsandthentestifmorecomplexmodelwouldgivesignificantlybetterpredictions.Combiningtheprincipleofrationaldecisionsandsimplicitypostulate,ourgoalistofindamodelwiththesmallestnumberofinputvariableshavingstatisticallyorpracticallyatleastthesamepredictiveabilityasthefullmodelwithalltheavailableinputs.Anadditionaladvantageofcomparingtheexpectedutilitiesisthatittakesintoaccounttheknowledgeofhowthemodelpredictionsaregoingtobeusedandfurtheritmayrevealthateventhebestmodelselectedfromsomecollectionofmodelsmaybeinadequateornotpracticallybetterthanthepreviouslyusedmodels.VehtariandLampinen(2002,2003)presentwithBayesianjustificationhowtoobtaindistributionsofexpectedutilityestimatesofcomplexBayesianhierarchicalmodelsusingcross-validationpredictivedensities.Thedistributionoftheexpectedutilityestimatedescribestheuncertaintyintheestimateandcanalsobeusedtocomparemodels,forexample,bycomputingtheprobabilityofonemodelhavingabetterexpectedutilitythansomeothermodel.InthecaseofKinputs,thereare2Kinputcombina-tions,andcomputingtheexpectedutilitiesforeachmodeleasilybecomescomputationallyprohibitive.Touseexpectedutilityapproachweneedtofindwaytofindoutsmallernumberofpotentiallyusefulinputcombinations.Oneapproachwouldbeusingglobaloptimizationalgorithmstosearchtheinputcombinationmaximizingtheexpectedutility(e.g.Draper&Fouskakis,2000).Potentialproblemswiththisapproacharethatitmaybeslow,requiringhundredsorthousandsofcross-validationevaluations,andresultsdependonsearchheuristicsCurrenttrendinBayesianmodelselection(includingtheinputvariableselection)istoestimateposteriorprobabilitiesofthemodelsusingMarkovchainMonteCarlo(MCMC)methodsandespeciallyvariabledimensionMCMCmethods(Green,1995;Stephens,2000).ThevariabledimensionMCMCvisitsmodelsaccordingtotheirposteriorprobabilities,andthusmodelswithnegligibleprobabilityareprobablynotvisitedinfinitetime.Theposteriorprobabilitiesofthemodelsarethenestimatedbasedonnumberofvisitsforeachmodelandmodelswithhighestposteriorprobabilitiesarefurtherinvestigated.Marginallikelihoodsandposteriorprobabilitiesoftheinputcombinationshavebeenuseddirectlyforinputselection,forexample,byBrown,Vannucci,andFearn(1998),Ntzoufras(1999),HanandCarlin(2000),Sykacek(2000),Kohn,Smith,andChan(2001),andChipman,George,andMcCulloch(2001).Althoughthiskindofapproachhasproducedgoodresults,itmaybesensitivetopriorchoicesasdiscussedinsection2.4,anditdoesnotnecessarilyprovidemodelwiththebestexpectedutilityasdemonstratedinsection3.Furthermore,Spiegelhalter(1995)andBernardoandSmith(1994)arguethat