基于最大熵原理的语言建模
- 格式:doc
- 大小:181.00 KB
- 文档页数:8
关于最大熵原理的应用1. 什么是最大熵原理最大熵原理是指在给定一组约束条件的情况下,在不缺乏先验知识的情况下,选择满足所有已知条件中熵最大的模型。
最大熵原理是信息论中的重要原理,它在统计学、自然语言处理、机器学习等领域都得到了广泛的应用。
2. 最大熵原理的应用领域最大熵原理在许多实际问题中都有广泛的应用。
以下是一些常见的应用领域:•自然语言处理:最大熵模型被广泛应用于自然语言处理任务,如词性标注、命名实体识别等。
通过最大熵模型,可以在给定一组约束条件的情况下进行概率推断,从而提高自然语言处理任务的性能。
•机器学习:最大熵原理在机器学习中也有重要的应用。
最大熵模型可以用于分类、回归、聚类等机器学习任务中。
通过最大熵模型,可以获得更为准确的预测结果。
•图像处理:最大熵原理可以用于图像处理任务,如图像分类、目标检测等。
通过最大熵模型,可以从图像中提取出更有价值的信息。
•模式识别:最大熵原理在模式识别领域也有很多应用。
最大熵模型可以用于人脸识别、手写字符识别等任务中。
通过最大熵模型,可以提高模式识别任务的准确率。
•金融风险评估:最大熵原理可以应用于金融领域中的风险评估问题。
通过最大熵模型,可以对金融市场进行风险预测,从而指导投资决策。
3. 最大熵原理的优点最大熵原理具有以下几个优点:•不需假设任何先验知识:最大熵原理不需要对模型的分布做任何假设,充分利用了已知的约束条件,从而提供了一种更为灵活的建模方式。
•适应不同领域的问题:最大熵原理可以应用于不同领域的问题,适应性较强。
只需要根据具体问题制定相应的约束条件即可。
•概率解释性强:最大熵原理给出了模型的概率解释,可以更好地理解模型的预测结果。
•模型稳定性好:最大熵原理可以得到一个全局最优解,具有较好的稳定性。
4. 最大熵原理的应用案例4.1 自然语言处理最大熵模型在自然语言处理领域有着广泛的应用。
例如,在命名实体识别任务中,最大熵模型可以根据已知的约束条件,如词性、上下文等,预测给定文本中的命名实体。
最大熵马尔可夫模型介绍最大熵马尔可夫模型(Maximum Entropy Markov Model,简称MEMM)是一种常用于序列标注的统计模型。
它结合了最大熵模型和马尔可夫随机场模型的特点,旨在解决序列标注问题中的上下文相关性和特征选择的挑战。
本文将深入讨论MEMM的原理、应用场景、训练方法以及一些扩展和改进的方法。
原理最大熵模型最大熵模型是一种用于分类和回归问题的概率模型,它通过最大化经验分布的熵来选择最合适的模型。
最大熵模型的基本思想是,在给定一些约束条件下选择概率分布的最大熵模型。
最大熵模型的参数估计可以通过最大熵准则来进行。
马尔可夫随机场模型马尔可夫随机场模型是一种用于建模随机现象的图模型。
它通过图中的节点表示随机变量,边表示节点之间的依赖关系,通过定义一组概率分布来描述整个系统。
马尔可夫随机场模型的参数估计可以通过最大似然估计等方法进行。
最大熵马尔可夫模型最大熵马尔可夫模型是将最大熵模型和马尔可夫随机场模型相结合的一种序列标注模型。
它在标注序列的每个位置上,使用最大熵模型来选择最合适的标记,并且考虑了上下文的依赖关系。
最大熵马尔可夫模型的参数估计可以通过条件随机场的方法进行。
应用场景最大熵马尔可夫模型在自然语言处理领域有着广泛的应用。
例如,命名实体识别、词性标注、语义角色标注等任务都可以使用MEMM来解决。
这是因为MEMM可以有效地利用上下文信息,提高序列标注的准确性。
训练方法最大熵马尔可夫模型的训练通常涉及以下几个步骤:1.数据准备:收集和标注训练数据,将数据转化为特征表示。
2.特征提取:从训练数据中提取特征,这些特征可以包括词性、上下文信息等。
3.特征权重估计:使用最大熵准则估计特征的权重,通常使用迭代算法如改进的迭代尺度法。
4.模型训练:通过训练算法根据标注数据调整模型参数,比如拟牛顿法、梯度下降等。
5.模型评估:使用验证数据来评估模型的性能,可以使用准确率、精确率、召回率等指标。
最大熵原理和分析最大熵原理是一种常用的概率模型方法,用于求解在给定约束条件下具有最大不确定性的分布。
最大熵原理的核心思想是,在缺乏先验知识的情况下,选择使得其中一分布最不确定的情况作为最优解。
最大熵原理在统计学、信息论、机器学习等领域都有广泛应用。
最大熵分析是基于最大熵原理进行的一种数据建模方法。
最大熵分析通过解决约束优化问题,找到在给定约束条件下最大熵模型的参数估计。
最大熵分析除了用于求解概率模型参数估计之外,还可以用于特征选择、文本分类、自然语言处理等多个领域。
最大熵原理的数学表述为:在已知的约束条件下,选择熵最大的分布作为模型的最优解。
熵是表示不确定程度的指标,熵越大表示随机性越高,不确定性越大。
在最大熵原理中,使用的熵定义是香农熵(Shannon entropy),具体计算公式为:H(p) = -Σp(x)log(p(x))其中,p(x)是事件x发生的概率,Σ表示对所有可能的事件求和。
最大熵原理的核心思想是找到一个分布,使得在已知的约束条件下,熵取得最大值。
最大熵分析的步骤如下:1.定义特征函数:将问题中的特征转化为特征函数,每个特征函数对应一个约束条件。
2.定义约束:将要满足的约束条件表示为期望。
3.构建优化问题:将最大熵原理转化为一个约束优化问题。
4.求解模型参数:使用优化算法求解约束优化问题,得到最大熵模型的参数。
最大熵分析的特点是可以融合多个特征,并通过最大熵原理确定不同特征的权重,从而对目标进行准确建模。
最大熵分析能够解决非线性分类问题,并且对非线性特征的处理具有很大优势。
最大熵分析在文本分类中有广泛应用。
在文本分类任务中,最大熵分析可以通过特征函数的定义,将文本转化为向量表示,然后使用最大熵原理求解分类模型的参数。
最大熵分析还可以处理学习样本不平衡问题,通过调整不同类别的权重,使得建模更加准确。
最大熵原理和分析的优点是在缺乏先验知识的情况下,能够最大程度地利用给定的约束条件,反映数据的真实情况。
最大熵语言模型最大熵语言模型是一种常用的自然语言处理模型,它通过最大化模型的熵来选择最合适的语言模型。
在这篇文章中,我将详细介绍最大熵语言模型的原理和应用。
一、最大熵语言模型的原理最大熵语言模型是基于信息论的原理,通过最大化模型的熵来选择最合适的语言模型。
熵是衡量不确定性的度量,对于一个事件的概率分布而言,其熵越大,表示其不确定性越高。
在语言模型中,我们希望选择一个概率分布模型,使得其熵最大,从而能够更好地表示语言的不确定性。
最大熵语言模型的基本思想是,在给定一些已知条件的情况下,选择一个概率分布模型,使得其熵最大。
这些已知条件可以是一些语言上的约束,比如某些词语之间的关联关系。
具体来说,最大熵语言模型可以通过最大熵原理来定义模型的概率分布。
最大熵原理认为,当我们对一个事件的概率分布没有任何先验知识时,我们应该选择熵最大的分布。
为了构建最大熵语言模型,我们需要定义一组特征函数,这些特征函数描述了词语之间的关联关系。
然后,通过最大熵原理,我们可以得到一组权重,这些权重表示了特征函数的重要性。
最后,通过这些权重,我们可以计算出给定条件下的概率分布。
最大熵语言模型在自然语言处理领域有着广泛的应用。
其中最常见的应用是语言模型的建模,即给定一个句子,预测下一个词的概率分布。
最大熵语言模型通过考虑词语之间的关联关系,能够更好地预测下一个词的可能性。
最大熵语言模型还可以用于机器翻译、语音识别等任务。
在机器翻译中,我们可以使用最大熵语言模型来选择最合适的翻译结果。
在语音识别中,我们可以使用最大熵语言模型来提高识别准确率。
最大熵语言模型的优点在于其灵活性和泛化能力。
由于最大熵原理的约束,最大熵语言模型能够处理各种不同类型的特征函数,从而能够更好地适应不同的语言模型任务。
然而,最大熵语言模型也存在一些限制。
首先,模型的训练需要大量的数据,否则很难得到准确的结果。
其次,模型的训练和计算复杂度较高,需要耗费大量的时间和计算资源。
hanlp和jieba 的原理汉语分词是中文自然语言处理的一项重要任务,被广泛应用于搜索引擎、文本分类、信息提取等领域。
HanLP和jieba都是中文分词工具,本文将分别介绍它们的原理及特点。
一、HanLPHanLP是由中国科学院计算技术研究所自然语言处理实验室开发的中文自然语言处理工具包。
其核心分词模块采用的是基于最大熵模型和条件随机场(CRF)的中文分词算法。
最大熵模型是一种概率模型,其基本思想是在满足已知条件的前提下,使不确定性最小化。
在HanLP中,最大熵模型用于对分词候选的概率进行估计,选择概率最大的分词结果作为最终输出。
该方法不依赖于词典和规则,具有较强的自适应能力,能够处理一些新词、专有名词等难以预料的情况。
除了最大熵模型,HanLP还引入了条件随机场(CRF)模型。
CRF是一种无向图模型,能够对序列标注问题进行建模。
在HanLP中,CRF用于对分词结果进行校验和修正,提高分词准确性。
HanLP还具有实体识别、依存分析等多种功能,并且支持多种编程语言接口,如Java、Python等。
它已经成为中文自然语言处理领域的一大瑰宝。
二、jiebajieba是一款基于Python的中文分词工具。
它采用的是基于前缀匹配算法和最大匹配算法的分词方法。
前缀匹配算法是一种字符串匹配算法,能够对较长的字符串进行快速的匹配和查找。
在jieba中,前缀匹配算法用于对待切分的文本进行预处理,将其转化为一棵字典树。
最大匹配算法则是指对字典树上查找长度最大的词或成语作为分词结果。
jieba还提供了基于HMM(隐马尔科夫模型)和CRF的分词算法可选,使得分词结果更加准确。
与HanLP相比,jieba的分词速度较快,因为它基于前缀匹配算法进行文本预处理,能够快速实现分词结果的计算。
jieba也很容易使用,具有Python特有的简洁、易读的语法,适合快速构建中小型项目。
但是,jieba的分词效果相对于HanLP要逊色一些,因为它缺乏对分词结果进行校验和修正的功能。
不是自然语言处理常用模型自然语言处理(NLP)是计算机科学与人工智能领域中的一个重要研究方向,其目标是使计算机能够理解、处理和生成人类自然语言的能力。
在NLP领域中,有许多常用的模型被广泛应用于各种任务,如文本分类、语言生成、机器翻译等。
然而,本文将重点介绍一些不是自然语言处理常用模型的相关内容。
一、马尔可夫链马尔可夫链是一种基于概率的数学模型,可以用于描述随机过程中的状态转移。
在NLP中,马尔可夫链可以用于生成文本,通过观察历史状态来预测下一个状态。
例如,可以通过分析大量的文本数据,建立一个文本生成模型,用于生成新的文本内容。
二、贝叶斯网络贝叶斯网络是一种用于表示随机变量之间依赖关系的图模型。
在NLP中,贝叶斯网络可以用于语言模型的建立,通过分析语料库中的文本数据,推断出单词之间的依赖关系,从而实现语言生成和理解的功能。
三、隐马尔可夫模型隐马尔可夫模型是一种用于建模序列数据的概率模型,它假设观测数据由隐藏的状态序列生成而来。
在NLP中,隐马尔可夫模型可以用于词性标注、命名实体识别等任务,通过观测到的词语序列推断出隐藏的词性序列或实体标签序列。
四、最大熵模型最大熵模型是一种用于分类和回归的统计模型,它通过最大化熵的原则来选择模型的参数。
在NLP中,最大熵模型可以用于文本分类、情感分析等任务,通过分析文本的特征和标签之间的关系,从而得到一个分类模型。
五、条件随机场条件随机场是一种用于序列标注的概率图模型,它考虑了序列数据中各个标签之间的依赖关系。
在NLP中,条件随机场可以用于词性标注、命名实体识别等任务,通过建立一个标签序列和观测序列之间的条件概率模型,从而实现序列标注的功能。
六、词袋模型词袋模型是一种简单而常用的文本表示方法,它将文本看作是一个无序的词语集合,忽略了词语之间的顺序和语义关系。
在NLP中,词袋模型可以用于文本分类、信息检索等任务,通过统计文本中每个词语的出现频率,从而得到一个文本的特征向量表示。
基于最大熵原理的语言建模插值法和回退法的基本思想都是把文本中的每种上下文信息源构造成一种模型,然后将这些模型应用插值等数学手段组合在一起。
最大熵方法则是将多种信息特征按照最大熵的原理进行集成,直接建立一个统一的模型。
在基于最大熵原理的建模技术中,如何从上下文信息中获取建模所需的信息特征或知识,如何将这些特征按照对输出(或当前词)影响的不同程度集成到模型之中是两个最为关键的问题。
我们以纠错建议排序为背景,探讨最大熵原理建模技术中的特征获取与建模方法。
1 问题的引入在自然语言处理中,为了建立语言模型,需要使用上下文文本中的信息特征,利用不同的信息特征所建立的语言模型,对当前词预测所得的概率结果可能会有所不同,这样的信息特征在上下文中有多种。
例如,利用当前词w i 前面的连续n-1个词(∈-+-1i 1n i wh)作为历史信息特征构造的n-gram 模型,其概率估计为)W |W (P 1i 1n i i -+-;而触发对语言模型,则是利用当前词前面的某个历史窗口中的词作为触发词,要预测的当前词作为被触发词,该模型中所用的历史信息特征和n-gram 中的就不同,它可以是历史窗口中与当前词相距为d 的某个词或词串。
例如,如果我们想估计在给定的文本历史情况下词“模型”的出现概率P(模型|h),如果使用Bigram 模型,则就会将事件空间(h,模型)根据h 的最后一个词划分成几个等价类,比如说,在训练文本中可能有“数学模型”、“语言模型”、“工程模型”、“汽车模型”等这样的短语,因此,“模型”一词的历史文本h 的最后一个词可能就是“数学”、“语言”、“工程”、“汽车”等,并将它们分别看作一个等价类,Bigram 模型为每个等价类赋以相同的概率。
例如:{语言,模型}模型|语言)=K (P B igram (1)这里,K {语言,模型}定义如下:)Count(),Count(},{语言模型语言模型语言=K (2)Count(语言,模型)是“语言”与“模型”两个词在训练语料中的同现次数,Count(语言)是“语言”在训练语料中出现的次数。
基于最大熵原理的语言建模1 问题的引入在自然语言处理中,为了建立语言模型,需要使用上下文文本中的信息特征,利用不同的信息特征所建立的语言模型,对当前词预测所得的概率结果可能会有所不同,这样的信息特征在上下文中有多种。
例如,利用当前词w i 前面的连续n-1个词(∈-+-1i 1n i w h)作为历史信息特征构造的n-gram模型,其概率估计为)W |W (P 1i 1n i i -+-;而触发对语言模型,则是利用当前词前面的某个历史窗口中的词作为触发词,要预测的当前词作为被触发词,该模型中所用的历史信息特征和n-gram 中的就不同,它可以是历史窗口中与当前词相距为d 的某个词或词串。
例如,如果我们想估计在给定的文本历史情况下词“模型”的出现概率P(模型|h),如果使用Bigram 模型,则就会将事件空间(h,模型)根据h 的最后一个词划分成几个等价类,比如说,在训练文本中可能有“数学模型”、“语言模型”、“工程模型”、“汽车模型”等这样的短语,因此,“模型”一词的历史文本h 的最后一个词可能就是“数学”、“语言”、“工程”、“汽车”等,并将它们分别看作一个等价类,Bigram 模型为每个等价类赋以相同的概率。
例如:{语言,模型}模型|语言)=K (P Bigram (1) 这里,K {语言,模型}定义如下:)Count(),Count(},{语言模型语言模型语言=K (2)Count(语言,模型)是“语言”与“模型”两个词在训练语料中的同现次数,Count(语言)是“语言”在训练语料中出现的次数。
另一种对“模型”出现概率的估计方法就是根据特殊的触发对,比如说“建立汉语语言模型”或“使用语言模型”,我们就要考察在相同的历史信息h 中,是否有“建立”或“使用”这样的词,这样,又可以形成对事件空间(h,模型)的另一种划分,利用Trigger 模型,可以为同一个等价类赋以相同的概率:模型)建立模型建立建立模型,(h h K )|(P ∈=∈→ (3)这里定义模型)建立,(h K ∈为:)C(),C(Kh h ,(h ∈∈∈建立模型建立=模型)建立 (4)显然,利用Bigram 和Trigger 模型所使用的信息特征估计得到的“模型”出现概率是不一样的,同理,用前面提到的其他信息特征所得到的概率也会不一样,能不能将它们协调一致,建立一个符合多个信息特征约束的统一模型框架呢?1992年,Della Pietra 等人利用最大熵原理建立语言模型就是对这一想法的尝试。
2 最大熵原理 2.1 基本思想最大熵原理是E.T.Jayness 于1950年提出的,其基本思想是:假设{X }是一个事件空间,有许多种能够刻画该事件空间的信息源特征(或称约束),可以用来对事件的出现概率P(X)进行表述,假设每个约束i 与一个约束函数f i (X)和一个数学期望K i 相联系,则该约束可以写为:∑==Xiidefi P K)X (f )X (P )f (E (5)对于多个相容的约束条件,式(5)的唯一的最大熵解保证存在,其形式为:∏λ=i)X (f ii )X (P (6)其中λi 为待求的未知常量,称为模型参数,它将使P(X)满足所有的约束。
由式(6)可以看出,事件X 的出现概率完全由模型参数λi 和特征约束函数f i (X)所决定,特征约束函数f i (X)可以看作是对信源特征i 的表示,因此,求取事件X 概率P(X)必须要考虑参数λi 的计算和特征i(或特征约束函数f i (X))的选择。
特征选择是选择出对模型有表征意义的特征,以此建立一组约束;参数估计则在这些约束下,用最大熵原理对每一个特征进行估值,最终建立起事件空间X 的概率模型。
2.2 模型参数估计Danroch 和Ratcliff 于1972年提出了一个GIS (Generalized Iterative Scaling Algorithm )算法,对每一个特征f i ,找出满足所有约束的λi ,下面是求取式(6)中λi 的迭代算法: 算法1 GIS 算法输入:特征集f={f 1,f 2,…,f n }输出:最优参数值λ1,λ2,…,λn ,最佳模型p(x) 过程:(1) 变量初始化:给λi 赋任一初值)0(i λ,i=1,2,…,n 。
(2) 按照式(6)计算初始P(X):∏λ=i)X (f i )0()0(i)X (P 。
(3) 在当前估计函数下按式(5)计算每个f i 的期望,i ∈{1,2,…n},∑=Xi )j (i P )X (f )X (P)f (E )j ((4) 将实际计算得到的概率)f (E i P )j (与期望概率K i 进行比较,并按下列公式对λi 进行更新:jP i )j (i )1j (if EK )j (⋅λ=λ+ (7)(5) 根据新的λi 值计算概率估计函数P(X):∏++λ=i)X (f i )1j ()1j (i )X (P (8)(6) 若条件P (j+1)(X)-P (j)(X)≤ε满足,则迭代收敛,输出λ1, λ2, …, λn 和P(X),否则,转(3)。
3 基于最大熵原理的自然语言建模 3.1 问题描述设自然语言是一个随机过程,如果将Y 看作当前词的所有可能取值的有限集合,y ∈Y 可能是随机过程产生的输出,X 为其上下文信息x 组成的集合,则当前输出y 的取值受上下文信息X 的影响。
可以将(X,Y)看作是自然语言文本的一个事件空间。
例如,在中文文本校对中,当对文本中的错误词进行修正时,如果当前词的易混淆集或纠错建议候选集为Y ,选择其中的哪一个词y 替换错误词完全受上下文x ∈X 的影响。
上下文信息就是出错词周围的一些词。
构造随机模型的任务是要对语言的这一过程特性进行描述。
模型的目标是估计在给定上下文信息x 出现的情况下,过程输出为y 的条件概率,即P(y|x)。
3.2 特征与约束1. 经验概率分布语言建模的目标是构造能够对实际文本进行准确描述的统计模型,即它的概率分布与训练语料中的经验概率分布应该相符。
对于中文文本纠错,假设事先由人工完成了许多纠错的样例,即(x,y)样本。
经过对训练语料的统计,可以得到在特定的上下文中一个错误词应更换为哪个候选建议的频率,从而通过最大似然法,可得到训练语料中上下文信息与输出的经验概率分布)y ,x (p ~:∑≡y,x )y ,x (Count )y ,x (Count )y ,x (p ~ (9)式中,Count(x,y)为(x,y)在训练语料中出现的次数。
2. 特征与约束随机过程的输出受上下文信息的影响。
如在文本纠错过程中,选用哪个候选建议对错误词进行修改,与其上下文有关。
我们可以将这些上下文看作是对当前词具有表征作用的特征。
例如,如果在文本中出现这样的句子,“他们所承担的任务非常艰匡”,“艰匡”是一个错误词,易混淆集中提供了“简况”、“艰巨”、“艰难”、“艰苦”,“艰辛”等多个候选建议,选择那一个呢?显然,它的选择与上下文密切相关,其上下文信息有:“非常”、“任务”等等,根据人的判断,“任务”对建议的选择非常重要,当然,我们还可以对文本中的每个词标上词性,词性也可以成为选取建议的特征。
上下文X 中的特征信息可能有很多,如何选取有用的特征信息,在下面再作论述。
现先引入特征的定义:定义1(特征) 设x ∈X ,其长度≥1,它是当前过程输出y(∈Y)的上下文信息,如果x 对y 具有表征作用,则称(x, y)为模型的一个特征。
x 长度为1时称为原子特征,否则称为复合特征。
可以引入一个定义于{0,1}域上的二值函数来表示特征:⎩⎨⎧∈=否则且满足某种条件若0 ),(),(1),(X,Y y x y x f (10) 建立语言模型时,信息特征的获取来自训练语料,语料中当前词的上下文中的所有词与当前词一起都可以作为模型的信息特征,因此与模型有关的候选信源特征组成的集合很大,其中只有一些特征是对模型有用的特征,这些特征组成的集合只是候选特征集合的一个子集,它可以较完整地表达训练语料中数据。
那么,如何判断哪些特征对语言模型有用呢?可以通过所建模型与经验概率分布模型的一致性来判定特征的重要性。
如果有特征f ,它在训练样本中关于经验概率分布)y ,x (p ~的数学期望可表示如下:)y ,x (f )y ,x (p ~)f (E y,x p ~∑= (11)假设所建立的语言模型的概率分布为)y ,x (p ,则特征f 关于所建模型p 的概率分布的数学期望为:∑=y,x p )y ,x (f )y ,x (p )f (E (12)而)x |y (p )x (p )y ,x (p =,由于所建模型应符合训练语料中的概率分布,所以,如果)x (p ~表示x 在训练样本中的经验分布,可令)x (p ~)x (p =,(12)变成∑=y,x p )y ,x (f )x |y (p )x (p ~)f (E (13)如果特征f 对模型是有用的,则应要求(13)式所表示的特征f 的数学期望与它在训练样本中的数学期望相同,即:)f (E )f (E p ~p = (14)定义2(约束) 称式(14)为语言建模的约束方程,简称约束。
这里需要指出特征与约束的区别:特征是(x,y)的一个二值函数,而约束则是特征在所建模型中的数学期望与它在训练语料中的数学期望的方程。
3.3 基于最大熵的模型遴选假设存在n 个特征f i (i=1,2,…,n ),它们是语言建模过程中对输出有影响的统计单元,我们所建立的模型应满足所有这些特征,即所建立的模型p 应属于这n 个特征约束所产生的模型集合C :}}n ,2,1{i ),if (E )i f (E |p {C p ~p ∈=Γ∈= (15)这里,Γ表示所有的(无条件或无约束)概率分布模型空间,C 是在加入特征约束条件后得到的Γ的一个子集。
满足约束条件的模型集C 中有许多模型,我们所需要的是具有最均匀分布的模型,而条件概率p(y|x)均匀性的一种数学测量方法为条件熵,定义为:∑-=y,x )x |y (p log )x |y (p )x (p ~)p (H (16)其中0≤H(p)≤log|y|。
模型遴选的最大熵原理:在满足n 个约束条件的前提下,具有使H(p)值最大的模型即为具有最均匀分布的模型。
即)p (H Cp m ax arg *p ∈= (17) 可以证明,满足(17)式的解具有如下Gibbs 分布形式:))y ,x (f ii i exp()x (Z 1)x |y (p ∑=λ (18)其中, ))x (Z yii i )y ,x (f exp(∑=∑λ (19))x (Z 为保证对所有x ,使得1)x |y (p y=∑的归一常量。