原文地址:http://blog.csdn.net/deadspace/archive/2011/02/17/6190810.aspx
上个星期, 我的两个朋友 Dean 和 Bill 分别告诉我说他们对 Google 的快速高质量的拼写检查工具感到惊奇. 比如说在搜索的时候键入 [speling], 在不到 0.1 秒的时间内, Google 会返回: 你要找的是不是 [spelling]. (Yahoo! 和微软也有类似的功能). 让我感到有点奇怪的是我原想 Dean 和 Bill 这两个很牛的工程师和数学家应该对于使用统计语言模型构建拼写检查器有职业的敏感. 但是他们似乎没有这个想法. 我后来想了想, 他们的确没什么理由很熟悉统计语言模型. 不是他们的知识有问题, 而是我预想的本来就是不对的.
我觉得, 如果对这方面的工作做个解释, 他们和其他人肯定会受益. 然而像Google 的那样工业强度的拼写检查器的全部细节只会让人感到迷惑而不是受到启迪. 前几天我乘飞机回家的时候, 顺便写了几十行程序, 作为一个玩具性质的拼写检查器. 这个拼写检查器大约1 秒能处理10 多个单词, 并且达到 80% -90% 的准确率. 下面就是我的代码, 用Python 2.5 写成, 一共21 行, 是一个功能完备的拼写检查器.
import re, collections
def words( text): return re. findall( '[a-z]+' , text. lower())
def train( features):
model = collections. defaultdict( lambda : 1 )
for f in features:
model[ f] += 1
return model
NWORDS = train( words( file( 'big.txt' ). read()))
alphabet = 'abcdefghijklmnopqrstuvwxyz'
def edits1( word):
n = len( word)
return set([ word[ 0 : i]+ word[ i+ 1 :] for i in range( n)] + # deletion
[ word[ 0 : i]+ word[ i+ 1 ]+ word[ i]+ word[ i+ 2 :] for i in range( n- 1 )] + # transposition
[ word[ 0 : i]+ c+ word[ i+ 1 :] for i in range( n) for c in alphabet] + # alteration
[ word[ 0 : i]+ c+ word[ i:] for i in range( n+ 1 ) for c in alphabet]) # insertion
def known_edits2( word):
return set( e2 for e1 in edits1( word) for e2 in edits1( e1) if e2 in NWORDS)
def known( words): return set( w for w in words if w in NWORDS)
def correct( word):
candidates = known([ word]) or known( edits1( word)) or known_edits2( word) or [ word]
return max( candidates, key= lambda w: NWORDS[ w])
这段代码定义了一个函数叫 correct , 它以一个单词作为输入参数, 返回最可能的拼写建议结果. 比如说:
>>> correct( 'speling' )
'spelling'
>>> correct( 'korrecter' )
'corrector'
拼写检查器的原理, 一些简单的概率知识
我简单的介绍一下它的工作原理. 给定一个单词, 我们的任务是选择和它最相似的拼写正确的单词. ( 如果这个单词本身拼写就是正确的, 那么最相近的就是它自己啦). 当然, 不可能绝对的找到相近的单词, 比如说给定 lates 这个单词, 它应该别更正为 late 呢还是 latest 呢? 这些困难指示我们, 需要使用概率论, 而不是基于规则的判断. 我们说, 给定一个词 w, 在所有正确的拼写词中, 我们想要找一个正确的词 c, 使得对于 w 的条件概率最大, 也就是说:
argmaxc P(c |w )
按照 贝叶斯理论 上面的式子等价于:
argmaxc P(w |c ) P(c ) / P(w )
因为用户可以输错任何词, 因此对于任何 c 来讲, 出现 w 的概率 P(w) 都是一样的, 从而我们在上式中忽略它, 写成:
argmaxc P(w |c ) P(c )
这个式子有三个部分, 从右到左, 分别是:
1. P(c), 文章中出现一个正确拼写词 c 的概率, 也就是说, 在英语文章中, c 出现的概率有多大呢? 因为这个概率完全由英语这种语言决定, 我们称之为做语言模型 . 好比说, 英语中出现 the 的概率 P('the') 就相对高, 而出现 P('zxzxzxzyy') 的概率接近0( 假设后者也是一个词的话).
2. P(w|c), 在用户想键入 c 的情况下敲成 w 的概率. 因为这个是代表用户会以多大的概率把 c 敲错成 w, 因此这个被称为误差模型 .
3. argmaxc , 用来枚举所有可能的 c 并且选取概率最大的, 因为我们有理由相信, 一个( 正确的) 单词出现的频率高, 用户又容易把它敲成另一个错误的单词, 那么, 那个敲错的单词应该被更正为这个正确的.
有人肯定要问, 你笨啊, 为什么把最简单的一个 P(c |w ) 变成两项复杂的式子来计算? 答案是本质上 P(c|w) 就是和这两项同时相关的, 因此拆成两项反而容易处理. 举个例子, 比如一个单词 thew 拼错了. 看上去 thaw 应该是正确的, 因为就是把 a 打成 e 了. 然而, 也有可能用户想要的是 the, 因为 the 是英语中常见的一个词, 并且很有可能打字时候手不小心从 e 滑到 w 了. 因此, 在这种情况下, 我们想要计算 P(c |w ), 就必须同时考虑 c 出现的概率和从 c 到 w 的概率. 把一项拆成两项反而让这个问题更加容易更加清晰.
现在, 让我们看看程序究竟是怎么一回事. 首先是计算 P(c), 我们可以读入一个巨大的文本文件, big.txt , 这个里面大约有几百万个词( 相当于是语料库了). 这个文件是由Gutenberg 计划 中可以获取的一些书, Wiktionary 和 British National Corpus 语料库构成. ( 当时在飞机上我只有福尔摩斯全集, 我后来又加入了一些, 直到效果不再显著提高为止).
然后, 我们利用一个叫 words 的函数把语料中的单词全部抽取出来, 转成小写, 并且去除单词中间的特殊符号. 这样, 单词就会成为字母序列, don't 就变成 don 和 t 了.1 接着我们训练一个概率模型, 别被这个术语吓倒, 实际上就是数一数每个单词出现几次. 在 train 函数中, 我们就做这个事情.
def words( text): return re. findall( '[a-z]+' , text. lower())
def train( features):
model = collections. defaultdict( lambda : 1 )
for f in features:
model[ f] += 1
return model
NWORDS = train( words( file( 'big.txt' ). read()))
实际上, NWORDS[w] 存储了单词 w 在语料中出现了多少次. 不过一个问题是要是遇到我们从来没有过见过的新词怎么办. 假如说一个词拼写完全正确, 但是语料库中没有包含这个词, 从而这个词也永远不会出现在训练集中. 于是, 我们就要返回出现这个词的概率是0. 这个情况不太妙, 因为概率为0 这个代表了这个事件绝对不可能发生, 而在我们的概率模型中, 我们期望用一个很小的概率来代表这种情况. 实际上处理这个问题有很多成型的标准方法, 我们选取一个最简单的方法: 从来没有过见过的新词一律假设出现过一次. 这个过程一般成为” 平滑化”, 因为我们把概率分布为0 的设置为一个小的概率值. 在语言实现上, 我们可以使用Python collention 包中的 defaultdict 类, 这个类和 python 标准的 dict ( 其他语言中可能称之为 hash 表) 一样, 唯一的不同就是可以给任意的键设置一个默认值, 在我们的例子中, 我们使用一个匿名的 lambda:1 函数, 设置默认值为 1.
然后的问题是: 给定一个单词 w, 怎么能够枚举所有可能的正确的拼写呢? 实际上前人已经研究得很充分了, 这个就是一个编辑距离 的概念. 这两个词之间的编辑距离
定义为使用了几次插入( 在词中插入一个单字母), 删除( 删除一个单字母), 交换( 交换相邻两个字母), 替换( 把一个字母换成另一个) 的操作从一个词变到另一个词.
下面这个函数可以返回所有与单词 w 编辑距离为 1 的集合.
def edits1( word):
n = len( word)
return set([ word[ 0 : i]+ word[ i+ 1 :] for i in range( n)] + # deletion
[ word[ 0 : i]+ word[ i+ 1 ]+ word[ i]+ word[ i+ 2 :] for i in range( n- 1 )] + # transposition
[ word[ 0 : i]+ c+ word[ i+ 1 :] for i in range( n) for c in alphabet] + # alteration
[ word[ 0 : i]+ c+ word[ i:] for i in range( n+ 1 ) for c in alphabet]) # insertion
显然, 这个集合很大. 对于一个长度为 n 的单词, 可能有n 种删除, n-1 中对换, 26n 种 ( 译注: 实际上是 25n 种) 替换 和 26(n+1) 种插入 ( 译注: 实际上比这个小, 因为在一个字母前后再插入这个字母构成的词是等价的). 这样的话, 一共就是 54n + 25 中情况 ( 当中还有一点重复). 比如说, 和 something 这个单词的编辑距离为1 的词按照这个算来是 511 个, 而实际上是 494 个.
一般讲拼写检查的文献宣称大约80-95% 的拼写错误都是介于编译距离 1 以内. 然而下面我们看到, 当我对于一个有270 个拼写错误的语料做实验的时候, 我发现只有76% 的拼写错误是属于编辑距离为1 的集合. 或许是我选取的例子比典型的例子难处理一点吧. 不管怎样, 我觉得这个结果不够好, 因此我开始考虑编辑距离为 2 的那些单词了. 这个事情很简单, 递归的来看, 就是把 edit1 函数再作用在 edit1 函数的返回集合的每一个元素上就行了. 因此, 我们定义函数 edit2:
def edits2( word):
return set( e2 for e1 in edits1( word) for e2 in edits1( e1))
这个语句写起来很简单, 实际上背后是很庞大的计算量: 与 something 编辑距离为2 的单词居然达到了 114,324 个. 不过编辑距离放宽到2 以后, 我们基本上就能覆盖所有的情况了, 在270 个样例中, 只有3 个的编辑距离大于2. 当然我们可以做一些小小的优化: 在这些编辑距离小于2 的词中间, 只把那些正确的词作为候选词. 我们仍然考虑所有的可能性, 但是不需要构建一个很大的集合, 因此, 我们构建一个函数叫做 known_edits2 , 这个函数只返回那些正确的并且与 w 编辑距离小于2 的词的集合:
def known_edits2( word):
return set( e2 for e1 in edits1( word) for e2 in edits1( e1) if e2 in NWORDS)
现在, 在刚才的 something 例子中, known_edits2('something') 只能返回 3 个单词: 'smoothing', 'something' 和 'soothing', 而实际上所有编辑距离为 1 或者 2 的词一共有 114,324 个. 这个优化大约把速度提高了 10%.
最后剩下的就是误差模型部分 P(w |c ) 了. 这个也是当时难住我的部分. 当时我在飞机上, 没有网络, 也就没有数据用来构建一个拼写错误模型. 不过我有一些常识性的知识: 把一个元音拼成另一个的概率要大于辅音 ( 因为人常常把 hello 打成 hallo 这样); 把单词的第一个字母拼错的概率会相对小, 等等. 但是我并没有具体的数字去支撑这些证据. 因此, 我选择了一个简单的方法: 编辑距离为1 的正确单词比编辑距离为2 的优先级高, 而编辑距离为0 的正确单词优先级比编辑距离为1 的高. 因此, 用代码写出来就是:
( 译注: 此处作者使用了Python 语言的一个巧妙性质: 短路表达式. 在下面的代码中, 如果known(set) 非空, candidate 就会选取这个集合, 而不继续计算后面的; 因此, 通过Python 语言的短路表达式, 作者很简单的实现了优先级)
def known( words): return set( w for w in words if w in NWORDS)
def correct( word):
candidates = known([ word]) or known( edits1( word)) or known_edits2( word) or [ word]
return max( candidates, key= lambda w: NWORDS[ w])
correct 函数从一个候选集合中选取最大概率的. 实际上, 就是选取有最大 P(c ) 值的那个. 所有的 P(c) 值都存储在 NWORDS 结构中.
效果
现在我们看看算法效果怎么样. 在飞机上我尝试了好几个例子, 效果还行. 飞机着陆后, 我从牛津文本档案库 (Oxford Text Archive) 下载了 Roger Mitton 的 Birkbeck 拼写错误语料库 . 从这个库中, 我取出了两个集合, 作为我要做拼写检查的目标. 第一个集合用来作为在开发中作为参考, 第二个作为最后的结果测试. 也就是说, 我程序完成之前不参考它, 而把程序在其上的测试结果作为最后的效果. 用两个集合一个训练一个对照是一种良好的实践, 至少这样可以避免我通过对特定数据集合进行特殊调整从而自欺欺人. 这里我给出了一个测试的例子和一个运行测试的例子. 实际的完整测试例子和程序可以参见 spell.py .
代码下载:
本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/deadspace/archive/2011/02/17/6190810.aspx
posted on 2011-06-25 17:29
漂漂 阅读(819)
评论(0) 编辑 收藏 引用 所属分类:
python