词条 | Lucene Java精华版 |
释义 | 图书信息解密搜索引擎技术实战:Lucene&Java精华版罗刚编著 ISBN 978-7-121-13393-0 2011年6月出版 定价:69.80元(含DVD光盘1张) 16开 548页 内 容 简 介本书是猎兔搜索开发团队的软件研发和教学实践的经验汇总。 本书总结搜索引擎相关理论与实际解决方案,并给出了 Java 实现,其中利用了流行的开源项目Lucene和Solr,而且还包括原创的实现。本书主要包括总体介绍部分、爬虫部分、自然语言处理部分、全文检索部分以及相关案例分析。爬虫部分介绍了网页遍历方法和如何实现增量抓取,并介绍了从网页等各种格式的文档中提取主要内容的方法。自然语言处理部分从统计机器学习的原理出发,包括了中文分词与词性标注的理论与实现以及在搜索引擎中的实用等细节,同时对文档排重、文本分类、自动聚类、句法分析树、拼写检查等自然语言处理领域的经典问题进行了深入浅出的介绍并总结了实现方法。在全文检索部分,结合Lucene 3.0介绍了搜索引擎的原理与进展。用简单的例子介绍了Lucene的最新应用方法。本书包括完整的搜索实现过程:从完成索引到搜索用户界面的实现。本书还进一步介绍了实现准实时搜索的方法,展示了Solr 1.4版本的用法以及实现分布式搜索服务集群的方法。最后介绍了在地理信息系统领域和户外活动搜索领域的应用。 前 言2011年3月23日,百度公司股价报收于132.58美元,其市值达到了460.7亿美元,超过了腾讯控股前日收盘时的市值,成为中国互联网企业的老大。为什么一个搜索引擎技术公司能有如此高的市值呢?因为搜索引擎技术本身的应用潜力。笔者相信,智能系统会越来越多地改进人们的生活,可以把搜索引擎作为智能系统中先验知识的来源。例如在遭遇核泄漏事故的日本福岛核电站抢险中,已经开始使用机器人在高辐射区域进行监控和辐射水平检测。但是这样的机器人只能解决特定问题,清除核辐射的机器人看起来像一个高级的遥控玩具车,而不是一个全功能的机器人。最近几年,IBM科学家们一直在努力研究一个当前最先进的问答系统,取名为“Watson”(华森)。IBM的智能系统华森还只能回答英文问题。如果要让机器人有更通用的用处,还需要更多的先验知识作为基础。 很多搜索相关的技术已经得到了初步的解决。在国内产业界也已经有很多公司掌握了基本的搜索开发技术并拥有专业的搜索技术开发人员。但是越来越多有价值的资讯对现有技术的处理能力仍然是一个挑战。 为了相对完整地阐述相关知识体系,这本书偏厚,读者可以直接翻到感兴趣的那一页开始阅读。如果有心情,从头开始往下读当然也很好。为了方便实践,需要有良好实现的代码作为参考。为了节约篇幅,书中的代码只是核心片段。本书相关代码的完整版本在附带光盘中可以找到。 作者罗刚在参加编写本书之前,还独立撰写过《自己动手写搜索引擎》一书,与王振东共同编写过《自己动手写网络爬虫》。经过10多年的技术积累以及猎兔搜索技术团队每年若干的研发投入,相信猎兔已经能够比以前做得更好。但越是深入接触客户的需求,越感觉到技术本身仍需要更多进展,才能满足实用的需要。写这本书也是考虑到,也许还需要更多的前进,才能使技术产生质的飞跃。 掌握搜索开发技术需要有效的学习方法。可以考虑每天学一个算法,就好像降龙十八掌,每天学一种掌法,每天都能感觉到自己的提高。对于有一些基础的读者,一个月下来就能感觉到明显的提升。当然,这样的学习需要坚持一段时间,然后才能熟练应用。就好像做菜,先大火烧开,然后转小火慢炖出滋味。 很多相关的论文不容易读懂,当碰到困难时,可以出去散步,在走路的过程中,可能会得到一些新想法。或者一周后再重新审视这个问题,会有新的认识。 本书分为相关技术总体介绍部分、爬虫部分、全文检索部分、自然语言处理部分以及相关案例分析。 爬虫部分从基本的爬虫原理开始讲解,通过介绍优先级队列、宽度优先搜索等内容引领读者入门;之后根据当前风起云涌的云计算热潮,重点讲述了云计算的基本原理及其在搜索中的应用,以及Web图分析、信息抽取等内容;为了能够让读者更深入地了解爬虫,本书在最后两章还介绍了有关爬虫的数据挖掘的内容。 全文检索部分重点介绍了搜索的基本原理与使用。主要介绍了开源软件实现Lucene以及Solr。不仅介绍如何使用这些开源软件,而且还会介绍其中的一些实现原理。Lucene更高版本的改进指出了当前需要解决的问题,欢迎读者在了解基本原理后进行更深入的研究。 自然语言处理部分向来是笔者关注的重点,因为系统的智能化依赖于此。开发中文搜索离不开中文分词。开发任何自然语言的搜索也离不开对相应语言的处理。对自然语言的处理其实也可以用到对Java或C语言这样的机器语言的处理方法,只不过处理自然语言更难一点。 虽然本书的每个章节都已经用代码强化了实现细节,但是对于初学者来说,也许需要更多的案例来理解相关技术在真实场景中的用法。案例分析部分介绍了在地理信息系统领域和户外活动搜索领域的应用。 本书适合需要具体实现搜索引擎的程序员使用,对于信息检索等相关研究人员也有一定的参考价值,同时猎兔搜索技术团队也已经开发出以本书为基础的专门培训课程和商业软件。 目前搜索引擎开发人员仍然很稀缺,作者真诚地希望通过本书把读者带入搜索引擎开发的天地并认识更多的朋友。本书不是一本零基础就可以全部掌握其内容的书,但是希望没有相关技术基础的读者也可以找到自己感兴趣的内容。当然,万事开头难,将来希望能开发出一本面向零基础读者的教程。 对于高级的开发人员,也可以参加猎兔的培训或者创业团队。职场人员经常面临各种压力。选择猎兔培训,不是几个月学完以后就不再见面,而是给大家提供持久的支持。当以后需要再次找工作的时候,或者需要创业时,依然可以在这里找到支持。很多商业运营的大项目失败的代价太高,所以他们往往只招有多年开发经验的工程师。但是为了成长就不要怕犯错误,在培训时可以等学员犯了错误之后再告知正确答案。有经验的工程师也可以在这里学习到完整的技术体系。 欢迎创业合伙人或者投资合伙人和猎兔合作。猎兔提供实在的技术基础平台,并探索切实可行的赢利方案。猎兔的早期合伙人有的已经成为当地的纳税大户,有的项目已经找到新的合伙人加入。“敬天爱人”是共同的做事原则。所谓敬天,就是依循自然之理、人间之正道,与人为善。换言之,就是坚持正确的做人之道。所谓爱人,就是摒弃一己私欲,体恤他人,持利他之心。 感谢开源软件开发人员和家人、关心猎兔的老师和朋友、创业伙伴以及信赖猎兔软件的客户多年来的支持。 编 者 目 录第1章 搜索引擎总体结构 15 1.1 搜索引擎基本模块 16 1.2 开发环境 16 1.3 搜索引擎工作原理 18 1.3.1 网络爬虫 18 1.3.2 全文索引结构与Lucene实现 18 1.3.3 搜索用户界面 21 1.3.4 计算框架 22 1.3.5 文本挖掘 23 1.4 本章小结 24 第2章 网络爬虫的原理与应用 25 2.1 爬虫的基本原理 26 2.2 爬虫架构 28 2.2.1 基本架构 29 2.2.2 分布式爬虫架构 31 2.2.3 垂直爬虫架构 32 2.3 抓取网页 33 2.3.1 下载网页的基本方法 34 2.3.2 网页更新 37 2.3.3 抓取限制应对方法 39 2.3.4 URL地址提取 41 2.3.5 抓取JavaScript动态页面 42 2.3.6 抓取即时信息 45 2.3.7 抓取暗网 46 2.3.8 信息过滤 47 2.3.9 最好优先遍历 52 2.4 存储URL地址 54 2.4.1 BerkeleyDB 54 2.4.2 布隆过滤器 56 2.5 并行抓取 59 2.5.1 多线程爬虫 59 2.5.2 垂直搜索的多线程爬虫 61 2.5.3 异步I/O 63 2.6 RSS抓取 66 2.7 抓取FTP 68 2.8 下载图片 69 2.9 图像的OCR识别 70 2.9.1 图像二值化 71 2.9.2 切分图像 73 2.9.3 SVM分类 76 2.10 Web结构挖掘 80 2.10.1 存储Web图 80 2.10.2 PageRank算法 84 2.10.3 HITs算法 91 2.10.4 主题相关的PageRank 95 2.11 部署爬虫 96 2.12 本章小结 96 第3章 索引内容提取 100 3.1 从HTML文件中提取文本 101 3.1.1 字符集编码 101 3.1.2 识别网页的编码 104 3.1.3 网页编码转换为字符串编码 107 3.1.4 使用HTMLParser实现定向抓取 107 3.1.5 使用正则表达式提取数据 112 3.1.6 结构化信息提取 113 3.1.7 网页的DOM结构 116 3.1.8 使用NekoHTML提取信息 118 3.1.9 网页去噪 123 3.1.10 网页结构相似度计算 128 3.1.11 提取标题 130 3.1.12 提取日期 131 3.2 从非HTML文件中提取文本 131 3.2.1 提取标题的一般方法 132 3.2.2 PDF文件 136 3.2.3 Word文件 140 3.2.4 Rtf文件 141 3.2.5 Excel文件 152 3.2.6 PowerPoint文件 155 3.3 提取垂直行业信息 155 3.3.1 医疗行业 155 3.3.2 旅游行业 156 3.4 流媒体内容提取 157 3.4.1 音频流内容提取 157 3.4.2 视频流内容提取 161 3.5 存储提取内容 162 3.6 本章小结 163 第4章 中文分词原理与实现 165 4.1 Lucene中的中文分词 166 4.1.1 Lucene切分原理 166 4.1.2 Lucene中的Analyzer 168 4.1.3 自己写Analyzer 169 4.1.4 Lietu中文分词 172 4.2 查找词典算法 172 4.2.1 标准Trie树 173 4.2.2 三叉Trie树 176 4.3 中文分词的原理 180 4.4 中文分词流程与结构 184 4.5 形成切分词图 185 4.6 概率语言模型的分词方法 191 4.7 N元分词方法 195 4.8 新词发现 197 4.9 未登录词识别 199 4.10 词性标注 200 4.10.1 隐马尔可夫模型 203 4.10.2 基于转换的错误学习方法 211 4.11 平滑算法 213 4.12 机器学习的方法 217 4.12.1 最大熵 218 4.12.2 条件随机场 221 4.13 有限状态机 221 4.14 本章小结 228 第5章 让搜索引擎理解自然语言 230 5.1 停用词表 231 5.2 句法分析树 233 5.3 相似度计算 237 5.4 文档排重 240 5.4.1 语义指纹 241 5.4.2 SimHash 244 5.4.3 分布式文档排重 254 5.5 中文关键词提取 255 5.5.1 关键词提取的基本方法 255 5.5.2 HITS算法应用于关键词提取 257 5.5.3 从网页中提取关键词 259 5.6 相关搜索词 260 5.6.1 挖掘相关搜索词 260 5.6.2 使用多线程计算相关搜索词 262 5.7 信息提取 263 5.8 拼写检查与建议 268 5.8.1 模糊匹配问题 271 5.8.2 英文拼写检查 274 5.8.3 中文拼写检查 275 5.9 自动摘要 278 5.9.1 自动摘要技术 278 5.9.2 自动摘要的设计 279 5.9.3 基于篇章结构的自动摘要 285 5.9.4 Lucene中的动态摘要 285 5.10 文本分类 288 5.10.1 特征提取 290 5.10.2 中心向量法 294 5.10.3 朴素贝叶斯 296 5.10.4 支持向量机 305 5.10.5 多级分类 313 5.10.6 规则方法 314 5.10.7 网页分类 317 5.11 自动聚类 318 5.11.1 聚类的定义 318 5.11.2 K均值聚类方法 318 5.11.3 K均值实现 320 5.11.4 深入理解DBScan算法 324 5.11.5 使用DBScan算法聚类实例 326 5.12 拼音转换 328 5.13 概念搜索 329 5.14 多语言搜索 337 5.15 跨语言搜索 338 5.16 情感识别 339 5.16.1 确定词语的褒贬倾向 342 5.16.2 实现情感识别 343 5.16.3 用户协同过滤 345 5.17 本章小结 346 第6章 Lucene原理与应用 348 6.1 Lucene深入介绍 349 6.1.1 常用查询 349 6.1.2 查询语法与解析 350 6.1.3 查询原理 354 6.1.4 使用Filter筛选搜索结果 355 6.1.5 遍历索引库 355 6.1.6 索引数值列 357 6.2 Lucene中的压缩算法 360 6.2.1 变长压缩 360 6.2.2 PForDelta 362 6.2.3 前缀压缩 365 6.2.4 差分编码 366 6.2.5 设计索引库结构 368 6.3 创建和维护索引库 369 6.3.1 创建索引库 369 6.3.2 向索引库中添加索引文档 370 6.3.3 删除索引库中的索引文档 373 6.3.4 更新索引库中的索引文档 373 6.3.5 索引的合并 374 6.3.6 索引文件格式 374 6.3.7 分发索引 377 6.3.8 修复索引 380 6.4 查找索引库 380 6.5 读写并发控制 381 6.6 优化使用Lucene 382 6.6.1 索引优化 382 6.6.2 查询优化 383 6.6.3 实现时间加权排序 386 6.6.4 实现字词混合索引 389 6.6.5 重用Tokenizer 394 6.6.6 定制Tokenizer 394 6.7 检索模型 396 6.7.1 向量空间模型 396 6.7.2 BM25概率模型 401 6.7.3 统计语言模型 406 6.8 查询大容量索引 408 6.9 实时搜索 409 6.10 本章小结 410 第7章 搜索引擎用户界面 411 7.1 实现Lucene搜索 412 7.2 搜索页面设计 413 7.2.1 Struts2实现的搜索界面 413 7.2.2 翻页组件 414 7.3 实现搜索接口 415 7.3.1 编码识别 415 7.3.2 布尔搜索 418 7.3.3 指定范围搜索 419 7.3.4 搜索结果排序 420 7.3.5 搜索页面的索引缓存与更新 420 7.4 历史搜索词记录 423 7.5 实现关键词高亮显示 424 7.6 实现分类统计视图 426 7.7 实现相似文档搜索 431 7.8 实现AJAX搜索联想词 433 7.8.1 估计查询词的文档频率 433 7.8.2 搜索联想词总体结构 434 7.8.3 服务器端处理 434 7.8.4 浏览器端处理 435 7.8.5 服务器端改进 440 7.8.6 拼音提示 443 7.8.7 部署总结 444 7.9 集成其他功能 444 7.9.1 拼写检查 444 7.9.2 分类统计 445 7.9.3 相关搜索 447 7.9.4 再次查找 450 7.9.5 搜索日志 450 7.10 搜索日志分析 452 7.10.1 日志信息过滤 452 7.10.2 信息统计 454 7.10.3 挖掘日志信息 456 7.11 本章小结 457 第8章 使用Solr实现企业搜索 458 8.1 Solr简介 459 8.2 Solr基本用法 460 8.2.1 Solr服务器端的配置与中文支持 461 8.2.2 把数据放进Solr 466 8.2.3 删除数据 468 8.2.4 Solr客户端与搜索界面 469 8.2.5 Solr索引库的查找 471 8.2.6 索引分发 475 8.2.7 Solr搜索优化 478 8.3 从FAST Search移植到Solr 481 8.4 Solr扩展与定制 482 8.4.1 Solr中字词混合索引 483 8.4.2 相关检索 484 8.4.3 搜索结果去重 486 8.4.4 定制输入/输出 490 8.4.5 分布式搜索 494 8.4.6 SolrJ查询分析器 495 8.4.7 扩展SolrJ 503 8.4.8 扩展Solr 504 8.4.9 查询Web图 508 8.5 Solr的.NET客户端 510 8.6 Solr的PHP客户端 516 8.7 本章小结 519 第9章 地理信息系统案例分析 520 9.1 新闻提取 522 9.2 POI信息提取 526 9.2.1 提取主体 531 9.2.2 提取地区 533 9.2.3 指代消解 534 9.3 本章小结 536 第10章 户外活动搜索案例分析 537 10.1 爬虫 538 10.2 信息提取 539 10.3 活动分类 542 10.4 搜索 543 10.5 本章小结 544 参考资料 545 |
随便看 |
百科全书收录4421916条中文百科知识,基本涵盖了大多数领域的百科知识,是一部内容开放、自由的电子版百科全书。