chivehao
chivehao
发布于 2022-07-23 / 43 阅读
0
0

lucene —全文检索技术

一、什么是全文检索

1.前言

在我的理解里,所有的技术都是为了更好的偷懒提高效率而诞生的,全文检索是为了提高在大数据量情况下,查询需要的结果的效率而诞生的。

在介绍全文检索之前,先介绍下全文检索的对象——数据

2.数据的分类

数据在我的理解里,特点是杂乱,正所谓“没有规矩不成方圆”,我们人类通过在杂乱的数据里总结规律,将有明显规律的数据总结为一大类——结构化的数据。

结构化数据

最典型的结构化数据就是数据库的数据,此种数据根据数据类型进行分类,其特点是数据格式固定、数据大小固定、数据类型固定。而用来操作这些数据的语言,就是 SQL(Structured Query Language)—— 结构化查询语言。SQL 的出现极大地方便了人们对结构化数据的处理。

非结构化数据

而另外一些不太方便总结规律的数据,或者说根本没有任何规律的数据。如我们平时熟知的 word、pdf、text 等文档,邮件等数据格式不固定、数据大小不固定、数据类型不固定、 没有任何明显的通用的格式规范的数据,被总结为另一大类——非结构化数据,此种数据的操作相对结构化数据复杂许多。

3.数据的查询

  • 结构化的数据的查询

使用结构化查询语言——SQL,相对简单、方便

  • 非结构化的数据的查询
  1. 人工目测,也就是用眼睛看,数据量少还行,数据量多根本行不通,我认为最笨的办法
  2. 使用程序(如 Java 的 IO 操作)把文档读取到内存中,然后匹配字符串。顺序扫描。大量的 IO 操作
  3. 把非结构化数据变成结构化数据,比较主流的处理方法(解决方案),先跟根据空格进行字符串拆分,得到一个单词列表,基于单词列表创建一个索引(为了提高查询速度,创建某种数据结构的集合。)。然后查询索引,根据单词和文档的对应关系找到文档列表。这个过程叫做全文检索

4.全文检索

先创建索引然后查询索引的过程叫做全文检索。

索引一次创建可以多次使用。表现为每次查询速度很快。

二、全文检索的应用场景

需要对大量数据的处理场景,大致分为以下几类:

1、搜索引擎

百度、360 搜索、谷歌、搜狗

2、站内搜索

论坛搜索、微博、文章搜索、电商搜索

4、只要是有搜索的地方就可以使用全文检索技术。

三、什么是 Lucene

Lucene 是一个基于 Java 开发全文检索工具包。Java 全文检索目前最成熟的解决方案,没有之一, Solr 、Elasticsearch 等全文检索服务器底层实现都是 Luncene。

四、Lucene 实现全文检索的流程

创建索引

1.获得文档

  • 原始文档:要基于那些数据来进行搜索,那么这些数据就是原始文档。
  • 搜索引擎:使用爬虫获得原始文档
  • 站内搜索:数据库中的数据。
  • Java 程序:直接使用 io 流读取磁盘上的文件

2.构建文档对象

  • 对应每个原始文档创建一个 Document 对象
  • 每个 document 对象中包含多个域(field)
  • 域中保存就是原始文档数据。
  • 域的名称
  • 域的值
  • 每个文档都有一个唯一的编号,就是文档 id

3.分析文档,就是分词的过程

  1. 根据空格进行字符串拆分,得到一个单词列表
  2. 把单词统一转换成小写。
  3. 去除标点符号
  4. 去除停用词

停用词:无意义的词如英语里的 a and but 中文里的又 还 也 日语里的は が 等连接词助词等
每个关键词都封装成一个 Term 对象中。
Term 中包含两部分内容:
关键词所在的域(flied)
关键词本身
不同的域中拆分出来的相同的关键词是不同的 Term。

4.创建索引

基于关键词列表创建一个索引。保存到索引库中。
索引库中:

  • 索引
  • document 对象

关键词和文档的对应关系:
通过词语找文档,这种索引的结构叫倒排索引结构

这种数据结构被称为链式存储线性表 ,特点是用一组任意的存储单元存储线性表的数据元素,这组存储单元可以是连续的,也可以是不连续的。如 Java 中 LinkedList 的结构

查询索引

1.用户查询接口

用户输入查询条件的地方
例如:百度的搜索框,哔哩哔哩 的搜索框

2.把关键词封装成一个查询对象

要查询的域 field
要搜索的关键词 text

3.执行查询

根据要查询的关键词到对应的域上进行搜索。
找到关键词,根据关键词找到 对应的文档

4.渲染结果

根据文档的 id 找到文档对象
对关键词进行高亮显示
分页处理
最终展示给用户看

五、入门 Demo

环境

工程搭建

创建一个 Java 工程
添加 jar:

  • lucene-analyzers-common-7.4.0.jar
  • lucene-core-7.4.0.jar
  • commons-io.java

步骤:

1、创建一个 Director 对象,指定索引库保存的位置。
2、基于 Directory 对象创建一个 IndexWriter 对象
3、读取磁盘上的文件,对应每个文件创建一个文档对象。
4、向文档对象中添加域
5、把文档对象写入索引库
6、关闭 indexwriter 对象

创建索引:

    @Test
    public void createIndexDatabase() throws Exception {
        //1、创建一个 directory 对象,指定索引库保存的位置。
        Directory directory = FSDirectory.open(new File("W:\\我的网站\\网站开发\\Code\\java\\LuceneStudy\\indexDatabase").toPath());
        //2、基于 Directory 对象创建一个 IndexWriter 对象
        IndexWriterConfig config = new IndexWriterConfig(new IKAnalyzer());
        IndexWriter indexWriter = new IndexWriter(directory, config);
        //3、读取磁盘上的文件,对应每个文件创建一个文档对象。
        File fileDir = new File("W:\\我的网站\\网站开发\\Code\\java\\LuceneStudy\\searchSource");
        File[] files = fileDir.listFiles();
        for (File file : files) {
            //取文件名
            String fileName = file.getName();
            //取文件的路径
            String filePath = file.getPath();
            //取文件的内容
            String fileContent = FileUtils.readFileToString(file,"UTF-8");
            //取文件的大小
            long fileSize = FileUtils.sizeOf(file);
            //创建Filed
            //参数1:域的名称,参数2:域的内容,参数3:是否存储
            //是否存储不影响查询和运算,只影响是否内取出来
            Field fieldName = new TextField("name", fileName, Field.Store.YES);
            //Field fieldPath = new TextField("path", filePath, Field.Store.YES);
                    Field fieldPath = new StoredField("path", filePath);
                    Field fieldContent = new TextField("content", fileContent, Field.Store.YES);
                    //Field fieldSize = new TextField("size", fileSize + "", Field.Store.YES);
                    Field fieldSizeValue = new LongPoint("size", fileSize);
                    Field fieldSizeStore = new StoredField("size", fileSize);
                    //创建文档对象
                    Document document = new Document();
                    //向文档对象中添加域
                    document.add(fieldName);
                    document.add(fieldPath);
                    document.add(fieldContent);
                    //document.add(fieldSize);
                    document.add(fieldSizeValue);
                    document.add(fieldSizeStore);
                    //5、把文档对象写入索引库
                    indexWriter.addDocument(document);
        }
        //6、关闭 indexwriter 对象
        indexWriter.close();
    }

结果:

查询索引:

    @Test 
    public void searchIndex() throws Exception {
        //1、创建一个Director对象,指定索引库的位置
        Directory directory = FSDirectory.open(new File("W:\\我的网站\\网站开发\\Code\\java\\LuceneStudy\\indexDatabase").toPath());
        //2、创建一个IndexReader对象
        IndexReader indexReader = DirectoryReader.open(directory);
        //3、创建一个IndexSearcher对象,构造方法中的参数indexReader对象。
        IndexSearcher indexSearcher = new IndexSearcher(indexReader);
        //4、创建一个Query对象,TermQuery
        Query query = new TermQuery(new Term("content", "spring"));//查询内容包括spring关键词的
        //5、执行查询,得到一个TopDocs对象
        //参数1:查询对象 参数2:查询结果返回的最大记录数
        TopDocs topDocs = indexSearcher.search(query, 10);
        //6、取查询结果的总记录数
        System.out.println("查询总记录数:" + topDocs.totalHits);
        //7、取文档列表
        ScoreDoc[] scoreDocs = topDocs.scoreDocs;
        //8、打印文档中的内容
        for (ScoreDoc doc :
                scoreDocs) {
            //取文档id
            int docId = doc.doc;
            //根据id取文档对象
            Document document = indexSearcher.doc(docId);
            System.out.println(document.get("name"));
            System.out.println(document.get("path"));
            System.out.println(document.get("size"));
            //System.out.println(document.get("content"));
            System.out.println("-----------------分割线--------------");
        }
        //9、关闭IndexReader对象
        indexReader.close();
    }

结果:

查询总记录数:6
spring_README.txt
W:\我的网站\网站开发\Code\java\LuceneStudy\searchSource\spring_README.txt
3257
-----------------寂寞的分割线
springmvc.txt
W:\我的网站\网站开发\Code\java\LuceneStudy\searchSource\springmvc.txt
2124
-----------------寂寞的分割线
2.Serving Web Content.txt
W:\我的网站\网站开发\Code\java\LuceneStudy\searchSource\2.Serving Web Content.txt
35
-----------------寂寞的分割线 ......

六、中文分析器 IKAnalyzer

默认使用的数标准分析器 StandardAnalyzer,对中文支持不好,所有使用中文分析器 IKAnalyzer

1、查看分析器的分析效果

使用 Analyzer 对象的 tokenStream 方法返回一个 TokenStream 对象。词对象中包含了最终分词结果。

实现步骤:
1)创建一个 Analyzer 对象,StandardAnalyzer 对象
2)使用分析器对象的 tokenStream 方法获得一个 TokenStream 对象
3)向 TokenStream 对象中设置一个引用,相当于数一个指针
4)调用 TokenStream 对象的 rest 方法。如果不调用抛异常
5)使用 while 循环遍历 TokenStream 对象
6)关闭 TokenStream 对象

    @Test
    public void testTokenStream() throws Exception {
        //1)创建一个Analyzer对象,StandardAnalyzer对象
//        Analyzer analyzer = new StandardAnalyzer();
        Analyzer analyzer = new IKAnalyzer();
        //2)使用分析器对象的tokenStream方法获得一个TokenStream对象
        TokenStream tokenStream = analyzer.tokenStream("", "2017年12月14日 - 传智播客Lucene概述公安局Lucene是一款高性能的、可扩展的信息检索(IR)工具库。信息检索是指文档搜索、文档内信息搜索或者文档相关的元数据搜索等操作。");
        //3)向TokenStream对象中设置一个引用,相当于数一个指针
        CharTermAttribute charTermAttribute = tokenStream.addAttribute(CharTermAttribute.class);
        //4)调用TokenStream对象的rest方法。如果不调用抛异常
        tokenStream.reset();
        //5)使用while循环遍历TokenStream对象
        while(tokenStream.incrementToken()) {
            System.out.println(charTermAttribute.toString());
        }
        //6)关闭TokenStream对象
        tokenStream.close();
    }

2、IKAnalyze 的使用方法

1)把 IKAnalyzer 的 jar 包添加到工程中
2)把配置文件和扩展词典添加到工程的 classpath 下
注意:扩展词典严禁使用 windows 记事本编辑保证扩展词典的编码格式是 utf-8
扩展词典:添加一些新词
停用词词典:无意义的词或者是敏感词汇

//创建一个IndexWriter对象,需要使用IKAnalyzer作为分析器
indexWriter = new IndexWriter(FSDirectory.open( new File("W:\\我的网站\\网站开发\\Code\\java\\LuceneStudy\\indexDatabase").toPath()),
                                                        new IndexWriterConfig(new IKAnalyzer()));

七、索引库维护

1、添加文档
2、删除文档
1)删除全部
2)根据查询、关键词删除文档
3、修改文档
修改的原理是先删除后添加

public class IndexManager {

    private IndexWriter indexWriter;

    @Before
    public void init() throws Exception {
        //创建一个IndexWriter对象,需要使用IKAnalyzer作为分析器
        indexWriter =
                new IndexWriter(FSDirectory.open(new File("W:\\我的网站\\网站开发\\Code\\java\\LuceneStudy\\indexDatabase").toPath()),
                        new IndexWriterConfig(new IKAnalyzer()));
    }

    @Test
    public void addDocument() throws Exception {
        //创建一个IndexWriter对象,需要使用IKAnalyzer作为分析器
        IndexWriter indexWriter =
                new IndexWriter(FSDirectory.open(new File("W:\\我的网站\\网站开发\\Code\\java\\LuceneStudy\\indexDatabase").toPath()),
                new IndexWriterConfig(new IKAnalyzer()));
        //创建一个Document对象
        Document document = new Document();
        //向document对象中添加域
        document.add(new TextField("name", "新添加的文件", Field.Store.YES));
        document.add(new TextField("content", "新添加的文件内容", Field.Store.NO));
        document.add(new StoredField("path", "W:/temp/helo"));
        // 把文档写入索引库
        indexWriter.addDocument(document);
        //关闭索引库
        indexWriter.close();
    }

    @Test
    public void deleteAllDocument() throws Exception {
        //删除全部文档
        indexWriter.deleteAll();
        //关闭索引库
        indexWriter.close();
    }

    @Test
    public void deleteDocumentByQuery() throws Exception {
        indexWriter.deleteDocuments(new Term("name", "apache"));
        indexWriter.close();
    }

    @Test
    public void updateDocument() throws Exception {
        //创建一个新的文档对象
        Document document = new Document();
        //向文档对象中添加域
        document.add(new TextField("name", "更新之后的文档", Field.Store.YES));
        document.add(new TextField("name1", "更新之后的文档2", Field.Store.YES));
        document.add(new TextField("name2", "更新之后的文档3", Field.Store.YES));
        //更新操作
        indexWriter.updateDocument(new Term("name", "spring"), document);
        //关闭索引库
        indexWriter.close();
    }

}

八、索引库查询

1、使用 Query 的子类
1)TermQuery
根据关键词进行查询。
需要指定要查询的域及要查询的关键词
2)RangeQuery
范围查询
2、使用 QueryPaser 进行查询
可以对要查询的内容先分词,然后基于分词的结果进行查询。
添加一个 jar 包
lucene-queryparser-7.4.0.jar

public class SearchIndex {
    private IndexReader indexReader;
    private IndexSearcher indexSearcher;
    @Before
    public void init() throws Exception {
        indexReader = DirectoryReader.open(FSDirectory.open(new File("W:\\我的网站\\网站开发\\Code\\java\\LuceneStudy\\indexDatabase").toPath()));
        indexSearcher = new IndexSearcher(indexReader);
    }

    @Test
    public void testRangeQuery() throws Exception {
        //创建一个Query对象
        Query query = LongPoint.newRangeQuery("size", 0l, 100l);
        printResult(query);
    }

    private void printResult(Query query) throws Exception {
        //执行查询
        TopDocs topDocs = indexSearcher.search(query, 10);
        System.out.println("总记录数:" + topDocs.totalHits);
        ScoreDoc[] scoreDocs = topDocs.scoreDocs;
        for (ScoreDoc doc:scoreDocs){
            //取文档id
            int docId = doc.doc;
            //根据id取文档对象
            Document document = indexSearcher.doc(docId);
            System.out.println(document.get("name"));
            System.out.println(document.get("path"));
            System.out.println(document.get("size"));
            //System.out.println(document.get("content"));
            System.out.println("-----------------寂寞的分割线");
        }
        indexReader.close();
    }

    @Test
    public void testQueryParser() throws Exception {
        //创建一个QueryPaser对象,两个参数
        QueryParser queryParser = new QueryParser("name", new IKAnalyzer());
        //参数1:默认搜索域,参数2:分析器对象
        //使用QueryPaser对象创建一个Query对象
        Query query = queryParser.parse("lucene是一个Java开发的全文检索工具包");
        //执行查询
        printResult(query);
    }
}

END


评论