全文检索服务器

示意图

solr

Solr 是一个高性能,基于 Lucene 的全文搜索服务器。

同时对其进行了扩展,<mark>提供了比Lucene更为丰富的查询语言</mark>,同时实现了可配置、可扩展,并对<mark>查询性能进行了优化</mark>,并且提供了一个完善的功能<mark>管理界面</mark>,是一款非常优秀的全文搜索引擎。

除了 solr 之外,还有一个全文检索服务器 es(elasticsearch)
前者是lucence官方开发,后者是个人开发,在开源社区

lucene

Luceneapache jakarta 项目的一个子项目,是一个开放源代码的全文检索引擎开发工具包,但它不是一个完整的全文检索引擎,而是一个<mark>全文检索引擎的架构</mark>,提供了完整的查询引擎和索引引擎,部分文本分析引擎。

Lucene 的目的是<mark>为软件开发人员提供一个简单易用的工具包</mark>,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎。

概念

# 倒排索引

我们一般情况下,先找到文档,再在文档中找出包含的词;

倒排索引则是这个过程反过来,用词,来找出它出现的文档.

# 实际举例

文档编号 文档内容
1 全文检索引擎工具包
2 全文检索引擎的架构
3 查询引擎和索引引擎

分词结果

文档编号 分词结果集
1 {全文,检索,引擎,工具,包}
2 {全文,检索,引擎,的,架构}
3 {查询,引擎,和,索引,引擎}

倒排索引solr 服务器存储的就是这样的数据)

编号 单词 文档编号列表
1 全文 1,2
2 检索 1,2
3 引擎 1,2,3
4 工具 1
5 1
6 架构 2
7 查询 3
8 索引 3

lucene API 介绍

下面先介绍 lucene

看看 lucene 直接生成这样的关键词索引是怎么做的

# 创建索引

## 新建 maven 项目,添加依赖

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
	<modelVersion>4.0.0</modelVersion>
	<groupId>cn.tedu</groupId>
	<artifactId>lucene-demo</artifactId>
	<version>0.0.1-SNAPSHOT</version>
	<name>luceme-demo</name>

	<dependencies>
		<dependency>
			<groupId>org.apache.lucene</groupId>
			<artifactId>lucene-core</artifactId>
			<version>8.1.1</version>
		</dependency>

		<dependency>
			<groupId>junit</groupId>
			<artifactId>junit</artifactId>
			<version>4.12</version>
		</dependency>

		<dependency><!-- 中文的分词工具 -->
			<groupId>org.apache.lucene</groupId>
			<artifactId>lucene-analyzers-smartcn</artifactId>
			<version>8.1.1</version>
		</dependency>

	</dependencies>
</project>

## 创建测试类,添加以下代码

package test;

import java.io.File;

import org.apache.lucene.analysis.cn.smart.SmartChineseAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field.Store;
import org.apache.lucene.document.LongPoint;
import org.apache.lucene.document.StoredField;
import org.apache.lucene.document.TextField;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.IndexWriterConfig;
import org.apache.lucene.store.FSDirectory;
import org.junit.Test;

public class Test1 {
	// 代表四篇文档,需要用lucene生成索引关键词数据
	String[] a = {
			"3, 华为 - 华为电脑, 爆款",
			"4, 华为手机, 旗舰",
			"5, 联想 - Thinkpad, 商务本",
			"6, 联想手机, 自拍神器"
	};
	
	@Test
	public void test1() throws Exception {
		// 设置保存索引数据的文件夹
		//存储索引文件的路径
		File path = new File("d:/abc/");
		FSDirectory d = FSDirectory.open(path.toPath());
		//lucene提供的中文分词器
		SmartChineseAnalyzer analyzer = new SmartChineseAnalyzer();
		// 分词配置 IndexWriterConfig
		//通过配置对象来指定分词器
		IndexWriterConfig cfg = new IndexWriterConfig(analyzer);
		//索引输出工具
		IndexWriter writer = new IndexWriter(d, cfg);
		// 输出索引
		for (int i = 0; i < a.length; i++) {
			// "3, 华为 - 华为电脑, 爆款"
			// 如上,需要封装 id、标题、买点
			String[] strs = a[i].split(",");
			
			// 创建文档,文档中包含的是要索引的字段
			// 把文档数据,封装成 Document 对象
			Document doc = new Document();
			
			// 封装 id long 类型
			// 生成 id 的索引
			doc.add(new LongPoint("id", Long.parseLong(strs[0])));
			// 生成 id 的摘要数据(使其成为文档摘要的一部分)
			doc.add(new StoredField("id", Long.parseLong(strs[0])));
			// 生成 title 的索引
			doc.add(new TextField("title", strs[1], Store.YES));
			// 生成 sellPoint 买点的索引
			doc.add(new TextField("sellPoint", strs[2], Store.YES));
			
			// 用输出工具,处理文档
			//将文档写入磁盘索引文件
			writer.addDocument(doc);
		}
		writer.flush(); 
		writer.close();
		
	}
	
}

# 查看索引

## 运行 luke

运行lucene 8.1.1中的luke应用程序,指定索引的存放目录