Skip to content

Objc 全文搜索

qiuwenchen edited this page Aug 4, 2023 · 3 revisions

全文搜索(Full-Text-Search,简称 FTS),是 SQLite 提供的功能之一。它支持更快速、更便捷地搜索数据库内的文本内容,常用于应用内的全局搜索等功能。

WCDB 内建了全文搜索的支持,对中文、日文等非空格分割的语言做了针对性的优化;对英文做了词性还原,使搜索不受词形、时态的限制,从而使搜索更加精确。同时还支持了区分符号、中文简繁体转换、拼音搜索等中文场景的搜索强化能力。

虚拟表映射

虚拟表是 SQLite 的一个特性,可以更自由地自定义数据库操作的行为。在模型绑定一章,我们提到了虚拟表映射,但没有具体介绍。而在全文搜索中,它是不可或缺的一部分。

@interface SampleFTS : NSObject<WCTTableCoding>
@property(nonatomic, assign) int identifier;
@property(nonatomic, strong) NSString* content;
@property(nonatomic, strong) NSString* summary;
WCDB_PROPERTY(identifier)
WCDB_PROPERTY(content);
WCDB_PROPERTY(summary)
@end

@implementation SampleFTS

WCDB_IMPLEMENTATION(SampleFTS)

WCDB_SYNTHESIZE(identifier)
WCDB_SYNTHESIZE(content)
WCDB_SYNTHESIZE(summary)

WCDB_UNINDEXED(identifier) //设置identifier列不建立fts索引
WCDB_VIRTUAL_TABLE_MODULE(WCTModuleFTS5) //设置fts版本
WCDB_VIRTUAL_TABLE_TOKENIZE(WCTTokenizerVerbatim) //设置分词器

@end

// 注册本数据库需要用到的分词器
[database addTokenizer:WCTTokenizerVerbatim];
// 创建虚表
BOOL ret = [database createVirtualTable:@"sampleVirtualTable" withClass:SampleFTS.class];// 数据库此时会被自动打开

全文搜索的虚拟表映射一般只需定义FTS版本和分词器即可,这里还使用FTS专用的列约束WCDB_UNINDEXED设置identifier这个不参与全文搜索的列不建索引,这样可以节省空间。定义完成后,先调用addTokenizer:接口往数据库中注册分词器,这个操作要在使用到这个分词器之前执行,然后再调用 createVirtualTable:withClass: 接口根据字段映射和虚拟表映射创建虚拟表。

建立索引

全文搜索的速度依赖于其索引。

SampleFTS* english = [[SampleFTS alloc] init];
english.identifier = 1;
english.content = @"WCDB is a cross-platform database framework developed by WeChat.";
english.summary = @"WCDB is an efficient, complete, easy-to-use mobile database framework used in the WeChat application. It can be a replacement for Core Data, SQLite & FMDB.";

SampleFTS* chinese = [[SampleFTS alloc] init];
chinese.identifier = 2;
chinese.content = @"WCDB 是微信开发的跨平台数据库框架";
chinese.summary = @"WCDB 是微信中使用的高效、完整、易用的移动数据库框架。它可以作为 CoreData、SQLite 和 FMDB 的替代。";

ret &= [database insertObjects:@[english, chinese] intoTable:@"sampleVirtualTable"];

建立索引的操作与普通表插入数据基本一致。

查找数据

全文搜索与普通表不同,必须使用 match 函数进行查找。

SampleFTS* objectMatchFrame = [database getObjectOfClass:SampleFTS.class
                                               fromTable:@"sampleVirtualTable"
                                                   where:SampleFTS.content.match("frame*")];
NSLog(@"%@", objectMatchFrame.content); // 输出 "WCDB is a cross-platform database framework developed by WeChat."

// 词形还原特性,通过 "efficiency" 也可以搜索到 "efficient"
SampleFTS* objectMatchEffiency = [database getObjectOfClass:SampleFTS.class
                                                  fromTable:@"sampleVirtualTable"
                                                      where:SampleFTS.summary.match("efficiency")];
NSLog(@"%@", objectMatchEffiency.summary); // 输出 "WCDB is an efficient, complete, easy-to-use mobile database framework used in the WeChat application. It can be a replacement for Core Data, SQLite & FMDB."

SQLite 分词必须从首字母查起,如"frame*",而类似"*amework"这样从单词中间查起是不支持的。

全表查询

全文搜索中有一列隐藏字段,它与表名一致。通过它可以对全表的所有字段进行查询。

WCDB::Column tableColumn = WCDB::Column("sampleVirtualTable");

NSArray<SampleFTS*>* objects = [database getObjectsOfClass:SampleFTS.class fromTable:@"sampleVirtualTable" where:tableColumn.match(@"SQLite")];

NSLog(@"%@", objects[0].summary); // 输出 "WCDB is an efficient, complete, easy-to-use mobile database framework used in the WeChat application. It can be a replacement for Core Data, SQLite & FMDB."
NSLog(@"%@", objects[1].summary); // 输出 "WCDB 是微信中使用的高效、完整、易用的移动数据库框架。它可以作为 CoreData、SQLite 和 FMDB 的替代。"

分词器

分词器是全文搜索的关键模块,它实现将输入内容拆分成多个Token并提供这些Token的位置,搜索引擎再对这些Token建立索引。

SQLite的FTS组件有提供内置的分词器,同时还支持自定义分词器。WCDB 在 SQLite 原有分词器的基础上,自己实现了下面三个分词器:

  • WCTTokenizerOneOrBinaryWCTTokenizerLegacyOneOrBinary,用于FTS3,这两个分词器只是名字不一样,逻辑是一样的。
  • WCTTokenizerVerbatim,用于 FTS5,逻辑上和WCTTokenizerOneOrBinary基本一致。
  • WCTTokenizerPinyin,用于 FTS5,可以实现拼音搜索。使用时需要使用+[WCTDatabase configPinYinDict:]接口配置汉字到拼音的映射表。

WCTTokenizerOneOrBinaryWCTTokenizerVerbatim的用法和功能基本一样,上面已经有示例,这里就不再补充。下面通过例子介绍一下拼音搜索的实现方法:

@interface PinyinObject : NSObject <WCTTableCoding>
@property (nonatomic, retain) NSString *content;
WCDB_PROPERTY(content)
@end

@implementation PinyinObject

WCDB_IMPLEMENTATION(PinyinObject)
WCDB_SYNTHESIZE(content)

WCDB_VIRTUAL_TABLE_MODULE(WCTModuleFTS5)
WCDB_VIRTUAL_TABLE_TOKENIZE(WCTTokenizerPinyin)//配置 Pinyin 分词器

@end

//配置汉字拼音映射表,支持配置多音字
[WCTDatabase configPinYinDict:@{
    @"" : @[ @"shan", @"dan", @"chan" ],
    @"" : @[ @"yu" ],
    @"" : @[ @"qi" ],
    @"" : @[ @"mo", @"mu" ],
    @"" : @[ @"ju" ],
    @"" : @[ @"che" ],
}];
// 注册拼音分词器
[database addTokenizer:WCTTokenizerPinyin];
//创建虚表
BOOL ret = [database createVirtualTable:@"pinyinTable" withClass:PinyinObject.class];

//写入数据
PinyinObject *content = [[PinyinObject alloc] init];
content.content = @"单于骑模具单车";
ret &= [database insertObject:content intoTable:@"pinyinTable"];

//支持多音字搜索、拼音首字母搜索和拼音前缀搜索
NSArray *querys = @[
    @"\"shan yu qi mu ju dan che\"",
    @"\"chan yu qi mo ju shan che\"",
    @"\"dan yu qi mo ju chan che\"",
    @"\"dan yu qi mu ju ch\"*",
    @"\"dan yu qi mo ju d\"*",
    @"\"s y q m j d c\"",
    @"\"c y q m j s c\"",
    @"\"c y q m j\"",
];
for (NSString *query in querys) {
    NSArray<PinyinObject*>* objects = [database getObjectsOfClass:PinyinObject.class fromTable:@"pinyinTable" where:PinyinObject.content.match(query)];
    NSLog(@"%@", objects[0].content); // 都是输出 单于骑模具单车
}

使用了拼音分词器之后,无法再用原内容来搜索,只能搜索拼音。如果需要支持原文搜索的话,需要再另外建一个FTS表来支持。在两个表的情况下,可以使用WCDB_VIRTUAL_TABLE_EXTERNAL_CONTENT来配置只保存一份原文,减小空间占用,原理见[SQLite External Content Tables][SQLite-External-Content-Tables]。

分词器配置参数

现有的分词器还可以传入参数来做一些配置,需要添加参数的分词器需要使用WCDB_VIRTUAL_TABLE_TOKENIZE_WITH_PARAMETERS宏来配置。WCDB 实现的WCTTokenizerOneOrBinaryWCTTokenizerVerbatim两个分词器有下面三个可配置参数:

  • WCTTokenizerParameter_NeedSymbol,WCDB的分词器默认不会对符号进行分词,所以搜索符号是搜不到的。如果需要支持搜索符号,需要配置这个参数。
  • WCTTokenizerParameter_SimplifyChinese配置了之后可以支持用简体汉字来搜索繁体汉字,不过需要使用+[WCTDatabase configTraditionalChineseDict:]来配置简繁体汉字映射表。
  • WCTTokenizerParameter_SkipStemming 关闭英文单词的词性还原功能。

这三个配置参数可以叠加配置。

下面以简体汉字搜繁体汉字为例,介绍分词器参数的用法:

@interface SampleFTS : NSObject<WCTTableCoding>
@property(nonatomic, strong) NSString* content;
WCDB_PROPERTY(content);
@end

@implementation SampleFTS

WCDB_IMPLEMENTATION(SampleFTS)
WCDB_SYNTHESIZE(content)
WCDB_VIRTUAL_TABLE_MODULE(WCTModuleFTS5) //设置fts版本

// 设置分词器, 并配置支持简体搜繁体
// 这个宏可以同时配置多个参数
WCDB_VIRTUAL_TABLE_TOKENIZE_WITH_PARAMETERS(WCTTokenizerVerbatim, WCTTokenizerParameter_SimplifyChinese)

@end

//配置简繁体汉字映射表,需要在建索引和搜索前设置
[WCTDatabase configTraditionalChineseDict:@{
    @"" : @"",
    @"" : @"",
}];
//给数据库注册分词器
[database addTokenizer:WCTTokenizerVerbatim];
//创建虚表
BOOL ret = [database createVirtualTable:@"sampleVirtualTable" withClass:SampleFTS.class];

//建索引
SampleFTS* object = [[SampleFTS alloc] init];
object.content = @"我們是程序員";
[database insertObject:object intoTable:@"sampleVirtualTable"];

//可以使用繁体来搜索
SampleFTS* matchedObject1 = [database getObjectOfClass:SampleFTS.class fromTable:@"sampleVirtualTable" where:SampleFTS.content.match(@"我們是程序員")];
NSLog(@"%@", matchedObject1.content);// 输出繁体原文 我們是程序員

//也可以使用简体来搜索
SampleFTS* matchedObject2 = [database getObjectOfClass:SampleFTS.class fromTable:@"sampleVirtualTable" where:SampleFTS.content.match(@"我们是程序员")];
NSLog(@"%@", matchedObject2.content);// 输出繁体原文 我們是程序員

自定义分词器

开发者除了可以使用内置的分词器,还可以根据自己的需求自定义分词器。自定义的分词器需要继承 WCDB::AbstractFTSTokenizer这个基类来实现,它的原型如下:

class AbstractFTSTokenizer {
public:
		// 参数传入的是上一节提到的分词器配置参数
  	// 其中 pCtx 参数只在 FTS5中有用。
    AbstractFTSTokenizer(const char *const *azArg, int nArg, void *pCtx);
    virtual ~AbstractFTSTokenizer() = 0;
  
  	// 每次要分词一个新内容时,都会调用这个接口将内容传入。
  	// 其中 flags 参数只在FTS5中会有值,可能是下面几种值中的一个或几个合并值,用来描述分词的场景:
  	// FTS5_TOKENIZE_QUERY     0x0001 查询时分词
  	// FTS5_TOKENIZE_PREFIX    0x0002 前缀搜索分词
  	// FTS5_TOKENIZE_DOCUMENT  0x0004 建索引时分词
  	// FTS5_TOKENIZE_AUX       0x0008 搜索辅助函数调用分词
    virtual void loadInput(const char *pText, int nText, int flags) = 0;
  
  	// 回调分词结果。每次上层逻辑需要获取下个Token时,会调用这个接口
  	// 如果当前内容已经分词完毕,则返回 WCTErrorCodeDone;
  	// 还有下个Token则返回 WCTErrorCodeOK;
  	// 出错则返回其他错误码。
    virtual int nextToken(const char **ppToken,// 保存下个Token的指针
                          int *nToken,  //下个Token的字节长度
                          int *iStart,  //下个Token在原文中的字节起始位置
                          int *iEnd,    //下个Token在原文中的字节结束位置
                          int *tflags,  //只在 FTS5 中有效,同个文本有多个同义词 Token 时,第二 Token 开始 tflags 要赋值为 FTS5_TOKEN_COLOCATED
                          int *iPosition//只在 FTS3/4中有效,表示 Token 位置
                          )
    = 0;
};

自定义了分词器之后,还需要使用+[WCTDatabase registerTokenizer:named:]接口将新分词器注册到 WCDB 中才能使用,下面自定义一个以空格为分割符来分词的简单分词器,来说明自定义分词器的方法:

class SimpleTokenizer : public WCDB::AbstractFTSTokenizer {
public:
    SimpleTokenizer(const char *const *azArg, int nArg, void *pCtx)
    : WCDB::AbstractFTSTokenizer(azArg, nArg, pCtx) {
    }
    
    void loadInput(const char *pText, int nText, int flags) override final {
        // 保存待分词内容,文本不用拷贝
        input = pText;
        inputLength = nText;
        // 复位其他状态变量
        lastLocation = 0;
        position = 0;
    }
    
    int nextToken(const char **ppToken, int *nToken, int *iStart, int *iEnd, int *tflags, int *iPosition) {
        if(input == nullptr || inputLength <= lastLocation) {
            // 分词结束
            return WCTErrorCodeDone;
        }
        // 记录下个 Token 的字节起止位置
        int start = lastLocation;
        int end = lastLocation;
        for(int i = lastLocation; i < inputLength; i++) {
            if( input[i] == ' ' ) {// 匹配空格
                if( start == end ) {
                    // 起始遇到连续空格,跳过
                    start = i + 1;
                    end = start;
                } else {
                    // 找到当前 Token 的结尾
                    break;
                }
            } else {
                // 记录当前位置,继续往下遍历
                end = i;
            }
        }
        
        if( start == end ) {
            // 没有下个 Token 了,结束分词
            return WCTErrorCodeDone;
        }
        // 记录当前 Token 的结束位置,作为下个分词的遍历起点
        lastLocation = end;
        *ppToken = input + start;
        *nToken = end - start;
        *iStart = start;
        *iEnd = end;
        position++;
        if( iPosition != nullptr ) {
            *iPosition = position;
        }
        return WCTErrorCodeOK;
    }
    
private:
    const char* input;
    size_t inputLength;
    int lastLocation;
    int position;
};

// 如果分词器是用于 FTS3/4 的,使用 FTS3TokenizerModuleTemplate 来注册到 WCDB
[WCTDatabase registerTokenizer:WCDB::FTS3TokenizerModuleTemplate<SimpleTokenizer>::specialize() named:@"FTS3SimpleTokenizer"];

// 如果分词器是用于 FTS5 的,使用 FTS5TokenizerModuleTemplate 来注册到 WCDB
// 其中 specializeWithContext 的入参,会作为分词器构造函数中的 pCtx 参数来作用到分词器;这个参数可以用来串联上下文
[WCTDatabase registerTokenizer:WCDB::FTS5TokenizerModuleTemplate<SimpleTokenizer>::specializeWithContext(nullptr) named:@"FTS5SimpleTokenizer"];

分词器的名字是全局唯一的,FTS3/4的分词器不能和 FTS5 的分词器重名,也不能和已有的分词器重名。

搜索辅助函数

未完待续。

Clone this wiki locally