123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475 |
- package gse
- // Text 字串类型,可以用来表达
- // 1. 一个字元,比如 "中" 又如 "国", 英文的一个字元是一个词
- // 2. 一个分词,比如 "中国" 又如 "人口"
- // 3. 一段文字,比如 "中国有十三亿人口"
- type Text []byte
- // Token 一个分词
- type Token struct {
- // 分词的字串,这实际上是个字元数组
- text []Text
- // 分词在语料库中的词频
- frequency int
- // log2(总词频/该分词词频),这相当于 log2(1/p(分词)),用作动态规划中
- // 该分词的路径长度。求解 prod(p(分词)) 的最大值相当于求解
- // sum(distance(分词)) 的最小值,这就是“最短路径”的来历。
- distance float32
- // 词性标注
- pos string
- // 该分词文本的进一步分词划分,见 Segments 函数注释。
- segments []*Segment
- }
- // Text 返回分词文本
- func (token *Token) Text() string {
- return textSliceToString(token.text)
- }
- // Frequency 返回分词在语料库中的词频
- func (token *Token) Frequency() int {
- return token.frequency
- }
- // Pos 返回分词词性标注
- func (token *Token) Pos() string {
- return token.pos
- }
- // Segments 该分词文本的进一步分词划分,比如 "中华人民共和国中央人民政府" 这个分词
- // 有两个子分词 "中华人民共和国 " 和 "中央人民政府"。子分词也可以进一步有子分词
- // 形成一个树结构,遍历这个树就可以得到该分词的所有细致分词划分,这主要
- // 用于搜索引擎对一段文本进行全文搜索。
- func (token *Token) Segments() []*Segment {
- return token.segments
- }
- // Equals compare str split tokens
- func (token *Token) Equals(str string) bool {
- tokenLen := 0
- for _, t := range token.text {
- tokenLen += len(t)
- }
- if tokenLen != len(str) {
- return false
- }
- bytStr := []byte(str)
- index := 0
- for i := 0; i < len(token.text); i++ {
- textArray := []byte(token.text[i])
- for j := 0; j < len(textArray); j++ {
- if textArray[j] != bytStr[index] {
- index = index + 1
- return false
- }
- index = index + 1
- }
- }
- return true
- }
|