Format comments.

This commit is contained in:
Magese 2022-01-04 09:56:41 +08:00
parent 70d40bc3af
commit 9ed56a0f41

View File

@ -39,21 +39,30 @@ import java.io.IOException;
/**
* IK分词器 Lucene Tokenizer适配器类
* 兼容Lucene 4.0版本
*/
@SuppressWarnings("unused")
@SuppressWarnings({"unused", "FinalMethodInFinalClass"})
public final class IKTokenizer extends Tokenizer {
//IK分词器实现
/**
* IK分词器实现
*/
private IKSegmenter _IKImplement;
//词元文本属性
/**
* 词元文本属性
*/
private CharTermAttribute termAtt;
//词元位移属性
/**
* 词元位移属性
*/
private OffsetAttribute offsetAtt;
//词元分类属性该属性分类参考org.wltea.analyzer.core.Lexeme中的分类常量
/**
* 词元分类属性该属性分类参考org.wltea.analyzer.core.Lexeme中的分类常量
*/
private TypeAttribute typeAtt;
//记录最后一个词元的结束位置
/**
* 记录最后一个词元的结束位置
*/
private int endPosition;
/**
@ -84,7 +93,8 @@ public final class IKTokenizer extends Tokenizer {
_IKImplement = new IKSegmenter(input, useSmart);
}
/* (non-Javadoc)
/*
* (non-Javadoc)
* @see org.apache.lucene.analysis.TokenStream#incrementToken()
*/
@Override