主要内容

语言的注意事项

文本分析工具箱™支持英语,日语,德语和韩语。大多数文本分析工具箱功能也适用于其他语言的文本。下表总结了如何在其他语言中使用“文本分析工具箱”功能。

功能 语言的考虑 解决方案
标记

tokenizedDocument函数只内置英语、日语、德语和韩语规则。对于英语和德语文本,使用unicode的的标记化方法tokenizedDocument使用基于Unicode的规则检测令牌®标准附件#29[1]以及ICU标记器[2],以更好地检测复杂的标记,如标签和url。对于日语和韩语文本,使用“mecab”标记化方法使用基于MeCab标记器的规则检测标记[3]

对于其他语言,您仍然可以尝试使用tokenizedDocument.如果tokenizedDocument不能产生有用的结果,那么请尝试手动标记文本。要创建tokenizedDocument数组从手动标记文本,设置“TokenizeMethod”选项“没有”

有关更多信息,请参见tokenizedDocument

停止删除单词

stopWordsremoveStopWords功能支持英语、日语、德语和韩语停止词。

要从其他语言中删除停止词,请使用removeWords并指定要删除的停止词。

句子检测

addSentenceDetails函数根据标点符号和行号信息检测句子边界。对于英语和德语文本,该函数还使用传递给该函数的缩写列表。

对于其他语言,您可能需要指定自己的缩略语列表用于句子检测。要做到这一点,请使用“缩写”选择addSentenceDetails

有关更多信息,请参见addSentenceDetails

词云

对于字符串输入,使用wordcloudwordCloudCounts函数使用英语、日语、德语和韩语标记化、停止单词删除和单词规范化。

对于其他语言,您可能需要手动预处理文本数据,并在中指定惟一的单词和相应的大小wordcloud

中指定字的大小wordcloud,以包含唯一单词和相应大小的表格或数组的形式输入数据。

有关更多信息,请参见wordcloud

字嵌入

文件输入到trainWordEmbedding函数要求用空格分隔单词。

对于包含非英语文本的文件,您可能需要输入tokenizedDocument数组来trainWordEmbedding

要创建tokenizedDocument数组从预标记文本,使用tokenizedDocument函数,并设置“TokenizeMethod”选项“没有”

有关更多信息,请参见trainWordEmbedding

关键字提取

rakeKeywords功能只支持英语、日语、德语和韩语文本。

rakeKeywords函数使用基于分隔符的方法提取关键字,以识别候选关键字。类给出的停止词和标点符号stopWords使用输入文档的语言细节所给出的语言作为分隔符。

类型指定一组适当的分隔符分隔符MergingDelimiters选项。

有关更多信息,请参见rakeKeywords

textrankKeywords功能只支持英语、日语、德语和韩语文本。

textrankKeywords函数通过基于词性标签识别候选关键字来提取关键字。类给出的词性标记addPartOfSpeechDetails功能,只支持英语,日语,德语和韩语文本。

对于其他语言,请尝试使用rakeKeywords属性指定一组适当的分隔符“分隔符”“MergingDelimiters”选项。

有关更多信息,请参见textrankKeywords

语言的特性

单词和N-Gram计数

bagOfWordsbagOfNgrams功能的支持tokenizedDocument不考虑语言的输入。如果你有tokenizedDocument数组包含您的数据,然后您可以使用这些函数。

建模与预测

fitldafitlsa功能的支持bagOfWordsbagOfNgrams不考虑语言的输入。如果你有bagOfWordsbagOfNgrams对象,然后可以使用这些函数。

trainWordEmbedding功能支持tokenizedDocument或文件输入,而不考虑语言。如果你有tokenizedDocument数组或包含正确格式的数据的文件,则可以使用此函数。

参考文献

[1]Unicode文本分割https://www.unicode.org/reports/tr29/

[3]MeCab:另一个词性和形态分析仪https://taku910.github.io/mecab/

另请参阅

||||||||||

相关的话题

Baidu
map