自然语言处理的语料库加工处理过程中,一般都是大量的人工标引,急需快捷简便的自然 语言处理工具。但对于一般研究人员来说,具体操作过程中有如下挑战: 需要威廉希尔官方网站
人员参与开发,文科背景的研究人员学习代价过高 对语料处理的项目,在时间要求不太紧急时,让有知识背景的人做人工标记, 如档案局历史材料、专利局的专利申请材料等,但成本高、耗时长,标记后的内 容处理,如聚类、分类、可视化等人工无法完成,需要计算机软件来处理,虽然 可以用现成的商业或开源工具,效果也不一定好,对工具的使用又有学习成本, 尤其对于文字处理需求多的文科类人员比较困难。有些项目时间要求紧急,如网 上应急事件的处理,再用人工逐一筛选,既不全面也不能满足快速应急处理的 需要。 待处理的语料库知识资源存在数据泄漏的隐患 大部分研究者的语料库都是耗费了大量人力物力收集整理的,价值密度极高, 甚至是毕生的心血积累。而目前自然语言处理的机构大部分提供的都是自然语言 处理云服务平台,要求使用者上传待处理的语料库,如腾讯NLP云服务、百度 NLP云服务。云端存储的数据资源脱离了上传者后,数据确权上没有法律保障, 存在数据泄露并被窃取滥用的巨大隐患,导致大部分使用者望而却步。 大部分工具功能单一,缺乏一站式全链条的语义分析工具 目前已经有大量的研究者分别对自然语言处理中的各个关键点上问题进行 研究开发出了一些开源的工具,有的只是单一功能,有的具有多个功能,但不是 全链条。如urllib2、Scrapy、Pyspider等提供信息抓取工具;jieba提供分词工具; SnowNLP提供分词、情感分析、文本分类、转换成拼音、繁简转换、文本关键词 和文本摘要提取、计算文档词频和文本相似度计算等工具;sklearn提供分类、聚 类、回归、预处理、模型选择等工具;HanNLP提供中文分词,命名实体识别, 关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法 分析工具,但只有在java上可以用,而且配置、安装复杂;哈尔滨工业大学语言 威廉希尔官方网站
平台LTP提供中文分词、词性标注、命名实体识别、依存句法分析、语义角 色标注等工具,但需要根据API参数构造HTTP请求在线获得分析结果; 针对众多研究者对自然语言处理的迫切需求与实际挑战。 NLPIR-Parser平台包含精准采集, 文档格式转换、新词发现、批量分词、语言统计、文本聚类、文本分类、摘要实 体、智能过滤、情感分析、文档去重、全文检索和编码转换十三项独立功能,涵 盖了从数据的采集预处理、自然语言处理到文本挖掘、信息检索再到可视化呈现、 结果导出等全链条各个环节的语义分析工具。NLPIR-Parser历时 20余年,为一般用户提供了本地化部署的客户端实现语义智能分析的全链条一站 式服务,也为软件工程师提供了二次开发接口。
|