呵呵,写得很好的初稿。我来补充一些自己的看法。常规的数据采集过程from data to information,一般是两种系统设计,自然语言处理(NLP),知识驱动型结构化数据录入(Knlowledge-driven SDE)。NLP大多在自然语言数据的基础上,
1. Load free text, 读入文本
2.Search and tag concepts (synonyms), 查找术语词汇
3.Validate tagged concept( negation), 确认词汇的正确性
4.Map concept onto ontology and save,把词汇映射到onology,并且以符合ontology结构的方式保存
5. run Inference,进行推理,现在多种新的推理机制都在开发。
6. other functions, like real time decision support实现其他功能,比如基于推理结果的即时决策支持等