How to Fine-Tune BERT for Text Classification? 作者:复旦大学 这是一篇关于利用BERT,finetune的文章,复旦大学的NLP组发在CCL
人工智能在慢慢一点点发展,BERT,基于两个思想,word2vec <—- 条件概率 <—- n-gram语言模型, 看了word2vec精彩的数学推论,然后看了看bert,突然有个想法,AI是一群孜孜不倦的人共同发展出来的,它还需要更多的人去拓展。
两大部分:
通过信息抽取建立详尽的知识图谱,对应查询时的功能,如何确定实体之间的关系集合,以及隐关系挖掘,关系到知识图谱的建立是否成功。
应用时,如何获取使用者真实的意图(这一部分主要依据),实体检测,意图识别,关系预测和查询构建。
分类依据:
Lecture 05 Linguistic Structure: Dependency Parsing(依存关系语法分析,简称依存分析)
英文是没有分词的,第一个NLP任务为句法分析,句法分析是基于词的意思,对整个句子有一个更深的理解。
### 集成学习和模型融合Stacking 和Blending方式 参考列表文章1文章2文章3【干货】比赛后期大招之stacking技术分享