新冠疫情相似句对判定之Python

新冠疫情相似句对判定 Index 算法说明 代码说明 运行环境 运行说明 参考资料 1, 算法说明 本解决方案使用了基于病名\药名的数据增强+模型融合+训练时-测试时增强+伪标签的解决方案 * 基于病名\药名的数据增强 Data augmentation 根据比赛组织方的信息

本文包含相关资料包-----> 点击直达获取<-------

新冠疫情相似句对判定

Index

  1. 算法说明
  2. 代码说明
  3. 运行环境
  4. 运行说明
  5. 参考资料

1. 算法说明

本解决方案使用了基于病名\药名的数据增强+模型融合+训练时-测试时增强+伪标签的解决方案 * 基于病名\药名的数据增强 Data augmentation

根据比赛组织方的信息,总共肺炎”、“支原体肺炎”、“支气管炎”、“上呼吸道感染”、“肺结核”、“哮喘”、“胸膜炎”、“肺气肿”、“感冒”、“咳血”十个病种,但是在train和dev数据集中仅仅出现了八个病种,其他的两个“肺结核”与“支气管炎”病种并没有出现,推测在test中包括了剩下的两个病种,是这次比赛的一个关键信息。

本次比赛需要模型学习的内容主要包括以下几个点:匹配语义信息,病名信息,药名信息,病理信息,我们需要针对这四个点来进行数据增强。

在测试集中,“肺结核”和“支气管炎”两个病种的测试数据中显然含有我们已有标注数据没有的病名、药名信息,但是这些信息是较为易得的;对于语义匹配信息和病理信息,1. 其生成难度要远远高于前两者,2.且很可能改变原数据集中的语义匹配和病理信息,出于这两点考虑,本解决方案采取了替换原数据中病名\药名的数据增强。

在实现过程中,挑选了病理与“肺结核”、“支气管炎”较为接近的“支原体肺炎”与“哮喘”标注数据中的部分样本,作病名替换,添加到原始标注数据中作为训练数据集。LB上升1.9个千分点(96.10->96.29)

  • 模型融合 models fushion

本解决方案使用了ernie + bert_wwm_ext + roberta_large_pair的融合模型,对最后的结果使用平均值。具体的来源和下载地址见参考资料。提升2.5个千分点(95.75->96.10)

  • 训练时-测试时增强 train-test time augmentation

本解决方案中,在预测时,首先用原测试集预测一遍标签;然后将原测试集的query1和query2字段交换,再次预测一遍;最后将两个结果相加作为最后的预测结果。出于训练时模型拟合方向的偏差考虑,在训练时也训练了两种模型,分别用于预测正序\逆序时的数据集,这一做法的提高非常稳定。

这样的技巧是为了让模型在学习\预测过程中看到数据的更多方面,结合数据中包含的边角信息。LB上升2个千分点(95.59->95.75)

注:这个地方的提升不仅是添加了train-test time augmentation, 另外考虑时间因素移除了pseudo_label, 故估计实际上升为2个千分点左右。

  • 伪标签 pseudo label

在预测完成后,使用预测结果和原训练集一起作为新的训练集再次训练一个模型做预测。LB上升1个万分点(96.29->96.30)

主要提升的过程

algo LB
bert-base 94.45
ernie 95.08
ernie + pseudo_label 95.16
ernie + bert-base + cwe + pseudo_label 95.59
ernie + bert-base + cwe + train-test_time_aug 95.75
ernie + cwe + roberta-large-pair + train-test_time_aug 96.10
erinie + cwe + roberta-large-pair + train-test_time_aug + oov_sick_data_augmentation 96.29
erinie + cwe + roberta-large-pair + train-test_time_aug + oov_sick_data_augmentation + pseudo_label 96.30

题外话

  • 基本没调参,roberta-large-pair稍微调了一下,但是毕竟dev不是特别可信... 中间一段时间(3.10~3.17)提升比较多,然后最后10天开始玩杂技,比较想通过数据增强来获得更多的提升,一直没有提升...毕竟猜到测试集里的语义匹配信息以及病例信息难度过高...最后2天幡然悔悟调了调参,dev上暴涨3个千分点,然后LB暴跌了3个千分点。。。还是头太铁了,调参绝非一日之功。
  • 没有用K折的原因:因为使用train-test time augmentation已经6个模型了,太多了我心里过意不去也不好调,故放弃了K折,实际上我的train-test time augmentation也有一定的去随机性作用,其实可以考虑加个3折比较合适。
  • 没有用fgm & pgd的原因:纯菜。看了大佬们的post后试了一下,pgd效果爆棚,已经在这个github里更新了这两个算法和相关的参数。
  • 本人第一次打nlp的比赛,打过两次feature-based,都被吊打。。。奇淫技巧实在不会,所以在一开始的时候就把重心放在数据上,毕竟对新手比较友好,提升的机会更大。
  • 由于数据集正负比例尚可,没有使用focal loss
  • 实际上一直有考虑将病种信息编码并作为特征之一,但是考虑到存在OOV的病种,是一大问题。如果使用增强后(包含OOV病种的数据)数据,然后将类别信息编码为one-hot形式,然后与bert模型输出pool进行concat然后再dropout接fc也是思路之一,但是后面一段时间一直纠结数据去了。
  • 尝试了特征工程,效果不是特别好。具体表现为,使用ernie得到的pool结果作为特征,在训练集上五折可以得到96+的oof acc,但是在验证集上仍然只有94左右的acc,严重不对齐,遂放弃。
  • 尝试了使用textrank提取两个query中的keyword及其pr值,然后设计公式来使两个query的(keyword,pr)二元组列表交互来产生特征,效果也很一般。也尝试过一些其他 chip2019 top1解决方案 中的特征,都不太好。
  • 尝试了将待预测数据中的病名替换为已知病名来进行增强,效果比较差。事实证明,病名与其病理之间存在较强联系。
  • 尝试了根据已知标签比例修正logits转为标签的阈值,效果也不好。
  • 尝试使用多轮伪标签,效果也不好。
  • 尝试使用多次迭代的伪标签,每次使用预测信心最高的60%测试集样本加入训练集,效果更差。。。实际上根据测试,每次预测信心最高的60%测试样本的正确率为99+,基本相当于训练样本了。推测是因为加入大量同类型(简单)样本改变了数据集结构导致模型性能下滑。
  • 尝试了将病种名直接拼接进问句对,效果很一般
  • 尝试了将两个query中的最长公共子字符串去掉,效果下跌比较严重。
  • 有一个想法是在预测时对测试数据进行pgd和fgm扰动(单纯扰动),感觉会有挺好的效果
  • 通过判别模型来筛选增强数据
  • multidrop
  • 通过kl散度来判别与原始分布的距离
  • ...尝试过的方法很多,有些都忘记了,总之鼻青脸肿,最后十天纯撞

2. 代码说明

  • 代码主体结构
    依照代码规范的代码主体结构 project |-- README.md |-- data |-- user_data |-- code |-- prediction_result
  • data 文件夹
    其中 Dataset 文件夹下内容已经确定,这里对 External 文件夹下进行说明 |-- data |-- Dataset |-- External |-- models |-- ernie |-- chinese_wwm_ext_pytorch |-- roberta_large_pair |-- knowledge |-- sick2drugs.json 其中, models 文件夹下为下载的预训练模型, knowledge 文件夹下为从互联网获取的医药专业知识映射:适用症的用药列表。获取的爬虫文件放在 code 文件夹下。
  • user_data 文件夹 |-- user_data |-- model_data |-- pretrained |-- pretrained_reverse |-- pseudo |-- tmp_data |-- tmp.dat model_data 文件夹下放有三个文件夹,分别为 pretrained pretrained_reverse 以及 pseudo 文件夹,由于本解决方案使用了正序-逆序的训练时-测试时增强,故需要使用正序以及逆序两套模型,最后使用伪标签也会再次训练一个模型,分别保存在这三个文件夹下。
  • code 文件夹 |-- code |-- run.sh |-- run.py |-- run_glue_for_test.py |-- data_augmentation.py |-- drug_crawler.py code 文件下存放着
  • run.sh 为训练以及测试的入口脚本
  • run.py 为算法的主体代码
  • run_glue_for_test.py 为训练模型的主体代码; 修改自huggingface的 transformers/examples/run_glue.py
  • data_augmentation.py 为数据增强的代码
  • drug_crawler.py 为获取病名——药品名映射词典的爬虫

    注: 修改了 transformers processor 部分源码来适应本次比赛任务 ,修改后的源码为 code 文件夹下 data 文件夹,运行时安装完 transformers 后替换即可。

3. 运行环境

  • 软件环境
dependency version
pytorch 1.3.1
cuda 10.1.243
numpy 1.17.3
pandas 0.25.3
transformers 2.5.1
tqdm 4.36.1
* 硬件配置
因为 roberta_large_pair 使用 128 max_seq_length ,故16G显卡会OOM,原本训练时使用的是一张NVIDIA V100 NVLINK 32GB。

4. 运行说明

  • step1 使用 python data_augmentaion.py 生成增强数据
  • step2 使用 sh run.sh 来训练和测试,具体的参数可以使用 python run.py --help 来查看参数列表及其用途。

5. 参考资料

预训练模型来源

先验医药知识来源

参考文献

  • 新冠疫情防控常态化下微博评论情感倾向与归因分析(南昌大学·王森)
  • 禽类重大疫情应急管理系统设计与实现(湖南农业大学·严璐)
  • 新冠肺炎领域本体构建研究(军事科学院·肖宇)
  • 多维特征融合的重大疫情微博舆情画像模型研究(燕山大学·周鑫)
  • 面向“新冠肺炎疫情”热点事件的知识图谱构建研究(新疆财经大学·黎洁君)
  • 基于知识图谱的新冠疫情热点事件主题演化分析(新疆财经大学·宋爽)
  • 数据可视化技术及其在疫情防控中的应用研究(武汉轻工大学·蒋迎香)
  • 基于情感倾向的网络舆情分析系统的设计与实现(齐鲁工业大学·宋晓彤)
  • 涉疫虚假广告的批评话语分析与治理研究(华南理工大学·蔡舒亭)
  • 基于深度学习的新型冠状病毒肺炎多关系抽取算法的研究与应用(吉林大学·关鸿睿)
  • 基于情感倾向的网络舆情分析系统的设计与实现(齐鲁工业大学·宋晓彤)
  • 基于深度学习的新型冠状病毒肺炎多关系抽取算法的研究与应用(吉林大学·关鸿睿)
  • 数据可视化技术及其在疫情防控中的应用研究(武汉轻工大学·蒋迎香)
  • 新冠疫情舆情信息分析系统的设计与实现(华中科技大学·胡永辉)
  • 基于自定义词典的网络文本情感分析方法(电子科技大学·何博)

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码客栈 ,原文地址:https://m.bishedaima.com/yuanma/35901.html

相关推荐

  • 基于SSM和mySQL实现的机票预订管理系统

    基于SSM和mySQL实现的机票预订管理系统 1,项目简介 近年来,我国发展迅速,对交通工具的需求量大幅度增加,飞机作为出行工具之一,花费时间短,用户体验度好
    2024年05月14日
    22 1 4
  • 基于android'的仿google日历日程表应用

    这是一个🔥🔥基于android'的仿google日历日程表应用🔥🔥的项目源码,开发语言Java,开发环境Idea/Eclipse,这个 日历日程表应用开发技术栈为安卓项目
    2024年05月23日
    6 1 3
  • 基于SpringBoot框架的科研工作量管理系统

    这是一套采用Java语言编写的🔥🔥SpringBoot核心框架的科研成果管理系统的源代码,项目中融入了Vue技术,开发工具为Idea或Eclipse,此科研工作量管理系统适用于毕业设计或课程设计任务
    2024年05月23日
    5 1 1
  • 在线python程序设计

    在线 python 程序设计——fake_jupyter [TOC] 功能设计: 基于 Flask 框架,设计一个可撰写 Python 代码
    2024年05月14日
    2 1 1
  • 基于SpringBoot框架的大学文档管理系统

    这是一份采用🔥🔥SpringBoot为核心的大学文档管理系统的源代码,主要编程语言为Java,并结合了SpringBoot和Vue,js技术进行构建,开发工具为Idea或Eclipse
    2024年05月23日
    3 1 1
  • 基于python + dlib实现人脸识别

    python 进行人脸识别 人脸识别的主要算法 其核心算法是 欧式距离算法使用该算法计算两张脸的面部特征差异,一般在 0,6 以下都可以被认为是同一张脸 人脸识别的主要步骤 获得人脸图片 将人脸图片转为 128D 的矩阵(这个也就是人脸特征的一种数字化表现) 保存人脸 128D 的特征到文件中 获取其他人脸转为 128D 特征通过欧式距离算法与我们保存的特征对比
    2024年05月14日
    2 1 1
  • 迷宫求解之Python

    迷宫求解 一,必做任务一 使用强化学习算法,对于给定的迷宫,训练老鼠在迷宫中寻找蛋糕, 迷宫与图中类似,黑色格子为墙,不能走,老鼠试图走向墙时,会停在原地
    2024年05月14日
    2 1 1
  • 基于JSP的网上花店系统的设计与实现

    基于JSP的网上花店系统的设计与实现 摘 要 二十一世纪是一个集数字化,网络化,信息化的,以网络为核心的社会,中国的网民充分领略到“畅游天地间,网络无极限” 所带来的畅快
    2024年05月14日
    18 1 1
  • python实现的面向推荐系统的数据挖掘

    python实现的面向推荐系统的数据挖掘 摘 要 信息化世界存在着大量的数据,如何在大量的数据中为每一个用户找到其所需求的数据 成为了一个问题,本文尝试以包括基于用户的协同过滤算法
    2024年05月14日
    5 1 1
  • 基于web的网上书城系统

    基于web的网上书城系统 一,摘要 随着前端各种新兴技术的崛起,我们编写前端已经不仅仅局限于html,css,js,而是有了更多的选择,用更加简洁的代码就可以实现更加完美的功能
    2024年05月14日
    2 1 1

发表回复

登录后才能评论