文章目录

  • 介绍
  • 相关工作
    • Open QA
  • 数据集
  • 实验
    • 检索策略
    • baseline
    • 实验结果
  • 数据来源:中国国家司法考试
  • 模型准确率 28%,专业人士可以达到81%,非专业人士可以达到64%
  • 数据集下载链接:http://jecqa.thunlp.org/
  • 代码链接:https://github.com/thunlp/jec-qa
  • 检索工具:https://www.elastic.co/cn/

介绍

LQA 为法律案件提供解释、建议、解决方法,一方面为非专业人士提供法律援助、法律咨询,另一方面帮助专业人士提高工作效率,更准确地分析真实案件。

LQA的问题可以分为两大类:

  1. KD-question:knowledge-driven,知识驱动,注重理解法律概念

  2. CA-question:case-analysis,案件驱动,注重分析更多的实际案例

  3. 包含26,365个选择题,每个问题4个选项,有单选也有多选

  4. 提供了一个数据库,包含所有需要的法律知识/法条

  5. JEC-QA给每个问题提供了额外的标签,如问题类型(KD/CA问题)以及问题需要的reasoning,由专业人士标注的数据,有利于LQA的深度分析

JEC-QA需要单词匹配、概念理解、数学分析、多篇长阅读和多跳推理。
e.g.

相关工作

Open QA

需要外部领域的知识,第一步检索(https://www.elastic.co/cn/),第二步将模型用在QA模型上给出答案

数据集

【样本量】


【数据库】

  • 司法考试的参考书包含15个主题,215章

【推理类型】

  1. 单词匹配
    最简单的一种推理,和传统QA类似
  2. 概念理解
    法律领域,模型需要去理解法律概念
  3. 数学分析
    需要进行一些简单的运算,来回答问题
  4. 多篇章阅读
    需要阅读多个段落,整合足够多的证据
  5. 多跳推理
    需要多步完成逻辑推理,得到回答

实验

检索策略

总共有15个主题,用三个现有的模型去进新主题分类

  1. BERT
  2. TextCNN
  3. DPCNN

选择用BERT找到TOP2的topic。基于检索到的材料,46%的问题可以回答正确,KD问题显著高于CA问题

输入三元组 (q,o,r)(q,o,r)(q,o,r), 表示问题,选项和检索到的阅读理解的篇章

  • q 是词序列
  • o 是一个 n=4n=4n=4 的词序列,表示为 ((o1,1,o1,2,…,o1,∣o1∣),…,(on,1,…,on,∣on∣))\left(\left(o_{1,1}, o_{1,2}, \ldots, o_{1,\left|o_1\right|}\right), \ldots,\left(o_{n, 1}, \ldots, o_{n,\left|o_n\right|}\right)\right)((o1,1​,o1,2​,…,o1,∣o1​∣​),…,(on,1​,…,on,∣on​∣​))
  • 假设每个选项,有m=18m=18m=18个阅读篇章,ri,jr_{i,j}ri,j​ 表示第 iii 个选项的第 jjj 个阅读篇章,即ri,j=(ri,j,1,ri,j,2,…,ri,j,∣ri,j∣)r_{i,j}=\left(r_{i, j, 1}, r_{i, j, 2}, \ldots, r_{i, j,\left|r_{i, j}\right|}\right)ri,j​=(ri,j,1​,ri,j,2​,…,ri,j,∣ri,j​∣​),其中 i∈[1,n]i\in[1,n]i∈[1,n],j∈[1,m]j\in[1,m]j∈[1,m]
  • 对于输出,有两个不同的任务,即回答单项选择,回答多项选择题
    • 对于单项选择题,需要进行单标签分类,给每个问题输出一个评分向量scoresingle∈Rnscore^{single}\in \mathbb{R}^nscoresingle∈Rn,表示每个选项是正确的概率
    • 对于多项选择题,需要输出评分向量 scoreallscore^{all}scoreall,每个问题的长度为 2n−12^n-12n−1

对一些不适用的模型进行了改动:

  • 假设原模型只能输入问题和篇章,没有选项,就将问题和每个选项拼接,获得每个选项的分数 sis_isi​,然后 scoresingle=[s1,s2,…,sn]\text{score}^{single} =\left[s_1, s_2, \ldots, s_n\right]scoresingle=[s1​,s2​,…,sn​]
  • 如果原模型只能从阅读理解片段中抽出答案,就把输出层修改成线性层,输出打分 sis_isi​
  • 如果原模型不能用于多篇章阅读理解任务,就单独在每个选项的每个篇章上应用该模型,模型输出隐藏层 hi,j∈Rdh_{i, j} \in \mathbb{R}^dhi,j​∈Rd 表示第 iii 个选项的第 jjj 层,然后在同一个选项的所有表示上用 max-pooling,来得到第 iii 个选项的隐藏层表示 hi′=[hi,1′,hi,2′,…,hi,d′]h_i^{\prime}=\left[h_{i, 1}^{\prime}, h_{i, 2}^{\prime}, \ldots, h_{i, d}^{\prime}\right]hi′​=[hi,1′​,hi,2′​,…,hi,d′​],其中 max⁡(hi,k,j∣∀1≤k≤m)\max \left(h_{i, k, j} \mid \forall 1 \leq k \leq m\right)max(hi,k,j​∣∀1≤k≤m),然后将 hi′h_i^{\prime}hi′​ 通过线性层得到第 iii 个选项的分数 sis_isi​
  • 将 scoresingle\text{score}^{single}scoresingle 输入到线性层中,去获得回答所有问题的 scoreallscore^{all}scoreall

随机选择 20% 作为测试集

baseline

  • co-matching:a single-paragraph reading comprehension model for single-answer questions
  • BERT:a single-paragraph reading comprehension model,用在中文文档上训练的bert
  • SeaReader:医学领域问答,用三种注意力方式,question-centric attention, document-centric attention, cross-document attention,再用一个门层去去噪
  • Multi-Matching:用 Evidence-Answer matching 和 Question-Passage-Answer matching模块来生成匹配信息,拼合起来得到候选项的分数
  • Convolutional Spatial Attention (CSA) :先用注意力机制得到文章、候选答案、问题的标识,再用CNN-MaxPooling去总结邻接注意力信息
  • Confidence-based Model (CBM) :multi-paragraph reading comprehension,pipeline 用于 single-paragraph 阅读理解,应用 confidence-based method 将模型用于 multi-paragraph 上
  • Distantly Supervised Question Answering (DSQA) :用于 open QA,将QA分解,首先过滤掉噪声文档,然后抽取正确信息,选出最好的选项

实验结果

JEC-QA:A Legal-Domain Question Answering Dataset 论文阅读相关推荐

  1. PullNet: Open Domain Question Answering with Iterative Retrieval on Knowledge Bases and Text 论文笔记

    PullNet: Open Domain Question Answering with Iterative Retrieval on Knowledge Bases and Text 2019年,E ...

  2. 《Deep Modular Co-Attention Networks for Visual Question Answering》论文翻译

    论文地址:https://doi.org/10.48550/arXiv.1906.10770 代码地址:GitHub - MILVLG/mcan-vqa: Deep Modular Co-Attent ...

  3. EMNLP2020 | 近期必读Question Answering精选论文

    AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权.平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价.专家发现.智能指派.学术地图等科技情报专业化服务.系统2 ...

  4. 《Stacked Attention Networks for Image Question Answering》论文解读与实验

    这是去年10月份,自己看的第一篇关于VQA的论文,由于课程内容需要,对论文内容理解得还算深入,并在github上找了一些代码来实验.下面直接开始~ 1. 实验目的 完成一项视觉问答(VQA)的任务,即 ...

  5. 视觉问答(Visual Question Answering)论文初步整理

    刚找的综述性文章:这两篇我没怎么看不知道怎么样 Visual Question Answering: Datasets,Algorithms, and Future Challenges Visual ...

  6. 论文阅读Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering

    利用段落检索和生成模型进行开放域问答 ACL 2021 论文地址 摘要: 开放域问答的生成模型已被证明具有竞争力,无需借助外部知识.虽然这种方法很有前途,但它需要使用具有数十亿个参数的模型,这些参数的 ...

  7. ECCV 2020《TRRNet: Tiered Relation Reasoning for Compositional Visual Question Answering》论文笔记

    目录 简介 动机 贡献 方法 实验 简介 本文一作是南洋理工大学的Xiaofeng Yang. 文章链接 动机 现有的VQA方法可以分为两类,第一类侧重于对视觉和语言的跨模态联合建模,但是由于缺乏关系 ...

  8. AAAI 2021 《Regularizing Attention Networks for Anomaly Detection in Visual Question Answering》论文笔记

    目录 简介 动机 方法 实验 简介 本文是POSTECH和Kakao合作的一篇文章. 论文链接 动机 异常检测有助于提升模型的稳定性和可靠性,也就是鲁棒性,OOD问题也可以视为一种异常.但是,单模态的 ...

  9. 2019 年,智能问答(Question Answering)的主要研究方向有哪些?

    前言 自从小夕前不久推送了这篇<文本匹配打卡点总结>,收到了不少小伙伴对于问答方向的问题,其中问的最多的就是,求!更!多!论!文!好了,于是小夕就在万能的知乎上找到了这篇良心回答,分享给有 ...

最新文章

  1. C/C++中单井号与双井号的使用
  2. boost::graph模块实现分布式压缩稀疏行图类型的测试
  3. 基于行为树的新手引导设计
  4. 物联网智能网关应用系统的一般设计方法
  5. Vue parse之 从template到astElement 源码详解
  6. 聪明的木匠(优先队列,思维)
  7. 为什么torch.nn.Linear的表达形式为y=xA^T+b而不是常见的y=Ax+b?
  8. 产品经理思维模型:创新价值曲线
  9. Android面试收集录4 Fragment详解
  10. 60分钟快速入门PyTorch
  11. android string拼接字符串_「JAVA」细述合理创建字符串,分析字符串的底层存储,你不该错过...
  12. UVA763 LA5339 Fibinary Numbers【大数】
  13. 把Chrome浏览器变成文本编辑器
  14. Visio连接线连接图形固定位置,不能随意位置连接,提示粘附到形状
  15. 硬盘GPT和MBR分区表转换方法
  16. 网页进行针式打印_针式打印机的页面打印设置小技巧解析
  17. WLAN 基础概念(一)
  18. 计算机课听后评课稿,教师听课反思(评课记录)
  19. 泽塔云:用超融合撑起软件定义数据中心的梦想
  20. 郑州肉类商品交易所揭秘养蜂骗局

热门文章

  1. ilitek win10 触摸屏驱动_德国布拉本达(Brabender)触摸屏维修常见故障_触摸屏维修吧...
  2. iphone竖屏视频旋转_在Linux上从iPhone旋转视频
  3. 晨枫U盘维护V2.0_512M版给U盘分区
  4. 【备忘】Word在任意第M-N页间插入页码
  5. Paul Graham:未来的互联网创业
  6. 关于移动设备的Flash播放器,Flash平台,和Flash未来的澄清
  7. SQLite3 dll加载失败问题解决
  8. 【历史上的今天】2 月 18 日:电池的发明者出生;全美最大的电脑连锁店开业;Netsky 蠕虫问世
  9. weka之数据集学习
  10. 硬件工程师和软件工程师哪个更有前途?