Effective Result Inference for Context-Sensitive Tasks in Crowdsourcing

  • 作者
  • 摘要
  • 1 介绍
  • 2 相关工作
  • 3 问题描述
  • 4 结果推断的SAM模型
  • 5 使用POMDP的迭代决策
  • 6 实验评估
  • 7 参考文献

作者

Yili Fang1, Hailong Sun1( ), Guoliang Li2, Richong Zhang1, and Jinpeng Huai1
1 School of Computer Science and Engineering, Beihang University, Beijing, China
2 Department of Computer Science, Tsinghua University, Beijing, China
{fangyili, sunhl, zhangrc}@act.buaa.edu.cn
liguoliang@tsinghua.edu.cn, huaijp@buaa.edu.cn

摘要

有效的结果推理是一个重要的众包话题,因为工人可能会返回错误的结果。现有的推理方法将每个任务分配给多个工人,并汇总这些工人的结果来推断最终的答案。但是,由于以下原因,这些方法对于上下文敏感任务(CST)非常无效,例如手写识别。首先,每个CST相当困难,工人通常无法正确回答整个CST。因此,任务级推理策略不能获得高质量的结果。第二,CST不应该划分为多个子任务,因为子任务在特定的上下文中相互关联。因此,子任务级推理策略忽略了子任务之间的相关性,不能获得高质量的结果。因此需要一种有效的CST结果推理方法。为了解决这一挑战,本文提出了一种智能装配模型(SAM),它可以在不丢失上下文信息的情况下,在子任务的粒度中装配工人的补充答案。在此基础上,我们设计了一个基于部分可观测马尔可夫决策过程的迭代决策模型,可以决定是否需要更多的工作人员来获得更好的结果。实验结果表明,该方法优于现有的方法。

关键词:众包,结果推理,上下文敏感任务,智能装配模型

1 介绍

众包是一个快速发展的领域,寻求利用人类的认知优势来解决计算机难以解决的问题[18,7],如情感分析、手写识别和图像标签。由于工人回答问题可以获得奖励,工人可能会返回错误的结果,以欺骗获得更多奖励。从噪声结果中推断最优答案,众包中的有效结果推断是一个重要问题[17]。

为了获得高质量的结果,迭代框架广泛应用于现有的众包系统中,如图.1所示。请求者提交众包任务后,任务分配组件将任务分配给n个工人。一旦工作人员完成了他们的任务,结果推断组件将这些n个工作人员的结果聚合起来并生成推断结果。然后,迭代决策组件检查推理结果是否可以进一步改进:如果结果足够好,迭代过程将终止;否则,它将要求另一个n个工人并重复上述三个步骤。换句话说,迭代决策组件决定是否终止迭代改进过程。本文研究了该框架中的两个核心问题:(1)如何根据结果推断组件中不同工作人员的输出有效地推断出高质量的结果;(2)如何决定是否终止迭代决策组件中的迭代过程。


图.1. 迭代众包结果推理的一般框架

关于结果推理和任务分配的文献有两类:任务级推理(Task-Inf)和子任务级推理(Subtask- Inf)。任务级推理首先将每个任务分配给多个工人,然后使用机器学习技术[13,15]或群体投票技术[1,3,6,10,5]来推断结果。子任务级推理将复杂任务拆分为若干子任务,将子任务众包起来,利用任务级推理推断每个子任务的结果[18,7],并汇编每个子任务的最佳结果,以生成复杂任务的最终答案。这些推理方法可以提高简单任务的结果质量,如图像注释[4,12]、命名实体识别[3]和搜索任务[8]。

但是,由于以下原因,现有的方法对于上下文敏感任务(CST)无效,例如手写识别、语音识别和路由建议。首先,CST相当困难,工人通常不能正确地回答整个任务。例如,对于图.2中的手写识别任务,三个工作人员都不能正确地回答该任务(请参见图.3)。因此,任务级推理不能获得高质量的结果。第二,CST不应该划分为多个子任务,因为子任务在特定的上下文中相互关联。例如,第二个工人将第9个单词识别为“next”,但不确定第10个单词(“tip”或“time”)。根据上下文,她可以将其标记为“时间”。因此子任务级推理不能获得高质量的结果,因为它忽略了子任务之间的相关性。因此,需要一种有效的众包CST结果推理方法。

图 2. 手写识别10个字

在本文中,我们提出了一个智能装配模型(SAM)来汇总来自不同工人的结果。每个CST分配给多个工人,然后我们通过选择好结果并通过SAM模型丢弃这些工人的坏结果来收集工人的答案。其次,我们设计了一个基于部分可观测马尔可夫决策过程的迭代决策模型,以改善结果。

综上所述,我们做出如下贡献。

  • 我们确定了一个常见的任务类别,即上下文敏感任务(CST)。每个CST在特定的上下文中包含一定数量的子任务,但不适合用于众包子任务的拆分。
  • 我们提出了一个智能组装模型(SAM)来有效地组装工人的答案,选择好的结果并丢弃坏的结果来生成推断结果。
  • 我们设计了一个基于部分可观测马尔可夫决策过程的迭代决策模型,决定是否终止迭代过程。该方法大大降低了决策的复杂性。
  • 我们在真正的众包平台上对我们提出的模型进行模拟和实际实验,并在各种复杂场景中与现有模型进行比较。实验结果表明,该方法优于现有方法。

本文的其余部分组织如下。在第2节中,我们讨论了众包中结果推断和质量控制的相关工作。然后我们在第3节中将问题形式化。我们提出的结果推理模型和迭代决策方法分别在第4节和第5节中给出。实验装置和结果见第6节。最后,我们将在第7节中结束这项工作。

2 相关工作

在众包中,质量控制的一个挑战性问题是从工人提供的嘈杂结果中有效地推断结果,这也与众包任务的类型密切相关。下面我们从以下两个方面对相关工作进行描述。

多数投票[19]是从多个工人的产出中推断结果的一种众所周知的方法。早期多数投票的工作不考虑工人能力的差异,这对于大多数工人能够正确处理的简单任务是有效的。但这种方法在任务困难或工作能力较差的情况下会导致低质量的结果。考虑到工人的能力,提出了加权多数投票[15]。在这方面,提出了各种解决方案,如EM和贝叶斯方法[15]来评估工人的能力。

为了进一步改进多数投票策略,有两种研究与众包任务的具体类型有关。对于孤立的任务,一些文献[18,7,6,10,5]提出了基于任务级推理的结果推理方法(即,要求不同的工人执行相同的任务,直到对结果达成一致意见),以处理不准确并将成本降到最低;而对于复杂的任务,一些工作提出了其它使用多阶段策略处理任务的基于子任务级推理方法[17,3]。CDAS[11]使用了质量敏感的回答模式。Askit[2]使用了熵样技术。Qasca研究了质量感知推理方法[20]。与这些系统相比,我们的方法考虑了上下文敏感的任务,取得了更好的结果质量。查找(Find)-修正(Fix)-验证(Verify)(FFV)[17]被提议在三步策略中纠正和缩短文本。“Find”步骤确定了一组工人的句子中的一些错误,“Fix”步骤确定了另一组工人的这些错误。“Verify”步骤验证了这些错误,并应用任务级推理聚合结果。我们的CST不同于FFV任务。一个FFV任务涉及一个有序的三步处理工作流,即查找、修正和验证,而一个CST不应该被分割成一组子任务,不管涉及多少个处理步骤。我们的方法与FFV正交。在实践中,为了简化众包处理,许多任务被划分为子任务。例如,在CAPTCHA/reCAPTCHA,中,单个单词被视为任务,而CST(例如识别手写句子)不适合在单个单词的粒度上进行众包。其他CST包括翻译、转录、文本识别等。

此外,为了获得工人的能力或淘汰能力低下的工人,也有许多通过资格考试和黄金考试来控制工人质量的算法,以获得匿名工人的能力或通过考试淘汰不合格工人[6,10]。

与这些研究不同的是,我们专注于推断上下文敏感任务的高质量结果。由于任务INF可能高估了员工的能力,而子任务INF忽略了CST的上下文,因此对于复杂的众包任务(如CST),他们无法获得高质量的结果。因此,我们提出了一个智能装配模型,通过选择好的结果和丢弃坏的结果而不丢失任务上下文来装配工人的答案。与传统的马尔可夫模型不同,我们的POMDP通过减少状态数显著降低了决策复杂性。实验结果也验证了该技术的优越性。

3 问题描述

本文主要研究上下文敏感任务(CST)。CST包含多个子任务,这些子任务在特定的上下文中相互关联。如果这些子任务被分开并分别众包,上下文将丢失。例如,图.2显示了一个上下文相关的任务,即手写识别。如果将手写句子分成10个子任务(如单词)进行众包,这些子任务之间的上下文关联将丢失,并增加手写识别的难度。

定义一个上下文敏感任务CSTT={t1,t2,⋅⋅⋅,tm}CST \quad T = \{ t_1 ,t_2 ,··· ,t_m \}CSTT={t1​,t2​,⋅⋅⋅,tm​}有m个子任务,n个工人回答W={w1,w2,⋅⋅⋅,wn}W = \{w_1, w_2,···, w_n\}W={w1​,w2​,⋅⋅⋅,wn​}
我们将CST作为一个整体任务进行众包,并使用一个输出矩阵来表示T上这些工人的答案,正式定义如下。

定义 1(输出矩阵):n个工人对于T的回答被定义为n×mn\times mn×m矩阵,O={oij}O = \{ o_{ij} \}O={oij​},其中oijo_{ij}oij​是由工人wiw_iwi​对于子任务tjt_jtj​的输出结果,如果工人wiw_iwi​对于子任务tjt_jtj​没有输出结果oij=⊥o_{ij}=⊥oij​=⊥。我们用O∗jO_{\ast j}O∗j​表示子任务tjt_jtj​的输出向量,用Oi∗O_{i \ast}Oi∗​表示工人wiw_iwi​的输出向量。

注意,如果且仅当工人wiw_iwi​无法处理子任务tjt_jtj​时oijo_{ij}oij​才是⊥。例如,图.3说明了图2.中手写识别CST的输出矩阵,它由三个工人完成。o31=⊥o_{31}=⊥o31​=⊥,因为第三个工人无法识别第一个单词。


图.3. 手写识别的输出矩阵

给定一个CST T,我们的目标是通过聚合来自不同工人的所有子任务输出来推断T的高质量结果。为了生成T的推理结果,我们定义了候选输出向量来表示推理结果。

定义 2(候选输出向量–COV):设T为具有m个子任务的CST,将候选输出向量定义为子任务输出向量CT=⟨oi11,⋅⋅⋅oijj,⋅⋅⋅,oimm⟩C_T = \langle o_{i_11},···o_{i_jj},···,o_{i_mm} \rangleCT​=⟨oi1​1​,⋅⋅⋅oij​j​,⋅⋅⋅,oim​m​⟩,其中oijj∈O∗jo_{i_jj} \in O_{\ast j}oij​j​∈O∗j​(即ij∈[1,n]i_j \in [1,n]ij​∈[1,n])。

如果一个带有m子任务的CST T由n个工人处理,可能会有大量可能的COV(在最坏的情况下,通过组合n个工人提供的所有m子任务的所有输出,会有nmn^mnm个COV)。例如,L={ITl∣ITlisthelthCOVforCSTT}\mathcal{L}=\{ I_T^l| I_T^l \ is \ the \ l^{th} \ COV \ for \ CST \ T \}L={ITl​∣ITl​ is the lth COV for CST T},表.1说明了与图.3中的输出矩阵O对应的集合i。

COV value
IT1I_T^1IT1​ You misspelled several work, Plan spellcheck your work next tip.
IT2I_T^2IT2​ You misspelled several work, Plan spellcheck your work next time.
IT3I_T^3IT3​ You misspelled several work, Please spellcheck your work next tip.
IT4I_T^4IT4​ You misspelled several work, Please spellcheck your work next time.
IT5I_T^5IT5​ You misspelled several work, Play spellcheck your work next tip.
IT6I_T^6IT6​ You misspelled several work, Play spellcheck your work next time.
IT7I_T^7IT7​ You misspelled several words, Plan spellcheck your work next tip.
IT8I_T^8IT8​ You misspelled several words, Plan spellcheck your work next time.
IT9I_T^9IT9​ You misspelled several words, Please spellcheck your work next tip.
IT10I_T^{10}IT10​ You misspelled several words, Please spellcheck your work next time.
IT11I_T^{11}IT11​ You misspelled several words, Play spellcheck your work next tip.
IT12I_T^{12}IT12​ You misspelled several words, Play spellcheck your work next time.

表.1. 手写识别的候选输出向量

根据定义2,我们可以将CST的答案推断问题转化为最佳COV识别问题,从所有可能的COV中找出最佳COV。

定义3(最佳COV识别) :假设T是一个CST,O是T的输出矩阵,Z是所有可能的COV的集合,问题是从Z中找到最好的COV,从而得到T的最佳结果。

例如,将图.3中从基于O组装成表.1中的COV集中选择最佳COV的最佳结果。我们将在第4节中讨论如何量化COV以及如何识别最佳COV。

为了提高推理质量,通常采用迭代法。为了确定是否进入下一个迭代,我们需要解决迭代决策问题。

定义4(迭代决策问题——IDP):设T为CST,O为t的输出矩阵,ITI_TIT​和IT′I_T'IT′​分别是当前迭代和上一次迭代的推理结果。IDP问题是确定是否终止迭代过程。

定义4定义了一个迭代获得满意的CST推理结果的决策问题。我们在第5节中提出了一个有效的迭代模型来做决定。

根据定义2,COV集合的大小随子任务的数量呈指数增长。具体来说,COV的数量可以是nmn^mnm。因此在理论上,定义3中定义的最佳COV识别的复杂性应该是一个NP难题。在实践中,如[3]所述,由于CST的大小有限,并且工人提供的子任务结果重复,COV的状态空间不是很大。例如,如表.1所示,COV的大小只有12而不是310。

4 结果推断的SAM模型

本节研究最佳COV识别问题。我们提出了一种智能组装模型(SAM),以子任务的粒度而不是整体来组装工人的结果任务。我们首先利用偏序集理论计算出一组最大COV,然后考虑工人在CST上的能力,从最大COV中选出最佳COV作为推理结果。

给定一个CST T,n个工人为T生成一个输出矩阵OOO。如果oij≠⊥o_{ij} \neq ⊥oij​​=⊥,我们使用pij=kij/np_{ij}=k_{ij}/npij​=kij​/n来衡量子任务输出oijo_{ij}oij​的质量,其中kijk_{ij}kij​表示对于子任务tjt_jtj​有kijk_{ij}kij​个工人与输出oij∈O∗jo_{ij} \in O_{\ast j}oij​∈O∗j​相同,否则(oij=⊥o_{ij}=⊥oij​=⊥),pij=0p_{ij}=0pij​=0。利用子任务tjt_jtj​的所有输出,我们引入子任务概率向量。

定义5(子任务概率向量–SPV):给定一个具有mmm个子任务的CST TTT和TTT的输出矩阵OOO,子任务tjt_jtj​的SPV由tjt_jtj​的n个工人的输出概率组成,表示为

Ptj=⟨p1j,p2j,⋅⋅⋅,pnj⟩(1)P_{t_j}=\langle p_{1j},p_{2j},···,p_{nj} \rangle \tag{1}Ptj​​=⟨p1j​,p2j​,⋅⋅⋅,pnj​⟩(1)

根据定义5,我们可以得出pijp_{ij}pij​越大,输出oijo_{ij}oij​越可能是子任务tjt_jtj​的正确答案。为了确定COV的质量,我们定义了一个关系⪯\preceq⪯通过比较相应的SPV来比较两个COV。让ITI_TIT​和IT′I_T'IT′​分别表示两个COV,我们显示的部分顺序如下:

IT⪯IT′⟺∀tj∈T,oij∈IT,okj∈IT′,pij≤pkjIT≺IT′⟺IT⪯IT′&∃oij∈IT,okj∈IT′,pij<pkj(2)I_T \preceq I_T' \iff \forall t_j \in T,o_{ij} \in I_T,o_{kj} \in I_T', p_{ij} \leq p_{kj} \\ I_T \prec I_T' \iff I_T \preceq I_T' \ \&\ \exists o_{ij} \in I_T,o_{kj} \in I_T', p_{ij} < p_{kj}\tag{2} IT​⪯IT′​⟺∀tj​∈T,oij​∈IT​,okj​∈IT′​,pij​≤pkj​IT​≺IT′​⟺IT​⪯IT′​ & ∃oij​∈IT​,okj​∈IT′​,pij​<pkj​(2)

同样,我们可以≺\prec≺和⪯\preceq⪯。如果IT⪯IT′(IT⪰IT′)I_T \preceq I_T' ( I_T \succeq I_T' )IT​⪯IT′​(IT​⪰IT′​),我们说ITI_TIT​小于(大于)或等于IT′I_T'IT′​。如果IT≺IT′(IT≻IT′)I_T \prec I_T' ( I_T \succ I_T' )IT​≺IT′​(IT​≻IT′​),我们说ITI_TIT​小于(大于)IT′I_T'IT′​。让L\mathcal{L}L表示T的所有COV的集合,L={ITl∣ITlisthelthCOVforCSTT}\mathcal{L}=\{ I_T^l| I_T^l \ is \ the \ l^{th} \ COV \ for \ CST \ T \}L={ITl​∣ITl​ is the lth COV for CST T}。然后,我们可以推断出⟨L,≺⟩\langle \mathcal{L},\prec \rangle⟨L,≺⟩是一个部分有序集,因此我们可以根据部分有序集对COV进行排序。我们可以推断出最大(最小)的COVs,没有COV比他们更大(更小)。

在部分有序集的基础上,我们可以构造一个COV图,其中节点是COV,边是两个COV之间的部分有序。例如,对于表.1中的所有COV,如果我们将IT0=∅I_T^0=\varnothingIT0​=∅添加到⟨L,≺⟩\langle \mathcal{L},\prec \rangle⟨L,≺⟩,i中,图.4(a)说明了该图,其中有三个最大的COV,IT8I_T^8IT8​、IT10I_T^{10}IT10​和IT12I_T^{12}IT12​。


图.4 (a).笔迹识别的部分有序集,以及(b).最大COV的关系

当⟨L,≺⟩\langle \mathcal{L},\prec \rangle⟨L,≺⟩有不止一个最大的COVs,我们需要打破僵局,选择最好的一个。为了解决这个问题,我们考虑工人的能力,并利用他们来选择最好的COV。为了量化工人的能力,我们需要在CST上评估工人的准确性。然后,我们识别出一个子任务训练集,其中集合中的子任务有足够的支持(即许多工作人员返回相同的任务结果),并将它们作为基本事实,以评估工作人员的准确性。接下来,我们正式定义子任务训练集。

定义6(子任务训练集–SPV):给定一个含有mmm个子任务的CST TTT,T∗T*T∗是TTT的子集,其中每个子任务tj∈T∗t_j∈T*tj​∈T∗满足存在多个工人以最大概率pijp_{ij}pij​返回相同结果oijo_{ij}oij​。设RRR表示所有这些结果的集合,即R={oij}R=\{o_{ij}\}R={oij​},其中oijo_{ij}oij​是具有最大概率pijp_{ij}pij​的tj∈T∗t_j∈T*tj​∈T∗的多数输出。

例如,对于图1中的手写识别任务,由于第一个工人和第二个工人以最大的概率返回相同的答案“You”,t1t_1t1​在T∗T*T∗中,“You”在RRR中。我们可以得到T∗={t1,t2,t3,t4,t7,t8,t10}T*=\{t1,t2,t3,t4,t7,t8, t10\}T∗={t1,t2,t3,t4,t7,t8,t10}和R={You,misspelled,several,words,your,work,time}R = \{You, misspelled, several, words, your, work, time\}R={You,misspelled,several,words,your,work,time}。

基于子任务训练集,我们可以测量每个工人的准确度rir_iri​,如下所示:
ri∼∣Oi∗∩R∣/∣R∣(3)r_i ∼ |O_{i∗} ∩ R|/|R|\tag{3}ri​∼∣Oi∗​∩R∣/∣R∣(3)

例如,对于图1中的手写识别任务,三个工人的准确率分别为4/7=0.57、6/7=0.86和5/7=0.71。基于工人的准确度,w2w_2w2​比w3w_3w3​好,而w3w_3w3​又优于w1w_1w1​。除第5个子任务外,三个最大cov(IT8I_T^8IT8​、IT10I_T^{10}IT10​和IT12I_T^{12}IT12​)在其他子任务上的输出相同。因此,IT10I_T^{10}IT10​(第5个单词由w2w_2w2​回答)优于IT12I_T^{12}IT12​(w3w_3w3​),后者又优于IT8I_T^8IT8​(w1w_1w1​)。因此T的COV最有可能是IT10=⟨T,“Youmisspelledseveralwords,Pleasespellcheckyourworknexttime.”⟩I_T^{10} =\langle T, “You\ misspelled\ several \ words,\ Please\ spellcheck\ your\ work\ next\ time.”\rangleIT10​=⟨T,“You misspelled several words, Please spellcheck your work next time.”⟩。

请注意,我们对方程3中工人精度的估计方法具有基于伯努利大数定律的理论保证,如定理1所证明。

设T为CST,Oi∗O_{i∗}Oi∗​为wiw_iwi​的T的输出,R为子任务训练集,rir_iri​为wiw_iwi​的准确度。我们有:
lim∣R∣→∞Pr((∣Oi∗∩R∣/∣R∣−ri)<ϵ)=1(4)lim_{|R|→∞}Pr((|O_{i∗} ∩ R|/|R| − r_i) < \epsilon) = 1\tag{4}lim∣R∣→∞​Pr((∣Oi∗​∩R∣/∣R∣−ri​)<ϵ)=1(4)
证明:在定义6中,我们考虑工人产出的一致性。处理的子任务越多,参与该过程的工人越多,则子任务训练集中RRR中的子任务越多,输出的准确性就越高。$ |O_{i∗} ∩ R|/|R|$代表真实结果的频率。基于伯努利大数定律,我们可以证明定理1。

然后我们可以利用子任务训练集来测量每个工人的准确度rir_iri​。利用这个定理我们可以得出结论:子任务训练集中RRR中的子任务越多,rir_iri​的估计就越精确。对于每个最大的COV,我们根据定义7计算其总分,并选择得分最大的COV作为最佳COV。

定义7(COV得分)给定一个COV CT=⟨oi11,…oijj,…,oimm⟩C_T=\langle o_{i_11},…o_{i_jj},…,o_{i_mm}\rangleCT​=⟨oi1​1​,…oij​j​,…,oim​m​⟩,其分数计算如下:
SCORE(CT)=∑j=1mpijj⋅rij(5)SCORE(C_T)=\sum_{j=1}^mp_{i_jj}·r_{i_j}\tag{5}SCORE(CT​)=j=1∑m​pij​j​⋅rij​​(5)
一个问题是,给定不同能力的工人,如何将我们的SAM模型的推理结果与现有的Task-Inf模型的推理结果进行比较。如果所有子任务都处于相同的难度水平,并且所有工人的能力平均一致,则我们的SAM模型可靠地优于定理2所示的Task-Inf。

定理2。设TTT为CST,rir_iri​表示wiw_iwi​的准确度,ITaI^a_TITa​表示SAM模型的最佳COV,ITcI^c_TITc​表示Task-Inf的最佳COV。如果存在一个r~\tilde{r}r~,∀ri≥r~∀r_i≥\tilde{r}∀ri​≥r~,则Pr(ITc≺ITa)≥Pr(ITa≺ITc)Pr(I^c_T≺I^a_T)≥Pr(I^a_T≺I^c_T)Pr(ITc​≺ITa​)≥Pr(ITa​≺ITc​)。

证据。对于每个子任务tj∈Tt_j∈Ttj​∈T及其SPV PtjP_{t_j}Ptj​​,子任务tjt_jtj​的输出有两种情况,如下所示。

  • 如果PtjP_{t_j}Ptj​​只有一个最大元素,则根据我们的模型,基于SPV从O∗jO_{*j}O∗j​中选择最佳子任务输出。每两个子任务的输出都是一个Condorcet模型[19,16,14]。如果r~=0.5\tilde{r}=0.5r~=0.5,oij∈O∗jo_{ij}∈O_{∗j}oij​∈O∗j​如果pijp_{ij}pij​是PtjP_{t_j}Ptj​​中的最大值,那么oijo_{ij}oij​很可能是真实答案。对于所有的okj∈O∗jo_{kj}∈O_{*j}okj​∈O∗j​,我们有

Pr(pij≥pkj)≥Pr(pij<pkj)(6)Pr(p_{ij} ≥ p_{kj}) ≥ Pr(p_{ij} < p_{kj})\tag{6}Pr(pij​≥pkj​)≥Pr(pij​<pkj​)(6)

  • 如果KaTeX parse error: Expected group after '_' at position 6: P_{tj_̲}有多个最大元素,因为两个模型生成的两个子任务的输出有相同的可能性成为tjt_jtj​的正确输出。我们用工人的准确性来估计可能性。如果工人wiw_iwi​有最好的能力,那么她的答案就被选中了。

因此,对于每个子任务tjt_jtj​,∃r~∃\tilde{r}∃r~,如果每个工人的能力r≥r~r≥\tilde{r}r≥r~,并且oij∈ITao_{ij}∈I^a_Toij​∈ITa​,okj∈ITco_{kj}∈I^c_Tokj​∈ITc​,我们得到

Pr(pij≥pkj)≥Pr(pij≤pkj)(7)Pr(p_{ij} ≥ p_{kj}) ≥ Pr(p_{ij} ≤p_{kj})\tag{7}Pr(pij​≥pkj​)≥Pr(pij​≤pkj​)(7)

注意,ITaI^a_TITa​和ITcI^c_TITc​由相同数量的oijo_{ij}oij​组成,并且两个子任务中的每一个子任务都没有交集。考虑到ITcI^c_TITc​和ITaI^a_TITa​的所有要素以及等式7,我们有

Pr(ITc≺ITa)≥Pr(ITa≺ITc)(8)Pr(I^c_T \prec I^a_T) ≥ Pr(I^a_T \prec I^c_T )\tag{8}Pr(ITc​≺ITa​)≥Pr(ITa​≺ITc​)(8)

我们得出结论,当工人的准确度大于0.5时,我们的模型可靠地优于Task-Inf。

另一个问题是,对于不同能力的员工,如何将我们的SAM模型与忽略CST上下文的现有Subtask-Inf型的推理结果进行比较。由于上下文反映了子任务之间的语义关系,众包CST而不将其拆分为一组子任务可以帮助工作人员更好、更容易地完成子任务。因此,我们可以得出结论,即使使用相同的聚合方法,SAM也可以生成比Subtask-Inf更好的聚合结果。

5 使用POMDP的迭代决策

6 实验评估

7 参考文献

  1. Bernstein, M.S., Little, G., Miller, R.C., Hartmann, B., Ackerman, M.S., Karger, D.R., Crowell, D., Panovich, K.: Soylent: a word processor with a crowd inside. In: UIST(2010). pp. 313–322. ACM (2010)
  2. Boim, R., Greenshpan, O., Milo, T., Novgorodov, S., Polyzotis, N., Tan, W.C.: Asking the right questions in crowd data sourcing. In: ICDE (2012)
  3. Dai, P., Lin, C.H., Weld, D.S., et al.: Pomdp-based control of workflows for crowdsourcing. Artificial Intelligence (2013)
  4. Dredze, M., Talukdar, P.P., Crammer, K.: Sequence learning from data with multiple labels. In: Workshop Co-Chairs. p. 39 (2009)
  5. Feng, J., Li, G.,Wang, H., Feng, J.: Incremental quality inference in crowdsourcing. In: Database Systems for Advanced Applications (2014)
  6. Ipeirotis, P.G., Gabrilovich, E.: Quizz: targeted crowdsourcing with a billion (potential) users. In: WWW(2014). pp. 143–154
  7. Law, E., Ahn, L.v.: Human computation. Synthesis Lectures on Artificial Intelligence and Machine Learning 5(3), 21–22 (2011)
  8. Law, E., Zhang, H.: Towards large-scale collaborative planning: Answering highlevel search queries using human computation. In: AAAI (2011)
  9. Lee, K., Tamilarasan, P., Caverlee, J.: Crowdturfers, campaigns, and social media: tracking and revealing crowdsourced manipulation of social media. In: ICWSM (2013)
  10. Liu, Q., Peng, J., Ihler, A.T.: Variational inference for crowdsourcing. In: NIPS(2012). pp. 692–700. Curran Associates,Inc (2012)
  11. Liu, X., Lu, M., Ooi, B.C., Shen, Y., Wu, S., Zhang, M.: Cdas: A crowdsourcing data analytics system. PVLDB 5(10), 1040–1051 (2012)
  12. Rodrigues, F., Pereira, F., Ribeiro, B.: Sequence labeling with multiple annotators. Machine Learning 95(2), 165–181 (2014)
  13. Salek, M., Bachrach, Y., Key, P.: Hotspotting-a probabilistic graphical model for image object localization through crowdsourcing. In: AAAI(2013)
  14. Sheng, V.S., Provost, F., Ipeirotis, P.G.: Get another label? improving data quality and data mining using multiple, noisy labelers. In: SIGKDD(2008)
  15. Sheshadri, A., Lease, M.: Square: A benchmark for research on computing crowd consensus. In: HCOMP(2013)
  16. Snow, R., O’Connor, B., Jurafsky, D., Ng, A.Y.: Cheap and fast-but is it good?: evaluating non-expert annotations for natural language tasks. In: Proceedings of the conference on empirical methods in natural language processing (2008)
  17. Tran-Thanh, L., Huynh, T.D., Rosenfeld, A., Ramchurn, S.D., Jennings, N.R.: Crowdsourcing complex workflows under budget constraints. In: AAAI(2015)
  18. Von Ahn, L., Maurer, B., McMillen, C., Abraham, D., Blum, M.: recaptcha: Human-based character recognition via web security measures. Science 321(5895), 1465–1468 (2008)
  19. Young, H.: Condorcet’s theory of voting. Math´ematiques, informatique et sciences humaines (111), 45–59 (1990)
  20. Zheng, Y., Wang, J., Li, G., Cheng, R., Feng, J.: Qasca: A quality-aware task assignment system for crowdsourcing applications. SIGMOD (2015)

上下文敏感任务的众包有效结果推理相关推荐

  1. 150 余个神奇网站,总有你需要的

    转载自http://blog.csdn.net/qq_43901693/article/details/104750730 相见恨晚的超实用网站 搞学习 找书籍 冷知识 / 黑科技 写代码 找图片 资 ...

  2. 基于众包采集定量数据的自适应结果推理

    Adaptive Result Inference for Collecting Quantitative Data with Crowdsourcing 作者 摘要 介绍 2 问题描述 3 动态聚合 ...

  3. 真值推理-Truth Inference-----Is the Problem Solved?

    Truth Inference, Is the problem solved? (文献阅读和理解,欢迎评论区一起讨论和分享) abstract 众包解决计算机中的问题:情感分析和实体解析. 实体解析又 ...

  4. 溯因推理:人工智能的盲点

    来源:AI前线 作者:Ben Dickson 译者:Sambodhi 策划:凌敏 本文给当今人工智能界推崇深度学习的现象泼了冷水,指出了人工智能的盲点:溯因推理,并提醒人们不要忽视深度学习的种种问题, ...

  5. 软件工程中众包应用的综述

    A Survey of the Use of Crowdsourcing in Software Engineering 作者 摘要 1 介绍 2 背景 2.1 众包 2.2 众包软件工程 2.2.1 ...

  6. 黑暗危害:基于学习,大规模发现Android应用中的隐藏敏感操作(HSO)

    黑暗危害:基于学习,大规模发现Android应用中的隐藏敏感操作(HSO) 摘要 隐藏敏感操作(HSO),例如:在接收SMS消息时窃取隐私用户数据正越来越多地被移动恶意软件和其他潜在危害应用(PHA) ...

  7. 几个基本概念辨析:流敏感,路径敏感和上下文敏感

    (从这篇日志开始,恢复博客园的同步更新) 这篇日志没有什么技术含量,只是总结几个基本概念.在软件分析中,我们经常会遇到流敏感(flow-sensitive),路径敏感(path-sensitive)和 ...

  8. antlr 可以用java写吗_java – 我们可以用ANTLR定义一个非上下文语法吗?

    是. (咳嗽). 我的理解是您可以在规则中添加代码.任意代码可以测试任意事物,所以答案是"是".一般来说,我认为你不能用ANTLR很好地做到这一点,但这对于许多有趣的特殊情况非常实 ...

  9. Multi-Armed Bandit--基于时变多臂老虎机的在线上下文感知推荐

    Online Context-Aware Recommendation with Time Varying Multi-Armed Bandit 基于时变多臂老虎机的在线上下文感知推荐 摘要 为了预测 ...

最新文章

  1. 学习C语言必须知道的理论知识(第二章-算法)
  2. 【Netty】NIO 通道 ( Channel ) 组件
  3. python 删除文件或文件夹
  4. 36Kr鬼畜推送,没事别惹程序员
  5. 第十一届蓝桥杯青少组Python竞赛真题
  6. [改善Java代码]使用CyclicBarrier让多线程齐步走
  7. 手机APP/小程序微模卡源码下载,开源开心免费开心
  8. 《赐我》-一只白羊 同步歌词
  9. 视频的基本参数及H264编解码相关概念
  10. string.Format()之格式化数值类型数据
  11. C++学习——如何在C++中把map存入一个txtx文件
  12. 若依前后端分离版本集成CAS Server5.3
  13. 【PTA|Python】浙大版《Python 程序设计》题目集:第五章
  14. 求指定年份到当前年份的所有时间段 cte
  15. 如何看待无人驾驶技术产生的伦理道德问题
  16. php连接tidb,TiDB源码学习笔记:启动TiDB
  17. 滨江学院计算机专硕,南信大滨江学院(无锡校区)报到开学,新生2545人!你关心的都在这......
  18. 07 【nodejs内置模块(下)】
  19. 苹果NFC终于向第三方开放,圈存功能上线
  20. JavaScript 监听移动端横竖屏状态的几种方式

热门文章

  1. 计算机中丢失d3dx9.30,win10找不到d3dx9_30.dll怎么修复_win10系统 d3dx9_30.dll丢失如何解决...
  2. android qq聊天窗口切换,手机QQ重磅更新!新增聊天多窗口模式,希望微信也能有...
  3. 简谈Kinect的应用 by 高思达
  4. 四相交错并联同步整流Buck变换器
  5. 强制下线?IE浏览器自动跳转Edge【视频演示】
  6. Boring Weekly活动第二期精彩回顾:Bancor让你告别无偿损失
  7. java parselong_java中的parseLong()
  8. 电缆故障测试仪使用及注意事项——TFN FB11电缆故障测试仪
  9. 九、Docker Compose
  10. [opencv]opencv2.4.10在vs2013下的配置方法