中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

計(jì)算語言頂會ACL 2018最佳論文公布!這些大學(xué)與研究員榜上有名

2018-06-13    來源:

容器云強(qiáng)勢上線!快速搭建集群,上萬Linux鏡像隨意使用
今日,ACL 2018 公布了 5 篇最佳論文,包括三篇最佳長論文和 2 篇最佳短論文。今年的 ACL 共收到 1544 份提交論文,其中 1018 份長論文接收了 258 篇,526 份短論文接收了 126 篇,總體接受率為 24.9%。

ACL 2018 獲獎名單如下:

最佳長論文

1. Finding syntax in human encephalography with beam search(尚未公開)

作者:John Hale、Chris Dyer、Adhiguna Kuncoro、Jonathan Brennan

2. Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information

作者:Sudha Rao、Hal Daumé III 均來自于馬里蘭大學(xué)帕克分校。

3. Let’s do it “again”: A First Computational Approach to Detecting Adverbial Presupposition Triggers

作者:Andre Cianflone、Yulan Feng、Jad Kabbara、Jackie Chi Kit Cheung,來自于麥吉爾大學(xué)和 MILA。

最佳短論文

1. Know What You Don’t Know: Unanswerable Questions for SQuAD.(尚未公開)

作者:Pranav Rajpurkar、Robin Jia、Percy Liang

目前,該論文尚未公開,但三位研究員都來自斯坦福大學(xué)。

2. ‘Lighter’ Can Still Be Dark: Modeling Comparative Color Descriptions.(尚未公開)

作者:Olivia Winn、Smaranda Muresan

該獲獎?wù)撐牡膬晌蛔髡邅碜杂诟鐐惐葋喆髮W(xué)。

在本文中,對兩篇已公開的獲獎?wù)撐倪M(jìn)行了編譯介紹,感興趣的同學(xué)可以查看原論文:

論文 1: Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information

 

 

論文地址:https://arxiv.org/abs/1805.04655

摘要:詢問對于交流而言是很基礎(chǔ)的,然而機(jī)器無法與人類進(jìn)行高效協(xié)作,除非它們可以學(xué)會問問題。在這項(xiàng)研究中,我們?yōu)榻o澄清性(clarification)提問排序的任務(wù)構(gòu)建了一個神經(jīng)網(wǎng)絡(luò)模型。該模型受完美信息期望值的思想啟發(fā):一個問題好不好在于其期望的回答是否有用。我們使用了來自 StackExchange 的數(shù)據(jù)來研究這個問題,StackExchange 是一個豐富的在線資源,人們通常在帖子中詢問澄清性問題,從而他們可以更好地為帖子樓主提供幫助。我們創(chuàng)建了一個由大約 77000 個澄清性問題帖子構(gòu)成的數(shù)據(jù)集,其中每個帖子包含一個問答對,這些帖子來自 StackExchange 的三個領(lǐng)域:askubuntu、unix 和 superuser。我們在該數(shù)據(jù)集的 500 個樣本上通過和人類專家判斷對比對我們的模型進(jìn)行了評估,并在受控基線上實(shí)現(xiàn)了顯著的提高。

提問的核心目標(biāo)是填補(bǔ)信息鴻溝,該過程通常通過澄清性問題進(jìn)行。我們認(rèn)同好的問題是其答案最可能有用的問題?紤]到圖 1 中的信息交流,其中樓主(我們叫他 Terry)就配置環(huán)境變量提問。這個帖子不夠細(xì)化,一個回復(fù)者(Parker)問了一個澄清性問題(如下 a),不過也可以問問題(b)或(c)。

(a)你使用的是哪個版本的 Ubuntu?

(b)你的無線網(wǎng)卡型號是什么?

(c)你是在 x86 64 架構(gòu)上運(yùn)行 Ubuntu 14.10 kernel 4.4.0-59- generic 嗎?

Parker 不應(yīng)該問(b)因?yàn)榇鸢缚赡軟]什么用;也不應(yīng)該問(c)因?yàn)檫@個問題太具體了,「No」或「I do not know」這樣的答案也沒什么用處。Parker 的問題(a)就好多了:答案有用的可能性高,且對于 Terry 來說是可以回答的。

 

 

圖 1:更新在線問答論壇「askubuntu.com」上的帖子來補(bǔ)充評論中缺失的信息。

 

 

圖 2:我們的模型在測試過程中的行為:給出帖子 p,我們使用 Lucene 檢索出 10 個與 p 類似的帖子。對這 10 個帖子提問的問題是我們的候選問題 Q,對這些問題的答復(fù)是我們的候選答案 A。對于每個候選問題 q_i,我們生成答案表征 F(p, q_i),并計(jì)算候選答案 a_j 與答案表征 F(p, q_i) 之間的接近程度。然后我們計(jì)算帖子 p 的效用,并確定是否使用答案 a_j 對它進(jìn)行更新。最后,我們根據(jù)公式 1,按照問題的期望效用對候選問題 Q 進(jìn)行排序。

 

 

圖 3:答案生成器的訓(xùn)練過程。給定一個帖子 p_i 和問題 q_i,我們生成答案表征,其不僅與原始答案 a_i 很接近,而且在候選問題 q_j 與原始問題 q_i 接近的情況下答案表征與候選答案 a_j 也很接近。

實(shí)驗(yàn)結(jié)果

我們在實(shí)驗(yàn)評估過程中使用的主要研究問題是:

1. 神經(jīng)網(wǎng)絡(luò)架構(gòu)是否比非神經(jīng)網(wǎng)絡(luò)基線模型有所改善?

2. EVPI formalism 是否能影響有類似表征力的前饋網(wǎng)絡(luò)?

3. 答案有助于識別正確的問題嗎?

4. 在候選問題(不包括原始問題)上評估模型時(shí),模型性能如何?

 

 

表 2:在 500 個樣本上評估的模型性能,包括「最佳」標(biāo)注的并集(B1 ∪ B2)、「有效」標(biāo)注的交集(V1 ∩ V2),以及數(shù)據(jù)集中和帖子配對的原始問題。加粗和非加粗?jǐn)?shù)字的區(qū)別在于統(tǒng)計(jì)顯著性 p<0.05(使用自引導(dǎo)檢驗(yàn)計(jì)算)。p@k 是模型排序最高的 k 個問題的精度,MAP 是模型預(yù)測排序的平均精度。

結(jié)論

我們?yōu)閷W(xué)習(xí)給澄清性問題排序構(gòu)建了一個新的數(shù)據(jù)集,并為求解該任務(wù)提出了新的模型。該模型結(jié)合了著名的深度網(wǎng)絡(luò)架構(gòu)和完美信息期望值的經(jīng)典概念,可以從提問者的角度為實(shí)用的選擇有效地建模:如果我問了這個問題,我應(yīng)該如何設(shè)想對方的回答。這種實(shí)用原則近期被證明在其它任務(wù)中也有用(Golland et al., 2010; Smith et al., 2013; Orita et al., 2015; Andreas and Klein, 2016)。人們可以自然地將我們的 EVPI 方法擴(kuò)展到完全的強(qiáng)化學(xué)習(xí)方法,以處理多回合的對話。實(shí)驗(yàn)結(jié)果表明 EVPI 模型對于求解問題生成任務(wù)而言是有潛力的范式。

論文 2:Let’s do it “again”: A First Computational Approach to Detecting Adverbial Presupposition Triggers

 

 

論文地址:https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf

摘要:我們介紹了預(yù)測狀語預(yù)設(shè)觸發(fā)語(如 also、again)的任務(wù)。解決這樣的任務(wù)需要檢測語篇中的重復(fù)或類似事件,并且在自然語言生成任務(wù)中有應(yīng)用,例如摘要和對話系統(tǒng)。我們?yōu)檫@項(xiàng)任務(wù)創(chuàng)建了兩個新的數(shù)據(jù)集,分別來自賓州樹庫(Penn Treebank)和 Annotated English Gigaword 語料庫,并為其定制了一個新的注意力機(jī)制。我們的注意力機(jī)制增強(qiáng)了基線循環(huán)神經(jīng)網(wǎng)絡(luò),而不需要額外的可訓(xùn)練參數(shù),從而使注意力機(jī)制的額外計(jì)算成本最小化。我們已證實(shí),根據(jù)統(tǒng)計(jì)數(shù)據(jù),該模型優(yōu)于許多基線模型,包括基于 LSTM 的語言模型。

在本文中,我們的重點(diǎn)是如 again、also、still 這樣的狀語預(yù)設(shè)觸發(fā)語。狀語預(yù)設(shè)觸發(fā)語指出了語篇中事件的重復(fù)、延續(xù)或終止,或者類似事件的存在。

本論文的主要貢獻(xiàn)如下:

介紹了預(yù)測狀語預(yù)設(shè)觸發(fā)語的任務(wù);

提出了用于檢測狀語預(yù)設(shè)觸發(fā)語的新數(shù)據(jù)集,以及一種可應(yīng)用于其它類似預(yù)處理任務(wù)的數(shù)據(jù)提取方法;

在 RNN 架構(gòu)中使用一種新的注意力機(jī)制,可用于預(yù)測狀語預(yù)設(shè)觸發(fā)語任務(wù)。這種注意力機(jī)制無需引入額外的參數(shù),但預(yù)測效果優(yōu)于很多基線模型。

3 數(shù)據(jù)集

我們從兩個語料庫中提取了數(shù)據(jù)集,即賓州樹庫(PTB)語料庫(Marcuset al.,1993)和第三版 English Gigaword 語料庫(Graff et al.,2007)的子集(sections 000-760)。

 

 

圖 1:我們的數(shù)據(jù)集中一個包含預(yù)設(shè)觸發(fā)語的實(shí)例。

4 學(xué)習(xí)模型

本章介紹了我們基于注意力的模型。該模型計(jì)算每一時(shí)間步上隱藏狀態(tài)之間的相關(guān)性,然后再在這些相關(guān)性上應(yīng)用注意力機(jī)制,從而擴(kuò)展雙向 LSTM 模型。我們提出的加權(quán)池化(WP)神經(jīng)網(wǎng)絡(luò)架構(gòu)如圖 2 所示。

 

 

圖 2:我們提出的加權(quán)池化神經(jīng)網(wǎng)絡(luò)架構(gòu)(WP)。分詞后的輸入將嵌入到預(yù)訓(xùn)練詞嵌入中,并可能與經(jīng)過 one-hot 編碼的 POS 標(biāo)簽相級聯(lián)。輸入序列隨后會通過雙向 LSTM 進(jìn)行編碼,并饋送到注意力機(jī)制內(nèi)。計(jì)算得出的注意力權(quán)重隨后可用于編碼狀態(tài)的加權(quán)平均運(yùn)算,依次連接到全連接層以預(yù)測預(yù)設(shè)觸發(fā)語。

6 結(jié)果

表 2 顯示了具有 POS 標(biāo)簽和沒有該標(biāo)簽的不同模型的表現(xiàn)?傮w而言,在結(jié)合不同數(shù)據(jù)集以及是否使用 POS 標(biāo)簽的所有 14 個場景里,我們的注意力模型 WP 在 10 個場景中優(yōu)于所有其它模型。重要的是,該模型在未引入額外參數(shù)的情況下,超越了常規(guī) LSTM 模型,這突出了 WP 基于注意力的池化方法的優(yōu)勢。

 

 

表 2:各種模型的性能,包括加權(quán)池化的 LSTM(WP)模型。MFC 指最常見的基線,LogReg 是 logistic 回歸基線。LSTM 和 CNN 對應(yīng)強(qiáng)大的神經(jīng)網(wǎng)絡(luò)基線模型。請注意,我們把每個「+ POS」案例和「- POS」案例中最佳模型的性能數(shù)字加粗顯示了。

 

 

表 3:最佳模型的混淆矩陣,預(yù)測預(yù)設(shè)觸發(fā)語是否存在。

 

 

表 4:在 Giga_also 數(shù)據(jù)集上 LSTM 基線模型與注意力模型(WP)正確預(yù)測(cor.)和錯誤預(yù)測(inc.)的列聯(lián)表。

參考內(nèi)容:https://acl2018.org/2018/06/10/best-papers/

標(biāo)簽: https 網(wǎng)絡(luò) 選擇

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:DeepMind提出關(guān)系性深度強(qiáng)化學(xué)習(xí):在星際爭霸2任務(wù)中獲得最優(yōu)水平

下一篇:Google AI :使用深度學(xué)習(xí)分析電子健康記錄