中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

計(jì)算語(yǔ)言頂會(huì)ACL 2018最佳論文公布!這些大學(xué)與研究員榜上有名

2018-06-13    來(lái)源:

容器云強(qiáng)勢(shì)上線!快速搭建集群,上萬(wàn)Linux鏡像隨意使用
今日,ACL 2018 公布了 5 篇最佳論文,包括三篇最佳長(zhǎng)論文和 2 篇最佳短論文。今年的 ACL 共收到 1544 份提交論文,其中 1018 份長(zhǎng)論文接收了 258 篇,526 份短論文接收了 126 篇,總體接受率為 24.9%。

ACL 2018 獲獎(jiǎng)名單如下:

最佳長(zhǎng)論文

1. Finding syntax in human encephalography with beam search(尚未公開(kāi))

作者:John Hale、Chris Dyer、Adhiguna Kuncoro、Jonathan Brennan

2. Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information

作者:Sudha Rao、Hal Daumé III 均來(lái)自于馬里蘭大學(xué)帕克分校。

3. Let’s do it “again”: A First Computational Approach to Detecting Adverbial Presupposition Triggers

作者:Andre Cianflone、Yulan Feng、Jad Kabbara、Jackie Chi Kit Cheung,來(lái)自于麥吉爾大學(xué)和 MILA。

最佳短論文

1. Know What You Don’t Know: Unanswerable Questions for SQuAD.(尚未公開(kāi))

作者:Pranav Rajpurkar、Robin Jia、Percy Liang

目前,該論文尚未公開(kāi),但三位研究員都來(lái)自斯坦福大學(xué)。

2. ‘Lighter’ Can Still Be Dark: Modeling Comparative Color Descriptions.(尚未公開(kāi))

作者:Olivia Winn、Smaranda Muresan

該獲獎(jiǎng)?wù)撐牡膬晌蛔髡邅?lái)自于哥倫比亞大學(xué)。

在本文中,對(duì)兩篇已公開(kāi)的獲獎(jiǎng)?wù)撐倪M(jìn)行了編譯介紹,感興趣的同學(xué)可以查看原論文:

論文 1: Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information

 

 

論文地址:https://arxiv.org/abs/1805.04655

摘要:詢問(wèn)對(duì)于交流而言是很基礎(chǔ)的,然而機(jī)器無(wú)法與人類進(jìn)行高效協(xié)作,除非它們可以學(xué)會(huì)問(wèn)問(wèn)題。在這項(xiàng)研究中,我們?yōu)榻o澄清性(clarification)提問(wèn)排序的任務(wù)構(gòu)建了一個(gè)神經(jīng)網(wǎng)絡(luò)模型。該模型受完美信息期望值的思想啟發(fā):一個(gè)問(wèn)題好不好在于其期望的回答是否有用。我們使用了來(lái)自 StackExchange 的數(shù)據(jù)來(lái)研究這個(gè)問(wèn)題,StackExchange 是一個(gè)豐富的在線資源,人們通常在帖子中詢問(wèn)澄清性問(wèn)題,從而他們可以更好地為帖子樓主提供幫助。我們創(chuàng)建了一個(gè)由大約 77000 個(gè)澄清性問(wèn)題帖子構(gòu)成的數(shù)據(jù)集,其中每個(gè)帖子包含一個(gè)問(wèn)答對(duì),這些帖子來(lái)自 StackExchange 的三個(gè)領(lǐng)域:askubuntu、unix 和 superuser。我們?cè)谠摂?shù)據(jù)集的 500 個(gè)樣本上通過(guò)和人類專家判斷對(duì)比對(duì)我們的模型進(jìn)行了評(píng)估,并在受控基線上實(shí)現(xiàn)了顯著的提高。

提問(wèn)的核心目標(biāo)是填補(bǔ)信息鴻溝,該過(guò)程通常通過(guò)澄清性問(wèn)題進(jìn)行。我們認(rèn)同好的問(wèn)題是其答案最可能有用的問(wèn)題?紤]到圖 1 中的信息交流,其中樓主(我們叫他 Terry)就配置環(huán)境變量提問(wèn)。這個(gè)帖子不夠細(xì)化,一個(gè)回復(fù)者(Parker)問(wèn)了一個(gè)澄清性問(wèn)題(如下 a),不過(guò)也可以問(wèn)問(wèn)題(b)或(c)。

(a)你使用的是哪個(gè)版本的 Ubuntu?

(b)你的無(wú)線網(wǎng)卡型號(hào)是什么?

(c)你是在 x86 64 架構(gòu)上運(yùn)行 Ubuntu 14.10 kernel 4.4.0-59- generic 嗎?

Parker 不應(yīng)該問(wèn)(b)因?yàn)榇鸢缚赡軟](méi)什么用;也不應(yīng)該問(wèn)(c)因?yàn)檫@個(gè)問(wèn)題太具體了,「No」或「I do not know」這樣的答案也沒(méi)什么用處。Parker 的問(wèn)題(a)就好多了:答案有用的可能性高,且對(duì)于 Terry 來(lái)說(shuō)是可以回答的。

 

 

圖 1:更新在線問(wèn)答論壇「askubuntu.com」上的帖子來(lái)補(bǔ)充評(píng)論中缺失的信息。

 

 

圖 2:我們的模型在測(cè)試過(guò)程中的行為:給出帖子 p,我們使用 Lucene 檢索出 10 個(gè)與 p 類似的帖子。對(duì)這 10 個(gè)帖子提問(wèn)的問(wèn)題是我們的候選問(wèn)題 Q,對(duì)這些問(wèn)題的答復(fù)是我們的候選答案 A。對(duì)于每個(gè)候選問(wèn)題 q_i,我們生成答案表征 F(p, q_i),并計(jì)算候選答案 a_j 與答案表征 F(p, q_i) 之間的接近程度。然后我們計(jì)算帖子 p 的效用,并確定是否使用答案 a_j 對(duì)它進(jìn)行更新。最后,我們根據(jù)公式 1,按照問(wèn)題的期望效用對(duì)候選問(wèn)題 Q 進(jìn)行排序。

 

 

圖 3:答案生成器的訓(xùn)練過(guò)程。給定一個(gè)帖子 p_i 和問(wèn)題 q_i,我們生成答案表征,其不僅與原始答案 a_i 很接近,而且在候選問(wèn)題 q_j 與原始問(wèn)題 q_i 接近的情況下答案表征與候選答案 a_j 也很接近。

實(shí)驗(yàn)結(jié)果

我們?cè)趯?shí)驗(yàn)評(píng)估過(guò)程中使用的主要研究問(wèn)題是:

1. 神經(jīng)網(wǎng)絡(luò)架構(gòu)是否比非神經(jīng)網(wǎng)絡(luò)基線模型有所改善?

2. EVPI formalism 是否能影響有類似表征力的前饋網(wǎng)絡(luò)?

3. 答案有助于識(shí)別正確的問(wèn)題嗎?

4. 在候選問(wèn)題(不包括原始問(wèn)題)上評(píng)估模型時(shí),模型性能如何?

 

 

表 2:在 500 個(gè)樣本上評(píng)估的模型性能,包括「最佳」標(biāo)注的并集(B1 ∪ B2)、「有效」標(biāo)注的交集(V1 ∩ V2),以及數(shù)據(jù)集中和帖子配對(duì)的原始問(wèn)題。加粗和非加粗?jǐn)?shù)字的區(qū)別在于統(tǒng)計(jì)顯著性 p<0.05(使用自引導(dǎo)檢驗(yàn)計(jì)算)。p@k 是模型排序最高的 k 個(gè)問(wèn)題的精度,MAP 是模型預(yù)測(cè)排序的平均精度。

結(jié)論

我們?yōu)閷W(xué)習(xí)給澄清性問(wèn)題排序構(gòu)建了一個(gè)新的數(shù)據(jù)集,并為求解該任務(wù)提出了新的模型。該模型結(jié)合了著名的深度網(wǎng)絡(luò)架構(gòu)和完美信息期望值的經(jīng)典概念,可以從提問(wèn)者的角度為實(shí)用的選擇有效地建模:如果我問(wèn)了這個(gè)問(wèn)題,我應(yīng)該如何設(shè)想對(duì)方的回答。這種實(shí)用原則近期被證明在其它任務(wù)中也有用(Golland et al., 2010; Smith et al., 2013; Orita et al., 2015; Andreas and Klein, 2016)。人們可以自然地將我們的 EVPI 方法擴(kuò)展到完全的強(qiáng)化學(xué)習(xí)方法,以處理多回合的對(duì)話。實(shí)驗(yàn)結(jié)果表明 EVPI 模型對(duì)于求解問(wèn)題生成任務(wù)而言是有潛力的范式。

論文 2:Let’s do it “again”: A First Computational Approach to Detecting Adverbial Presupposition Triggers

 

 

論文地址:https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf

摘要:我們介紹了預(yù)測(cè)狀語(yǔ)預(yù)設(shè)觸發(fā)語(yǔ)(如 also、again)的任務(wù)。解決這樣的任務(wù)需要檢測(cè)語(yǔ)篇中的重復(fù)或類似事件,并且在自然語(yǔ)言生成任務(wù)中有應(yīng)用,例如摘要和對(duì)話系統(tǒng)。我們?yōu)檫@項(xiàng)任務(wù)創(chuàng)建了兩個(gè)新的數(shù)據(jù)集,分別來(lái)自賓州樹(shù)庫(kù)(Penn Treebank)和 Annotated English Gigaword 語(yǔ)料庫(kù),并為其定制了一個(gè)新的注意力機(jī)制。我們的注意力機(jī)制增強(qiáng)了基線循環(huán)神經(jīng)網(wǎng)絡(luò),而不需要額外的可訓(xùn)練參數(shù),從而使注意力機(jī)制的額外計(jì)算成本最小化。我們已證實(shí),根據(jù)統(tǒng)計(jì)數(shù)據(jù),該模型優(yōu)于許多基線模型,包括基于 LSTM 的語(yǔ)言模型。

在本文中,我們的重點(diǎn)是如 again、also、still 這樣的狀語(yǔ)預(yù)設(shè)觸發(fā)語(yǔ)。狀語(yǔ)預(yù)設(shè)觸發(fā)語(yǔ)指出了語(yǔ)篇中事件的重復(fù)、延續(xù)或終止,或者類似事件的存在。

本論文的主要貢獻(xiàn)如下:

介紹了預(yù)測(cè)狀語(yǔ)預(yù)設(shè)觸發(fā)語(yǔ)的任務(wù);

提出了用于檢測(cè)狀語(yǔ)預(yù)設(shè)觸發(fā)語(yǔ)的新數(shù)據(jù)集,以及一種可應(yīng)用于其它類似預(yù)處理任務(wù)的數(shù)據(jù)提取方法;

在 RNN 架構(gòu)中使用一種新的注意力機(jī)制,可用于預(yù)測(cè)狀語(yǔ)預(yù)設(shè)觸發(fā)語(yǔ)任務(wù)。這種注意力機(jī)制無(wú)需引入額外的參數(shù),但預(yù)測(cè)效果優(yōu)于很多基線模型。

3 數(shù)據(jù)集

我們從兩個(gè)語(yǔ)料庫(kù)中提取了數(shù)據(jù)集,即賓州樹(shù)庫(kù)(PTB)語(yǔ)料庫(kù)(Marcuset al.,1993)和第三版 English Gigaword 語(yǔ)料庫(kù)(Graff et al.,2007)的子集(sections 000-760)。

 

 

圖 1:我們的數(shù)據(jù)集中一個(gè)包含預(yù)設(shè)觸發(fā)語(yǔ)的實(shí)例。

4 學(xué)習(xí)模型

本章介紹了我們基于注意力的模型。該模型計(jì)算每一時(shí)間步上隱藏狀態(tài)之間的相關(guān)性,然后再在這些相關(guān)性上應(yīng)用注意力機(jī)制,從而擴(kuò)展雙向 LSTM 模型。我們提出的加權(quán)池化(WP)神經(jīng)網(wǎng)絡(luò)架構(gòu)如圖 2 所示。

 

 

圖 2:我們提出的加權(quán)池化神經(jīng)網(wǎng)絡(luò)架構(gòu)(WP)。分詞后的輸入將嵌入到預(yù)訓(xùn)練詞嵌入中,并可能與經(jīng)過(guò) one-hot 編碼的 POS 標(biāo)簽相級(jí)聯(lián)。輸入序列隨后會(huì)通過(guò)雙向 LSTM 進(jìn)行編碼,并饋送到注意力機(jī)制內(nèi)。計(jì)算得出的注意力權(quán)重隨后可用于編碼狀態(tài)的加權(quán)平均運(yùn)算,依次連接到全連接層以預(yù)測(cè)預(yù)設(shè)觸發(fā)語(yǔ)。

6 結(jié)果

表 2 顯示了具有 POS 標(biāo)簽和沒(méi)有該標(biāo)簽的不同模型的表現(xiàn)?傮w而言,在結(jié)合不同數(shù)據(jù)集以及是否使用 POS 標(biāo)簽的所有 14 個(gè)場(chǎng)景里,我們的注意力模型 WP 在 10 個(gè)場(chǎng)景中優(yōu)于所有其它模型。重要的是,該模型在未引入額外參數(shù)的情況下,超越了常規(guī) LSTM 模型,這突出了 WP 基于注意力的池化方法的優(yōu)勢(shì)。

 

 

表 2:各種模型的性能,包括加權(quán)池化的 LSTM(WP)模型。MFC 指最常見(jiàn)的基線,LogReg 是 logistic 回歸基線。LSTM 和 CNN 對(duì)應(yīng)強(qiáng)大的神經(jīng)網(wǎng)絡(luò)基線模型。請(qǐng)注意,我們把每個(gè)「+ POS」案例和「- POS」案例中最佳模型的性能數(shù)字加粗顯示了。

 

 

表 3:最佳模型的混淆矩陣,預(yù)測(cè)預(yù)設(shè)觸發(fā)語(yǔ)是否存在。

 

 

表 4:在 Giga_also 數(shù)據(jù)集上 LSTM 基線模型與注意力模型(WP)正確預(yù)測(cè)(cor.)和錯(cuò)誤預(yù)測(cè)(inc.)的列聯(lián)表。

參考內(nèi)容:https://acl2018.org/2018/06/10/best-papers/

標(biāo)簽: https 網(wǎng)絡(luò) 選擇

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請(qǐng)與原作者聯(lián)系。

上一篇:DeepMind提出關(guān)系性深度強(qiáng)化學(xué)習(xí):在星際爭(zhēng)霸2任務(wù)中獲得最優(yōu)水平

下一篇:Google AI :使用深度學(xué)習(xí)分析電子健康記錄