久久影视这里只有精品国产,激情五月婷婷在线,久久免费视频二区,最新99国产小视频

        • 回答數(shù)

          2

        • 瀏覽數(shù)

          83

        龍真媽媽
        首頁 > 工程師考試 > 阿里算法工程師

        2個(gè)回答 默認(rèn)排序
        • 默認(rèn)排序
        • 按時(shí)間排序

        蟲蟲殿下

        已采納

        肯定有區(qū)別的,算法工程師考察的多是數(shù)據(jù)結(jié)構(gòu),常用算法(如神經(jīng)網(wǎng)絡(luò)等)而C++主要是一門編程語言

        阿里算法工程師

        179 評論(15)

        candyfloss365

        2017年 10 月 11 日,阿里巴巴達(dá)摩院正式成立,馬云的一句 “ 活得要比阿里巴巴長”,讓外界對它的未來發(fā)展,有了更 “意味深長” 的期待。

        在近三年多的時(shí)間里,達(dá)摩院在人工智能學(xué)術(shù)科研與應(yīng)用上齊頭并進(jìn),無論在國際學(xué)術(shù)頂會(huì)以及各類競賽上,還是在推動(dòng)學(xué)術(shù)成果的商業(yè)化落地上,都交出了亮眼的成績單,這也反過來吸引著人工智能領(lǐng)域的頂尖研究者們都匯聚于此。

        對于這些頂尖研究者們目前正在開展的研究工作,想必大家都充滿了探知欲!

        7月9日(晚)19:30-21:00 ,AI科技評論就將聯(lián)合阿里達(dá)摩院,外加阿里集團(tuán)在學(xué)術(shù)科研上同樣“堅(jiān)挺”的存在——阿里安全,給大家呈上一場 “ACL 2020 系列論文解讀·阿里巴巴專場” 直播!

        屆時(shí),來自阿里達(dá)摩院機(jī)器智能技術(shù)團(tuán)隊(duì)和阿里安全安全智能團(tuán)隊(duì)的 6 位高級(jí)算法專家、算法工程師以及研究型實(shí)習(xí)生們,將分別聚焦于多任務(wù)學(xué)習(xí)、少樣本文本分類、 任務(wù)型對話、神經(jīng)機(jī)器翻譯、知識(shí)蒸餾、跨域分詞標(biāo)注等NLP 細(xì)分領(lǐng)域,為大家?guī)硪粓稣撐慕庾x盛宴!

        本次分享的嘉賓具體都有誰呢?下面一一揭曉:****分享主題: SpanMlt:一種基于跨度的用于屬性詞和觀點(diǎn)詞配對抽取的多任務(wù)學(xué)習(xí)框架 ****分享嘉賓:黃龍濤

        分享內(nèi)容:

        屬性詞和觀點(diǎn)詞抽取,是細(xì)粒度的基于屬性的情感分析(ABSA)的兩個(gè)關(guān)鍵問題。屬性-觀點(diǎn)詞對( aspect-opinion pairs)可以為消費(fèi)者和觀點(diǎn)挖掘系統(tǒng)提供相關(guān)產(chǎn)品或服務(wù)的全局配置文件。但是,傳統(tǒng)方法無法在沒有給定屬性詞和觀點(diǎn)詞的情況下,直接輸出屬性-觀點(diǎn)詞對。盡管研究者最近提出了一些共提取方法來聯(lián)合提取屬性詞和觀點(diǎn)詞,但是并不能配對抽取兩者。為此,本文提出了一種端到端方法來解決屬性詞和觀點(diǎn)詞的配對抽?。≒AOTE)任務(wù)。此外,本文從聯(lián)合詞和關(guān)系抽取的角度而非此前大多數(shù)工作中執(zhí)行的序列標(biāo)注方法的角度,來處理該問題。我們提出了一個(gè)基于共享跨度的多任務(wù)學(xué)習(xí)框架,其中在跨度邊界的監(jiān)督下提取詞。同時(shí),使用跨度表示法來聯(lián)合識(shí)別配對關(guān)系。大量實(shí)驗(yàn)表明,我們的模型始終優(yōu)于 SOTA 方法。

        分享內(nèi)容:

        現(xiàn)有的工作往往使用元學(xué)習(xí)(meta learning)的方法,通過在一系列meta-task中切換來獲得少樣本學(xué)習(xí)的能力,但是在task間的切換會(huì)帶來遺忘的問題,因此考慮使用記憶機(jī)制來輔助meta learning的訓(xùn)練。在本工作中,我們將監(jiān)督學(xué)習(xí)得到的分類參數(shù)作為meta learning的全局記憶,并提出了動(dòng)態(tài)記憶路由算法,基于dynamic routing的方式將全局記憶信息融入到meta task的訓(xùn)練和預(yù)測階段。此外,動(dòng)態(tài)記憶路由算法還可以使用query信息來增強(qiáng)歸納類別表示的能力,對口語場景下的語言多樣性表達(dá)有更好的泛化性能。在中英文場景少樣本分類任務(wù)數(shù)據(jù)集上,均取得了STOA的結(jié)果。

        分享主題:多領(lǐng)域?qū)υ拕?dòng)作和回復(fù)聯(lián)合生成****分享嘉賓:田俊峰

        分享內(nèi)容: 在任務(wù)型對話中,產(chǎn)生流暢且信息豐富的回復(fù)至關(guān)重要?,F(xiàn)有pipeline方法通常先預(yù)測多個(gè)對話動(dòng)作,然后使用它們的全局表示來輔助回復(fù)生成。這種方法有兩個(gè)缺陷:第一,在預(yù)測對話動(dòng)作時(shí),多領(lǐng)域的固有結(jié)構(gòu)被忽略了;其次,在生成回復(fù)時(shí)沒有考慮到對話動(dòng)作和回復(fù)之間的語義聯(lián)系。為了解決這些問題,我們提出了一種同時(shí)生成對話動(dòng)作和回復(fù)的神經(jīng)聯(lián)合生成模型。與以往的方法不同,我們的對話動(dòng)作生成模塊可以保留多領(lǐng)域?qū)υ拕?dòng)作的層次結(jié)構(gòu),同時(shí)我們的回復(fù)生成模塊可以動(dòng)態(tài)地關(guān)注到相關(guān)的對話動(dòng)作。在訓(xùn)練時(shí),我們采用不確定性損失函數(shù)來自適應(yīng)地調(diào)整兩個(gè)任務(wù)的權(quán)重。在大規(guī)模MultiWOZ數(shù)據(jù)集上進(jìn)行了評估,實(shí)驗(yàn)結(jié)果表明,我們的模型在自動(dòng)評估和人工評估上都比SOTA模型有很好的提升。****分享主題:神經(jīng)機(jī)器翻譯的多尺度協(xié)同深度模型******分享嘉賓:魏相鵬**

        近年來,神經(jīng)機(jī)器翻譯(NMT)方法憑借其出色的翻譯性能在大量應(yīng)用場景中取代了基于統(tǒng)計(jì)的機(jī)器翻譯方法。目前,制約NMT模型性能的因素主要包括模型的特征表達(dá)能力和數(shù)據(jù)規(guī)模。因此,我們提出一種基于多尺度協(xié)作(MSC)機(jī)制的深度神經(jīng)機(jī)器翻譯模型,以提高模型對底層(具象化)和高層(抽象化)特征的建模能力。

        實(shí)驗(yàn)證明,(1) 多尺度協(xié)作機(jī)制有助于構(gòu)建極深的NMT模型的同時(shí)帶來性能上的提升,(2) 基于MSC機(jī)制的深度NMT模型能夠更好地翻譯語義結(jié)構(gòu)復(fù)雜的自然語言句子。

        ****分享主題:多語種序列標(biāo)注的結(jié)構(gòu)級(jí)知識(shí)蒸餾******分享嘉賓:王新宇**

        多語言序列標(biāo)注是一項(xiàng)使用單一統(tǒng)一模型預(yù)測多語言標(biāo)簽序列的任務(wù)。與依賴于多個(gè)單語模型相比,使用多語言模型具有模型規(guī)模小、在線服務(wù)容易和對低資源語言通用的優(yōu)點(diǎn)。然而,由于模型容量的限制,目前的多語種模型仍然遠(yuǎn)遠(yuǎn)低于單獨(dú)的單語模型。本文提出將多個(gè)單語言模型(teachers)的結(jié)構(gòu)知識(shí)提取到統(tǒng)一的多語言模型(student)中,以縮小單語言模型與統(tǒng)一的多語言模型之間的差距。我們提出了兩種基于結(jié)構(gòu)層次信息的知識(shí)挖掘方法:

        ****分享主題:跨域中文分詞的遠(yuǎn)程標(biāo)注與對抗耦合訓(xùn)練******分享嘉賓:丁寧**

        完全監(jiān)督神經(jīng)方法在中文分詞(CWS)的任務(wù)上取得了重大進(jìn)展。但是,如果由于域間的分布差異和集外詞(OOV)問題導(dǎo)致域遷移,則監(jiān)督模型的性能始終一直大幅下降。為了實(shí)時(shí)緩解此問題,本文將跨域中文分詞的遠(yuǎn)程標(biāo)注和對抗性訓(xùn)練直觀地結(jié)合在一起。

        7月9日,6位來自阿里的分享嘉賓,與大家不見不散!

        ACL 2020原定于2020年7月5日至10日在美國華盛頓西雅圖舉行,因新冠肺炎疫情改為線上會(huì)議。為促進(jìn)學(xué)術(shù)交流,方便國內(nèi)師生提早了解自然語言處理(NLP)前沿研究,AI 科技評論將推出「ACL 實(shí)驗(yàn)室系列論文解讀」內(nèi)容,同時(shí)歡迎更多實(shí)驗(yàn)室參與分享,敬請期待!

        140 評論(12)

        相關(guān)問答