NLP簡(jiǎn)報(bào)(Issue#4)

本文首發(fā)于微信公眾號(hào):NewBeeNLP


歡迎來(lái)到 NLP 時(shí)事簡(jiǎn)報(bào)凛忿!全文較長(zhǎng)废离,建議收藏。

如果想讓自己有趣的研究/項(xiàng)目出現(xiàn)在NLP簡(jiǎn)報(bào)中,隨時(shí)在公眾號(hào)后臺(tái)留言聯(lián)系我

  • 1心软、Publications ??
    • 1.1 Turing-NLG from Mircosoft

    • 1.2 Neural based Dependency Parsing

    • 1.3 End-to-end Cloud-based Information Extraction with BERT

    • 1.4 Question Answering Benchmark

    • 1.5 Radioactive data: tracing through training

    • 1.6 REALM: Retrieval-Augmented Language Model Pre-Training

    • 1.7 ERNIE-GEN from Baidu

  • 2商乎、Creativity and Society ??
    • 2.1 允許在科學(xué)會(huì)議上進(jìn)行遠(yuǎn)程論文和海報(bào)展示
    • 2.2 Abstraction and Reasoning Challenge
    • 2.3 ML and NLP Publications in 2019
    • 2.4 Growing Neural Cellular Automata
    • 2.5 Transformer attention可視化
    • 2.6 SketchTransfer
    • 2.7 The future of NLP in Python
  • 3攀细、Tools and Datasets ??

    • 3.1 DeepSpeed + ZeRO

    • 3.2 一個(gè)用于進(jìn)行快速有效的3D深度學(xué)習(xí)研究的庫(kù)

    • 3.3 管理你的ML項(xiàng)目配置

    • 3.4 貝葉斯網(wǎng)絡(luò)因果推理工具包

    • 3.5 TyDi問(wèn)答:多語(yǔ)言問(wèn)答基準(zhǔn)

    • 3.6 Question Answering for Node.js

    • 3.7 靈活而強(qiáng)大的NLP工具包

  • 4箫措、Ethics in AI ??

    • 4.1 識(shí)別文本中的subjective bias
    • 4.2 Artificial Intelligence, Values and Alignment
    • 4.3 關(guān)于審核AI系統(tǒng)
  • 5、Articles and Blog posts ??

    • 5.1 用于NLP系統(tǒng)的模型蒸餾
    • 5.2 單詞的上下文表示
    • 5.3 神經(jīng)網(wǎng)絡(luò)中的稀疏性
    • 5.4 訓(xùn)練你自己的語(yǔ)言模型
    • 5.5 分詞器Tokenizer
  • 6哎迄、Education ??

    • 6.1 阿姆斯特丹自由大學(xué)機(jī)器學(xué)習(xí)課程
    • 6.2 機(jī)器學(xué)習(xí)數(shù)學(xué)資源
    • 6.3 深度學(xué)習(xí)入門(mén)
    • 6.4 Pytorch深度學(xué)習(xí)
    • 6.5 Missing Semester of Your CS
    • 6.6 深度學(xué)習(xí)進(jìn)階
  • 7回右、Noteworthy Mentions ??
  • 1、Publications ??

    1.1 Turing-NLG: A 17-billion-parameter language model by Microsoft

    圖靈自然語(yǔ)言生成(T-NLG)[1]是由 Microsoft AI 研究人員提出的 170 億參數(shù)語(yǔ)言模型漱挚。除了是迄今為止最大的已知語(yǔ)言模型(如下圖所示)之外翔烁,T-NLG 是基于 78 層 Transformer 的語(yǔ)言模型,其在 WikiText-103 上的困惑度性能優(yōu)于之前的最新技術(shù)成果(由NVIDIA Megatron-LM[2]持有) 棱烂。T-NLG 在各種任務(wù)(例如問(wèn)題回答和抽象摘要)上進(jìn)行了測(cè)試租漂,同時(shí)分別顯示了模型的好處,例如零簡(jiǎn)短問(wèn)題功能和最小化監(jiān)督颊糜。此外,該模型得益于 DeepSpeed 庫(kù)(與 PyTorch 兼容)和 ZeRO 優(yōu)化器秃踩,這兩者也會(huì)在本期簡(jiǎn)報(bào)中具體介紹衬鱼。

    1.2 Neural based Dependency Parsing

    Miryam de Lhoneux 公布了其博士學(xué)位論文“Linguistically Informed Neural Dependency Parsing for Typologically Diverse Languages[3]”。這項(xiàng)工作是關(guān)于使用神經(jīng)學(xué)方法以類型多樣的語(yǔ)言(即以結(jié)構(gòu)上不同的方式構(gòu)造和表達(dá)含義的語(yǔ)言)進(jìn)行依賴關(guān)系解析[4]憔杨。論文指出 RNN 和遞歸層可能有助于合并到解析器中鸟赫,因?yàn)樗鼈冇兄诟嬷哂薪馕鏊璧闹匾Z(yǔ)言知識(shí)的模型。更多 ideas 包括使用多語(yǔ)言解析和參數(shù)共享策略來(lái)解析相關(guān)和不相關(guān)語(yǔ)言消别。

    1.3 End-to-end Cloud-based Information Extraction with BERT

    1.4 Question Answering Benchmark

    Wolfson 等發(fā)布了一個(gè)question understanding benchmark[6]抛蚤,以及一種用于分解計(jì)算適當(dāng)答案所必需的問(wèn)題的方法。他們利用眾包來(lái)注釋分解問(wèn)題所需的必要步驟寻狂, 為了展示該方法的可行性和適用性岁经,他們改進(jìn)了使用 HotPotQA 數(shù)據(jù)集的開(kāi)放域問(wèn)答。

    1.5 Radioactive data: tracing through training

    Facebook AI 研究人員最近發(fā)表了一項(xiàng)有趣的工作[7]蛇券,旨在標(biāo)記圖像(稱為「radioactive data」)缀壤,以驗(yàn)證該特定數(shù)據(jù)集是否用于訓(xùn)練 ML 模型。他們發(fā)現(xiàn)纠亚,可以使用巧妙的標(biāo)記將特征移向某個(gè)方向塘慕,即使只有 1%的訓(xùn)練數(shù)據(jù)是 radioactiv,模型也可以使用該標(biāo)記幫助檢測(cè)‘radioactive data’的使用情況蒂胞。這極具挑戰(zhàn)性图呢,因?yàn)閿?shù)據(jù)中的任何更改都可能會(huì)降低模型的準(zhǔn)確性。作者說(shuō),這項(xiàng)工作可以“幫助研究人員和工程師跟蹤用于訓(xùn)練模型的數(shù)據(jù)集蛤织,以便他們可以更好地了解各種數(shù)據(jù)集如何影響不同神經(jīng)網(wǎng)絡(luò)的性能”赴叹,在關(guān)鍵任務(wù) ML 應(yīng)用程序中,這似乎是一種重要的方法瞳筏。如果感興趣可以查看完整論文[8]了解具體信息稚瘾。

    1.6 REALM: Retrieval-Augmented Language Model Pre-Training

    1.7 ERNIE-GEN

    百度研究者提出了一種增強(qiáng)的多流序列,用于序列預(yù)訓(xùn)練和微調(diào)框架姚炕,名為ERNIE-GEN[9]摊欠,該框架通過(guò)填充生成機(jī)制和噪聲感知生成方法彌合了訓(xùn)練和推理之間的差異。為了使生成更接近人類的書(shū)寫(xiě)模式柱宦,此框架引入了逐跨生成流些椒,該流對(duì)模型進(jìn)行訓(xùn)練以連續(xù)預(yù)測(cè)語(yǔ)義上完整的跨距,而不是逐字預(yù)測(cè)掸刊。與現(xiàn)有的預(yù)訓(xùn)練方法不同免糕,ERNIE-GEN結(jié)合了多粒度目標(biāo)采樣來(lái)構(gòu)造預(yù)訓(xùn)練數(shù)據(jù),從而增強(qiáng)了編碼器和解碼器之間的相關(guān)性忧侧。實(shí)驗(yàn)結(jié)果表明石窑,ERNIE-GEN可以在一系列語(yǔ)言生成任務(wù)上以較少的預(yù)訓(xùn)練數(shù)據(jù)和參數(shù)來(lái)獲得最新的結(jié)果。

    2蚓炬、Creativity and Society ??

    2.1 允許在科學(xué)會(huì)議上進(jìn)行遠(yuǎn)程論文和海報(bào)展示

    過(guò)去一周有請(qǐng)?jiān)笗?shū)散發(fā)松逊,以便在與 ML 相關(guān)的科學(xué)會(huì)議上進(jìn)行遠(yuǎn)程論文和海報(bào)展示,可以在change.org[10]上閱讀有關(guān)它的更多信息肯夏。深度學(xué)習(xí)的先驅(qū) Yoshua Bengio 似乎在倡導(dǎo)人們?nèi)ズ炇鹫?qǐng)?jiān)笗?shū)经宏, 并在他的新博客[11]中闡明了這一點(diǎn)。

    2.2 Abstraction and Reasoning Challenge

    Fran?oisChollet 最近發(fā)布了一個(gè) Kaggle 競(jìng)賽驯击,他發(fā)布了抽象推理語(yǔ)料庫(kù)(ARC)[12]烁兰,旨在鼓勵(lì)用戶創(chuàng)建可以解決從未接觸過(guò)的推理任務(wù)的 AI 系統(tǒng)。希望能夠開(kāi)始構(gòu)建更強(qiáng)大的 AI 系統(tǒng)徊都,從而能夠更好沪斟,快速地自行解決新問(wèn)題,這可能有助于解決更具挑戰(zhàn)性的現(xiàn)實(shí)應(yīng)用碟贾,例如改善在極端和多樣化環(huán)境中運(yùn)行的自動(dòng)駕駛汽車(chē) 币喧。

    2.3 ML and NLP Publications in 2019

    Marek Rei 發(fā)布機(jī)器學(xué)習(xí)和 NLP 領(lǐng)域 2019 年出版數(shù)據(jù)統(tǒng)計(jì)[13],分析中包括的會(huì)議是 ACL袱耽,EMNLP杀餐,NAACL,EACL朱巨,COLING史翘,TACL,CL,CoNLL琼讽,NeurIPS必峰,ICML,ICLR 和 AAAI钻蹬。

    2.4 Growing Neural Cellular Automata

    2.5 Transformer attention 可視化

    2.6 SketchTransfer

    2.7 The future of NLP in Python

    Ines Montani關(guān)于Python NLP展望[17]的一組非常有意思的PPT介紹吼蚁。

    3、Tools and Datasets ??

    3.1 DeepSpeed + ZeRO

    3.2 一個(gè)用于進(jìn)行快速有效的 3D 深度學(xué)習(xí)研究的庫(kù)

    3.3 管理你的 ML 項(xiàng)目配置

    Hydra[20]是基于 Python 的配置工具问欠,用于更有效地管理復(fù)雜的 ML 項(xiàng)目肝匆。它旨在通過(guò)為 ML 項(xiàng)目提供功能的配置重用來(lái)幫助 PyTorch 研究人員。它提供的主要好處是它允許程序員像編寫(xiě)代碼一樣編寫(xiě)配置顺献,這意味著可以輕松地覆蓋配置文件旗国。Hydra 還可以幫助自動(dòng)管理 ML 項(xiàng)目輸出的工作目錄,這在需要保存和訪問(wèn)多個(gè)作業(yè)的多個(gè)實(shí)驗(yàn)結(jié)果時(shí)非常有用注整。

    3.4 貝葉斯網(wǎng)絡(luò)因果推理工具包

    3.5 TyDi 問(wèn)答:多語(yǔ)言問(wèn)答基準(zhǔn)

    3.6 Question Answering for Node.js

    Hugging Face 發(fā)布了基于 DistilBERT 的問(wèn)答庫(kù)[23]能曾,并繼續(xù)使 NLP 更加易于訪問(wèn)。該模型可以使用 Node.js 在生產(chǎn)中運(yùn)行肿轨,只需 3 行代碼寿冕。該模型利用了由 Hugging Face 和 TensorFlow.js(用于將機(jī)器學(xué)習(xí)模型與 Javascript 結(jié)合使用的流行庫(kù))構(gòu)建的 Tokenizer 的快速實(shí)現(xiàn)。

    3.7 靈活而強(qiáng)大的NLP工具包

    Forte[24]是用于構(gòu)建自然語(yǔ)言處理管道的工具包椒袍,具有跨任務(wù)交互蚂斤,適應(yīng)性強(qiáng)的數(shù)據(jù)模型接口等功能。它提供了一個(gè)以高度可組合的方式組裝最新的NLP和ML技術(shù)的平臺(tái)槐沼,包括從信息檢索,自然語(yǔ)言理解到自然語(yǔ)言生成的廣泛任務(wù)捌治。

    4岗钩、Ethics in AI ??

    4.1 識(shí)別文本中的 subjective bias

    計(jì)算社會(huì)科學(xué)的研究員 Diyi Yang 討論了 AI 系統(tǒng)如何幫助識(shí)別文本信息中的主觀偏見(jiàn)[25]。這是涉及 AI 系統(tǒng)和 NLP 的重要研究領(lǐng)域肖油,尤其是當(dāng)我們討論諸如新聞標(biāo)題之類的文本媒體的消費(fèi)時(shí)兼吓,很容易將其構(gòu)架成偏向消費(fèi)者,而實(shí)際上他們應(yīng)該追求更加客觀森枪。從應(yīng)用程序的角度來(lái)看视搏,自動(dòng)識(shí)別文本媒體中存在的主觀偏見(jiàn)以幫助消費(fèi)者更加了解他們正在消費(fèi)的內(nèi)容變得至關(guān)重要。此外還討論了 AI 如何也可以保持偏見(jiàn)县袱。

    4.2 Artificial Intelligence, Values and Alignment

    人工智能系統(tǒng)的興起以及它們?nèi)绾闻c人類價(jià)值觀保持一致是涉及人工智能系統(tǒng)倫理學(xué)的活躍研究領(lǐng)域浑娜。DeepMind[26]最近發(fā)布了一篇論文,深入探討了圍繞 AI 對(duì)齊的哲學(xué)問(wèn)題式散。該報(bào)告重點(diǎn)討論了兩個(gè)部分筋遭,即技術(shù)部分(即如何對(duì)從 AI 代理獲得可靠結(jié)果的值進(jìn)行編碼)和規(guī)范性(在 AI 中進(jìn)行編碼的原則是正確的)以及它們之間的聯(lián)系以及可以確保的部分。本文主張采用一種基于原則的 AI 對(duì)齊方法,并在信念和觀點(diǎn)存在差異的情況下保持公平待遇漓滔。

    4.3 關(guān)于審核 AI 系統(tǒng)

    VentureBeat 報(bào)告稱编饺,Google 研究人員與其他小組合作創(chuàng)建了一個(gè)名為 SMACTR 的框架,該框架使工程師可以審核 AI 系統(tǒng)响驴。進(jìn)行這項(xiàng)工作的原因是為了解決目前被消費(fèi)者廣泛使用以供使用的 AI 系統(tǒng)存在的問(wèn)責(zé)制差距透且。在這里閱讀完整的報(bào)告[27],在這里閱讀完整的論文[28]豁鲤。

    5秽誊、Articles and Blog posts ??

    5.1 用于 NLP 系統(tǒng)的模型蒸餾

    在NLP Highlights[29]播客的新劇集中,Thomas Wolf 和 Victor Sanh 討論了模型蒸餾畅形,以及如何將其用作壓縮大型模型(如 BERT)以用于可擴(kuò)展的實(shí)際 NLP 應(yīng)用程序的可行方法养距。他們?cè)谒麄兲岢龅姆Q為DistilBERT[30]的方法中對(duì)此概念進(jìn)行了進(jìn)一步的討論,在該方法中日熬,他們構(gòu)建較小的模型(基于較大模型的相同體系結(jié)構(gòu))棍厌,以根據(jù)該模型的輸出來(lái)模仿較大模型的行為。本質(zhì)上竖席,較小的模型(學(xué)生)會(huì)嘗試根據(jù)其輸出分布來(lái)擬合教師的概率分布耘纱。

    5.2 單詞的上下文表示

    最近,關(guān)于諸如 BERT 的上下文化方法成功用于處理各種復(fù)雜的 NLP 任務(wù)的討論很多毕荐。在這篇文章中束析,Kawin Ethayarajh 試圖回答以下問(wèn)題:諸如 BERT,ELMo 和 GPT-2 之類的上下文模型及其上下文化的詞表示形式是什么[31]憎亚?主題包括語(yǔ)境性员寇,語(yǔ)境特定性的度量以及靜態(tài)嵌入與語(yǔ)境化表示之間的比較。

    5.3 神經(jīng)網(wǎng)絡(luò)中的稀疏性

    ML 研究人員 Fran?oisLagunas 寫(xiě)了這篇很棒的文章第美,Is the future of Neural Networks Sparse?[32] 討論了他對(duì)在神經(jīng)網(wǎng)絡(luò)模型中采用稀疏張量的樂(lè)觀態(tài)度蝶锋。希望采用某種形式的稀疏性來(lái)減小當(dāng)前模型的大小,這些模型由于其大小和速度而在某些時(shí)候變得不切實(shí)際什往。由于當(dāng)前模型(例如 Transformer)的龐大規(guī)模(通常依賴數(shù)十億個(gè)參數(shù))扳缕,因此在 ML 中可能值得探討這一概念。但是别威,從開(kāi)發(fā)人員工具的角度來(lái)看躯舔,在 GPU 上的神經(jīng)網(wǎng)絡(luò)中支持有效稀疏性的實(shí)現(xiàn)細(xì)節(jié)尚不清楚,這是機(jī)器學(xué)習(xí)社區(qū)正在努力的事情省古。

    5.4 訓(xùn)練你自己的語(yǔ)言模型

    如果你想學(xué)習(xí)如何從零開(kāi)始訓(xùn)練語(yǔ)言模型[33]粥庄,請(qǐng)查看 Hugging Face 的這份令人印象深刻且全面的教程。他們顯然利用了自己的庫(kù) Transformers 和 Tokenizers 來(lái)訓(xùn)練模型衫樊。

    5.5 分詞器 Tokenizer

    6飒赃、Education ??

    6.1 阿姆斯特丹自由大學(xué)機(jī)器學(xué)習(xí)課程

    現(xiàn)在利花,你可以在線學(xué)習(xí) 2020 MLVU 機(jī)器學(xué)習(xí)課程[35],其中包括全套幻燈片载佳,視頻和教學(xué)大綱炒事。它旨在作為 ML 的入門(mén),但它也包含其他與深度學(xué)習(xí)相關(guān)的主題蔫慧,例如 VAE 和 GAN挠乳。

    6.2 機(jī)器學(xué)習(xí)數(shù)學(xué)資源

    SuzanaIli? 和東京機(jī)器學(xué)習(xí)(MLT)在使 ML 教育民主化方面一直做著驚人的工作。例如姑躲,該庫(kù)Machine-Learning-Tokyo/Math_resources[36]展示了免費(fèi)的在線資源集合睡扬,用于學(xué)習(xí) ML 中使用的數(shù)學(xué)概念的基礎(chǔ)。

    6.3 深度學(xué)習(xí)入門(mén)

    MIT 的“深度學(xué)習(xí)入門(mén)”課程[37]黍析, 每周都會(huì)發(fā)布新的講座卖怜,所有方面和視頻(包括編碼實(shí)驗(yàn)室)都將發(fā)布。

    6.4 Pytorch 深度學(xué)習(xí)

    Alfredo Canziani 發(fā)布了PyTorch 深度學(xué)習(xí)[38]微型課程的幻燈片和筆記本阐枣,該資源庫(kù)還包含一個(gè)配套網(wǎng)站马靠,其中包含對(duì)本課程中所教授概念的文字描述。

    6.5 Missing Semester of Your CS

    由麻省理工學(xué)院的教員發(fā)布的“Missing Semester”[39]是一門(mén)很棒的在線課程蔼两,其中包含對(duì)非開(kāi)發(fā)背景的數(shù)據(jù)科學(xué)家而言可能有用的材料甩鳄。它包括諸如 Shell 工具和腳本以及版本控制之類的主題。

    6.6 深度學(xué)習(xí)進(jìn)階

    CMU 發(fā)布了“Advanced Deep Learning”[40]課程的幻燈片和教學(xué)大綱额划,其中包括諸如自動(dòng)回歸模型妙啃,生成模型以及自我監(jiān)督/預(yù)測(cè)學(xué)習(xí)等主題。該課程適用于 MS 或 Ph.D俊戳, 具有 ML 高級(jí)背景的學(xué)生揖赴。

    7、Noteworthy Mentions ??

    BERT-of-Theseus[41]提出了一種通過(guò)將 BERT 模型劃分為原始組件來(lái)逐步替換和壓縮 BERT 模型的方法抑胎。通過(guò)逐步替換和訓(xùn)練储笑,還具有將模型的原始組件和壓縮版本組合在一起的優(yōu)勢(shì)。所提出的模型優(yōu)于 GLUE 基準(zhǔn)上的其他知識(shí)提煉方法圆恤。

    這兒找到一份有趣的課程,稱為“機(jī)器學(xué)習(xí)入門(mén)”[42]腔稀,涵蓋了 ML 基礎(chǔ)知識(shí)盆昙,監(jiān)督回歸,隨機(jī)森林焊虏,參數(shù)調(diào)整以及許多其他基本的 ML 主題淡喜。

    希臘語(yǔ) BERT(GreekBERT)[43]模型現(xiàn)在可通過(guò) Hugging Face Transformers 庫(kù)使用。

    Jeremy Howard[44]發(fā)表了一篇論文诵闭,描述了 fastai 深度學(xué)習(xí)庫(kù)炼团,該庫(kù)被廣泛用于研究并教授其深度學(xué)習(xí)開(kāi)放課程澎嚣, 推薦給致力于構(gòu)建和改進(jìn)深度學(xué)習(xí)和 ML 庫(kù)的軟件開(kāi)發(fā)人員。

    Deeplearning.ai 完成了 TensorFlow 所有四個(gè)課程的發(fā)布:TensorFlow: Data and Deployment Specialization[45]瘟芝。該專業(yè)的主要目的是教育開(kāi)發(fā)人員如何在不同的場(chǎng)景中有效地部署模型易桃,以及在訓(xùn)練模型時(shí)以有趣且有效的方式使用數(shù)據(jù)。

    Sebastian Raschka 最近發(fā)表了一篇題為《Python 中的機(jī)器學(xué)習(xí):數(shù)據(jù)科學(xué)锌俱,機(jī)器學(xué)習(xí)和人工智能的主要發(fā)展和技術(shù)趨勢(shì)[46]》的論文晤郑。本文是對(duì)機(jī)器學(xué)習(xí)工具前景的全面回顧。對(duì)于理解 ML 工程中使用的某些庫(kù)和概念的各種優(yōu)點(diǎn)而言贸宏,這是一份極好的報(bào)告造寝。此外,還提供了有關(guān)基于 Python 的機(jī)器學(xué)習(xí)庫(kù)的未來(lái)的信息吭练。



    本文參考資料

    [1]

    圖靈自然語(yǔ)言生成(T-NLG): https://www.microsoft.com/en-us/research/blog/turing-nlg-a-17-billion-parameter-language-model-by-microsoft/

    [2]

    NVIDIA Megatron-LM: https://github.com/NVIDIA/Megatron-LM

    [3]

    Linguistically Informed Neural Dependency Parsing for Typologically Diverse Languages: http://uu.diva-portal.org/smash/record.jsf?pid=diva2:1357373&dswid=7905

    [4]

    依賴關(guān)系解析: http://nlpprogress.com/english/dependency_parsing.html

    [5]

    Rapid Adaptation of BERT for Information Extraction on Domain-Specific Business Documents: https://arxiv.org/abs/2002.01861

    [6]

    question understanding benchmark: https://arxiv.org/abs/2001.11770v1

    [7]

    有趣的工作: https://ai.facebook.com/blog/using-radioactive-data-to-detect-if-a-data-set-was-used-for-training/

    [8]

    完整論文: https://arxiv.org/pdf/2002.00937.pdf

    [9]

    ERNIE-GEN: http://xxx.itp.ac.cn/abs/2001.11314

    [10]

    change.org: https://www.change.org/p/organizers-of-data-science-and-machine-learning-conferences-neurips-icml-aistats-iclr-uai-allow-remote-paper-poster-presentations-at-conferences

    [11]

    新博客: https://yoshuabengio.org/2020/02/10/fusce-risus/

    [12]

    抽象推理語(yǔ)料庫(kù)(ARC): https://www.kaggle.com/c/abstraction-and-reasoning-challenge/overview

    [13]

    機(jī)器學(xué)習(xí)和 NLP 領(lǐng)域 2019 年出版數(shù)據(jù)統(tǒng)計(jì): https://www.marekrei.com/blog/ml-and-nlp-publications-in-2019/

    [14]

    Growing Neural Cellular Automata: https://distill.pub/2020/growing-ca/

    [15]

    交互式 Transformer 注意可視化: https://github.com/SIDN-IAP/attnvis

    [16]

    SketchTransfer: https://arxiv.org/pdf/1912.11570.pdf

    [17]

    Python NLP展望: https://speakerdeck.com/inesmontani/the-future-of-nlp-in-python-keynote-pycon-colombia-2020

    [18]

    DeepSpeed 與 ZeRO: https://www.microsoft.com/en-us/research/blog/zero-deepspeed-new-system-optimizations-enable-training-models-with-over-100-billion-parameters/

    [19]

    PyTorch3D: https://ai.facebook.com/blog/-introducing-pytorch3d-an-open-source-library-for-3d-deep-learning/

    [20]

    Hydra: https://hydra.cc/

    [21]

    CausalNex: https://causalnex.readthedocs.io/en/latest/01_introduction/01_introduction.html

    [22]

    TyDi QA: https://ai.googleblog.com/2020/02/tydi-qa-multilingual-question-answering.html

    [23]

    問(wèn)答庫(kù): https://github.com/huggingface/node-question-answering

    [24]

    Forte: https://github.com/asyml/forte

    [25]

    識(shí)別文本信息中的主觀偏見(jiàn): https://podcasts.apple.com/us/podcast/will-ai-help-identify-bias-or-perpetuate-it-with-diyi-yang/id1435564422?i=1000464141922

    [26]

    DeepMind: https://deepmind.com/research/publications/Artificial-Intelligence-Values-and-Alignment

    [27]

    完整的報(bào)告: https://venturebeat.com/2020/01/30/google-researchers-release-audit-framework-to-close-ai-accountability-gap/

    [28]

    完整的論文: https://dl.acm.org/doi/abs/10.1145/3351095.3372873

    [29]

    NLP Highlights: https://soundcloud.com/nlp-highlights/104-model-distillation-with-victor-sanh-and-thomas-wolf

    [30]

    DistilBERT: https://arxiv.org/abs/1910.01108

    [31]

    諸如 BERT诫龙,ELMo 和 GPT-2 之類的上下文模型及其上下文化的詞表示形式是什么: https://kawine.github.io/blog/nlp/2020/02/03/contextual.html

    [32]

    Is the future of Neural Networks Sparse?: https://medium.com/huggingface/is-the-future-of-neural-networks-sparse-an-introduction-1-n-d03923ecbd70

    [33]

    從零開(kāi)始訓(xùn)練語(yǔ)言模型: https://huggingface.co/blog/how-to-train

    [34]

    Tokenizers: How machines read: https://blog.floydhub.com/tokenization-nlp/

    [35]

    MLVU 機(jī)器學(xué)習(xí)課程: https://mlvu.github.io/

    [36]

    Machine-Learning-Tokyo/Math_resources: https://github.com/Machine-Learning-Tokyo/Math_resources

    [37]

    MIT 的“深度學(xué)習(xí)入門(mén)”課程: http://introtodeeplearning.com/

    [38]

    PyTorch 深度學(xué)習(xí): https://atcold.github.io/pytorch-Deep-Learning-Minicourse/

    [39]

    “Missing Semester”: https://missing.csail.mit.edu/

    [40]

    “Advanced Deep Learning”: https://andrejristeski.github.io/10707-S20/syllabus.html

    [41]

    BERT-of-Theseus: http://xxx.itp.ac.cn/abs/2002.02925

    [42]

    “機(jī)器學(xué)習(xí)入門(mén)”: https://compstat-lmu.github.io/lecture_i2ml/index.html

    [43]

    希臘語(yǔ) BERT(GreekBERT): https://huggingface.co/nlpaueb/bert-base-greek-uncased-v1

    [44]

    Jeremy Howard: https://arxiv.org/abs/2002.04688

    [45]

    TensorFlow: Data and Deployment Specialization: https://www.coursera.org/specializations/tensorflow-data-and-deployment

    [46]

    Python 中的機(jī)器學(xué)習(xí):數(shù)據(jù)科學(xué),機(jī)器學(xué)習(xí)和人工智能的主要發(fā)展和技術(shù)趨勢(shì): https://arxiv.org/abs/2002.04803

    ?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
    • 序言:七十年代末鲫咽,一起剝皮案震驚了整個(gè)濱河市签赃,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌浑侥,老刑警劉巖姊舵,帶你破解...
      沈念sama閱讀 218,682評(píng)論 6 507
    • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異寓落,居然都是意外死亡括丁,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
      沈念sama閱讀 93,277評(píng)論 3 395
    • 文/潘曉璐 我一進(jìn)店門(mén)伶选,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)史飞,“玉大人,你說(shuō)我怎么就攤上這事仰税」棺剩” “怎么了?”我有些...
      開(kāi)封第一講書(shū)人閱讀 165,083評(píng)論 0 355
    • 文/不壞的土叔 我叫張陵陨簇,是天一觀的道長(zhǎng)吐绵。 經(jīng)常有香客問(wèn)我,道長(zhǎng)河绽,這世上最難降的妖魔是什么己单? 我笑而不...
      開(kāi)封第一講書(shū)人閱讀 58,763評(píng)論 1 295
    • 正文 為了忘掉前任,我火速辦了婚禮耙饰,結(jié)果婚禮上纹笼,老公的妹妹穿的比我還像新娘。我一直安慰自己苟跪,他們只是感情好廷痘,可當(dāng)我...
      茶點(diǎn)故事閱讀 67,785評(píng)論 6 392
    • 文/花漫 我一把揭開(kāi)白布蔓涧。 她就那樣靜靜地躺著,像睡著了一般笋额。 火紅的嫁衣襯著肌膚如雪元暴。 梳的紋絲不亂的頭發(fā)上,一...
      開(kāi)封第一講書(shū)人閱讀 51,624評(píng)論 1 305
    • 那天鳞陨,我揣著相機(jī)與錄音昨寞,去河邊找鬼。 笑死厦滤,一個(gè)胖子當(dāng)著我的面吹牛援岩,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播掏导,決...
      沈念sama閱讀 40,358評(píng)論 3 418
    • 文/蒼蘭香墨 我猛地睜開(kāi)眼享怀,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了趟咆?” 一聲冷哼從身側(cè)響起添瓷,我...
      開(kāi)封第一講書(shū)人閱讀 39,261評(píng)論 0 276
    • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎值纱,沒(méi)想到半個(gè)月后鳞贷,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
      沈念sama閱讀 45,722評(píng)論 1 315
    • 正文 獨(dú)居荒郊野嶺守林人離奇死亡虐唠,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
      茶點(diǎn)故事閱讀 37,900評(píng)論 3 336
    • 正文 我和宋清朗相戀三年搀愧,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片疆偿。...
      茶點(diǎn)故事閱讀 40,030評(píng)論 1 350
    • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡咱筛,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出杆故,到底是詐尸還是另有隱情迅箩,我是刑警寧澤,帶...
      沈念sama閱讀 35,737評(píng)論 5 346
    • 正文 年R本政府宣布处铛,位于F島的核電站饲趋,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏撤蟆。R本人自食惡果不足惜篙贸,卻給世界環(huán)境...
      茶點(diǎn)故事閱讀 41,360評(píng)論 3 330
    • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望枫疆。 院中可真熱鬧,春花似錦敷鸦、人聲如沸息楔。這莊子的主人今日做“春日...
      開(kāi)封第一講書(shū)人閱讀 31,941評(píng)論 0 22
    • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)值依。三九已至圃泡,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間愿险,已是汗流浹背颇蜡。 一陣腳步聲響...
      開(kāi)封第一講書(shū)人閱讀 33,057評(píng)論 1 270
    • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留辆亏,地道東北人风秤。 一個(gè)月前我還...
      沈念sama閱讀 48,237評(píng)論 3 371
    • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像扮叨,于是被迫代替她去往敵國(guó)和親缤弦。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
      茶點(diǎn)故事閱讀 44,976評(píng)論 2 355

    推薦閱讀更多精彩內(nèi)容