240 發(fā)簡信
IP屬地:寧夏
  • 目標感

    換新工作后接手的第一個項目奇坑無比偏陪,外部不配合、系統(tǒng)問題多煮嫌、業(yè)務合作方不給力……在這樣一個背景下可想而知項目有多爛笛谦。偏偏我接手之后還是按照正常節(jié)奏去推進昌阿,導致拖了三四個月還沒...

  • 靜下心來饥脑,直面挑戰(zhàn)

    任何人的成長都不是一瞬間完成的恳邀,大家都是一步步走過來的,比的是持續(xù)性和穩(wěn)定性灶轰。所以谣沸,請對自己耐心一點,再耐心一點笋颤。 現(xiàn)在在做一個APP項目乳附,相當于從之前的PC端B端產(chǎn)品經(jīng)理轉(zhuǎn)...

  • 雜想

    我今天順利通過轉(zhuǎn)正答辯啦!進入新公司三個月的時間讓我想明白了一些事情伴澄。 1.環(huán)境非常影響人赋除,如果一直在一個熟悉的環(huán)境中非凌,會限制自己的認知邊界举农。 舉一個簡單的例子:PPT工具的...

  • 120
    對話系統(tǒng)中的生成問題

    意圖識別:分類問題 槽值檢測:序列標注任務 目的:將用戶的輸入轉(zhuǎn)換成結(jié)構化數(shù)據(jù) 對話管理敞嗡,對話狀態(tài)追蹤:記住之前的信息颁糟,并追蹤新的槽值,直到足夠充分 可依據(jù)規(guī)則實現(xiàn)秸妥,如if滚停、...

  • PM的價值如何快速衡量粥惧?

    日前有同事離職键畴,他身上的任務就交到我的手里。 任務是一個web端數(shù)據(jù)統(tǒng)計查看系統(tǒng)的改版突雪,同事走之前已經(jīng)設計完成,后面由我接手咏删。本來以為按照PRD一步步開發(fā)就可以了惹想,誰知遇到了...

  • 120
    從BERT到XLNet

    從BERT到XLNet——李文哲 論文作者是以解決問題的思路展開研究的 廣義自回歸 目錄: 1督函、無監(jiān)督預訓練 2嘀粱、自回歸&bert的目標函數(shù):DAE,去噪自編碼 遷移學習: ...

  • 120
  • 120
    從Transformer到BERT模型-葛瀚騁

    Bank在前兩句是銀行锋叨,后兩行是河床(river bank) ELMo:用長文本訓練詞向量,而不是窗口宛篇;使用了CNN建立詞的表達 一個詞給出三個Embedding娃磺,不是固定的...

  • 120
    attention&transformer-袁源

    沒有免費的午餐定律:沒有任何算法能在任何情況下都是最佳 注意力機制&神經(jīng)機器翻譯(袁源) ELMo:上下文相關的詞向量方式叫倍,基于BILSTM的 不用RNN可不可以做NLP偷卧,除...

  • 120
    Transformer-李宏毅

    Transformer(變形金剛)的一個重要應用是bert Transformer是一種seq2seq模型,它的特殊之處是大量地用了self-attention layer ...

  • 120
    logistic回歸中的梯度下降法

    本節(jié)先討論怎樣計算偏導數(shù)來實現(xiàn)logistic回歸中單個樣本實例的一次梯度下降法听诸。本節(jié)使用導數(shù)流程圖來計算logistic回歸中的梯度下降坐求。 計算logistic回歸要做的是...

  • 觸發(fā)字檢測

    已經(jīng)學習了很多深度學習和序列模型的知識晌梨,現(xiàn)在可以簡單地描繪出一個觸發(fā)字系統(tǒng)瞻赶。隨著語音識別的發(fā)展,越來越多的設備可以通過你的聲音來喚醒派任,即觸發(fā)字檢測系統(tǒng)砸逊。那么如何建立一個觸發(fā)字...

  • 注意力模型

    上節(jié)已經(jīng)了解注意力模型如何讓一個神經(jīng)網(wǎng)絡只注意到一部分的輸入句子掌逛,當它在生成句子的時候师逸,更像人類翻譯。 下面詳細講解注意力模型 假定有一個輸入句子豆混,使用雙向RNN或雙向的GR...

  • 語音識別

    現(xiàn)在篓像,最令人振奮的發(fā)展之一就是seq2seq模型,在語音識別方面的準確性有了很大的提升员辩。下面講seq2seq模型是如何應用于音頻數(shù)據(jù)的,比如語音鸵鸥。什么是語音識別問題呢奠滑?如有一...

  • 計算圖&計算圖的導數(shù)計算(前向傳播反向傳播)

    可以說,一個神經(jīng)網(wǎng)絡的計算都是按照前向或反向傳播過程來實現(xiàn)的妒穴。首先用初始參數(shù)計算出神經(jīng)網(wǎng)絡的輸出宋税,緊接著進行一個反向傳播操作讼油,用來計算出對應的梯度或者導數(shù)杰赛,用于更新參數(shù)。 ...

  • 導數(shù)

    導數(shù)基本等同于斜率矮台。即將x向右移動一點點之后(比如0.001)乏屯,y值變化了多少,用y的變化值除以x的變化值就是斜率瘦赫。 導數(shù)的定義:將a右移非常小的值辰晕,一個不可度量的非常非常小...

  • 120
    梯度下降法

    如何使用梯度下降法來訓練和學習訓練集上的參數(shù)w和b耸彪。 成本函數(shù)是損失函數(shù)關于每一個樣本的平均值伞芹,衡量了參數(shù)w和b在訓練集上的效果忘苛。要找到w和b使得成本函數(shù)最小蝉娜。 如下...

  • logistic回歸成本函數(shù)

    為了訓練logistic回歸模型的參數(shù)w及b,需要定義一個成本函數(shù)召川,即用logistic回歸訓練的成本函數(shù)南缓。 為了讓模型來通過學習調(diào)整參數(shù),要給一個m個樣本的訓練集荧呐。而是對一...

  • logistic回歸

    這是一個學習算法汉形,用在監(jiān)督學習問題中。若輸出y標簽是0或1時倍阐,這是一個二元分類問題概疆。已知的輸入特征向量x可能是一張圖,希望它識別出這里有沒有貓岔冀。你需要一個算法,可以給出一個預...

  • 二分分類(Binary Classification)

    logistic回歸是一個用于二分分類的算法概耻。 例子:假如你有一張圖片作為輸入使套,想要輸出識別此圖的標簽,是貓則為1鞠柄,不是則為0侦高。用y來表示輸出的結(jié)果標簽。 圖片在計算機中是如...

個人介紹
好好學習天天向上厌杜!
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品