240 發(fā)簡(jiǎn)信
IP屬地:湖北
  • 《博客搬遷至CSDN》

    博客文章搬遷至CSDN

  • 程序員社交app脫單實(shí)例

    作為程序員一枚跺撼,長(zhǎng)期混跡在各種社交app上面敛摘,想要找到一個(gè)心儀的對(duì)象(老實(shí)人主籍,沒(méi)啥好遮掩的习贫,哈哈哈哈)。 用過(guò)soul千元, 陌陌苫昌,探探和珍愛(ài)網(wǎng)的a...

  • Resize,w 360,h 240
    凸優(yōu)化之backtracking方法 -gradient descent

    gradient descent 的方法介紹和自適應(yīng)步長(zhǎng)的使用,加速優(yōu)化速度 gradient descent 方法總結(jié) 方法容易理解幸海,迭代容易...

  • Resize,w 360,h 240
    凸優(yōu)化之Convex set概念

    凸集合 今天祟身,定義一下凸集合(convex set)C: 假設(shè)凸集合C: C, 有兩個(gè)向量 x,yC, 使得 tx+(1-t)yC 對(duì)于t[0,...

  • Pytorch深度模型保存和加載

    Pytorch保存模型的兩種方式: 1 模型結(jié)構(gòu)和模型參數(shù)都保存下來(lái) 優(yōu)點(diǎn):不需要預(yù)初始化模型,直接加載物独,就可以獲得模型和參數(shù)袜硫,只要把數(shù)據(jù)放進(jìn)去...

  • Resize,w 360,h 240
    Transfer learning using Pytorch

    遷移學(xué)習(xí)的兩種基本應(yīng)用場(chǎng)景: 1 模型初始化又叫做 finetuning, 一般的模型初始化是一個(gè)隨機(jī)初始挡篓,但是使用訓(xùn)練好的參數(shù)作為初始化婉陷,可能...

  • Dropout 深度學(xué)習(xí)中間的正則化手段之一

    nn.Dropout ---- input 可以是任何形狀和尺寸,一般是用在全連接線性映射之后(緊跟著)官研。nn.Dropout2d ---- i...

  • Pytorch 常用學(xué)習(xí)率變化方式小結(jié)

    學(xué)習(xí)率走廊 lr_scheduler.LambdaLR(optimizer,lr_lamda,last_epoch=-1,verbose=Fal...

  • 深度學(xué)習(xí)訓(xùn)練過(guò)程生成日志文件

    如何有效監(jiān)控深度學(xué)習(xí)的訓(xùn)練過(guò)程秽澳,即便是在服務(wù)器突然宕機(jī)的情況下? 第一種 使用python的logging庫(kù)函數(shù)戏羽,比較方便担神,當(dāng)然需要書(shū)寫(xiě)一部分代...

個(gè)人介紹
日常不定期分享圖像處理,深度學(xué)習(xí)始花,公司創(chuàng)業(yè)等方面的故事和知識(shí)妄讯,希望大家喜歡,如果有什么合作或者問(wèn)題衙荐,歡迎留言
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品