數(shù)學里面有所謂公理之說吏垮,就是無須證明的定理下翎,在公理之外,其他的所有定理都可以通過這些公理推導出來眶明。或者說,所有定理的證明,最終都會歸結(jié)到這些公理上來悍汛。最近我發(fā)現(xiàn),人生中至会,也有...

想起來《高效能人士的七個習慣》中的一句話煤痕,它說梧宫,責任感的單詞為什么是responsablility,因為他代表的是你能否response的能力摆碉。從中文上看塘匣,責任這個詞比較難懂...
最近工作中遇到一件挺失望的事,我們項目的開發(fā)工作主要是由成都的開發(fā)團隊負責的巷帝,最近開發(fā)團隊有一名成員離職了忌卤,之前他一直是負責為每個版本代碼生成新的svn鏈接,以及一部分系統(tǒng)邏...
每個人在工作中都難免會有領(lǐng)導楞泼,在大公司中驰徊,領(lǐng)導對你的評價往往還是決定你績效的關(guān)鍵因素。如果我們拋開上下級關(guān)系堕阔,僅僅從人的理性的角度來看棍厂,別人對你的評價會取決于什么?顯然首先他...
這段時間在閱讀史蒂芬·柯維的《高效能人士的七個習慣》超陆,讀到了其中“要事第一”這個習慣牺弹,覺得是到目前這本書里最具實操性的一個原則〗拟“要是第一”的意思是例驹,在我們的眾多的工作中,...
我所在的公司是一家很看重執(zhí)行力的企業(yè)鹃锈,無論是大小領(lǐng)導,都常常在工作郵件和對外演說中強調(diào)“執(zhí)行力”是公司的一大特點瞧预。而我的父親常常說我的行動力很強屎债,所以每當我聽到領(lǐng)導說要重視執(zhí)...
上文談到在做一個項目的過程中面臨是將新老模型融合優(yōu)化還是各自平行優(yōu)化的問題。其實當時在面臨這個選擇的時候垢油,我們離達到業(yè)務指標的截止日期還有一定的時間盆驹,這也是我當時支持分開開發(fā)...
這是技術(shù)思考的第一篇文章滩愁,來談談對生產(chǎn)上的舊模型優(yōu)化時的技術(shù)路線選擇問題躯喇。 前段時間在工作中遇到了這樣一個問題,某項目現(xiàn)在線上有一個老模型,為了提升準確率廉丽,我們要開發(fā)一個新模...
這一章主要是講深度學習倦微,首先介紹了卷積神經(jīng)網(wǎng)絡的概念。在之前的章節(jié)中我們的神經(jīng)網(wǎng)絡每一層的每一個神經(jīng)元都是和前面一層的所有神經(jīng)元相連正压,這樣的結(jié)構(gòu)叫全連接層欣福,這樣也使得我們的網(wǎng)...
Chapter 4看了一下感覺可能幫助理解的作用比較大,不涉及太多重要概念焦履,因此就先略過了拓劝,先記Chapter 5 這一章其實也比較簡單,主要就是講為什么深度網(wǎng)絡比較難訓練嘉裤。...
提升學習速率 交叉熵損失函數(shù)的好處:損失函數(shù)對權(quán)重的偏導中不包含sigma的導數(shù)項(可抵消)笨触,所以不會引起學習速度過慢的問題 神經(jīng)元的飽和問題:當z(也就是神經(jīng)元的加權(quán)輸入和...
Chap2 反向轉(zhuǎn)播算法的目的是計算成本函數(shù)對于權(quán)重和偏置的偏導數(shù)懦傍。 反向傳播的兩個前提假設: 1. 成本函數(shù)可以寫成每個樣本成本的平均形式,因為反向傳播實際上是先計算針對每...
最近開始看Michael Nilson的Neural Network and Deep Learning芦劣,這位老兄最初是做量子物理研究的粗俱,后來轉(zhuǎn)向了科普工作,寫了很多科學普及...
最近在復習排序算法的知識,寫下來加強記憶串慰。 1. 冒泡排序 這好像是被認為最基本最簡單的排序方法偏塞。為什么叫冒泡呢?因為按照這種排序方法邦鲫,最小值會像一個氣泡一樣一點點的浮上來灸叼。...