前言 最近沒怎么更新博客家乘,是因為最近三個月我主要花時間在造一個輪子:深度學(xué)習(xí)庫 Hamaa。 GitHub地址:GitHub : monitor...
前言 梯度下降法(Gradient Descent)是機器學(xué)習(xí)中最常用的優(yōu)化方法之一,常用來求解目標(biāo)函數(shù)的極值嘴办。 其基本原理非常簡單:沿著目標(biāo)函...
前言 梯度下降法(Gradient Descent)是機器學(xué)習(xí)中最常用的優(yōu)化方法之一,常用來求解目標(biāo)函數(shù)的極值在讶。 其基本原理非常簡單:沿著目標(biāo)函...
前言 梯度下降法(Gradient Descent)是機器學(xué)習(xí)中最常用的優(yōu)化方法之一,常用來求解目標(biāo)函數(shù)的極值战坤。 其基本原理非常簡單:沿著目標(biāo)函...
前言 整個快速教程直接上例子途茫,具體對Cython的使用可以看參考文章碟嘴。以下工作均在Windows 10 + Python 2.7 + NumPy...
前言 前言屬閑聊娜扇,正文請轉(zhuǎn)后。 標(biāo)題比較長栅组,其實“如何用Python調(diào)用C的函數(shù)”以及“如何編寫Python的C擴展”在廣義上是同一件事雀瓢,因為都...
前言 神經(jīng)網(wǎng)絡(luò)中的權(quán)重(weight)初始化是個常常被忽略的問題玉掸。 最近在手寫一個Python的神經(jīng)網(wǎng)絡(luò)庫(GitHub:hamaa),剛開始為...
matplotlib庫的教程和使用方法此處就不累贅了,網(wǎng)上有十分多優(yōu)秀的教程資源啊易。此處直接上代碼: 效果圖下圖所示:
前言 先讓我們來看看一個用到相對文件路徑的函數(shù)調(diào)用的問題租谈。假設(shè)現(xiàn)在有兩個腳本文件main.py和func.py篮奄,他們的路徑關(guān)系是: func.p...