前言 最近沒怎么更新博客,是因為最近三個月我主要花時間在造一個輪子:深度學習庫 Hamaa虑省。 GitHub地址:GitHub : monitor...
前言 梯度下降法(Gradient Descent)是機器學習中最常用的優(yōu)化方法之一匿刮,常用來求解目標函數(shù)的極值。 其基本原理非常簡單:沿著目標函...
前言 梯度下降法(Gradient Descent)是機器學習中最常用的優(yōu)化方法之一探颈,常用來求解目標函數(shù)的極值熟丸。 其基本原理非常簡單:沿著目標函...
前言 梯度下降法(Gradient Descent)是機器學習中最常用的優(yōu)化方法之一伪节,常用來求解目標函數(shù)的極值光羞。 其基本原理非常簡單:沿著目標函...
前言 整個快速教程直接上例子绩鸣,具體對Cython的使用可以看參考文章。以下工作均在Windows 10 + Python 2.7 + NumPy...
前言 前言屬閑聊纱兑,正文請轉后呀闻。 標題比較長,其實“如何用Python調(diào)用C的函數(shù)”以及“如何編寫Python的C擴展”在廣義上是同一件事潜慎,因為都...
前言 神經(jīng)網(wǎng)絡中的權重(weight)初始化是個常常被忽略的問題捡多。 最近在手寫一個Python的神經(jīng)網(wǎng)絡庫(GitHub:hamaa),剛開始為...
matplotlib庫的教程和使用方法此處就不累贅了铐炫,網(wǎng)上有十分多優(yōu)秀的教程資源垒手。此處直接上代碼: 效果圖下圖所示:
前言 先讓我們來看看一個用到相對文件路徑的函數(shù)調(diào)用的問題。假設現(xiàn)在有兩個腳本文件main.py和func.py倒信,他們的路徑關系是: func.p...