深度學(xué)習(xí)筆記(3)破解驗(yàn)證碼

驗(yàn)證碼生成程序:

from captcha.image import ImageCaptcha  # pip install captcha
import numpy as np
import matplotlib.pyplot as plt
from PIL import Image
import random
 
# 驗(yàn)證碼中的字符, 就不用漢字了
number = ['0','1','2','3','4','5','6','7','8','9']
alphabet = ['a','b','c','d','e','f','g','h','i','j','k','l','m','n','o','p','q','r','s','t','u','v','w','x','y','z']
ALPHABET = ['A','B','C','D','E','F','G','H','I','J','K','L','M','N','O','P','Q','R','S','T','U','V','W','X','Y','Z']
# 驗(yàn)證碼一般都無視大小寫;驗(yàn)證碼長度4個(gè)字符
def random_captcha_text(char_set=number+alphabet+ALPHABET, captcha_size=4):
    captcha_text = []
    for i in range(captcha_size):
        c = random.choice(char_set)
        captcha_text.append(c)
    return captcha_text
 
# 生成字符對應(yīng)的驗(yàn)證碼
def gen_captcha_text_and_image():
    image = ImageCaptcha()
 
    captcha_text = random_captcha_text()
    captcha_text = ''.join(captcha_text)
 
    captcha = image.generate(captcha_text)
    #image.write(captcha_text, captcha_text + '.jpg')  # 寫到文件
 
    captcha_image = Image.open(captcha)
    captcha_image = np.array(captcha_image)
    return captcha_text, captcha_image
 
if __name__ == '__main__':
    # 測試
    text, image = gen_captcha_text_and_image()
 
    f = plt.figure()
    ax = f.add_subplot(111)
    ax.text(0.1, 0.9,text, ha='center', va='center', transform=ax.transAxes)
    plt.imshow(image)
 
    plt.show()

上面是參考代碼,我的過程永部,notebook怎么壞了。悟狱。。。
我現(xiàn)在只想破解4位帶數(shù)字的驗(yàn)證碼
生成一萬個(gè)數(shù)字串

labels = [random_captcha_text(number,4) for _ in range(10000)]

生成驗(yàn)證碼(這里有個(gè)缺點(diǎn)就是生成相同驗(yàn)證碼會(huì)覆蓋)

for l in labels:
    name = ''.join(l)
    image.write(name,'D:/png/'+name+'.png')

列出所有文件

import os
print(os.listdir('D:/png'))
filenames = os.listdir('D:/png')

從文件名中提取標(biāo)簽

labels = [filename[:4] for filename in filenames]

把標(biāo)簽轉(zhuǎn)換為向量(1,40),不要問為何是40維度弄唧,我想了兩天

import numpy as np
def dtv(nums):#data to vector
    ret = []
    for d in nums:
        v = np.zeros((1,10),dtype=np.float32)
        v[0,int(d)] = 1
        ret.append(v)
    return np.hstack(ret)
vectors = np.vstack([ dtv(l) for l in labels])

讀取圖像數(shù)據(jù)

paths = ['D:/png/'+filename for filename in filenames]
imdatas = [np.array(Image.open(p)) for p in paths]

這里出現(xiàn)了問題,我沒有像上面那樣把樣本都集中起來vstack博其。這里發(fā)現(xiàn)驗(yàn)證碼的維度出現(xiàn)了問題套才,大部分圖像的維度是(60,164,3),但是有少部分圖像是(60,164,3)這里必須要進(jìn)行裁剪慕淡。
測試用的裁剪代碼

xx00 = np.delete(xx0,[160,161,162,163],axis=1)

http://www.mamicode.com/info-detail-1666278.html

第二天修改

labels = [''.join(random_captcha_text(number,4)) for _ in range(10000)]
def dtv(nums):#data to vector
    ret = []
    for d in nums:
        v = np.zeros((1,10),dtype=np.float32)
        v[0,int(d)] = 1
        ret.append(v)
    return np.hstack(ret)
def getdatas(labels,retlabel=False):
    image = ImageCaptcha()
    x = []
    y = []
    for l in labels:
        captcha = image.generate(l)
        im = Image.open(captcha)
        imdata = np.array(im)
        if (60,164,3) == imdata.shape:
            imdata = np.delete(imdata,[160,161,162,163],axis=1)
        v = dtv(l)
        x.append(imdata)
        y.append(v)
    return np.vstack(x),np.vstack(y)
Paste_Image.png
def conv2d(x, W):
    return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')

def max_pool_2x2(x):
    return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
                        strides=[1, 2, 2, 1], padding='SAME')
def weight_variable(shape):
    initial = tf.truncated_normal(shape, stddev=0.1)
    return tf.Variable(initial)

def bias_variable(shape):
    initial = tf.constant(0.1, shape=shape)
    return tf.Variable(initial)
def gettrains(train_images,train_labels,num):
    start = np.random.randint(10000)
    limit = 10000-num
    if start>limit:
        start = limit
    t_x = train_images[start:start+num]
    t_y = train_labels[start:start+num]
    return (t_x,t_y)
def cnn_train(train_images,train_labels,test_images = None,test_labels = None):
    
    x = tf.placeholder("float", [None, 60,160,3])
    y_ = tf.placeholder("float", [None,40])

    '''
    卷積第一層
    '''
    W_conv1 = weight_variable([5, 5, 3, 36])
    b_conv1 = bias_variable([36])

    h_conv1 = tf.nn.relu(conv2d(x, W_conv1) + b_conv1)
    h_pool1 = max_pool_2x2(h_conv1)

    '''
    卷積第二層
    '''

    W_conv2 = weight_variable([5, 5, 36, 72])
    b_conv2 = bias_variable([72])

    h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
    h_pool2 = max_pool_2x2(h_conv2)

    '''
    全連接層
    '''

    W_fc1 = weight_variable([15 * 60 * 72, 1024])
    b_fc1 = bias_variable([1024])

    h_pool2_flat = tf.reshape(h_pool2, [-1, 15 * 60 * 72])
    h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)


    '''
    拋棄部分節(jié)點(diǎn)
    '''

    keep_prob = tf.placeholder(tf.float32)
    h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

    '''
    輸出層
    '''
    W_fc2 = weight_variable([1024, 40])
    b_fc2 = bias_variable([40])
    
    
    y_conv = tf.matmul(h_fc1_drop, W_fc2) + b_fc2
    
    vals = [W_conv1,b_conv1,W_conv2,b_conv2,W_fc1,b_fc1,W_fc2,b_fc2]
    
    cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=y_conv, labels=y_))
    train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
    correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y_,1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
    sess = tf.Session()
    sess.run(tf.global_variables_initializer())
    for i in range(2000):
        batch_xs, batch_ys = gettrains(train_images,train_labels,100)
        if i%100 == 0:
            train_accuracy = accuracy.eval(session=sess,feed_dict={x:batch_xs, y_: batch_ys, keep_prob: 1.0})
            print("step %d, training accuracy %g"%(i, train_accuracy))
        train_step.run(session=sess,feed_dict={x: batch_xs, y_: batch_ys, keep_prob: 0.5})
    return sess.run(vals)#計(jì)算結(jié)果
    #print("test accuracy %g"%accuracy.eval(session=sess,feed_dict={x: test_images, y_: test_labels, keep_prob: 1.0}))
def predict(x,W_conv1,b_conv1,W_conv2,b_conv2,W_fc1,b_fc1,W_fc2,b_fc2):
    W_conv1 = weight_variable([5, 5, 3, 36])
    b_conv1 = bias_variable([36])

    h_conv1 = tf.nn.relu(conv2d(x, W_conv1) + b_conv1)
    h_pool1 = max_pool_2x2(h_conv1)
    
    W_conv2 = weight_variable([5, 5, 36, 72])
    b_conv2 = bias_variable([72])

    h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
    h_pool2 = max_pool_2x2(h_conv2)
    
    W_fc1 = weight_variable([15 * 60 * 72, 1024])
    b_fc1 = bias_variable([1024])

    h_pool2_flat = tf.reshape(h_pool2, [-1, 15 * 60 * 72])
    h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
    
    keep_prob = 0.5
    h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
    
    W_fc2 = weight_variable([1024, 40])
    b_fc2 = bias_variable([40])
    
    
    y_conv = tf.matmul(h_fc1_drop, W_fc2) + b_fc2
    return y_conv

上面代表是有問題的
(1) 預(yù)測是如果是40個(gè)數(shù)選一個(gè)最大的值,肯定不對沸毁,我要分成四組來執(zhí)行argmax
(2)圖像轉(zhuǎn)為灰度圖像加快識別速度
(3)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末峰髓,一起剝皮案震驚了整個(gè)濱河市傻寂,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌携兵,老刑警劉巖疾掰,帶你破解...
    沈念sama閱讀 211,948評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異徐紧,居然都是意外死亡静檬,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,371評論 3 385
  • 文/潘曉璐 我一進(jìn)店門并级,熙熙樓的掌柜王于貴愁眉苦臉地迎上來拂檩,“玉大人,你說我怎么就攤上這事嘲碧〉纠” “怎么了?”我有些...
    開封第一講書人閱讀 157,490評論 0 348
  • 文/不壞的土叔 我叫張陵愈涩,是天一觀的道長望抽。 經(jīng)常有香客問我,道長履婉,這世上最難降的妖魔是什么煤篙? 我笑而不...
    開封第一講書人閱讀 56,521評論 1 284
  • 正文 為了忘掉前任,我火速辦了婚禮毁腿,結(jié)果婚禮上辑奈,老公的妹妹穿的比我還像新娘。我一直安慰自己狸棍,他們只是感情好身害,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,627評論 6 386
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著草戈,像睡著了一般塌鸯。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上唐片,一...
    開封第一講書人閱讀 49,842評論 1 290
  • 那天丙猬,我揣著相機(jī)與錄音,去河邊找鬼费韭。 笑死茧球,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的星持。 我是一名探鬼主播抢埋,決...
    沈念sama閱讀 38,997評論 3 408
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了揪垄?” 一聲冷哼從身側(cè)響起穷吮,我...
    開封第一講書人閱讀 37,741評論 0 268
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎饥努,沒想到半個(gè)月后捡鱼,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,203評論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡酷愧,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,534評論 2 327
  • 正文 我和宋清朗相戀三年驾诈,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片溶浴。...
    茶點(diǎn)故事閱讀 38,673評論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡乍迄,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出戳葵,到底是詐尸還是另有隱情就乓,我是刑警寧澤,帶...
    沈念sama閱讀 34,339評論 4 330
  • 正文 年R本政府宣布拱烁,位于F島的核電站生蚁,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏戏自。R本人自食惡果不足惜邦投,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,955評論 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望擅笔。 院中可真熱鬧志衣,春花似錦、人聲如沸猛们。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,770評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽弯淘。三九已至绿店,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間庐橙,已是汗流浹背假勿。 一陣腳步聲響...
    開封第一講書人閱讀 32,000評論 1 266
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留态鳖,地道東北人转培。 一個(gè)月前我還...
    沈念sama閱讀 46,394評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像浆竭,于是被迫代替她去往敵國和親浸须。 傳聞我的和親對象是個(gè)殘疾皇子惨寿,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,562評論 2 349

推薦閱讀更多精彩內(nèi)容