姓名:蘆凱 ? ? ?學(xué)號(hào):17011210546
轉(zhuǎn)載自:習(xí)悅智能公眾號(hào),原文鏈接:https://mp.weixin.qq.com/s/_-FYWQvey9VXsfYiPSZn5w
【嵌牛導(dǎo)讀】GITHUB最新開(kāi)源項(xiàng)目精選
【嵌牛鼻子】GITHUB趴捅,開(kāi)源項(xiàng)目垫毙,人工智能
【嵌牛提問(wèn)】github最新開(kāi)源項(xiàng)目有哪些?
【嵌牛正文】
1 基于手機(jī)的實(shí)時(shí)語(yǔ)義分割
項(xiàng)目簡(jiǎn)介:
????該項(xiàng)目受到MobileNets和U-Net的啟發(fā)拱绑,提出了一種架構(gòu)叫做MobileUNet综芥,用于實(shí)現(xiàn)頭發(fā)部分的語(yǔ)義分割。作為一個(gè)典型的U-Net架構(gòu)猎拨,本文的網(wǎng)絡(luò)包含編碼器及解碼器膀藐,其中的卷積單元基于MobileNet中的思路,是depthwise結(jié)構(gòu)的红省。編碼器將輸入圖片縮小至32分之一的尺寸大小额各,之后解碼器將其恢復(fù)至原來(lái)的二分之一。最終吧恃,網(wǎng)絡(luò)輸出和輸入圖像等尺寸的預(yù)測(cè)結(jié)果虾啦。項(xiàng)目可以在手機(jī)或其他安卓移動(dòng)設(shè)備端實(shí)時(shí)運(yùn)行,精度和速度都還不錯(cuò)。
????項(xiàng)目采用的數(shù)據(jù)集為L(zhǎng)FW傲醉,可以獲得0.89的IoU蝇闭。除了U-Net模型之外,作者還嘗試了PSPNet模型硬毕,但是效果不佳呻引。作者認(rèn)為可能是全局的上下文信息對(duì)于頭發(fā)的識(shí)別來(lái)說(shuō)沒(méi)有重要的輔助作用。作者在不同的手機(jī)上測(cè)試了性能吐咳,最終iPhone 7 勝出苞七。
項(xiàng)目環(huán)境:
Keras 2、TensorFlow
項(xiàng)目地址:
https://github.com/akirasosa/mobile-semantic-segmentation
2 黑白圖片自動(dòng)上色
項(xiàng)目簡(jiǎn)介:
????使用神經(jīng)網(wǎng)絡(luò)對(duì)圖片進(jìn)行風(fēng)格化渲染是計(jì)算機(jī)視覺(jué)領(lǐng)域的熱門應(yīng)用之一挪丢,如為自己的照片賦予梵高的油畫風(fēng)格蹂风。彩色渲染也是對(duì)圖片的風(fēng)格處理方法之一,可以將黑白老照片變成現(xiàn)代化的彩色照片∏睿現(xiàn)在很多彩色上色工作都由人工手工完成惠啄,通過(guò)photoshop對(duì)圖片進(jìn)行層層處理,動(dòng)輒需要花費(fèi)幾個(gè)月的時(shí)間任内,比如撵渡,對(duì)一張臉進(jìn)行上色處理,需要設(shè)計(jì)20層圖層死嗦,工作量真大可以想象趋距。
????人工智能的發(fā)展為黑白圖片自動(dòng)上色帶來(lái)了可能。Reddit社區(qū)用戶Amir Avni提出了一種基于深度學(xué)習(xí)的上色機(jī)器人越除,其效果可媲美大師級(jí)著色水平节腐。其技術(shù)核心在于,將自動(dòng)著色轉(zhuǎn)換為發(fā)現(xiàn)灰度與彩色之間的特征聯(lián)結(jié)摘盆。我們知道翼雀,在黑白圖像中,圖片為單通道的狼渊,每個(gè)像素值代表了亮度,取值區(qū)間為0-255类垦,代表了由白色到黑色的灰度區(qū)間狈邑。而彩色圖像包含3個(gè)通道,即RGB紅綠藍(lán)通道蚤认,取值區(qū)間同樣為0-255.通過(guò)深度學(xué)習(xí)構(gòu)建深層神經(jīng)網(wǎng)絡(luò)米苹,學(xué)習(xí)灰色圖像與彩色圖像對(duì)應(yīng)的關(guān)系。
項(xiàng)目環(huán)境:
Floyd開(kāi)放云平臺(tái)
項(xiàng)目鏈接:
https://blog.floydhub.com/colorizing-b&w-photos-with-neural-networks/
3
用Tensorflow構(gòu)建游戲AI
項(xiàng)目簡(jiǎn)介:
????DeepMind 開(kāi)放的 AlphaGo將強(qiáng)化學(xué)習(xí)(reinforce learning)帶向了大眾視野烙懦,基于強(qiáng)化學(xué)習(xí)教會(huì)機(jī)器人自動(dòng)下象棋驱入、讓計(jì)算機(jī)自己學(xué)著玩經(jīng)典游戲 Atari等赤炒。強(qiáng)化學(xué)習(xí)起初看似非常有挑戰(zhàn)性,但其實(shí)要入門并不困難亏较。本項(xiàng)目作者基于 Keras創(chuàng)建一個(gè)簡(jiǎn)單機(jī)器人莺褒,并教會(huì)它玩 Catch 游戲。Catch 是一個(gè)非常簡(jiǎn)單的街機(jī)游戲雪情,游戲規(guī)則也很簡(jiǎn)單:水果從屏幕的頂部落下遵岩,玩家必須用一個(gè)籃子抓住它們;每抓住一個(gè)水果巡通,玩家得一分岸晦;每漏掉一個(gè)水果晕翠,玩家會(huì)被扣除一分。
????項(xiàng)目中采用了黑白色簡(jiǎn)化版的游戲界面,小人用底部的白色方框表示纫谅,水果用正方形的白色小方塊表示扎运。所謂強(qiáng)化學(xué)習(xí)账月,即系統(tǒng)在一次次嘗試中祖能,吸收成功或失敗的經(jīng)驗(yàn),自己學(xué)習(xí)成長(zhǎng)籽暇,屬于無(wú)監(jiān)督學(xué)習(xí)的一種温治,沒(méi)有明確的標(biāo)簽指示。在此項(xiàng)目中戒悠,同樣不提供哪些是屬于正確的行為熬荆,而是給予相應(yīng)的處罰和獎(jiǎng)勵(lì)。在 Catch 游戲中绸狐,只有在水果掉到籃子里或是撞到地板上時(shí)你才會(huì)獲得獎(jiǎng)勵(lì)卤恳。
項(xiàng)目環(huán)境:
Tensorflow、Keras
項(xiàng)目鏈接:
https://medium.freecodecamp.org/deep-reinforcement-learning-where-to-start-291fb0058c01
4 人臉照片的自動(dòng)補(bǔ)全
項(xiàng)目簡(jiǎn)介:
????內(nèi)容識(shí)別填充是一個(gè)強(qiáng)大的工具六孵,設(shè)計(jì)師和攝影師可以用它來(lái)填充圖片中不想要的部分或者缺失的部分纬黎。在填充圖片的缺失或損壞的部分時(shí),圖像補(bǔ)全和修復(fù)是兩種密切相關(guān)的技術(shù)劫窒。有很多方法可以實(shí)現(xiàn)內(nèi)容識(shí)別填充,圖像補(bǔ)全和修復(fù)拆座。
????該項(xiàng)目基于Raymond Yeh 和 Chen Chen 等人的一篇論文主巍,“基于感知和語(yǔ)境損失的圖像語(yǔ)義修補(bǔ)( Semantic Image Inpainting with Perceptual and Contextual Losses)”。論文介紹了如何使用 DCGAN 網(wǎng)絡(luò)來(lái)進(jìn)行圖像補(bǔ)全挪凑。圖像補(bǔ)全包含三個(gè)步驟:將圖像理解為一個(gè)概率分布的樣本孕索;學(xué)習(xí)如何生成偽圖片;找到最適合填充回去的偽圖片躏碳。
項(xiàng)目環(huán)境:
Tensorflow
項(xiàng)目鏈接:
http://bamos.github.io/2016/08/09/deep-completion/bamos/dcgan-completion.tensorflow
5 自動(dòng)生成照片文本描述
項(xiàng)目簡(jiǎn)介:
????圖像對(duì)于很多人來(lái)講一目了然搞旭,然而對(duì)于盲人等存在視覺(jué)障礙的人群來(lái)說(shuō),文本描述能夠幫助他們了解、想象一幅圖片中的內(nèi)容肄渗。此外镇眷,基于照片的文本描述還具有照片管理、分類等多種功能翎嫡。
????早在2015年欠动,谷歌Brain團(tuán)隊(duì)發(fā)布了圖片描述模型,該模型結(jié)構(gòu)與NeuralTalk2相仿惑申,但是用了一些trick使得性能精度更高具伍。本項(xiàng)目中作者本著入門的目的,展示了一個(gè)基于Torch的圖片描述模型圈驼。
項(xiàng)目環(huán)境:
Torch
項(xiàng)目鏈接:
https://github.com/karpathy/neuraltalk2