圖像處理/識別php
1.PixelCNN&PixelRNN在TensorFlowhtml
TensorFlow實施像素迴歸神經網絡。python
地址:https://github.com/carpedm20/pixel-rnn-tensorflowgit
在TensorFlow 2.Simulated +無監督(S + U)的學習github
TensorFlow實現從模擬,並經過對抗性訓練無監督圖像學習。編程
地址:https://github.com/carpedm20/simulated-unsupervised-tensorflowbootstrap
3.ResNet在TensorFlow後端
的實行圖像識別深層殘留學習。包括TensorFlow使用He等人公佈的訓練有素來自Caffe權的工具。瀏覽器
地址:https://github.com/ry/tensorflow-resnet微信
4.A可組合成式對抗性網絡(GAN)與API和命令行工具
HyperGAN,一個多才多藝的GAN(生成對抗網絡)實現集中的可擴展性和易於使用。
地址:https://github.com/255BITS/HyperGAN
朱古力vgg16模型5.conversation到tensorflow
VGG-16是我最喜歡的圖像分類模型,由於它的簡單和準確的運行。該模型的創做者發表的預先訓練的二進制文件,能夠在來自Caffe使用。
地址:https://github.com/ry/tensorflow-vgg16
6.A吉滴道分割模型tensorflow實施
KittiSeg經過利用基於模型FCN執行道路分割。該模型取得了第一名的在提交時的吉滴道檢測基準。看看咱們的論文進行了詳細的模型描述。
地址:https://github.com/MarvinTeichmann/KittiSeg
對剖成對抗性模型7.TensorFlow教程
地址:https://github.com/ericjang/genadv_tutorial
8.Pretrained模型TFLearn和TensorFlow
地址:https://github.com/tflearn/models
與TensorFlow 9.Generative模型
地址:https://github.com/arahuja/generative-tf
10.Re的實現使用TensorFLow第m RNN模型的
此包是一個從新執行的M-RNN使用圖像字幕方法TensorFlow。訓練速度與訓練句子的不一樣長度的桶優化。它還支持定向搜索方法對圖像特徵解碼成句子。
地址:https://github.com/mjhucla/TF-mRNN
視覺注意的11.Recurrent模型
從修改https://github.com/jlindsey15/RAM
五Mnih等人的「視覺注意的復發模式」的實現。
經過蟒ram.py運行,而且它能夠再現表1(a)中28x28 MNIST結果
地址:https://github.com/zhongwen/RAM
用於使用TensorFlow的CIFAR-10數據集12.Simple圖像分類模型
這是博客文章的代碼「如何創建一個簡單的圖像識別系統使用TensorFlow」。
地址:https://github.com/wolfib/image-classification-CIFAR10-tf
13.IllustrationGAN
一個簡單,乾淨TensorFlow實施剖成對抗性網絡的重點放在塑造插圖。
地址:https://github.com/tdrussell/IllustrationGAN
預先訓練14.ImageNet型號批標準化
這個庫包含了使用來自Caffe框架在計算機視覺集團耶拿(CVGJ)由馬塞爾·西蒙培訓了ImageNet卷積神經網絡(CNN)模型。每一個模型是在一個單獨的子文件夾,包含重現結果所需的一切。這個倉庫的重點目前包含AlexNet和VGG19的批量標準化變體以及對殘餘網絡(RESNET)的訓練碼。
地址:https://github.com/cvjena/cnn-models
語音/語義/文字
1.Multi層迴歸神經網絡(LSTM,RNN)用於使用TensorFlow Python的字級語言模型
大可能是從重用代碼https://github.com/sherjilozair/char-rnn-tensorflow這是從安德烈傑·卡帕西的啓發炭RNN。
地址:https://github.com/hunkim/word-rnn-tensorflow
與CNN 2.LSTM語言模型在中TensorFlow字符
Tensorflow實施的性格感知神經語言模型。做者的原代碼,能夠發現在這裏。
地址:https://github.com/carpedm20/lstm-char-cnn-tensorflow
3.A神經對話模型
我tensorflow實施「的神經對話模式」,一個深學習基於聊天機器人的。這項工做試圖重現的結果的神經對話模型(又名谷歌聊天機器人)。它採用了RNN(seq2seq模型)對句預測。它使用python和TensorFlow完成。
地址:https://github.com/Conchylicultor/DeepQA
4.Tensorflow基於神經網絡的會話模型
實現包含在Tensorflow會話模型seq2seq教程的延伸。基本型的例子中能夠找到這個文件。
地址:https://github.com/pbhatia243/Neural_Conversation_Models
5.ByteNet字符級語言建模
這是一個tensorflow實現從DeepMind的論文字節網絡模型的神經機器翻譯的線性時間。
地址:https://github.com/paarthneekhara/byteNet-tensorflow
6.Language建模與門控捲積網絡
這是一個Tensorflow實現Facebook的人工智能研究實驗室的論文:語言模型與門控捲積網絡。本文采用卷積方法語言建模與新型封閉式-CNN模型。
地址:https://github.com/anantzoid/Language-Modeling-GatedCNN
7.Experiment不一樣深度的學習模式爲音樂生成與TensorFlow
不一樣的模型和實驗說明這裏。
地址:https://github.com/Conchylicultor/MusicGenerator
8.TensorFlow RNN語言模型
該模塊是如何建立使用遞歸神經網絡語言模型的例子TensorFlow。
地址:https://github.com/wpm/tfrnnlm
對於文檔+話題+字的嵌入監督學習的lda2vec模型9.tensorflow端口
TensorFlow實現克里斯托弗穆迪lda2vec的混合隱含狄利克雷分佈與word2vec。
地址:https://github.com/meereeum/lda2vec-tf
對於文本生成10.Implement字符級語言模型基礎上LSTM,在Python / TensorFlow
本程序用於自動生成一段中文文本(訓練語料是英文時也可用於生成英文文本),具體生成文本的內容和形式取決於訓練語料。模型基本思想和 karpathy 的 char-rnn 程序一致,利用循環神經網絡 (RNN) 在大規模語料上訓練一個 language model,而後利用訓練好的 language model 去自動生成一段文本。相比於 theano 版本的 char-rnn 模型,本模型採用了多層 RNN 而不是單層(tensorflow 中實現一個多層 RNN 簡直太方便了),同時還支持 max、sample 和 beam-search 多種生成策略。本程序代碼參考了 tensorflow 官方給出的一個 language model 程序 ptb_word_lm.py。
地址:https://github.com/hit-computer/char-rnn-tf
11.Visual問題上回答演示預訓練模式
這是視覺答疑的一個簡單的演示,它使用預訓練模型(見型號/ CNN和模型/ VQA)回答有關給定圖像的特定問題。
地址:https://github.com/iamaaditya/VQA_Demo
12.tf自適應-SOFTMAX-LSTM-LM
該庫顯示了PTB(賓州樹庫)和GBW LSTM語言模型的實驗結果(谷歌十億字上TensorFlow使用AdaptiveSoftmax)。
地址:https://github.com/TencentAILab/tf-adaptive-softmax-lstm-lm
綜合
1.TensorFlow模型
該資源庫包含在實現機器學習模型TensorFlow。該模型是由各自的做者維護。
地址:https://github.com/tensorflow/models
生成模型的2.Collection,如甘,VAE在Pytorch和Tensorflow
這裏面是什麼?
甘: 1.Vanilla GAN GAN 2.Conditional 3.InfoGAN 4.Wasserstein GAN 5.Mode正則GAN GAN 6.Coupled分類7.Auxiliary甘8.Least廣場GAN 9.Boundary尋求GAN 10.Energy GaN基11.f-甘12.Generative對抗性並行12.DiscoGAN 13Adversarial地物學習和Adversarially據悉推理
VAE: 1.Vanilla VAE 2.Conditional VAE 3.Denoising VAE 4.Adversarial自動編碼5.Adversarial變貝葉斯
地址:https://github.com/wiseodd/generative-models
使用tensorflow 3.Deep學習
Tensorflow項目的一切深深neurally相關的回購。實現和想法主要是基於從的arXiv和實現,從網上的教程文件。
地址:https://github.com/shekkizh/TensorflowProjects
4.A庫機率模型,推斷和批評。深生成模型,變推論。運行在TensorFlow。
愛德華是一個Python庫機率模型,推斷和批評。這是一個快速的實驗和研究與機率模型,從對小數據集複雜深入的機率模型對大數據集的經典分層模型實驗牀。愛德華融合三個方面:貝葉斯統計和機器學習,深度學習和機率性編程。
地址:https://github.com/blei-lab/edward
5.Tensorflow教程文件和各類深NLP和CV模式的實現。
該資源庫包含各類深學習模型Tensorflow實現,重點是在天然語言處理的問題。每一個單獨的子目錄是自包含的,解決一個特定的模式。
地址:https://github.com/siddk/deep-nlp
6.A tensorflow庫,用於構建各種車型
TensorGraph是用於構建基於TensorFlow任何能夠想象到的模型的框架。
因爲深學習變得愈來愈廣泛和架構變得愈來愈複雜,咱們彷佛須要一些易於使用的框架來快速創建這些模型,這就是爲何TensorGraph出生。這是一個很是簡單和容易使用的框架,但它可讓你創建各類能夠想象的車型。
地址:https://github.com/hycis/TensorGraph
7.PyTorch和Tensorflow功能模型的定義
模型定義和PyTorch和Tensorflow預訓練的權重
PyTorch,不像LUA炬,已autograd在它的核心,因此採用torch.nn模塊的模塊化結構不是必需的,能夠很容易地分配所需的變量和寫入利用它們的功能,這是有時更方便。此回購包含此功能的方法模型定義,與某些型號預訓練的權重。
權重序列化爲在HDF5陣列的一個字典,因此應在其餘框架中被容易地裝載。因爲@edgarriba咱們cpp_parser在C ++裝載重量。
更多型號來了!咱們還計劃增長用於定義其餘框架在將來,也許微小,DNN第一。歡迎踊躍投稿。
看到PyTorch也imagenet分類demo.ipynb
地址:https://github.com/szagoruyko/functional-zoo
在tensorflow 8.Neural網絡模型
地址:https://github.com/AJwader/Tensorflow-models
其餘
1.Caffe模型TensorFlow
轉換來自Caffe模型TensorFlow。
地址:https://github.com/ethereon/caffe-tensorflow
2.Run Keras模型(tensorflow後端)在瀏覽器中,用GPU支持
模型直接從Keras JSON格式配置文件建立的,使用直接從相應的HDF5文件序列權重。也適用於節點,但只有在CPU模式。
地址:https://github.com/transcranial/keras-js
3.Simplify Tensorflow模型的訓練和調整
中止浪費你的時間重寫的培訓,評估和可視化程序爲您的ML模式:讓DyTB作的工做爲您服務!
地址:https://github.com/galeone/dynamic-training-bench
4.Observations和注意事項,瞭解使用Tensorflow神經網絡模型等思想實驗的工做
觀察和注意事項的回購,瞭解使用Tensorflow神經網絡模型等簡單的思想實驗的工做。
地址:https://github.com/shekkizh/neuralnetworks.thought-experiments
5.attention模型蘊涵在SNLI語料庫Tensorflow和Keras實施
對一個蘊涵注意模型從實現本文中keras和tensorflow。
與keras 1.0.6和tensorflow 0.11.0rc2兼容
我實現了模型去學習keras和tensorflow API的,因此我尚未真正調整上的表現。在keras實現的模型是有一點不一樣,由於keras不公開設定LSTMs狀態的方法。
地址:https://github.com/shyamupa/snli-entailment
與TensorFlow和6.Multilayer饋神經網絡預測模型的實現scikit學習
該項目提供了多層感知預測模型,實現並採用TensorFlow並按照scikit-learnPredictor API。
地址:https://github.com/civisanalytics/muffnn
7.Keras預訓練模型(VGG16和InceptionV3)+遷移學習在牛津102的花集預測類
看我爲識別植物和照顧他們的應用程序- 植物護理。它的工做原理使用從該回購實現的模型的代碼。
這個自舉深卷積神經網絡的訓練Keras在圖像分類牛津102類花卉的數據集。
火車過程徹底自動化,併爲模型最好的權重將被保存。
該代碼可用於任何數據集,只需按照數據/分類目錄的原始文件結構運行後bootstrap.py 。若是你想存儲你的數據集在其餘地方,你能夠作到這一點,運行train.py 與設置路徑的特殊參數爲DataSet --data_dir ==路徑/到/你/排序/數據。
地址:https://github.com/Arsey/keras-transfer-learning-for-oxford102
8.Tensorflow型號爲動物園和Torch7 PyTorch
這是由tensorflow預訓練模式的移植雷米·卡代內和米卡爾·卡瓦爾哈。特別感謝莫斯特珀·西塞。全部機型已在Imagenet測試。
這項工做獲得了啓發以來,v3.torch。
地址:https://github.com/Cadene/tensorflow-model-zoo.torch
9.Keras實行「寬殘餘網絡」
此回購包含的代碼運行使用Keras寬殘餘網絡。
地址:https://github.com/asmith26/wide_resnets_keras
微信公衆號:okweiwu
AI研習社--雷鋒網