深度学习结构TensorFlow在Kubernetes上的实践ITeye - 娱乐之横扫全球

深度学习结构TensorFlow在Kubernetes上的实践ITeye

2019-01-10 21:38:23 | 作者: 宛南 | 标签: 学习,模型,练习 | 浏览: 297

《21个项目玩转深度学习:根据Tensorflow的实践详解》高清完整版 文件是百度云链接 第1章 MNIST机器学习入门 1 1.1 MNIST数据集 2 1.1.1 简介 2 1.1.2 试验:将MNIST数据集保存为图片 5 1.1.3 图画标签的独热(one-hot)表明 6 1.2 运用TensorFlow辨认MNIST 8 1.2.1 Softmax回归 8 1.2.2 两层卷积网络分类 14 1.3 总结 18 第2章 CIFAR-10与ImageNet图画辨认 19 2.1 CIFAR-10数据集 20 2.1.1 CIFAR-10简介 20 2.1.2 下载CIFAR-10数据 21 2.1.3 TensorFlow的数据读取机制 23 2.1.4 试验:将CIFAR-10数据集保存为图片方法 30 2.2 运用TensorFlow练习CIFAR-10辨认模型 34 2.2.1 数据增强(Data Augmentation) 34 2.2.2 CIFAR-10辨认模型 36 2.2.3 练习模型 39 2.2.4 在TensorFlow中检查练习进展 39 2.2.5 测验模型作用 42 2.3 ImageNet图画辨认模型 44 2.3.1 ImageNet数据集简介 44 2.3.2 历代ImageNet图画辨认 模型 45 2.4 总结 49 第3章 打造自己的图画辨认模型 50 3.1 微调(Fine-tune)的原理 51 3.2 数据预备 52 3.3 运用TensorFlow Slim微调模型 56 3.3.1 下载TensorFlow Slim的源代码 56 3.3.2 界说新的datasets文件 57 3.3.3 预备练习文件夹 59 3.3.4 开端练习 60 3.3.5 练习程序行为 62 3.3.6 验证模型正确率 63 3.3.7 TensorBoard可视化与超参数挑选 64 3.3.8 导出模型并对单张图片进行辨认 65 3.4 总结 69 第4章 Deep Dream模型 70 4.1 Deep Dream的技能原理 71 4.2 TensorFlow中的Deep Dream模型实践 73 4.2.1 导入Inception模型 73 4.2.2 生成原始的Deep Dream图画 76 4.2.3 生成更大尺度的Deep Dream图画 78 4.2.4 生成更高质量的Deep Dream图画 82 4.2.5 终究的Deep Dream模型 87 4.3 总结 90 第5章 深度学习中的方针检测 91 5.1 深度学习中方针检测的原理 92 5.1.1 R-CNN的原理 92 5.1.2 SPPNet的原理 94 5.1.3 Fast R-CNN的原理 97 5.1.4 Faster R-CNN的原理 98 5.2 TensorFlow Object Detection API 101 5.2.1 装置TensorFlow Object Detection API 101 5.2.2 履行现已练习好的模型 103 5.2.3 练习新的模型 109 5.2.4 导出模型并猜测单张图片 113 5.3 总结 114 第6章 人脸检测和人脸辨认 115 6.1 MTCNN的原理 116 6.2 运用深度卷积网络提取特征 121 6.2.1 三元组丢失(Triplet Loss)的界说 123 6.2.2 中心丢失(Center Loss)的界说 123 6.3 运用特征规划运用 125 6.4 在TensorFlow中完成人脸辨认 126 6.4.1 项目环境设置 126 6.4.2 LFW人脸数据库 127 6.4.3 LFW数据库上的人脸检测和对齐 128 6.4.4 运用已有模型验证LFW数据库准确率 129 6.4.5 在自己的数据上运用已有模型 130 6.4.6 从头练习新模型 133 6.4.7 三元组丢失和中心丢失的界说 138 6.5 总结 140 第7章 图画风格搬迁 141 7.1 图画风格搬迁的原理 142 7.1.1 原始图画风格搬迁的原理 142 7.1.2 快速图画风格搬迁的原理 148 7.2 在TensorFlow中完成快速风格搬迁 149 7.2.1 运用预练习模型 150 7.2.2 练习自己的模型 153 7.2.3 在TensorBoard中监控练习状况 154 7.2.4 项目完成细节 157 7.3 总结 162 第8章 GAN和DCGAN入门 163 8.1 GAN的原理 164 8.2 DCGAN的原理 166 8.3 在TensorFlow顶用DCGAN生成图画 169 8.3.1 生成MNIST图画 170 8.3.2 运用自己的数据集练习 171 8.3.3 程序结构剖析:怎么将图画读入模型 173 8.3.4 程序结构剖析:可视化办法 177 8.4 总结 180 第9章 pix2pix模型与主动上色技能 181 9.1 cGAN的原理 182 9.2 pix2pix模型的原理 184 9.3 TensorFlow中的pix2pix模型 187 9.3.1 履行已有的数据集 187 9.3.2 创立自己的数据集 191 9.4 运用TensorFlow为灰度图画主动上色 194 9.4.1 为食物图片上色 194 9.4.2 为动漫图片进行上色 196 9.5 总结 198 第10章 超分辨率:怎么让图画变得更明晰 199 10.1 数据预处理与练习 200 10.1.1 去除过错图片 200 10.1.2 将图画裁剪到一致巨细 202 10.1.3 为代码增加新的操作 202 10.2 总结 209 第11章 CycleGAN与非配对图画转化 210 11.1 CycleGAN的原理 211 11.2 在TensorFlow顶用练习CycleGAN模型 213 11.2.1 下载数据集并练习 213 11.2.2 运用自己的数据进行练习 217 11.3 程序结构剖析 220 11.4 总结 224 第12章 RNN根本结构与Char RNN文本生成 225 12.1 RNN的原理 226 12.1.1 经典RNN的结构 226 12.1.2 N VS 1 RNN的结构 229 12.1.3 1 VS N RNN的结构 230 12.2 LSTM的原理 231 12.3 Char RNN的原理 235 12.4 TensorFlow中的RNN完成方法 237 12.4.1 完成RNN的根本单元:RNNCell 238 12.4.2 对RNN进行堆叠:MultiRNNCell 239 12.4.3 留意点:BasicRNNCell和BasicLSTMCell的output 240 12.4.4 运用tf.nn.dynamic_rnn打开时刻维度 241 12.5 运用TensorFlow完成Char RNN 242 12.5.1 界说输入数据 243 12.5.2 界说多层LSTM模型 244 12.5.3 界说丢失 245 12.5.4 练习模型与生成文字 246 12.5.5 更多参数阐明 250 12.5.6 运转自己的数据 250 12.6 总结 251 第13章 序列分类问题详解 252 13.1 N VS 1的RNN结构 253 13.2 数列分类问题与数据生成 254 13.3 在TensorFlow中界说RNN分类模型 258 13.3.1 界说模型前的预备工作 258 13.3.2 界说RNN分类模型 259 13.3.3 界说丢失并进行练习 261 13.4 模型的推行 262 13.5 总结 263 第14章 词的向量表明:word2vec与词嵌入 264 14.1 为什么需要做词嵌入 265 14.2 词嵌入的原理 266 14.2.1 CBOW完成词嵌入的原理 266 14.2.2 Skip-Gram完成词嵌入的原理 269 14.3 在TensorFlow中完成词嵌入 270 14.3.1 下载数据集 270 14.3.2 制造词表 272 14.3.3 生成每步的练习样本 274 14.3.4 界说模型 276 14.3.5 履行练习 279 14.3.6 可视化 281 14.4 与第12章的比照 284 14.5 总结 285 第15章 在TensorFlow中进行时刻序列猜测 286 15.1 时刻序列问题的一般方法 287 15.2 用TFTS读入时刻序列数据 287 15.2.1 从Numpy数组中读入时刻序列数据 288 15.2.2 从CSV文件中读入时刻序列数据 291 15.3 运用AR模型猜测时刻序列 293 15.3.1 AR模型的练习 293 15.3.2 AR模型的验证和猜测 295 15.4 运用LSTM模型猜测时刻序列 297 15.4.1 LSTM模型中的单变量时刻序列猜测 297 15.4.2 LSTM模型中的多变量时刻序列猜测 299 15.5 总结 301 第16章 神经网络机器翻译技能 302 16.1 Encoder-Decoder模型的原理 303 16.2 留意力机制(Attention) 305 16.3 运用TensorFlow NMT建立神经网络翻译引擎 309 16.3.1 示例:将越南语翻译为英语 309 16.3.2 构建中英翻译引擎 313 16.4 TensorFlow NMT源码简介 317 16.5 总结 319 第17章 看图说话:将图画转化为文字 320 17.1 Image Caption技能总述 321 17.1.1 从Encoder-Decoder结构谈起 321 17.1.2 将Encoder-Decoder运用到Image Caption使命上 322 17.1.3 对Encoder-Decoder的改善1:参加Attention机制 323 17.1.4 对Encoder-Decoder的改善2:参加高层语义 325 17.2 在TensorFlow中完成Image Caption 327 17.2.1 下载代码 327 17.2.2 环境预备 328 17.2.2 编译和数据预备 328 17.2.3 练习和验证 330 17.2.4 测验单张图片 331 17.3 总结 332 第18章 强化学习入门之Q 333 18.1 强化学习中的几个重要概念 334 18.2 Q Learning的原理与试验 336 18.2.1 环境界说 336 18.2.2 Q函数 338 18.2.3 Q函数的学习战略 339 18.2.4 ?-greedy战略 341 18.2.5 简略的Q Learning示例 341 18.2.6 更杂乱的状况 342 18.3 总结 343 第19章 强化学习入门之SARSA算法 344 19.1 SARSA 算法的原理 345 19.1.1 经过与Q Learning比照学习SARSA算法 345 19.1.2 off-policy与on-policy 346 19.2 SARSA 算法的完成 347 19.3 总结 348 第20章 深度强化学习:Deep Q Learning 349 20.1 DQN算法的原理 350 20.1.1 问题简介 350 20.1.2 Deep Q Network 351 20.1.3 练习办法 352 20.2 在TensorFlow中运转DQN算法 353 20.2.1 装置依靠库 353 20.2.2 练习 355 20.2.3 测验 356 20.3 在TensorFlow中DQN算法的完成剖析 357 20.4 总结 360 第21章 战略梯度(Policy Gradient)算法 361 21.1 战略梯度(Policy Gradient)算法的原理 362 21.1.1 Cartpole游戏 362 21.1.2 战略网络(Policy Network) 363 21.1.3 练习战略网络 364 21.2 在TensorFlow中完成战略梯度 算法 365 21.2.1 初始化 365 21.2.2 界说战略网络 366 21.2.3 练习 367 21.3 总结 371

版权声明
本文来源于网络,版权归原作者所有,其内容与观点不代表娱乐之横扫全球立场。转载文章仅为传播更有价值的信息,如采编人员采编有误或者版权原因,请与我们联系,我们核实后立即修改或删除。

猜您喜欢的文章

阅读排行

  • 1

    java元数据(metadata)ITeye

    数据,注解,一个
  • 2

    java awt Graphics 绘图ITeye

    字符串,二维码,图片
  • 3

    slf4jITeye

    日志,运用,一个
  • 4
  • 5

    spring+mybatis装备ITeye

    装备,一下,需求
  • 6

    文件的读写和操作ITeye

    文件,字节,输出
  • 7

    ubuntu下python办理ITeye

    能够,咱们,经过
  • 8

    第03章 惯例选择器 (2)ITeye

    主页,选择器,运用
  • 9

    zookeeper原理(转)ITeye

    节点,集群,一个
  • 10