图书介绍

博文视点AI系列 深度学习之美 AI时代的数据处理与最佳实践PDF|Epub|txt|kindle电子书版本网盘下载

博文视点AI系列 深度学习之美 AI时代的数据处理与最佳实践
  • 张玉宏著 著
  • 出版社: 北京:电子工业出版社
  • ISBN:9787121342462
  • 出版时间:2018
  • 标注页数:654页
  • 文件大小:81MB
  • 文件页数:680页
  • 主题词:机器学习

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快]温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页直链下载[便捷但速度慢]  [在线试读本书]   [在线获取解压码]

下载说明

博文视点AI系列 深度学习之美 AI时代的数据处理与最佳实践PDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

第1章 一入侯门“深”似海,深度学习深几许1

1.1 深度学习的巨大影响2

1.2 什么是学习4

1.3 什么是机器学习4

1.4 机器学习的4个象限5

1.5 什么是深度学习6

1.6 “恋爱”中的深度学习7

1.7 深度学习的方法论9

1.8 有没有浅层学习13

1.9 本章小结14

1.10 请你思考14

参考资料14

第2章 人工“碳”索意犹尽,智能“硅”来未可知16

2.1 信数据者得永生吗17

2.2 人工智能的“江湖定位”18

2.3 深度学习的归属19

2.4 机器学习的形式化定义21

2.5 为什么要用神经网络24

2.6 人工神经网络的特点26

2.7 什么是通用近似定理27

2.8 本章小结31

2.9 请你思考31

参考资料31

第3章 “机器学习”三重门,“中庸之道”趋若人33

3.1 监督学习34

3.1.1 感性认知监督学习34

3.1.2 监督学习的形式化描述35

3.1.3 k-近邻算法37

3.2 非监督学习39

3.2.1 感性认识非监督学习39

3.2.2 非监督学习的代表——K均值聚类41

3.3 半监督学习45

3.4 从“中庸之道”看机器学习47

3.5 强化学习49

3.6 本章小结52

3.7 请你思考53

参考资料53

第4章 人生苦短对酒歌,我用Python乐趣多55

4.1 Python概要56

4.1.1 为什么要用Python56

4.1.2 Python中常用的库58

4.2 Python的版本之争61

4.3 Python环境配置65

4.3.1 Windows下的安装与配置65

4.3.2 Mac下的安装与配置72

4.4 Python编程基础76

4.4.1 如何运行Python代码77

4.4.2 代码缩进79

4.4.3 注释80

4.4.4 Python中的数据结构81

4.4.5 函数的设计93

4.4.6 模块的导入与使用101

4.4.7 面向对象程序设计102

4.5 本章小结112

4.6 请你思考112

参考资料113

第5章 机器学习终觉浅,Python带我来实践114

5.1 线性回归115

5.1.1 线性回归的概念115

5.1.2 简易线性回归的Python实现详解119

5.2 k-近邻算法139

5.2.1 k-近邻算法的三个要素140

5.2.2 k-近邻算法实战143

5.2.3 使用scikit-learn实现k-近邻算法155

5.3 本章小结162

5.4 请你思考162

参考资料162

第6章 神经网络不胜语,M-P模型似可寻164

6.1 M-P神经元模型是什么165

6.2 模型背后的那些人和事167

6.3 激活函数是怎样的一种存在175

6.4 什么是卷积函数176

6.5 本章小结177

6.6 请你思考178

参考资料178

第7章 Hello World感知机,懂你我心才安息179

7.1 网之初,感知机180

7.2 感知机名称的由来180

7.3 感性认识“感知机”183

7.4 感知机是如何学习的185

7.5 感知机训练法则187

7.6 感知机的几何意义190

7.7 基于Python的感知机实战191

7.8 感知机的表征能力196

7.9 本章小结199

7.10 请你思考199

参考资料199

第8章 损失函数减肥用,神经网络调权重201

8.1 多层网络解决“异或”问题202

8.2 感性认识多层前馈神经网络205

8.3 是浅而“胖”好,还是深而“瘦”佳209

8.4 分布式特征表达210

8.5 丢弃学习与集成学习211

8.6 现实很丰满,理想很骨感212

8.7 损失函数的定义213

8.8 热力学定律与梯度弥散215

8.9 本章小结216

8.10 请你思考216

参考资料217

第9章 山重水复疑无路,最快下降问梯度219

9.1 “鸟飞派”还飞不220

9.2 1986年的那篇神作221

9.3 多层感知机网络遇到的大问题222

9.4 神经网络结构的设计225

9.5 再议损失函数227

9.6 什么是梯度229

9.7 什么是梯度递减231

9.8 梯度递减的线性回归实战235

9.9 什么是随机梯度递减238

9.10 利用SGD解决线性回归实战240

9.11 本章小结247

9.12 请你思考248

参考资料248

第10章 BP算法双向传,链式求导最缠绵249

10.1 BP算法极简史250

10.2 正向传播信息251

10.3 求导中的链式法则255

10.4 误差反向传播264

10.4.1 基于随机梯度下降的BP算法265

10.4.2 输出层神经元的权值训练267

10.4.3 隐含层神经元的权值训练270

10.4.4 BP算法的感性认知273

10.4.5 关于BP算法的补充说明278

10.5 BP算法实战详细解释280

10.5.1 初始化网络280

10.5.2 信息前向传播282

10.5.3 误差反向传播285

10.5.4 训练网络(解决异或问题)288

10.5.5 利用BP算法预测小麦品种的分类293

10.6 本章小结301

10.7 请你思考302

参考资料304

第11章 一骑红尘江湖笑,TensorFlow谷歌造305

11.1 TensorFlow概述306

11.2 深度学习框架比较309

11.2.1 Theano309

11.2.2 Keras310

11.2.3 Caffe311

11.2.4 PyTorch312

11.3 TensorFlow的安装313

11.3.1 Anaconda的安装313

11.3.2 TensorFlow的CPU版本安装315

11.3.3 TensorFlow的源码编译323

11.4 Jupyter Notebook的使用331

11.4.1 Jupyter Notebook的由来331

11.4.2 Jupyter Notebook的安装333

11.5 TensorFlow中的基础语法337

11.5.1 什么是数据流图338

11.5.2 构建第一个TensorFlow数据流图339

11.5.3 可视化展现的TensorBoard342

11.5.4 TensorFlow的张量思维346

11.5.5 TensorFlow中的数据类型348

11.5.6 TensorFlow中的操作类型353

11.5.7 TensorFlow中的Graph对象356

11.5.8 TensorFlow中的Session358

11.5.9 TensorFlow中的placeholder361

11.5.10 TensorFlow中的Variable对象363

11.5.11 TensorFlow中的名称作用域365

11.5.12 张量的Reduce方向367

11.6 手写数字识别MNIST372

11.6.1 MNIST数据集简介373

11.6.2 MNIST数据的获取与预处理375

11.6.3 分类模型的构建——Softmax Regression378

11.7 TensorFlow中的Eager执行模式394

11.7.1 Eager执行模式的背景394

11.7.2 Eager执行模式的安装395

11.7.3 Eager执行模式的案例395

11.7.4 Eager执行模式的MNIST模型构建398

11.8 本章小结401

11.9 请你思考402

参考资料403

第12章 全面连接困何处,卷积网络显神威404

12.1 卷积神经网络的历史405

12.1.1 眼在何方?路在何方?405

12.1.2 卷积神经网络的历史脉络406

12.1.3 那场著名的学术赌局410

12.2 卷积神经网络的概念412

12.2.1 卷积的数学定义412

12.2.2 生活中的卷积413

12.3 图像处理中的卷积414

12.3.1 计算机“视界”中的图像414

12.3.2 什么是卷积核415

12.3.3 卷积在图像处理中的应用418

12.4 卷积神经网络的结构420

12.5 卷积层要义422

12.5.1 卷积层的设计动机422

12.5.2 卷积层的局部连接427

12.5.3 卷积层的3个核心概念428

12.6 细说激活层434

12.6.1 两个看似闲扯的问题434

12.6.2 追寻问题的本质435

12.6.3 ReLU的理论基础437

12.6.4 ReLU的不足之处441

12.7 详解池化层442

12.8 勿忘全连接层445

12.9 本章小结446

12.10 请你思考447

参考资料448

第13章 纸上谈兵终觉浅,绝知卷积要编程450

13.1 TensorFlow的CNN架构451

13.2 卷积层的实现452

13.2.1 TensorFlow中的卷积函数452

13.2.2 图像处理中的常用卷积核456

13.3 激活函数的使用460

13.3.1 Sigmoid函数460

13.3.2 Tanh函数461

13.3.3 修正线性单元——ReLU462

13.3.4 Dropout函数462

13.4 池化层的实现466

13.5 规范化层470

13.5.1 为什么需要规范化470

13.5.2 局部响应规范化472

13.5.3 批规范化475

13.6 卷积神经网络在MNIST分类器中的应用480

13.6.1 数据读取480

13.6.2 初始化权值和偏置480

13.6.3 卷积和池化482

13.6.4 构建第一个卷积层482

13.6.5 构建第二个卷积层483

13.6.6 实现全连接层484

13.6.7 实现Dropout层485

13.6.8 实现Readout层485

13.6.9 参数训练与模型评估485

13.7 经典神经网络——AlexNet的实现488

13.7.1 AlexNet的网络架构488

13.7.2 数据读取490

13.7.3 初始化权值和偏置491

13.7.4 卷积和池化491

13.7.5 局部响应归一化层492

13.7.6 构建卷积层492

13.7.7 实现全连接层和Dropout层493

13.7.8 实现Readout层494

13.7.9 参数训练与模型评估494

13.8 本章小结495

13.9 请你思考496

参考资料496

第14章 循环递归RNN,序列建模套路深498

14.1 你可能不具备的一种思维499

14.2 标准神经网络的缺陷所在501

14.3 RNN简史502

14.3.1 Hopfield网络503

14.3.2 Jordan递归神经网络504

14.3.3 Elman递归神经网络505

14.3.4 RNN的应用领域506

14.4 RNN的理论基础506

14.4.1 Elman递归神经网络506

14.4.2 循环神经网络的生物学机理508

14.5 RNN的结构509

14.6 循环神经网络的训练512

14.6.1 问题建模512

14.6.2 确定优化目标函数513

14.6.3 参数求解513

14.7 基于RNN的TensorFlow实战——正弦序列预测514

14.7.1 生成数据516

14.7.2 定义权值和偏置517

14.7.3 前向传播519

14.7.4 定义损失函数522

14.7.5 参数训练与模型评估522

14.8 本章小结524

14.9 请你思考524

参考资料525

第15章 LSTM长短记,长序依赖可追忆526

15.1 遗忘是好事还是坏事527

15.2 施密德胡伯是何人527

15.3 为什么需要LSTM529

15.4 拆解LSTM530

15.4.1 传统RNN的问题所在530

15.4.2 改造的神经元531

15.5 LSTM的前向计算533

15.5.1 遗忘门534

15.5.2 输入门535

15.5.3 候选门536

15.5.4 输出门537

15.6 LSTM的训练流程539

15.7 自然语言处理的一个假设540

15.8 词向量表示方法542

15.8.1 独热编码表示543

15.8.2 分布式表示545

15.8.3 词嵌入表示547

15.9 自然语言处理的统计模型549

15.9.1 NGram模型549

15.9.2 基于神经网络的语言模型550

15.9.3 基于循环神经网络的语言模型553

15.9.4 LSTM语言模型的正则化556

15.10 基于Penn Tree Bank的自然语言处理实战560

15.10.1 下载及准备PTB数据集561

15.10.2 导入基本包562

15.10.3 定义相关的参数562

15.10.4 语言模型的实现563

15.10.5 训练并返回perplexity值573

15.10.6 定义主函数并运行575

15.10.7 运行结果578

15.11 本章小结579

15.12 请你思考580

参考资料580

第16章 卷积网络虽动人,胶囊网络更传“神”583

16.1 从神经元到神经胶囊584

16.2 卷积神经网络面临的挑战584

16.3 神经胶囊的提出588

16.4 神经胶囊理论初探591

16.4.1 神经胶囊的生物学基础591

16.4.2 神经胶囊网络的哲学基础592

16.5 神经胶囊的实例化参数594

16.6 神经胶囊的工作流程598

16.6.1 神经胶囊向量的计算598

16.6.2 动态路由的工作机理600

16.6.3 判断多数字存在性的边缘损失函数606

16.6.4 胶囊神经网络的结构607

16.7 CapsNet的验证与实验614

16.7.1 重构和预测效果614

16.7.2 胶囊输出向量的维度表征意义616

16.7.3 重叠图像的分割617

16.8 神经胶囊网络的TensorFlow实现618

16.8.1 导入基本包及读取数据集619

16.8.2 图像输入619

16.8.3 卷积层Convl的实现619

16.8.4 PrimaryCaps层的实现620

16.8.5 全连接层622

16.8.6 路由协议算法628

16.8.7 估计实体出现的概率630

16.8.8 损失函数的实现631

16.8.9 额外设置639

16.8.10 训练和评估640

16.8.11 运行结果643

16.9 本章小结644

16.10 请你思考645

16.11 深度学习美在何处646

参考资料647

后记648

索引651

热门推荐