动手学深度学习(PyTorch版) 电子书 mobi pdf txt word 2024 下载
动手学深度学习(PyTorch版)电子书籍推荐下载地址
内容简介:
本书是《动手学深度学习》的重磅升级版本,选用经典的PyTorch深度学习框架,旨在向读者交付更为便捷的有关深度学习的交互式学习体验。 本书重新修订《动手学深度学习》的所有内容,并针对技术的发展,新增注意力机制、预训练等内容。本书包含15章,第一部分介绍深度学习的基础知识和预备知识,并由线性模型引出最简单的神经网络——多层感知机;第二部分阐述深度学习计算的关键组件、卷积神经网络、循环神经网络、注意力机制等大多数现代深度学习应用背后的基本工具;第三部分讨论深度学习中常用的优化算法和影响深度学习计算性能的重要因素,并分别列举深度学习在计算机视觉和自然语言处理中的重要应用。 本书同时覆盖深度学习的方法和实践,主要面向在校大学生、技术人员和研究人员。阅读本书需要读者了解基本的Python编程知识及预备知识中描述的线性代数、微分和概率等基础知识。
书籍目录:
对本书的赞誉
前言
译者简介
学习环境配置
资源与支持
主要符号表
第 1章 引言 1
1.1 日常生活中的机器学习 2
1.2 机器学习中的关键组件 3
1.2.1 数据 3
1.2.2 模型 4
1.2.3 目标函数 4
1.2.4 优化算法 5
1.3 各种机器学习问题 5
1.3.1 监督学习 5
1.3.2 无监督学习 11
1.3.3 与环境互动 11
1.3.4 强化学习 12
1.4 起源 13
1.5 深度学习的发展 15
1.6 深度学习的成功案例 16
1.7 特点 17
第 2章 预备知识 20
2.1 数据操作 20
2.1.1 入门 21
2.1.2 运算符 22
2.1.3 广播机制 23
2.1.4 索引和切片 24
2.1.5 节省内存 24
2.1.6 转换为其他Python对象 25
2.2 数据预处理 26
2.2.1 读取数据集 26
2.2.2 处理缺失值 26
2.2.3 转换为张量格式 27
2.3 线性代数 27
2.3.1 标量 28
2.3.2 向量 28
2.3.3 矩阵 29
2.3.4 张量 30
2.3.5 张量算法的基本性质 31
2.3.6 降维 32
2.3.7 点积 33
2.3.8 矩阵-向量积 33
2.3.9 矩阵-矩阵乘法 34
2.3.10 范数 35
2.3.11 关于线性代数的更多信息 36
2.4 微积分 37
2.4.1 导数和微分 37
2.4.2 偏导数 40
2.4.3 梯度 41
2.4.4 链式法则 41
2.5 自动微分 42
2.5.1 一个简单的例子 42
2.5.2 非标量变量的反向传播 43
2.5.3 分离计算 43
2.5.4 Python控制流的梯度计算 44
2.6 概率 44
2.6.1 基本概率论 45
2.6.2 处理多个随机变量 48
2.6.3 期望和方差 50
2.7 查阅文档 51
2.7.1 查找模块中的所有函数和类 51
2.7.2 查找特定函数和类的用法 52
第3章 线性神经网络 54
3.1 线性回归 54
3.1.1 线性回归的基本元素 54
3.1.2 向量化加速 57
3.1.3 正态分布与平方损失 58
3.1.4 从线性回归到深度网络 60
3.2 线性回归的从零开始实现 61
3.2.1 生成数据集 62
3.2.2 读取数据集 63
3.2.3 初始化模型参数 63
3.2.4 定义模型 64
3.2.5 定义损失函数 64
3.2.6 定义优化算法 64
3.2.7 训练 64
3.3 线性回归的简洁实现 66
3.3.1 生成数据集 66
3.3.2 读取数据集 66
3.3.3 定义模型 67
3.3.4 初始化模型参数 67
3.3.5 定义损失函数 68
3.3.6 定义优化算法 68
3.3.7 训练 68
3.4 softmax回归 69
3.4.1 分类问题 69
3.4.2 网络架构 70
3.4.3 全连接层的参数开销 70
3.4.4 softmax运算 71
3.4.5 小批量样本的向量化 71
3.4.6 损失函数 72
3.4.7 信息论基础 73
3.4.8 模型预测和评估 74
3.5 图像分类数据集 74
3.5.1 读取数据集 75
3.5.2 读取小批量 76
3.5.3 整合所有组件 76
3.6 softmax回归的从零开始实现 77
3.6.1 初始化模型参数 77
3.6.2 定义softmax操作 78
3.6.3 定义模型 78
3.6.4 定义损失函数 79
3.6.5 分类精度 79
3.6.6 训练 80
3.6.7 预测 82
3.7 softmax回归的简洁实现 83
3.7.1 初始化模型参数 83
3.7.2 重新审视softmax的实现 84
3.7.3 优化算法 84
3.7.4 训练 84
第4章 多层感知机 86
4.1 多层感知机 86
4.1.1 隐藏层 86
4.1.2 激活函数 88
4.2 多层感知机的从零开始实现 92
4.2.1 初始化模型参数 92
4.2.2 激活函数 93
4.2.3 模型 93
4.2.4 损失函数 93
4.2.5 训练 93
4.3 多层感知机的简洁实现 94
模型 94
4.4 模型选择、欠拟合和过拟合 95
4.4.1 训练误差和泛化误差 96
4.4.2 模型选择 97
4.4.3 欠拟合还是过拟合 98
4.4.4 多项式回归 99
4.5 权重衰减 103
4.5.1 范数与权重衰减 103
4.5.2 高维线性回归 104
4.5.3 从零开始实现 104
4.5.4 简洁实现 106
4.6 暂退法 108
4.6.1 重新审视过拟合 108
4.6.2 扰动的稳健性 108
4.6.3 实践中的暂退法 109
4.6.4 从零开始实现 110
4.6.5 简洁实现 111
4.7 前向传播、反向传播和计算图 112
4.7.1 前向传播 113
4.7.2 前向传播计算图 113
4.7.3 反向传播 114
4.7.4 训练神经网络 115
4.8 数值稳定性和模型初始化 115
4.8.1 梯度消失和梯度爆炸 116
4.8.2 参数初始化 117
4.9 环境和分布偏移 119
4.9.1 分布偏移的类型 120
4.9.2 分布偏移示例 121
4.9.3 分布偏移纠正 122
4.9.4 学习问题的分类法 125
4.9.5 机器学习中的公平、责任和透明度 126
4.10 实战Kaggle比赛:预测房价 127
4.10.1 下载和缓存数据集 127
4.10.2 Kaggle 128
4.10.3 访问和读取数据集 129
4.10.4 数据预处理 130
4.10.5 训练 131
4.10.6 K折交叉验证 132
4.10.7 模型选择 133
4.10.8 提交Kaggle预测 133
第5章 深度学习计算 136
5.1 层和块 136
5.1.1 自定义块 138
5.1.2 顺序块 139
5.1.3 在前向传播函数中执行代码 139
5.1.4 效率 140
5.2 参数管理 141
5.2.1 参数访问 141
5.2.2 参数初始化 143
5.2.3 参数绑定 145
5.3 延后初始化 145
实例化网络 146
5.4 自定义层 146
5.4.1 不带参数的层 146
5.4.2 带参数的层 147
5.5 读写文件 148
5.5.1 加载和保存张量 148
5.5.2 加载和保存模型参数 149
5.6 GPU 150
5.6.1 计算设备 151
5.6.2 张量与GPU 152
5.6.3 神经网络与GPU 153
第6章 卷积神经网络 155
6.1 从全连接层到卷积 155
6.1.1 不变性 156
6.1.2 多层感知机的限制 157
6.1.3 卷积 158
6.1.4 “沃尔多在哪里”回顾 158
6.2 图像卷积 159
6.2.1 互相关运算 159
6.2.2 卷积层 161
6.2.3 图像中目标的边缘检测 161
6.2.4 学习卷积核 162
6.2.5 互相关和卷积 162
6.2.6 特征映射和感受野 163
6.3 填充和步幅 164
6.3.1 填充 164
6.3.2 步幅 165
6.4 多输入多输出通道 166
6.4.1 多输入通道 167
6.4.2 多输出通道 167
6.4.3 1×1卷积层 168
6.5 汇聚层 170
6.5.1 最大汇聚和平均汇聚 170
6.5.2 填充和步幅 171
6.5.3 多个通道 172
6.6 卷积神经网络(LeNet) 173
6.6.1 LeNet 173
6.6.2 模型训练 175
第7章 现代卷积神经网络 178
7.1 深度卷积神经网络(AlexNet) 178
7.1.1 学习表征 179
7.1.2 AlexNet 181
7.1.3 读取数据集 183
7.1.4 训练AlexNet 183
7.2 使用块的网络(VGG) 184
7.2.1 VGG块 184
7.2.2 VGG网络 185
7.2.3 训练模型 186
7.3 网络中的网络(NiN) 187
7.3.1 NiN块 187
7.3.2 NiN模型 188
7.3.3 训练模型 189
7.4 含并行连接的网络(GoogLeNet) 190
7.4.1 Inception块 190
7.4.2 GoogLeNet模型 191
7.4.3 训练模型 193
7.5 批量规范化 194
7.5.1 训练深层网络 194
7.5.2 批量规范化层 195
7.5.3 从零实现 196
7.5.4 使用批量规范化层的 LeNet 197
7.5.5 简明实现 198
7.5.6 争议 198
7.6 残差网络(ResNet) 200
7.6.1 函数类 200
7.6.2 残差块 201
7.6.3 ResNet模型 202
7.6.4 训练模型 204
7.7 稠密连接网络(DenseNet) 205
7.7.1 从ResNet到DenseNet 205
7.7.2 稠密块体 206
7.7.3 过渡层 206
7.7.4 DenseNet模型 207
7.7.5 训练模型 207
第8章 循环神经网络 209
8.1 序列模型 209
8.1.1 统计工具 210
8.1.2 训练 212
8.1.3 预测 213
8.2 文本预处理 216
8.2.1 读取数据集 216
8.2.2 词元化 217
8.2.3 词表 217
8.2.4 整合所有功能 219
8.3 语言模型和数据集 219
8.3.1 学习语言模型 220
8.3.2 马尔可夫模型与n元语法 221
8.3.3 自然语言统计 221
8.3.4 读取长序列数据 223
8.4 循环神经网络 226
8.4.1 无隐状态的神经网络 227
8.4.2 有隐状态的循环神经网络 227
8.4.3 基于循环神经网络的字符级语言模型 228
8.4.4 困惑度 229
8.5 循环神经网络的从零开始实现 230
8.5.1 独热编码 231
8.5.2 初始化模型参数 231
8.5.3 循环神经网络模型 232
8.5.4 预测 232
8.5.5 梯度截断 233
8.5.6 训练 234
8.6 循环神经网络的简洁实现 237
8.6.1 定义模型 237
8.6.2 训练与预测 238
8.7 通过时间反向传播 239
8.7.1 循环神经网络的梯度分析 239
8.7.2 通过时间反向传播的细节 241
第9章 现代循环神经网络 244
9.1 门控循环单元(GRU) 244
9.1.1 门控隐状态 245
9.1.2 从零开始实现 247
9.1.3 简洁实现 248
9.2 长短期记忆网络(LSTM) 249
9.2.1 门控记忆元 249
9.2.2 从零开始实现 252
9.2.3 简洁实现 253
9.3 深度循环神经网络 254
9.3.1 函数依赖关系 255
9.3.2 简洁实现 255
9.3.3 训练与预测 255
9.4 双向循环神经网络 256
9.4.1 隐马尔可夫模型中的动态规划 256
9.4.2 双向模型 258
9.4.3 双向循环神经网络的错误应用 259
9.5 机器翻译与数据集 260
9.5.1 下载和预处理数据集 261
9.5.2 词元化 262
9.5.3 词表 263
9.5.4 加载数据集 263
9.5.5 训练模型 264
9.6 编码器-解码器架构 265
9.6.1 编码器 265
9.6.2 解码器 266
9.6.3 合并编码器和解码器 266
9.7 序列到序列学习(seq2seq) 267
9.7.1 编码器 268
9.7.2 解码器 269
9.7.3 损失函数 270
9.7.4 训练 271
9.7.5 预测 272
9.7.6 预测序列的评估 273
9.8 束搜索 275
9.8.1 贪心搜索 275
9.8.2 穷举搜索 276
9.8.3 束搜索 276
第 10章 注意力机制 278
10.1 注意力提示 278
10.1.1 生物学中的注意力提示 279
10.1.2 查询、键和值 280
10.1.3 注意力的可视化 280
10.2 注意力汇聚:Nadaraya-Watson 核回归 281
10.2.1 生成数据集 282
10.2.2 平均汇聚 282
10.2.3 非参数注意力汇聚 283
10.2.4 带参数注意力汇聚 284
10.3 注意力评分函数 287
10.3.1 掩蔽softmax操作 288
10.3.2 加性注意力 289
10.3.3 缩放点积注意力 290
10.4 Bahdanau 注意力 291
10.4.1 模型 291
10.4.2 定义注意力解码器 292
10.4.3 训练 293
10.5 多头注意力 295
10.5.1 模型 295
10.5.2 实现 296
10.6 自注意力和位置编码 298
10.6.1 自注意力 298
10.6.2 比较卷积神经网络、循环神经网络和自注意力 298
10.6.3 位置编码 299
10.7 Transformer 302
10.7.1 模型 302
10.7.2 基于位置的前馈网络 303
10.7.3 残差连接和层规范化 304
10.7.4 编码器 304
10.7.5 解码器 305
10.7.6 训练 307
第 11章 优化算法 311
11.1 优化和深度学习 311
11.1.1 优化的目标 311
11.1.2 深度学习中的优化挑战 312
11.2 凸性 315
11.2.1 定义 315
11.2.2 性质 317
11.2.3 约束 319
11.3 梯度下降 322
11.3.1 一维梯度下降 322
11.3.2 多元梯度下降 324
11.3.3 自适应方法 326
11.4 随机梯度下降 329
11.4.1 随机梯度更新 329
11.4.2 动态学习率 331
11.4.3 凸目标的收敛性分析 332
11.4.4 随机梯度和有限样本 333
11.5 小批量随机梯度下降 334
11.5.1 向量化和缓存 335
11.5.2 小批量 336
11.5.3 读取数据集 337
11.5.4 从零开始实现 337
11.5.5 简洁实现 340
11.6 动量法 341
11.6.1 基础 341
11.6.2 实际实验 345
11.6.3 理论分析 346
11.7 AdaGrad算法 348
11.7.1 稀疏特征和学习率 348
11.7.2 预处理 349
11.7.3 算法 350
11.7.4 从零开始实现 351
11.7.5 简洁实现 352
11.8 RMSProp算法 353
11.8.1 算法 353
11.8.2 从零开始实现 354
11.8.3 简洁实现 355
11.9 Adadelta算法 356
11.9.1 算法 356
11.9.2 实现 356
11.10 Adam算法 358
11.10.1 算法 358
11.10.2 实现 359
11.10.3 Yogi 360
11.11 学习率调度器 361
11.11.1 一个简单的问题 361
11.11.2 学习率调度器 363
11.11.3 策略 364
第 12章 计算性能 369
12.1 编译器和解释器 369
12.1.1 符号式编程 370
12.1.2 混合式编程 371
12.1.3 Sequential的混合式编程 371
12.2 异步计算 372
通过后端异步处理 373
12.3 自动并行 375
12.3.1 基于GPU的并行计算 375
12.3.2 并行计算与通信 376
12.4 硬件 378
12.4.1 计算机 378
12.4.2 内存 379
12.4.3 存储器 380
12.4.4 CPU 381
12.4.5 GPU和其他加速卡 383
12.4.6 网络和总线 385
12.4.7 更多延迟 386
12.5 多GPU训练 388
12.5.1 问题拆分 388
12.5.2 数据并行性 390
12.5.3 简单网络 390
12.5.4 数据同步 391
12.5.5 数据分发 392
12.5.6 训练 392
12.6 多GPU的简洁实现 394
12.6.1 简单网络 394
12.6.2 网络初始化 395
12.6.3 训练 395
12.7 参数服务器 397
12.7.1 数据并行训练 397
12.7.2 环同步(ring
synchronization) 399
12.7.3 多机训练 400
12.7.4 键-值存储 402
第 13章 计算机视觉 404
13.1 图像增广 404
13.1.1 常用的图像增广方法 404
13.1.2 使用图像增广进行训练 408
13.2 微调 410
13.2.1 步骤 410
13.2.2 热狗识别 411
13.3 目标检测和边界框 415
边界框 415
13.4 锚框 417
13.4.1 生成多个锚框 417
13.4.2 交并比(IoU) 419
13.4.3 在训练数据中标注锚框 420
13.4.4 使用非极大值抑制预测
边界框 424
13.5 多尺度目标检测 427
13.5.1 多尺度锚框 427
13.5.2 多尺度检测 429
13.6 目标检测数据集 430
13.6.1 下载数据集 430
13.6.2 读取数据集 431
13.6.3 演示 432
13.7 单发多框检测(SSD) 433
13.7.1 模型 433
13.7.2 训练模型 437
13.7.3 预测目标 439
13.8 区域卷积神经网络(R-CNN)系列 441
13.8.1 R-CNN 441
13.8.2 Fast R-CNN 442
13.8.3 Faster R-CNN 443
13.8.4 Mask R-CNN 444
13.9 语义分割和数据集 445
13.9.1 图像分割和实例分割 445
13.9.2 Pascal VOC2012 语义分割数据集 446
13.10 转置卷积 450
13.10.1 基本操作 450
13.10.2 填充、步幅和多通道 451
13.10.3 与矩阵变换的联系 452
13.11 全卷积网络 453
13.11.1 构建模型 454
13.11.2 初始化转置卷积层 455
13.11.3 读取数据集 456
13.11.4 训练 456
13.11.5 预测 457
13.12 风格迁移 458
13.12.1 方法 459
13.12.2 阅读内容和风格图像 460
13.12.3 预处理和后处理 460
13.12.4 提取图像特征 461
13.12.5 定义损失函数 461
13.12.6 初始化合成图像 463
13.12.7 训练模型 463
13.13 实战 Kaggle竞赛:图像分类(CIFAR-10) 464
13.13.1 获取并组织数据集 465
13.13.2 图像增广 467
13.13.3 读取数据集 468
13.13.4 定义模型 468
13.13.5 定义训练函数 468
13.13.6 训练和验证模型 469
13.13.7 在Kaggle上对测试集进行分类并提交结果 469
13.14 实战Kaggle竞赛:狗的品种识别(ImageNet Dogs) 470
13.14.1 获取和整理数据集 471
13.14.2 图像增广 472
13.14.3 读取数据集 472
13.14.4 微调预训练模型 473
13.14.5 定义训练函数 473
13.14.6 训练和验证模型 474
13.14.7 对测试集分类并在Kaggle提交结果 475
第 14章 自然语言处理:预训练 476
14.1 词嵌入(word2vec) 477
14.1.1 为何独热向量是一个糟糕的选择 477
14.1.2 自监督的word2vec 477
14.1.3 跳元模型 477
14.1.4 连续词袋模型 478
14.2 近似训练 480
14.2.1 负采样 480
14.2.2 层序softmax 481
14.3 用于预训练词嵌入的数据集 482
14.3.1 读取数据集 482
14.3.2 下采样 483
14.3.3 中心词和上下文词的提取 484
14.3.4 负采样 485
14.3.5 小批量加载训练实例 486
14.3.6 整合代码 487
14.4 预训练word2vec 488
14.4.1 跳元模型 488
14.4.2 训练 489
14.4.3 应用词嵌入 491
14.5 全局向量的词嵌入(GloVe) 491
14.5.1 带全局语料库统计的跳元模型 492
14.5.2 GloVe模型 492
14.5.3 从共现概率比值理解GloVe模型 493
14.6 子词嵌入 494
14.6.1 fastText模型 494
14.6.2 字节对编码 495
14.7 词的相似度和类比任务 497
14.7.1 加载预训练词向量 497
14.7.2 应用预训练词向量 499
14.8 来自Transformer的双向编码器表示(BERT) 500
14.8.1 从上下文无关到上下文敏感 500
14.8.2 从特定于任务到不可知任务 501
14.8.3 BERT:将ELMo与GPT结合起来 501
14.8.4 输入表示 502
14.8.5 预训练任务 504
14.8.6 整合代码 506
14.9 用于预训练BERT的数据集 507
14.9.1 为预训练任务定义辅助函数 508
14.9.2 将文本转换为预训练数据集 509
14.10 预训练BERT 512
14.10.1 预训练BERT 512
14.10.2 用BERT表示文本 514
第 15章 自然语言处理:应用 515
15.1 情感分析及数据集 516
15.1.1 读取数据集 516
15.1.2 预处理数据集 517
15.1.3 创建数据迭代器 517
15.1.4 整合代码 518
15.2 情感分析:使用循环神经网络 518
15.2.1 使用循环神经网络表示单个文本 519
15.2.2 加载预训练的词向量 520
15.2.3 训练和评估模型 520
15.3 情感分析:使用卷积神经网络 521
15.3.1 一维卷积 522
15.3.2 最大时间汇聚层 523
15.3.3 textCNN模型 523
15.4 自然语言推断与数据集 526
15.4.1 自然语言推断 526
15.4.2 斯坦福自然语言推断(SNLI)数据集 527
15.5 自然语言推断:使用注意力 530
15.5.1 模型 530
15.5.2 训练和评估模型 533
15.6 针对序列级和词元级应用微调BERT 535
15.6.1 单文本分类 535
15.6.2 文本对分类或回归 536
15.6.3 文本标注 537
15.6.4 问答 537
15.7 自然语言推断:微调BERT 538
15.7.1 加载预训练的BERT 539
15.7.2 微调BERT的数据集 540
15.7.3 微调BERT 541
附录A 深度学习工具 543
A.1 使用Jupyter记事本 543
A.1.1 在本地编辑和运行代码 543
A.1.2 高级选项 545
A.2 使用Amazon SageMaker 546
A.2.1 注册 547
A.2.2 创建SageMaker实例 547
A.2.3 运行和停止实例 548
A.2.4 更新Notebook 548
A.3 使用Amazon EC2实例 549
A.3.1 创建和运行EC2实例 549
A.3.2 安装CUDA 553
A.3.3 安装库以运行代码 553
A.3.4 远程运行Jupyter记事本 554
A.3.5 关闭未使用的实例 554
A.4 选择服务器和GPU 555
A.4.1 选择服务器 555
A.4.2 选择GPU 556
A.5 为本书做贡献 558
A.5.1 提交微小更改 558
A.5.2 大量文本或代码修改 559
A.5.3 提交主要更改 559
参考文献 562
作者介绍:
阿斯顿.张(Aston Zhang),亚马逊资深科学家,美国伊利诺伊大学香槟分校计算机科学博士,统计学和计算机科学双硕士。他专注于机器学习和自然语言处理的研究,荣获深度学习国际顶级学术会议ICLR杰出论文奖、ACM UbiComp杰出论文奖以及ACM SenSys最佳论文奖提名。他担任过EMNLP领域主席和AAAI资深程序委员。
扎卡里.C. 立顿(Zachary C. Lipton),美国卡内基梅隆大学机器学习和运筹学助理教授,并在海因茨公共政策学院以及软件和社会系统系担任礼节性任命。他领导着近似正确机器智能(ACMI)实验室,研究涉及核心机器学习方法、其社会影响以及包括临床医学和自然语言处理在内的各种应用领域。他目前的研究重点包括处理各种因果结构下分布变化的稳健和自适应算法、超越预测为决策提供信息(包括应对已部署模型的战略响应)、医学诊断和预后预测、算法公平性和可解释性的基础。他是“Approximately Correct”博客的创始人,也是讽刺性漫画“Superheroes of Deep Learning”的合著者。
李沐(Mu Li),亚马逊资深首席科学家(Senior Principal Scientist),美国加利福尼亚大学伯克利分校、斯坦福大学客座助理教授,美国卡内基梅隆大学计算机系博士。他曾任机器学习创业公司Marianas Labs的CTO和百度深度学习研究院的主任研发架构师。他专注于机器学习系统和机器学习算法的研究。他在理论与应用、机器学习与操作系统等多个领域的顶级学术会议上发表过论文,被引用上万次。
亚历山大.J. 斯莫拉(Alexander J. Smola),亚马逊副总裁/杰出科学家,德国柏林工业大学计算机科学博士。他曾在澳大利亚国立大学、美国加利福尼亚大学伯克利分校和卡内基梅隆大学任教。他发表过超过300篇学术论文,并著有5本书,其论文及书被引用超过15万次。他的研究兴趣包括深度学习、贝叶斯非参数、核方法、统计建模和可扩展算法。
出版社信息:
暂无出版社相关信息,正在全力查找中!
书籍摘录:
暂无相关书籍摘录,正在全力查找中!
在线阅读/听书/购买/PDF下载地址:
原文赏析:
几年前……机器学习是一门具有前瞻性的学科,在真实世界的应用范围很窄。而那些相关应用,如语音识别和计算机视觉,需要大量的领域知识,以至于他们通常被认为是完全独立的领域,而机器学习对这些领域来说只是一个小组件。
仍然缺乏对各种技术的正式解释,这既是因为描述这些模型的数学理论可能非常困难,也是因为对这些主题的认真研究最近才进入高潮
关键组件
1、可以用来学习的数据(data)
当每个样本的特征类别数量都相同的时候,其特征向量是固定长度的,这个长度被称为数据的维度(dimensionality)。固定长度的特征向量是一个方便的属性,它可以用来量化学习的大量样本。深度学习的一个主要优势是可以处理不同长度的数据。
2、如何转换数据的模型
3、一个目标函数(objective function),用来量化模型的有效性
其它内容:
书籍介绍
本书是《动手学深度学习》的重磅升级版本,选用经典的PyTorch深度学习框架,旨在向读者交付更为便捷的有关深度学习的交互式学习体验。 本书重新修订《动手学深度学习》的所有内容,并针对技术的发展,新增注意力机制、预训练等内容。本书包含15章,第一部分介绍深度学习的基础知识和预备知识,并由线性模型引出最简单的神经网络——多层感知机;第二部分阐述深度学习计算的关键组件、卷积神经网络、循环神经网络、注意力机制等大多数现代深度学习应用背后的基本工具;第三部分讨论深度学习中常用的优化算法和影响深度学习计算性能的重要因素,并分别列举深度学习在计算机视觉和自然语言处理中的重要应用。 本书同时覆盖深度学习的方法和实践,主要面向在校大学生、技术人员和研究人员。阅读本书需要读者了解基本的Python编程知识及预备知识中描述的线性代数、微分和概率等基础知识。
精彩短评:
-
作者: RegentCloud 发布时间:2023-05-20 15:56:23
感谢沐神的分享,但是得把动手改成高手,才比较适合本书的难度。
-
作者: 马孔多在下雨 发布时间:2024-02-19 20:56:27
适合入门,配合李沐老师的网课看更好,感谢大佬分享知识
-
作者: 青定姑娘 发布时间:2023-11-14 13:22:36
几年前看过,忘了标记。书中的每行代码我都自己动手敲过一遍,现在回头看,这本书对我帮助很大。当时我一心读博,没想过出去工作,就没刷过leetcode之类的题库,但家里老催我要找份工作作为保底,于是我就投简历,收到阿里的笔试面试邀请,直接裸考了。因为没刷过题,笔试成绩一般,面试的时候考官一上来就很质疑我的能力,并强调说“实际工作比你想象的还要难,比如现在搞深度学习大家习惯调用封装好的函数库,但我们需要能手敲代码实现底层函数的人”,我心想这不正好是我刚学的吗,现场写了几个函数实现给他看,然后他只问了我一个技术问题,就没再问啥,最后阿里给我发了算法工程师的实习岗位录取通知书,但我只想读博没有接,那个考官后来还打了两次电话催我接offer。回想起来很有意思。现在反而真被封装库惯坏了,代码能力严重倒退。
-
作者: 穆格猜 发布时间:2021-11-23 14:51:26
据编者赵老师的学生、也是我的授课老师王利民教授说,这本在后来中国胶体化学反超欧美之后成了出口到国外的教材;就是你搜索本书书名,出现在搜索结果第二栏的那本英语教材胶体和表面化学导论 的原版。
-
作者: Bill 发布时间:2023-12-02 20:57:28
虽然CNN、TRANSFORMER还有BERT已经被后来GAN(虽然GAN现在也不行了)、DIFFUSION还有GPT取代了,但机器/深度学习的底层逻辑其实没变。如果说成白话,其实就跟考试是一个道理。假设你考试复习需要做题,那么你把10年的题分成训练题和测试题。训练题可以开卷,搜题,甚至背题(早期的算法就是这样),在做题过程中,你对题里的知识点学习、回顾、总结题型(提取特征)。然后在做测试题的过程中看你的泛化(推论)能力怎么样,如果做的好,就是学到位了,模型练好了;做得不行,就是有偏差,太拘泥于特定的某道题了,题稍微一变就不会了,没有形成做某类题的方法。最后,等你考试的时候,你要做一份没有一道题你之前见过的卷子。提高做题水平的过程也就是机器学习优化的过程。
-
作者: 洋咩咩 发布时间:2024-02-15 10:49:46
李沐对深度学习的普及至少做了三件功德无量的好事,首先,对于深度学习的初学者而言,手把手教写代码的书是很少的。依旧不能忘记读西瓜书、蓝皮书、花书绝望的感受,号称是入门书,但看了一堆奇怪的概念和复杂且难懂的公式,也不知道这些东西跟写代码有什么关系,到头来还是不会代码,结果就是读完就忘。对于很多作者来说,似乎教人一行行写代码是一件很low的事情,只有堆积复杂的公式才能显示自己的高明。这本书反其道而行之,书里面数学的东西很少,重点是动手,通过动手跑代码来理解各种概念和技术,对初学者极其友好。第二,这本书全部内容在网上开源而且有社区,作者会针对读者的问题亲自解答。这显然和某些为了捞钱而粗制滥造的作者有着云泥之别。最后,全书还配有视频课讲解,这其实是很花时间了,但我看李沐依旧乐此不疲。对于大佬唯有膜拜。
深度书评:
-
即使不是年轻人的第一本DL教材,也应该是年轻人的第二本DL教材
作者:CRISPR/Cas9 发布时间:2023-06-10 15:16:13
这本书的的风评已经非常优秀了,而我的想法也并没有什么不同,它值得,它确实值得。
现在是一个很好的年代。我刚刚读博的时候,图书馆里几乎人手一本的是小蓝书,李航的《统计学习方法》。那本书我年轻的时候试图读过,但是显然并不能看懂。直到2017年,我在Dr. May D Wang实验室才认真去学习了以CNN为代表的深度学习。当时主要是看吴恩达的网课,deeplearning.ai对我意义很大。
回国以后,我发现图书馆里面有了更多的花书(同为异步引进)、西瓜书。花书我也是那个时候读过一部分,但没有完全读完。2019年,因为李沐老师的影响力,我才了解了《动手学深度学习》,以及d2l.ai网站。我第一时间购买了一本mxnet版纸书(然而没有读过),并时常参考d2l.ai网站。很可惜,李沐的框架是很好的,只是没有足够大的社区。文献和开源项目也都是诸如pytorch、tensorflow、keras等框架,间或有些是cafe和paddle,如果想要快速入门,mxnet确实也不是一个很好hand-on的选项。
系统地阅读这本书,还是pytorch版本发布以后。之前从网站上、github上看到的只言片语,虽然也很有帮助,但无法反映作者的完整逻辑。读过之后,我发现这本教材既基础又前沿,既学术又工业,既友好又又深度。
和一些强调hands-on的书籍不同,它并不是在介绍框架和coding的方法,而是采取了一个数据科学的视角。它在教你如何利用深度学习作为工具进行研究,很像是大学里面的一门课程的讲述逻辑,而不仅仅是一本快速入门的技术书籍。
因为我不是完全的新手,所以我觉得阅读起来非常愉悦。因为它的逻辑很顺当,很可预期,让人感觉简直就该这么介绍,简直就是介绍深度学习的最优解本身。我也有些不太熟悉、不太理解的部分,我在读的时候也能很容易导航出来,很好地实现了查漏补缺的目的。我本来是抱着选一本教材的心态阅读本书,到最后发现受教育的也包括我本人。
不过,这本书的视角还是一个更高的视角,数据科学的研究是又门槛的。我们知道很多高中生和低年级本科生对深度学习感兴趣,但是对大部分高中生和低年级本科生,本书所需的认知水平可能还是有些超越的。
因此,这本书的定位应该是,对于理工科高年级本科生、研究生和技术人员,它是一本绝佳的深度学习教材。对于低年级同学和非理工背景的人,这个可以是入门之后的系统性提高教材。对于任何人,它都是查漏补缺、完善知识体系的重要工具。
-
新手该如何快速进入人工智能
作者:异步图书 发布时间:2023-07-18 13:38:58
在 2015 年的时候,笔者结束了数十年的数学生涯,离开了学术界投身工业界。作为一个刚刚转行的新人,无论是从经验上还是技能上都与老员工和资深人士有着很大的差距。当时进入互联网公司的时候,身边的同事都有着多年的工作经验,但是由于文档建设和参考资料的缺失,导致我当年上手机器学习和深度学习的时候走了不少弯路。
当时,市面上的机器学习书籍相对较少,在翻阅了图书馆和网上资料之后,笔者自行阅读了一系列资料,包括《机器学习实战》,《机器学习》(西瓜书),《数据挖掘:概念和技术》等书籍,也包括网上的各种博客资料。在上面三本书中,第一本书强调理论与实战相结合,会在书中讲解机器学习的理论知识以及向读者展示其算法的源代码;另外两本书则偏向理论讲解,会向读者全方位地介绍机器学习各种知识点,这些都是入门机器学习的优秀书籍。
随着人工智能在互联网中的应用场景越来越多,人工智能的从业者也越来越多,互联网也大量招募了许多应届生和社招人员来从事机器学习的研发工作。无论是计算机视觉,自然语言处理,语音理解,都在互联网的诸多业务中得到了应用。在日常生活中,人工智能也逐渐改变了大家的生活。很多年前,在人脸识别技术还不发达的时候,安防系统和手机的验证系统都不会大量推广人脸识别系统。但是随着深度学习技术在图像竞赛中的成绩越来越高,准确率与日俱增的同时,这些技术从学术界走向工业界,进一步地走进大众的生活就成为了现实。
随着人工智能从业者的增加,人工智能的出版物总数也在持续增加,并且人工智能的专利数也在飙升,相较于 2015 年高出 30 多倍。这对于想要入行的新人,实在是非常的友好。近些年能够找到的人工智能入门书籍很多,无论是计算机视觉还是文本挖掘,都可以让每一个新人迅速走上研究人工智能的道路。
作为一位数学系背景的学生,笔者深知从数学界转行到工业界的困难与辛苦。毕竟两者的思维方式是不太一样的,数学系开设的课程以理论为主,不会过多地讲解其应用场景和实战案例;而且数学系的学生在长期的学习过程中会养成一个“毛病”,就是要等全部看完一本书才会想到应用它。这在工业界的工作中是完全不可取的。工业界强调的是实战和理论相结合,会强调一边做一边学,在学习中使个人成长,让项目来带动学习。
因此,对于数学系或者其他理论方向的学生,如果想要快速进入人工智能领域,那么最好的就是选择一本合适自己的书籍。此时,过于理论的书籍则不一定很适合,需要的是一本能够快速上手的工具书和入门书。人民邮电出版社近期推出了一本书籍,非常适合理论学科的学生上手学习,那就是
《动手学深度学习(PyTorch版)》
。
这本书是一本适合新手的入门书籍,它不仅对深度学习原理进行了全面的阐述,还提供了丰富的代码逻辑给初学者参考。强调一边学习一边实战的观点,通过 Jupyter 记事本让读者体验深度学习的美妙,让读者在最短的时间内快速上手深度学习,避免只学了理论却不会应用的尴尬。
从本书的目录可以看出,本书大致可以大致分成几个部分:
1. 预备知识:
带领读者回顾线性代数,微积分,概率论的基础知识;也讲解了机器学习的几个基本概念,让读者在后续的阅读中更加顺畅;
2. 神经网络:
包括线性神经网络,多层感知机,卷积神经网络,循环神经网络;并且会介绍注意力机制这一个非常重要的概念;
3. 优化算法和计算性能:
神经网络的训练是需要基于优化算法来做的,不同的优化算法带来的收敛速度是不一样的;而且神经网络在离线训练和上线使用的时候,都需要对它的性能进行必要的调优和提升。本书也花了很多篇幅在讲解这个部分;
4. 实战经验:
除了上述理论之外,本书还会向读者展示如何参加 Kaggle 比赛,以及比赛的相关算法和数据处理经验。从整理数据集开始,数据增广,训练和预测,在线提交结果,作者们都向读者进行了详细的介绍。除此之外,在自然语言处理部分,作者介绍了工业界的情感分析案例,教大家如何根据情感的数据集和循环神经网络来分析数据。最后也介绍了 Bert 模型的微调方法。
《动手学深度学习(PyTorch版)》面向的读者是深度学习的从业者,高校学生。对于没有任何基础的学生,也能够在这本书的帮助下很轻松地上手深度学习。从上面这两页可以看出,作者们在介绍一个数学概念的时候,会把其数学定义和相关的 Python 代码展示给读者,让读者在初学或者回顾这个数学概念的时候,能够找到其背后对应的 PyTorch 代码,在这种情况下,读者就可以很轻松地将数学概念和计算机程序联系到一起,为以后走向工业界扫清了部分障碍。
本书在向读者讲解机器学习方法的时候,除了介绍该方法的理论之外,更加强调实战应用。就以“线性模型”这一章为例,作者以案例的方式,向读者展示了构建线性模型的初衷和动机,然后介绍了线性模型的模型结构和损失函数等关键点。接着,作者们向读者展示了如何才能够从零到一地构建一个线性回归模型,大体步骤分成以下几个:
1. 生成数据集和读取数据集:为了简单起见,作者用了一个构造的数据向大家介绍模型;
2. 定义线性模型,损失函数,优化方法:这是构建很多机器学习模型需要经历的关键步骤;
3. 训练模型,得到模型结果:基于构造的数据集,可以得到相应的线性模型,未来可以用作预测。
为了让读者们掌握开发代码的技巧,这本书还有一个官方网站,在这个官方网站上,读者可以看到源代码,并且可以将其拷贝出来进行阅读和运行。避免读者每次都需要重新敲写所有的代码。
读者只需要按照书中的步骤,就可以轻松完成一个线性模型的整体训练过程。通过理论与实战相结合的方法,读者就可以相对容易地掌握这个模型。除此之外,作者还贴心地为诸多自学的读者准备了必要的练习题,通过做这些练习题,读者可以自我验证是否掌握了这些必要的基础知识,毕竟在没有学校老师的监督下,能否做出练习题就是是检验自己是否掌握知识的关键了。
与其他的机器学习教材有较大不同的就是《动手学深度学习(PyTorch)》会讲解不少实战和 Kaggle 竞赛的案例,包括:
1. 房价预测:使用多层感知机;
2. 图像分类(CIFAR-10)和狗的品种识别(Image Dogs):使用卷积神经网络;
3. 情感分析:使用循环神经网络。
在介绍这些实战案例的时候,本书都会从第一步入手,那就是从数据集的获取开始,然后就是数据预处理,再就是训练模型和模型调优,最后就是上传数据结果进行效果的评测。只要按照书本上的流程走一遍,每个读者都能够完成建模工作,给未来的学习和工作做好准备。
对于数学系或者其他理科院系的学生,在学习数学的过程中,肯定会强调打下坚实的基础再进行实战。但是这种学习方法在搞人工智能的过程中是不太可取的,就个人的经验来看,实在不行不主张学完所有的理论知识再开始实践,因为人工智能是一个非常依靠实战经验的行业。在工作的过程中,需要从业者对数据处理,特征构建,模型选择和训练有丰富的经验,而这些经验是只学习理论无法获得的,只有通过实战和理论相结合的方法,才有机会真正掌握机器学习和深度学习的相关技术。
为了让读者尽快地入门人工智能行业,《动手学深度学习(PyTorch版)》还贴心地为大家提供了所有源代码和彩色图片,将本书的源代码和理论知识相结合,读者就可以一边阅读理论知识,一边阅读源代码,一边进行新代码的开发。除了这些,本书还免费提供了教学视频和讨论区,让学习者在互相帮助中共同成长。多方位的交互式学习可以给读者带来全新的学习感受。本书的英文本 Dive into Deep Learning 是加州伯克利分校的深度学习教材,并且被全球多个高校作为深度学习的入门书籍。
在多种资源相辅助的情况下,读者掌握深度学习的速度将会迅速加快,在很短的时间内就可以成为一个深度学习的从业人员。在掌握了这本书之后,如果读者可以做一个或者多个实验室或者工业界的项目,那么读者对深度学习的理解肯定会更进一步。
(本文作者:张戎,新加坡国立大学数学博士,人工智能方向从业者。)
网站评分
-
书籍多样性:8分
-
书籍信息完全性:9分
-
网站更新速度:9分
-
使用便利性:9分
-
书籍清晰度:5分
-
书籍格式兼容性:6分
-
是否包含广告:6分
-
加载速度:5分
-
安全性:3分
-
稳定性:9分
-
搜索功能:9分
-
下载便捷性:9分
下载点评
- 藏书馆(127+)
- 已买(491+)
- 还行吧(466+)
- 图书多(429+)
- 购买多(438+)
- 中评多(175+)
- 值得下载(251+)
- 一般般(200+)
- txt(276+)
下载评价
-
网友 印***文:
( 2024-12-22 12:23:07 )
我很喜欢这种风格样式。
-
网友 詹***萍:
( 2024-12-19 21:20:46 )
好评的,这是自己一直选择的下载书的网站
-
网友 蓬***之:
( 2024-12-15 11:41:04 )
好棒good
-
网友 寇***音:
( 2024-12-19 19:03:06 )
好,真的挺使用的!
-
网友 龚***湄:
( 2024-12-06 19:26:07 )
差评,居然要收费!!!
-
网友 国***舒:
( 2024-12-26 13:26:48 )
中评,付点钱这里能找到就找到了,找不到别的地方也不一定能找到
-
网友 常***翠:
( 2024-12-24 06:16:11 )
哈哈哈哈哈哈
-
网友 邱***洋:
( 2024-12-13 11:54:10 )
不错,支持的格式很多
-
网友 曾***玉:
( 2024-12-24 00:44:46 )
直接选择epub/azw3/mobi就可以了,然后导入微信读书,体验百分百!!!
-
网友 焦***山:
( 2024-12-20 07:56:56 )
不错。。。。。
-
网友 堵***洁:
( 2024-12-07 20:56:15 )
好用,支持
-
网友 师***怡:
( 2024-12-05 21:18:05 )
说的好不如用的好,真心很好。越来越完美
-
网友 家***丝:
( 2024-12-29 03:36:49 )
好6666666
喜欢"动手学深度学习(PyTorch版)"的人也看了
-
Willis覆膜支架重建术在脑血管疾病中的临床应用 电子书 mobi pdf txt word 2024 下载
-
衡水中学状元手写笔记高中数学 2021新版 高一高二高三高考数学文科理科一轮二轮复习辅导资料书 学霸提分状元手写笔记高中版数学 电子书 mobi pdf txt word 2024 下载
-
系统成本工程 电子书 mobi pdf txt word 2024 下载
-
2006-煤炭工业标准目录 电子书 mobi pdf txt word 2024 下载
-
Visual Basic.NET程序设计上机实践教程/普通高等教育“十三五”规划教材 电子书 mobi pdf txt word 2024 下载
-
美国初中生最爱玩的益智游戏 电子书 mobi pdf txt word 2024 下载
-
三毛传:你松开手,我就落入茫茫宇宙 电子书 mobi pdf txt word 2024 下载
-
Entrepreneur's Toolkit: Harvard Business Essentials哈佛商业企业家的工具包 电子书 mobi pdf txt word 2024 下载
-
精通开关电源(第3版·修订版) 电子书 mobi pdf txt word 2024 下载
-
气候变化(2级适合初2初3)(英汉对照)/书虫牛津英汉双语读物 电子书 mobi pdf txt word 2024 下载
- 丝绸之路与敦煌文化丛书-飞天艺术:从印度到中国 电子书 mobi pdf txt word 2024 下载
- 极限挑战:魔色2 电子书 mobi pdf txt word 2024 下载
- Unix系统管理 电子书 mobi pdf txt word 2024 下载
- 商务英语900句(附光盘) 电子书 mobi pdf txt word 2024 下载
- Hello海南岛 电子书 mobi pdf txt word 2024 下载
- 诗说中国文化 电子书 mobi pdf txt word 2024 下载
- 正版备考2022年新编剑桥商务英语口语书籍陈小慰bec口语2021年版中级高级口试手册口语教材考试用书教程词汇经济科学出版社 电子书 mobi pdf txt word 2024 下载
- 给青年建筑师的信 电子书 mobi pdf txt word 2024 下载
- Z新公司企业法律政策全书-第六版( 货号:752161441) 电子书 mobi pdf txt word 2024 下载
- 植物名实图考长编 电子书 mobi pdf txt word 2024 下载
- 程序设计教程(Delphi) 电子书 mobi pdf txt word 2024 下载
- Mastercam 2022中文版数控加工自学速成 电子书 mobi pdf txt word 2024 下载
- 【预售】【翰德图书】阿尔瓦罗的大师水彩课:当代殿堂级大师风靡全球的绘画学习经典 港台原版图书籍台版正版繁体中文 大牌出版 绘画技法 电子书 mobi pdf txt word 2024 下载
- 中公版·2014广西公务员录用考试专用教材 电子书 mobi pdf txt word 2024 下载
- 中国的追赶型发展:货币政策与经济重构 电子书 mobi pdf txt word 2024 下载
- 中央空调设计与审图(第2版) 编者:李志生 机械工业 【新华书店正版图书书籍】 电子书 mobi pdf txt word 2024 下载
- 海外直订Beautiful Angels: Coloring Book For Adults 美丽的天使:成人涂色书 电子书 mobi pdf txt word 2024 下载
- 谁会吃掉我们的宇宙? 电子书 mobi pdf txt word 2024 下载
- 新版剑桥PET考试写作高分范文(适用新版考试剑桥通用五级考试B1 Preliminary for Schools)... 电子书 mobi pdf txt word 2024 下载
- 重建依恋 电子书 mobi pdf txt word 2024 下载
书籍真实打分
故事情节:6分
人物塑造:9分
主题深度:6分
文字风格:6分
语言运用:3分
文笔流畅:3分
思想传递:9分
知识深度:5分
知识广度:4分
实用性:8分
章节划分:9分
结构布局:8分
新颖与独特:8分
情感共鸣:8分
引人入胜:5分
现实相关:5分
沉浸感:4分
事实准确性:6分
文化贡献:6分