推荐

新书推荐

动手学PyTorch建模与应用:从深度学习到大模型

内容简介  · · · · · ·

《动手学PyTorch建模与应用:从深度学习到大模型》是一本从零基础上手深度学习和大模型的PyTorch实战指南。《动手学PyTorch建模与应用:从深度学习到大模型》共11章,第1章主要介绍深度学习的概念、应用场景及开发环境搭建。第2章详细介绍PyTorch数学基础,包括函数、微分、数理统计、矩阵等基础知识及其案例。第3章介绍数据预处理及常用工具,包括NumPy、Pandas、Matplotlib、数据清洗、特征工程以及深度学习解决问题的一般步骤等。第4章介绍PyTorch基础知识,包括张量的创建、激活函数、损失函数、优化器等。第5章介绍PyTorch深度神经网络,包括神经网络概述、卷积神经网络、循环神经网络等。第6章介绍PyTorch数据建模,包括回归分析、聚类分析、主成分分析、模型评估与调优等。第7~10章介绍PyTorch图像建模、文本建模、音频建模和模型可视化。第11章介绍大语言模型的原理、主要的大语言模型及模型本地化部署、预训练与微调技术。本书还精心设计了50个动手案例和上机练习题,并对所有代码进行了详尽注释和说明,同时提供数据集和配书资源文件,以帮助读者更好地使用本书。 《动手学PyTorch建模与应用:从深度学习到大模型》讲解深入浅出,注重动手实操,特别适合想学习AI技术或想进入该领域的初学者,对深度学习感兴趣的新手、在校学生和从业者阅读,也很适合作为培训机构和高校相关专业的教学用书。

作者简介  · · · · · ·

王国平,毕业于上海海洋大学,硕士,从业10余年,主要从事数据可视化、数据挖掘和大数据分析与研究等工作。精通数据挖掘技术与相关软件工具,包括Tableau、SPSS、PyTorch、Power Bl等,已出版《IBM SPSS Modeler数据与文本挖掘实战》《Microsoft Power Bl数据可视化与数据分析》《Tableau数据可视化从入门到精通》《零基础入门Python数据分析与机器学习》等图书。

目录  · · · · · ·

第 1 章 深度学习和PyTorch概述 1

  1. 走进深度学习的世界 1
    1. 深度学习的发展历史 1
    2. 深度学习框架PyTorch 3
    3. 深度学习的应用领域 4
  2. 搭建开发环境 5
    1. 安装Python 3.12 5
    2. 安装代码开发工具Jupyter Lab 9
    3. 安装PyTorch 2.2 10
  3. PyTorch的应用场景 14
  4. 上机练习题 14

第 2 章 PyTorch数学基础 17

  1. PyTorch中的函数 17
    1. 函数的基础知识 17
    2. PyTorch中的主要函数 20
  2. 微分基础 22
    1. 微分及其公式 22
    2. PyTorch自动微分 24
  3. 数理统计基础 29
    1. 数理统计及其指标 29
    2. PyTorch统计函数 34
  4. 矩阵基础 45
    1. 矩阵及其运算 45
    2. PyTorch矩阵运算 47
  5. 动手练习:拟合余弦函数曲线 54
  6. 上机练习题 58

第 3 章 数据预处理及常用工具 62

  1. NumPy 62
    1. 安装和导入NumPy 62
    2. NumPy的数据结构ndarray 63
    3. NumPy的基本使用 63
  2. Matplotlib 65
    1. 安装和导入Matplotlib 65
    2. Matplotlib的使用示例 66
  3. 数据清洗 70
    1. 数据清洗的作用 70
    2. 用Pandas进行数据清洗 71
  4. 特征工程 76
    1. 特征工程概述 76
    2. 使用Scikit-learn进行数据预处理 78
    3. 使用Pandas实现特征工程 81
  5. 深度学习解决问题的一般步骤 82
  6. 动手练习:每日最高温度预测 84
  7. 上机练习题 90

第 4 章 PyTorch基础知识 95

  1. 张量及其创建 95
    1. 张量及其数据类型 95
    2. 使用数组直接创建张量 96
    3. 使用概率分布创建张量 98
  2. 激活函数 99
    1. 激活函数及其必要性 99
    2. Sigmoid激活函数 100
    3. Tanh激活函数 101
    4. ReLU激活函数 102
    5. Leaky ReLU激活函数 103
    6. 其他类型的激活函数 104
  3. 损失函数 105
    1. 损失函数及其选取 106
    2. L1范数损失函数 106
    3. 均方误差损失函数 107
    4. 交叉熵损失函数 108
    5. 余弦相似度损失 109
    6. 其他损失函数 109
  4. 优化器 110
    1. 梯度及梯度下降算法 111
    2. 随机梯度下降算法 112
    3. 标准动量优化算法 112
    4. AdaGrad算法 113
    5. RMSProp算法 113
    6. Adam算法 114
  5. 动手练习:PyTorch优化器比较 114
  6. 上机练习题 119

第 5 章 PyTorch深度神经网络 124

  1. 神经网络概述 124
    1. 神经元模型 124
    2. 多层感知机 126
    3. 前馈神经网络 128
  2. 卷积神经网络 129
    1. 卷积神经网络的历史 129
    2. 卷积神经网络的结构 130
    3. 卷积神经网络的类型 131
  3. 循环神经网络 134
    1. 简单的循环神经网络 134
    2. 长短期记忆网络 136
    3. 门控循环单元 138
  4. 动手练习:股票成交量趋势预测 139
  5. 上机练习题 148

第 6 章 PyTorch数据建模 152

  1. 回归分析及案例 152
    1. 回归分析简介 152
    2. 回归分析建模 153
    3. 动手练习:住房价格回归预测 155
  2. 聚类分析及案例 160
    1. 聚类分析简介 160
    2. 聚类分析建模 160
    3. 动手练习:植物花卉特征聚类 162
  3. 主成分分析及案例 165
    1. 主成分分析简介 166
    2. 主成分分析建模 166
    3. 动手练习:地区竞争力指标降维 167
  4. 模型评估与调优 173
    1. 模型评估方法 173
    2. 模型调优方法 176
    3. 动手练习:PyTorch实现交叉验证 178
  5. 上机练习题 187

第 7 章 PyTorch图像建模 190

  1. 图像建模概述 190
    1. 图像分类技术 190
    2. 图像识别技术 191
    3. 图像分割技术 192
  2. 动手练习:创建图像自动分类器 193
    1. 加载数据集 193
    2. 搭建网络模型 194
    3. 训练网络模型 195
    4. 应用网络模型 196
  3. 动手练习:搭建图像自动识别模型 198
    1. 加载数据集 198
    2. 搭建与训练网络 200
    3. 预测图像数据 202
    4. 图像识别模型的判断 202
  4. 动手练习:搭建图像自动分割模型 204
    1. 加载数据集 205
    2. 搭建网络模型 206
    3. 训练网络模型 209
    4. 应用网络模型 210
  5. 上机练习题 212

第 8 章 PyTorch文本建模 220

  1. 自然语言处理的几个模型 220
    1. Word2Vec模型 220
    2. Seq2Seq模型 221
    3. Attention模型 222
  2. 动手练习:Word2Vec提取相似文本 223
    1. 加载数据集 223
    2. 搭建网络模型 227
    3. 训练网络模型 228
    4. 应用网络模型 230
  3. 动手练习:Seq2Seq实现机器翻译 231
    1. 加载数据集 231
    2. 搭建网络模型 237
    3. 训练网络模型 240
    4. 应用网络模型 242
  4. 动手练习:Attention模型实现文本自动分类 244
    1. 加载数据集 244
    2. 搭建网络模型 246
    3. 训练网络模型 247
    4. 应用网络模型 251
  5. 上机练习题 251

第 9 章 PyTorch音频建模 258

  1. 音频处理技术及应用 258
    1. 音频处理技术 258
    2. 音视频摘要技术及其应用 259
    3. 音频识别及应用 260
    4. 音频监控及应用 261
    5. 场景感知及应用 261
  2. 梅尔频率倒谱系数音频特征 262
    1. 梅尔频率倒谱系数简介及参数的提取过程 262
    2. 音频预处理 263
    3. 快速傅里叶变换 264
    4. 能量谱处理 264
    5. 离散余弦转换 265
  3. PyTorch音频建模技术 266
    1. 加载音频数据源 266
    2. 波形变换的类型 267
    3. 绘制波形频谱图 268
    4. 波形Mu-Law编码 270
    5. 变换前后波形的比较 272
  4. 动手练习:音频相似度分析 273
  5. 上机练习题 276

第 10 章 PyTorch模型可视化 278

  1. Visdom 278
    1. Visdom简介 278
    2. Visdom可视化操作 280
    3. 动手练习:识别手写数字 296
  2. TensorBoard 301
    1. TensorBoard简介 301
    2. TensorBoard基础操作 303
    3. 动手练习:可视化模型参数 312
  3. Pytorchviz 314
    1. Pytorchviz简介 314
    2. 动手练习:Pytorchviz建模可视化 314
  4. Netron 317
    1. Netron简介 317
    2. 动手练习:Netron建模可视化 317
  5. 上机练习题 321

第 11 章 从深度学习到大语言模型 323

  1. 大语言模型的原理 323
    1. 大语言模型简介 323
    2. Transformer架构 324
    3. 注意力机制 327
  2. 主要的大语言模型 331
    1. ChatGPT及其API调用 331
    2. 文心一言及其插件开发 334
    3. ChatGLM及其本地部署 338
  3. 模型预训练与微调 350
    1. 大模型预训练 350
    2. 大模型微调技术 353
  4. 上机练习题 361

参考文献 363

从零开始大模型开发与微调:基于PyTorch与ChatGLM

内容简介

大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。本书使用PyTorch 2.0作为学习大模型的基本框架,以ChatGLM为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。本书配套示例源代码、PPT课件。

《从零开始大模型开发与微调:基于PyTorch与ChatGLM》共18章,内容包括人工智能与大模型、PyTorch 2.0深度学习环境搭建、从零开始学习PyTorch 2.0、深度学习基础算法详解、基于PyTorch卷积层的MNIST分类实战、PyTorch数据处理与模型展示、ResNet实战、有趣的词嵌入、基于PyTorch循环神经网络的中文情感分类实战、自然语言处理的编码器、预训练模型BERT、自然语言处理的解码器、强化学习实战、只具有解码器的GPT-2模型、实战训练自己的ChatGPT、开源大模型ChatGLM使用详解、ChatGLM高级定制化应用实战、对ChatGLM进行高级微调。

《从零开始大模型开发与微调:基于PyTorch与ChatGLM》适合PyTorch深度学习初学者、大模型开发初学者、大模型开发人员学习,也适合高等院校人工智能、智能科学与技术、数据科学与大数据技术、计算机科学与技术等专业的师生作为教学参考书。

作者简介

王晓华,高校计算机专业讲师,研究方向为云计算、大数据与人工智能。著有《PyTorch 2.0深度学习从零开始学》《Python机器学习与可视化分析实战》《谷歌JAX深度学习从零开始学》《Spark 3.0大数据分析与挖掘:基于机器学习》《TensorFlow深度学习应用实践》《OpenCV+TensorFlow深度学习与计算机视觉实战》《TensorFlow知识图谱实战》《TensorFlow人脸识别实战》《TensorFlow语音识别实战》《TensorFlow+Keras自然语言处理实战》《TensorFlow 2.0卷积神经网络实战》《Keras实战:基于TensorFlow2.2的深度学习实践》《TensorFlow 2.0深度学习从零开始学》《深度学习的数学原理与实现》。

目录

目 录

第1章 新时代的曙光—人工智能与大模型 1

  • 1.1 人工智能:思维与实践的融合 1
    • 1.1.1 人工智能的历史与未来 2
    • 1.1.2 深度学习与人工智能 2
    • 1.1.3 选择PyTorch 2.0实战框架 3
  • 1.2 大模型开启人工智能的新时代 4
    • 1.2.1 大模型带来的变革 4
    • 1.2.2 最强的中文大模型—清华大学ChatGLM介绍 5
    • 1.2.3 近在咫尺的未来—大模型的应用前景 6
  • 1.3 本章小结 7

第2章 PyTorch 2.0深度学习环境搭建 8

  • 2.1 环境搭建1:安装Python 8
    • 2.1.1 Miniconda的下载与安装 8
    • 2.1.2 PyCharm的下载与安装 11
    • 2.1.3 Python代码小练习:计算Softmax函数 14
  • 2.2 环境搭建2:安装PyTorch 2.0 15
    • 2.2.1 Nvidia 10/20/30/40系列显卡选择的GPU版本 15
    • 2.2.2 PyTorch 2.0 GPU Nvidia运行库的安装 15
    • 2.2.3 PyTorch 2.0小练习:Hello PyTorch 18
  • 2.3 生成式模型实战:古诗词的生成 18
  • 2.4 图像降噪:手把手实战第一个深度学习模型 19
    • 2.4.1 MNIST数据集的准备 19
    • 2.4.2 MNIST数据集的特征和标签介绍 21
    • 2.4.3 模型的准备和介绍 22
    • 2.4.4 对目标的逼近—模型的损失函数与优化函数 24
    • 2.4.5 基于深度学习的模型训练 24
  • 2.5 本章小结 26

第3章 从零开始学习PyTorch 2.0 27

  • 3.1 实战MNIST手写体识别 27
    • 3.1.1 数据图像的获取与标签的说明 27
    • 3.1.2 实战基于PyTorch 2.0的手写体识别模型 29
    • 3.1.3 基于Netron库的PyTorch 2.0模型可视化 32
  • 3.2 自定义神经网络框架的基本设计 34
    • 3.2.1 神经网络框架的抽象实现 34
    • 3.2.2 自定义神经网络框架的具体实现 35
  • 3.3 本章小结 43

第4章 一学就会的深度学习基础算法详解 44

  • 4.1 反向传播神经网络的前身历史 44
  • 4.2 反向传播神经网络两个基础算法详解 47
    • 4.2.1 最小二乘法详解 48
    • 4.2.2 梯度下降算法 50
    • 4.2.3 最小二乘法的梯度下降算法及其Python实现 52
  • 4.3 反馈神经网络反向传播算法介绍 58
    • 4.3.1 深度学习基础 58
    • 4.3.2 链式求导法则 59
    • 4.3.3 反馈神经网络的原理与公式推导 60
    • 4.3.4 反馈神经网络原理的激活函数 64
    • 4.3.5 反馈神经网络原理的Python实现 66
  • 4.4 本章小结 70

第5章 基于PyTorch卷积层的MNIST分类实战 71

  • 5.1 卷积运算的基本概念 71
    • 5.1.1 基本卷积运算示例 72
    • 5.1.2 PyTorch中的卷积函数实现详解 73
    • 5.1.3 池化运算 75
    • 5.1.4 Softmax激活函数 77
    • 5.1.5 卷积神经网络的原理 78
  • 5.2 实战:基于卷积的MNIST手写体分类 80
    • 5.2.1 数据的准备 80
    • 5.2.2 模型的设计 81
    • 5.2.3 基于卷积的MNIST分类模型 82
  • 5.3 PyTorch的深度可分离膨胀卷积详解 84
    • 5.3.1 深度可分离卷积的定义 84
    • 5.3.2 深度的定义以及不同计算层待训练参数的比较 86
    • 5.3.3 膨胀卷积详解 87
    • 5.3.4 实战:基于深度可分离膨胀卷积的MNIST手写体识别 87
  • 5.4 本章小结 90

第6章 可视化的PyTorch数据处理与模型展示 91

  • 6.1 用于自定义数据集的torch.utils.data工具箱使用详解 92
    • 6.1.1 使用torch.utils.data. Dataset封装自定义数据集 92
    • 6.1.2 改变数据类型的Dataset类中的transform的使用 93
    • 6.1.3 批量输出数据的DataLoader类详解 98
  • 6.2 实战:基于tensorboardX的训练可视化展示 100
    • 6.2.1 可视化组件tensorboardX的简介与安装 100
    • 6.2.2 tensorboardX可视化组件的使用 100
    • 6.2.3 tensorboardX对模型训练过程的展示 103
  • 6.3 本章小结 105

第7章 ResNet实战 106

  • 7.1 ResNet基础原理与程序设计基础 106
    • 7.1.1 ResNet诞生的背景 107
    • 7.1.2 PyTorch 2.0中的模块工具 109
    • 7.1.3 ResNet残差模块的实现 110
    • 7.1.4 ResNet网络的实现 112
  • 7.2 ResNet实战:CIFAR-10数据集分类 114
    • 7.2.1 CIFAR-10数据集简介 114
    • 7.2.2 基于ResNet的CIFAR-10数据集分类 117
  • 7.3 本章小结 118

第8章 有趣的词嵌入 120

  • 8.1 文本数据处理 120
    • 8.1.1 Ag_news数据集介绍和数据清洗 120
    • 8.1.2 停用词的使用 123
    • 8.1.3 词向量训练模型Word2Vec使用介绍 125
    • 8.1.4 文本主题的提取:基于TF-IDF 128
    • 8.1.5 文本主题的提取:基于TextRank 132
  • 8.2 更多的词嵌入方法—FastText和预训练词向量 134
    • 8.2.1 FastText的原理与基础算法 135
    • 8.2.2 FastText训练及其与PyTorch 2.0的协同使用 136
    • 8.2.3 使用其他预训练参数来生成PyTorch 2.0词嵌入矩阵(中文) 140
  • 8.3 针对文本的卷积神经网络模型简介—字符卷积 141
    • 8.3.1 字符(非单词)文本的处理 141
    • 8.3.2 卷积神经网络文本分类模型的实现—Conv1d(一维卷积) 148
  • 8.4 针对文本的卷积神经网络模型简介—词卷积 151
    • 8.4.1 单词的文本处理 151
    • 8.4.2 卷积神经网络文本分类模型的实现—Conv2d(二维卷积) 153
  • 8.5 使用卷积对文本分类的补充内容 155
    • 8.5.1 汉字的文本处理 155
    • 8.5.2 其他细节 157
  • 8.6 本章小结 158

第9章 基于循环神经网络的中文情感分类实战 160

  • 9.1 实战:循环神经网络与情感分类 160
  • 9.2 循环神经网络理论讲解 165
    • 9.2.1 什么是GRU 165
    • 9.2.2 单向不行,那就双向 167
  • 9.3 本章小结 168

第10章 从零开始学习自然语言处理的编码器 169

  • 10.1 编码器的核心—注意力模型 170
    • 10.1.1 输入层—初始词向量层和位置编码器层 170
    • 10.1.2 自注意力层 172
    • 10.1.3 ticks和Layer Normalization 177
    • 10.1.4 多头注意力 178
  • 10.2 编码器的实现 180
    • 10.2.1 前馈层的实现 181
    • 10.2.2 编码器的实现 182
  • 10.3 实战编码器:拼音汉字转化模型 184
    • 10.3.1 汉字拼音数据集处理 185
    • 10.3.2 汉字拼音转化模型的确定 187
    • 10.3.3 模型训练部分的编写 190
  • 10.4 本章小结 191

第11章 站在巨人肩膀上的预训练模型BERT 193

  • 11.1 预训练模型BERT 193
    • 11.1.1 BERT的基本架构与应用 194
    • 11.1.2 BERT预训练任务与微调 195
  • 11.2 实战BERT:中文文本分类 198
    • 11.2.1 使用Hugging Face获取BERT预训练模型 198
    • 11.2.2 BERT实战文本分类 200
  • 11.3 更多的预训练模型 203
  • 11.4 本章小结 205

第12章 从1开始自然语言处理的解码器 206

  • 12.1 解码器的核心—注意力模型 206
    • 12.1.1 解码器的输入和交互注意力层的掩码 207
    • 12.1.2 为什么通过掩码操作能够减少干扰 212
    • 12.1.3 解码器的输出(移位训练方法) 213
    • 12.1.4 解码器的实现 214
  • 12.2 解码器实战—拼音汉字翻译模型 215
    • 12.2.1 数据集的获取与处理 216
    • 12.2.2 翻译模型 218
    • 12.2.3 拼音汉字模型的训练 229
    • 12.2.4 拼音汉字模型的使用 230
  • 12.3 本章小结 231

第13章 基于PyTorch 2.0的强化学习实战 232

  • 13.1 基于强化学习的火箭回收实战 232
    • 13.1.1 火箭回收基本运行环境介绍 233
    • 13.1.2 火箭回收参数介绍 234
    • 13.1.3 基于强化学习的火箭回收实战 234
    • 13.1.4 强化学习的基本内容 239
  • 13.2 强化学习的基本算法—PPO算法 243
    • 13.2.1 PPO算法简介 243
    • 13.2.2 函数使用说明 244
    • 13.2.3 一学就会的TD-error理论介绍 245
    • 13.2.4 基于TD-error的结果修正 247
    • 13.2.5 对于奖励的倒序构成的说明 248
  • 13.3 本章小结 249

第14章 ChatGPT前身—只具有解码器的GPT-2模型 250

  • 14.1 GPT-2模型简介 250
    • 14.1.1 GPT-2模型的输入和输出结构—自回归性 251
    • 14.1.2 GPT-2模型的PyTorch实现 252
    • 14.1.3 GPT-2模型输入输出格式的实现 257
  • 14.2 Hugging Face GPT-2模型源码模型详解 259
    • 14.2.1 GPT2LMHeadModel类和GPT2Model类详解 259
    • 14.2.2 Block类详解 270
    • 14.2.3 Attention类详解 274
    • 14.2.4 MLP类详解 281
  • 14.3 Hugging Face GPT-2模型的使用与自定义微调 282
    • 14.3.1 模型的使用与自定义数据集的微调 282
    • 14.3.2 基于预训练模型的评论描述微调 285
  • 14.4 自定义模型的输出 286
    • 14.4.1 GPT输出的结构 286
    • 14.4.2 创造性参数temperature与采样个数topK 288
  • 14.5 本章小结 290

第15章 实战训练自己的ChatGPT 291

  • 15.1 什么是ChatGPT 291
  • 15.2 RLHF模型简介 293
    • 15.2.1 RLHF技术分解 293
    • 15.2.2 RLHF中的具体实现—PPO算法 296
  • 15.3 基于RLHF实战的ChatGPT正向评论的生成 297
    • 15.3.1 RLHF模型进化的总体讲解 297
    • 15.3.2 ChatGPT评分模块简介 298
    • 15.3.3 带有评分函数的ChatGPT模型的构建 300
    • 15.3.4 RLHF中的PPO算法—KL散度 301
    • 15.3.5 RLHF中的PPO算法—损失函数 303
  • 15.4 本章小结 304

第16章 开源大模型ChatGLM使用详解 305

  • 16.1 为什么要使用大模型 305
    • 16.1.1 大模型与普通模型的区别 306
    • 16.1.2 一个神奇的现象—大模型的涌现能力 307
  • 16.2 ChatGLM使用详解 307
    • 16.2.1 ChatGLM简介及应用前景 308
    • 16.2.2 下载ChatGLM 309
    • 16.2.3 ChatGLM的使用与Prompt介绍 310
  • 16.3 本章小结 311

第17章 开源大模型ChatGLM 高级定制化应用实战 312

  • 17.1 医疗问答GLMQABot搭建实战—基于ChatGLM搭建专业客服问答机器人 312
    • 17.1.1 基于ChatGLM搭建专业领域问答机器人的思路 313
    • 17.1.2 基于真实医疗问答的数据准备 314
    • 17.1.3 文本相关性(相似度)的比较算法 315
    • 17.1.4 提示语句Prompt的构建 316
    • 17.1.5 基于单个文档的GLMQABot的搭建 316
  • 17.2 金融信息抽取实战—基于知识链的ChatGLM本地化知识库检索与智能答案生成 318
    • 17.2.1 基于ChatGLM搭建智能答案生成机器人的思路 319
    • 17.2.2 获取专业(范畴内)文档与编码存储 320
    • 17.2.3 查询文本编码的相关性比较与排序 322
    • 17.2.4 基于知识链的ChatGLM本地化知识库检索与智能答案生成 325
  • 17.3 基于ChatGLM的一些补充内容 327
    • 17.3.1 语言的艺术—Prompt的前世今生 328
    • 17.3.2 清华大学推荐的ChatGLM微调方法 329
    • 17.3.2 一种新的基于ChatGLM的文本检索方案 330
  • 17.4 本章小结 331

第18章 对训练成本上亿美元的ChatGLM进行高级微调 332

  • 18.1 ChatGLM模型的本地化处理 332
    • 18.1.1 下载ChatGLM源码与合并存档 332
    • 18.1.2 修正自定义的本地化模型 335
    • 18.1.3 构建GLM模型的输入输出示例 337
  • 18.2 高级微调方法1—基于加速库Accelerator的全量数据微调 339
    • 18.2.1 数据的准备—将文本内容转化成三元组的知识图谱 339
    • 18.2.2 加速的秘密—Accelerate模型加速工具详解 342
    • 18.2.3 更快的速度—使用INT8(INT4)量化模型加速训练 345
  • 18.3 高级微调方法2—基于LoRA的模型微调 348
    • 18.3.1 对ChatGLM进行微调的方法—LoRA 348
    • 18.3.2 自定义LoRA的使用方法 349
    • 18.3.3 基于自定义LoRA的模型训练 350
    • 18.3.4 基于自定义LoRA的模型推断 352
    • 18.3.5 基于基本原理的LoRA实现 355
  • 18.4 高级微调方法3—基于Huggingface的PEFT模型微调 357
    • 18.4.1 PEFT技术详解 358
    • 18.4.2 PEFT的使用与参数设计 359
    • 18.4.3 Huggingface专用PEFT的使用 360
  • 18.5 本章小结 362

金瓶梅(精装全彩插图)

《金瓶梅》,中国明代长篇白话世情小说,一般认为是中国第一部文人独立创作的长篇小说。其成书时间大约在明代隆庆至万历年间,作者署名兰陵笑笑生。
《金瓶梅》书名由书中三个女主人公潘金莲、李瓶儿、庞春梅名字中各取一字合成。小说题材由《水浒传》中武松杀嫂一段演化而来,通过对兼有官僚、恶霸、富商三种身份的市侩势力代表人物西门庆及其家庭罪恶生活的描述,再现了当时社会生活的面貌,描绘了一个上至朝廷擅权专政的太师,下至地方官僚恶霸乃至市井地痞、流氓、帮闲所构成的鬼蜮世界,揭露了明代中叶社会的黑暗和腐败,具有深刻的认识价值。
《金瓶梅》是中国文学史上第一部由文人独立创作的长篇小说。从此,文人创作成为小说创作的主流。《金瓶梅》之前的长篇小说,莫不取材于历史故事或神话、传说。《金瓶梅》摆脱了这一传统,以现实社会中的人物为主要描写对象,使中国小说现实主义创作方法日臻成熟,为其后《红楼梦》的出现做了必不可少的探索和准备。

本次这个版本的《金瓶梅是》崇祯本会校足本,王汝梅校齐鲁书社1989年6月版。
该书是根据国家新闻出版署文件批准为学术研究需要而出版的。
这是《金瓶梅》崇祯本向世以来第一次出版排印本一字不删,200幅插图照原版影印。
此书发行时有限制,原则上只售给各大图书馆和大学中文系教授文学研究员以上职称的研究人员。
非省部级上及研究人员无权购买
此版本是《金瓶梅》在大陆出版唯一的未删减版本出版后,一时洛阳纸贵,目前因多种原因,导致实体版已炒至上万元而且大多数正版由个人收藏,有价无市,电子版更是稀缺。

理想国

《理想国》涉及柏拉图思想体系的各个方面,包括哲学、伦理、教育、文艺、政治等内容,主要是探讨理想国家的问题。

《理想国》一书是柏拉图的一篇重要对话录,对话录里柏拉图以苏格拉底之口通过与其他人对话的方式设计了一个真、善、美相统一的政体,即可以达到公正的理想国。柏拉图的理想国是人类历史上最早的乌托邦。在他的理想国里统治者必须是哲学家,他认为现存的政治都是坏的,人类的真正出路在于哲学家掌握政权,也只有真正的哲学家才能拯救当时城邦所处的危机。这种信念构成了柏拉图成熟的政治哲学体系的核心。在他的眼里“哲学家”有着特殊的内涵。他认为哲学家是最高尚、最有学识的人,而这种贤人统治下的贤人政体就是最好是政体。所以,只有建立以哲学家为国王的国家才是最理想的国家。这个国家就是存在于天上的模范国家。

在他看来,哲学家的本质是具有知识,具有智慧、正义、善的美德,只有哲学家才能达到对国家最高理念的认识,即对“善”的把握,而其他人也只能把握“意见”而已。治国作为一门知识,也只有哲学家才能掌握它,进而有资格执政,也就是说只有哲学家才能达到对于国家理念的认识,知道“理想国”应该怎样组织、怎样治理。这样,所谓哲学家执政,就被柏拉图理解为高超的智慧、真实的知识、完美的德行和绝对最高权力的结合。他坚信只有哲学家才可拯救城邦和人民,哲学家是理想国必然的统治者。

人类追求的正义与善就是柏拉图理想国的主题,他认为国家、政治和法律要朝向真正的存在并与人的灵魂相关才有意义。在《理想国》里苏格拉底刚开始讨论的话题就是“正义”问题,由此我们可以看到柏拉图对正义有着多么强烈的憧憬与向往!他认为绝对的正义在神那里,这正好印证了对话结尾的宣言,“让我们永远走向上的路,追求正义和智慧”。正义和智慧不仅是国家的主题,也可以说是整个宇宙存在的本质,因为国家的起点“就是永无止境的时间以及时间带来的变化”。

柏拉图的正义表现在爱情上就是节制。在我们很多人看来,柏拉图式的爱情似乎是精神恋的代名词,用来指称那种超越时间、空间,不以占有对方肉体为目的的只存在于灵魂间的爱情。而实际上柏拉图式爱情的真谛指的是一种对节制的崇尚,对善和美的追求。

法治的细节

◎编辑推荐:

◇2020年度法治人物、中国政法大学罗翔教授全新法律随笔,解读热点案件,思辨法治要义。

◇集结罗翔近两年对法治与社会的观察,论法理、聊读书、谈爱情,人间清醒与你坦诚相见。

◇盘点近年热点案件,理性而不失温度,从N号房事件到张玉环案,如何在现实中追求正义?

◇从法律视角破解电车难题,思辨刑罚边界、胎儿权利等法理冲突,在时事中保持理性思考

◇收录罗翔走红后的心路历程,不仅普法,更分享人生经历与感悟,附罗翔青年照。

◎内容简介:

《法治的细节》是中国政法大学法学教授罗翔全新的法学随笔,面向大众读者,从热点案件解读、法学理念科普、经典名著讲解等6大板块,普及法律常识与法治观念。内容包括辛普森案、电车难题、性同意制度等法律基本常识,或N号房、张玉环案等时事热点的案件,多维度培育法律思维,助力法治社会的构建,点亮每个人心中的法治之光。

此外,本书还收录了罗翔在爆红后的心路历程,分享其求学成长经历,袒露其心境的变化与成熟,与读者一起通过阅读与思辨,走出生活中的迷茫时刻,在现实中共同完善法治的细节。

◎媒体评价:

理性而不失温度,感性而不失高度。这不仅是罗翔老师这样法律传播者的愿望,也是在法治社会中我们应有的态度。

——《人民日报》

法律可能让人觉得很生涩,离生活比较远。但是罗老师能让你知道法律跟生活是非常贴近的。他自己本身很懂,所以可以用最简单直白的语言讲出来。

——《南方周末》

罗翔老师不仅给你提供法律专业视角下的独特解读,还时不时来一场哲学教育,让你感受到一种被降维打击的快感,获得感和成就感满满。

——《第一财经》

外皮是喜感的口音,搞笑的例证;内核则是在多年的实践和思辨中寻求真理,催人上进,成为内容产业中的一股“清流”。这恐怕是罗翔之所以能持续受欢迎的原因所在。

——《中国新闻周刊》

罗翔老师满足了人们对有力量的通识教育的想像。用荒诞、极端案件逗笑人的同时,夹带出对尊重生命、尊重常识和对理想主义的呼唤。

——《三联生活周刊》

“津津有味”是罗翔弹幕里的高频词。除此之外,人们喜欢他,很大程度上也是因为他的真性情。

——《网易》

大梦无疆:勇气、想象和现代以色列的建立

二十世纪杰出政治家

以色列前任总理、总统

诺贝尔和平奖得主

西蒙•佩雷斯自传

-

写给全球年轻人的领导力必读书

-

马云作序推荐: “以色列让我看到梦想的力量。

这是一个先有梦想后有国家的地方,一个因为梦想而创造一切的地方。”

-

◎ 内容简介

《大梦无疆:勇气、想象 和 现代以色列的建立》是二十世纪杰出的政治家、以色列前任总理、总统及诺贝尔和平奖得主西蒙•佩雷斯的自传,也是他的遗作,就在完成这部作品的几周后,他与世长辞。在《大梦无疆》中,佩雷斯从亲历者、决策者和见证人的角度,记录了以色列的建国历程,完整再现以色列国家历史上几乎所有的决定性时刻,以及中东和全球的重大事件。他的第一手材料,各种幕后不为人所知的信息、决策和指令,是对这些重大历史事件的最好注解。

-

◎ 名人推荐

西蒙·佩雷斯凭借坚定的决心和原则,一次又一次引导他心爱的国家克服生死之间的挑战。然而,他内在的人性和高贵更为重要,启迪了整个世界并且铺筑了一条通往和平的康庄大道,足以让未来的人们携手并进。

——乔治·H.W. 布什(美国前总统)

西蒙·佩雷斯最初是以色列最聪明的学生,接着成为了最出色的导师,最后成为了最大的梦想家。他在完成最后一部作品《大梦无疆》的几周后与世长辞,在这部作品中,他回顾了自己70年的政治生涯和以色列历史上的关键时刻,这些时刻都为未来的和平与可能性打下了基石。这部作品捕捉了我的好友一生秉持的信念——我们可以战胜我们的创伤、憎恨和恐惧,抓紧当下,把握明日的成功。

——比尔·克林顿(美国前总统)

西蒙·佩雷斯是以色列建国一代的巨人,他坚持不懈地呼吁和平,他是一个永恒的乐观主义者,一生都在追求希望和可能性。他也是我珍贵的朋友,是我智慧的源泉之一。他的故事如今成为了时代的故事,有太多需要我们去了解和学习。

——巴拉克·奥巴马(美国前总统)

以色列为全球的科技创新做出了巨大贡献,它是名副其实的“初创国家”。《大梦无疆》这本书中的领导力的故事显示了当别人觉得必定会失败时,为何佩雷斯能够在不断的努力中看到机遇。如果你不尝试,你就不会知道——这就是创新的秘诀。西蒙·佩雷斯明白这一点。

——埃里克·施密特(谷歌董事长)

切尔诺贝利的午夜

【编辑推荐】

★著名读书网站Goodreads近30000人打出4.38高分,盛赞“《切尔诺贝利的午夜》是你能读到的最好的非虚构书籍之一”。

.

★普利策奖得主、《古拉格:一部历史》作者安妮·艾普尔鲍姆等欧美一流作家、学者倾情推荐;

HBO名剧《切尔诺贝利》主创Craig Mazin:开拍之前没能看过这部书,我感到十分遗憾。

.

栩栩如生地讲述了这场历史上最严重的灾难,同时也让我们看到了苏联最后的岁月中那些每天都在发生的令人迷惑不解的真实事件。

——安妮·艾普尔鲍姆(普利策奖得主)

.

本书对历史做出了宝贵的贡献,关于切尔诺贝利这样一个让世人瞩目的故事,它讲述得极为出色。

—— 沙希利·浦洛基

.

★切尔诺贝利,人类文明史上的永恒噩梦:权威记者十数年深度调查,数百小时采访录音,大量档案、书信、回忆录首次曝光,全景式展现了这场我们时代毁灭性核灾难的整个过程:

作者亚当·希金博特姆是《纽约客》的资深记者,驾驭故事与挖掘运用材料的能力皆为一流。全书精注详解 ,仅注释就一百余页,使用材料扎实严谨堪比学术著作,可读性之强又堪比惊悚小说。

.

★在一个狂妄自大和注定要失败的故事中,捕捉到科学与人性;这里没有无名英雄,每个人都有自己的脸孔:

书中有大量人物刻画,这是作者花费十几年时间走访灾难亲历者所得到的故事。这些人早已经被他们的国家和同胞所遗忘,其中,有苏联的各色高官,有“吹哨”人,有救援英雄,有医疗人员,有事故清理者,也有日后站在审判席上的人。

作者将焦点放在被卷入其中的人们以及他们面对突发灾难如何做出种种艰难抉择,它代表了苏联社会的一个横截面,暴露了人类个体的懦弱和勇敢,最终得到的,是一个比苏联传奇更复杂、更人性,也更恐怖的故事。

.

★比任何一部恐怖电影更令人痛心,比任何一本惊险小说更惊心动魄;

尽管提供了海量信息,但本书并不令人望而生畏,作者视野广阔,构思精巧,对细节的精确把握,使得故事推进的每一步都充满张力,如惊险小说般的叙事风格,使这本书可读性极强。

.

★包揽欧美多家一线媒体年度榜单:《柯克斯书评》年度最佳非虚构,《纽约时报》《时代周刊》年度图书,2020年安德鲁•卡内基奖;

.

【内容简介】

亚当·希金博特姆耗费多年心血,终于完成这部关于切尔诺贝利核电站事故的权威力作。书中充分有力的调查,揭示了这场二十世纪最大灾难之一的真相是如何在政治鼓吹、重重保密和谣言四散的共同作用下被掩盖起来的。

.

1986年4月26日凌晨,切尔诺贝利原子能电站的四号反应堆发生爆炸,由此引发了历史上最恶劣的一起核灾难。自那以后的三十年里,切尔诺贝利逐渐成为整个世界挥之不去的噩梦:阴魂不散的辐射中毒的恐怖威胁,一种危险技术脱缰失控的巨大风险,生态系统的脆弱,以及对其国民和整个世界造成的伤害。然而,这场事故的真相,却从一开始便被掩盖起来,长久以来一直众说纷纭。

.

十多年中,亚当·希金博特姆进行了数百小时的采访,以此为依托,辅之以往来书信、未发表的回忆录和新近解密的档案文件,他将那些灾难亲历者所目睹的一切,化成客观、冷静而又发人深省的叙述。由此得到的,是一本惊心动魄的非虚构杰作,一个比苏联传奇更复杂、更人性,也更恐怖的故事。