Recommended

New Releases

从零开始大模型开发与微调:基于PyTorch与ChatGLM

内容简介

大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。本书使用PyTorch 2.0作为学习大模型的基本框架,以ChatGLM为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。本书配套示例源代码、PPT课件。

《从零开始大模型开发与微调:基于PyTorch与ChatGLM》共18章,内容包括人工智能与大模型、PyTorch 2.0深度学习环境搭建、从零开始学习PyTorch 2.0、深度学习基础算法详解、基于PyTorch卷积层的MNIST分类实战、PyTorch数据处理与模型展示、ResNet实战、有趣的词嵌入、基于PyTorch循环神经网络的中文情感分类实战、自然语言处理的编码器、预训练模型BERT、自然语言处理的解码器、强化学习实战、只具有解码器的GPT-2模型、实战训练自己的ChatGPT、开源大模型ChatGLM使用详解、ChatGLM高级定制化应用实战、对ChatGLM进行高级微调。

《从零开始大模型开发与微调:基于PyTorch与ChatGLM》适合PyTorch深度学习初学者、大模型开发初学者、大模型开发人员学习,也适合高等院校人工智能、智能科学与技术、数据科学与大数据技术、计算机科学与技术等专业的师生作为教学参考书。

作者简介

王晓华,高校计算机专业讲师,研究方向为云计算、大数据与人工智能。著有《PyTorch 2.0深度学习从零开始学》《Python机器学习与可视化分析实战》《谷歌JAX深度学习从零开始学》《Spark 3.0大数据分析与挖掘:基于机器学习》《TensorFlow深度学习应用实践》《OpenCV+TensorFlow深度学习与计算机视觉实战》《TensorFlow知识图谱实战》《TensorFlow人脸识别实战》《TensorFlow语音识别实战》《TensorFlow+Keras自然语言处理实战》《TensorFlow 2.0卷积神经网络实战》《Keras实战:基于TensorFlow2.2的深度学习实践》《TensorFlow 2.0深度学习从零开始学》《深度学习的数学原理与实现》。

目录

目 录

第1章 新时代的曙光—人工智能与大模型 1

  • 1.1 人工智能:思维与实践的融合 1
    • 1.1.1 人工智能的历史与未来 2
    • 1.1.2 深度学习与人工智能 2
    • 1.1.3 选择PyTorch 2.0实战框架 3
  • 1.2 大模型开启人工智能的新时代 4
    • 1.2.1 大模型带来的变革 4
    • 1.2.2 最强的中文大模型—清华大学ChatGLM介绍 5
    • 1.2.3 近在咫尺的未来—大模型的应用前景 6
  • 1.3 本章小结 7

第2章 PyTorch 2.0深度学习环境搭建 8

  • 2.1 环境搭建1:安装Python 8
    • 2.1.1 Miniconda的下载与安装 8
    • 2.1.2 PyCharm的下载与安装 11
    • 2.1.3 Python代码小练习:计算Softmax函数 14
  • 2.2 环境搭建2:安装PyTorch 2.0 15
    • 2.2.1 Nvidia 10/20/30/40系列显卡选择的GPU版本 15
    • 2.2.2 PyTorch 2.0 GPU Nvidia运行库的安装 15
    • 2.2.3 PyTorch 2.0小练习:Hello PyTorch 18
  • 2.3 生成式模型实战:古诗词的生成 18
  • 2.4 图像降噪:手把手实战第一个深度学习模型 19
    • 2.4.1 MNIST数据集的准备 19
    • 2.4.2 MNIST数据集的特征和标签介绍 21
    • 2.4.3 模型的准备和介绍 22
    • 2.4.4 对目标的逼近—模型的损失函数与优化函数 24
    • 2.4.5 基于深度学习的模型训练 24
  • 2.5 本章小结 26

第3章 从零开始学习PyTorch 2.0 27

  • 3.1 实战MNIST手写体识别 27
    • 3.1.1 数据图像的获取与标签的说明 27
    • 3.1.2 实战基于PyTorch 2.0的手写体识别模型 29
    • 3.1.3 基于Netron库的PyTorch 2.0模型可视化 32
  • 3.2 自定义神经网络框架的基本设计 34
    • 3.2.1 神经网络框架的抽象实现 34
    • 3.2.2 自定义神经网络框架的具体实现 35
  • 3.3 本章小结 43

第4章 一学就会的深度学习基础算法详解 44

  • 4.1 反向传播神经网络的前身历史 44
  • 4.2 反向传播神经网络两个基础算法详解 47
    • 4.2.1 最小二乘法详解 48
    • 4.2.2 梯度下降算法 50
    • 4.2.3 最小二乘法的梯度下降算法及其Python实现 52
  • 4.3 反馈神经网络反向传播算法介绍 58
    • 4.3.1 深度学习基础 58
    • 4.3.2 链式求导法则 59
    • 4.3.3 反馈神经网络的原理与公式推导 60
    • 4.3.4 反馈神经网络原理的激活函数 64
    • 4.3.5 反馈神经网络原理的Python实现 66
  • 4.4 本章小结 70

第5章 基于PyTorch卷积层的MNIST分类实战 71

  • 5.1 卷积运算的基本概念 71
    • 5.1.1 基本卷积运算示例 72
    • 5.1.2 PyTorch中的卷积函数实现详解 73
    • 5.1.3 池化运算 75
    • 5.1.4 Softmax激活函数 77
    • 5.1.5 卷积神经网络的原理 78
  • 5.2 实战:基于卷积的MNIST手写体分类 80
    • 5.2.1 数据的准备 80
    • 5.2.2 模型的设计 81
    • 5.2.3 基于卷积的MNIST分类模型 82
  • 5.3 PyTorch的深度可分离膨胀卷积详解 84
    • 5.3.1 深度可分离卷积的定义 84
    • 5.3.2 深度的定义以及不同计算层待训练参数的比较 86
    • 5.3.3 膨胀卷积详解 87
    • 5.3.4 实战:基于深度可分离膨胀卷积的MNIST手写体识别 87
  • 5.4 本章小结 90

第6章 可视化的PyTorch数据处理与模型展示 91

  • 6.1 用于自定义数据集的torch.utils.data工具箱使用详解 92
    • 6.1.1 使用torch.utils.data. Dataset封装自定义数据集 92
    • 6.1.2 改变数据类型的Dataset类中的transform的使用 93
    • 6.1.3 批量输出数据的DataLoader类详解 98
  • 6.2 实战:基于tensorboardX的训练可视化展示 100
    • 6.2.1 可视化组件tensorboardX的简介与安装 100
    • 6.2.2 tensorboardX可视化组件的使用 100
    • 6.2.3 tensorboardX对模型训练过程的展示 103
  • 6.3 本章小结 105

第7章 ResNet实战 106

  • 7.1 ResNet基础原理与程序设计基础 106
    • 7.1.1 ResNet诞生的背景 107
    • 7.1.2 PyTorch 2.0中的模块工具 109
    • 7.1.3 ResNet残差模块的实现 110
    • 7.1.4 ResNet网络的实现 112
  • 7.2 ResNet实战:CIFAR-10数据集分类 114
    • 7.2.1 CIFAR-10数据集简介 114
    • 7.2.2 基于ResNet的CIFAR-10数据集分类 117
  • 7.3 本章小结 118

第8章 有趣的词嵌入 120

  • 8.1 文本数据处理 120
    • 8.1.1 Ag_news数据集介绍和数据清洗 120
    • 8.1.2 停用词的使用 123
    • 8.1.3 词向量训练模型Word2Vec使用介绍 125
    • 8.1.4 文本主题的提取:基于TF-IDF 128
    • 8.1.5 文本主题的提取:基于TextRank 132
  • 8.2 更多的词嵌入方法—FastText和预训练词向量 134
    • 8.2.1 FastText的原理与基础算法 135
    • 8.2.2 FastText训练及其与PyTorch 2.0的协同使用 136
    • 8.2.3 使用其他预训练参数来生成PyTorch 2.0词嵌入矩阵(中文) 140
  • 8.3 针对文本的卷积神经网络模型简介—字符卷积 141
    • 8.3.1 字符(非单词)文本的处理 141
    • 8.3.2 卷积神经网络文本分类模型的实现—Conv1d(一维卷积) 148
  • 8.4 针对文本的卷积神经网络模型简介—词卷积 151
    • 8.4.1 单词的文本处理 151
    • 8.4.2 卷积神经网络文本分类模型的实现—Conv2d(二维卷积) 153
  • 8.5 使用卷积对文本分类的补充内容 155
    • 8.5.1 汉字的文本处理 155
    • 8.5.2 其他细节 157
  • 8.6 本章小结 158

第9章 基于循环神经网络的中文情感分类实战 160

  • 9.1 实战:循环神经网络与情感分类 160
  • 9.2 循环神经网络理论讲解 165
    • 9.2.1 什么是GRU 165
    • 9.2.2 单向不行,那就双向 167
  • 9.3 本章小结 168

第10章 从零开始学习自然语言处理的编码器 169

  • 10.1 编码器的核心—注意力模型 170
    • 10.1.1 输入层—初始词向量层和位置编码器层 170
    • 10.1.2 自注意力层 172
    • 10.1.3 ticks和Layer Normalization 177
    • 10.1.4 多头注意力 178
  • 10.2 编码器的实现 180
    • 10.2.1 前馈层的实现 181
    • 10.2.2 编码器的实现 182
  • 10.3 实战编码器:拼音汉字转化模型 184
    • 10.3.1 汉字拼音数据集处理 185
    • 10.3.2 汉字拼音转化模型的确定 187
    • 10.3.3 模型训练部分的编写 190
  • 10.4 本章小结 191

第11章 站在巨人肩膀上的预训练模型BERT 193

  • 11.1 预训练模型BERT 193
    • 11.1.1 BERT的基本架构与应用 194
    • 11.1.2 BERT预训练任务与微调 195
  • 11.2 实战BERT:中文文本分类 198
    • 11.2.1 使用Hugging Face获取BERT预训练模型 198
    • 11.2.2 BERT实战文本分类 200
  • 11.3 更多的预训练模型 203
  • 11.4 本章小结 205

第12章 从1开始自然语言处理的解码器 206

  • 12.1 解码器的核心—注意力模型 206
    • 12.1.1 解码器的输入和交互注意力层的掩码 207
    • 12.1.2 为什么通过掩码操作能够减少干扰 212
    • 12.1.3 解码器的输出(移位训练方法) 213
    • 12.1.4 解码器的实现 214
  • 12.2 解码器实战—拼音汉字翻译模型 215
    • 12.2.1 数据集的获取与处理 216
    • 12.2.2 翻译模型 218
    • 12.2.3 拼音汉字模型的训练 229
    • 12.2.4 拼音汉字模型的使用 230
  • 12.3 本章小结 231

第13章 基于PyTorch 2.0的强化学习实战 232

  • 13.1 基于强化学习的火箭回收实战 232
    • 13.1.1 火箭回收基本运行环境介绍 233
    • 13.1.2 火箭回收参数介绍 234
    • 13.1.3 基于强化学习的火箭回收实战 234
    • 13.1.4 强化学习的基本内容 239
  • 13.2 强化学习的基本算法—PPO算法 243
    • 13.2.1 PPO算法简介 243
    • 13.2.2 函数使用说明 244
    • 13.2.3 一学就会的TD-error理论介绍 245
    • 13.2.4 基于TD-error的结果修正 247
    • 13.2.5 对于奖励的倒序构成的说明 248
  • 13.3 本章小结 249

第14章 ChatGPT前身—只具有解码器的GPT-2模型 250

  • 14.1 GPT-2模型简介 250
    • 14.1.1 GPT-2模型的输入和输出结构—自回归性 251
    • 14.1.2 GPT-2模型的PyTorch实现 252
    • 14.1.3 GPT-2模型输入输出格式的实现 257
  • 14.2 Hugging Face GPT-2模型源码模型详解 259
    • 14.2.1 GPT2LMHeadModel类和GPT2Model类详解 259
    • 14.2.2 Block类详解 270
    • 14.2.3 Attention类详解 274
    • 14.2.4 MLP类详解 281
  • 14.3 Hugging Face GPT-2模型的使用与自定义微调 282
    • 14.3.1 模型的使用与自定义数据集的微调 282
    • 14.3.2 基于预训练模型的评论描述微调 285
  • 14.4 自定义模型的输出 286
    • 14.4.1 GPT输出的结构 286
    • 14.4.2 创造性参数temperature与采样个数topK 288
  • 14.5 本章小结 290

第15章 实战训练自己的ChatGPT 291

  • 15.1 什么是ChatGPT 291
  • 15.2 RLHF模型简介 293
    • 15.2.1 RLHF技术分解 293
    • 15.2.2 RLHF中的具体实现—PPO算法 296
  • 15.3 基于RLHF实战的ChatGPT正向评论的生成 297
    • 15.3.1 RLHF模型进化的总体讲解 297
    • 15.3.2 ChatGPT评分模块简介 298
    • 15.3.3 带有评分函数的ChatGPT模型的构建 300
    • 15.3.4 RLHF中的PPO算法—KL散度 301
    • 15.3.5 RLHF中的PPO算法—损失函数 303
  • 15.4 本章小结 304

第16章 开源大模型ChatGLM使用详解 305

  • 16.1 为什么要使用大模型 305
    • 16.1.1 大模型与普通模型的区别 306
    • 16.1.2 一个神奇的现象—大模型的涌现能力 307
  • 16.2 ChatGLM使用详解 307
    • 16.2.1 ChatGLM简介及应用前景 308
    • 16.2.2 下载ChatGLM 309
    • 16.2.3 ChatGLM的使用与Prompt介绍 310
  • 16.3 本章小结 311

第17章 开源大模型ChatGLM 高级定制化应用实战 312

  • 17.1 医疗问答GLMQABot搭建实战—基于ChatGLM搭建专业客服问答机器人 312
    • 17.1.1 基于ChatGLM搭建专业领域问答机器人的思路 313
    • 17.1.2 基于真实医疗问答的数据准备 314
    • 17.1.3 文本相关性(相似度)的比较算法 315
    • 17.1.4 提示语句Prompt的构建 316
    • 17.1.5 基于单个文档的GLMQABot的搭建 316
  • 17.2 金融信息抽取实战—基于知识链的ChatGLM本地化知识库检索与智能答案生成 318
    • 17.2.1 基于ChatGLM搭建智能答案生成机器人的思路 319
    • 17.2.2 获取专业(范畴内)文档与编码存储 320
    • 17.2.3 查询文本编码的相关性比较与排序 322
    • 17.2.4 基于知识链的ChatGLM本地化知识库检索与智能答案生成 325
  • 17.3 基于ChatGLM的一些补充内容 327
    • 17.3.1 语言的艺术—Prompt的前世今生 328
    • 17.3.2 清华大学推荐的ChatGLM微调方法 329
    • 17.3.2 一种新的基于ChatGLM的文本检索方案 330
  • 17.4 本章小结 331

第18章 对训练成本上亿美元的ChatGLM进行高级微调 332

  • 18.1 ChatGLM模型的本地化处理 332
    • 18.1.1 下载ChatGLM源码与合并存档 332
    • 18.1.2 修正自定义的本地化模型 335
    • 18.1.3 构建GLM模型的输入输出示例 337
  • 18.2 高级微调方法1—基于加速库Accelerator的全量数据微调 339
    • 18.2.1 数据的准备—将文本内容转化成三元组的知识图谱 339
    • 18.2.2 加速的秘密—Accelerate模型加速工具详解 342
    • 18.2.3 更快的速度—使用INT8(INT4)量化模型加速训练 345
  • 18.3 高级微调方法2—基于LoRA的模型微调 348
    • 18.3.1 对ChatGLM进行微调的方法—LoRA 348
    • 18.3.2 自定义LoRA的使用方法 349
    • 18.3.3 基于自定义LoRA的模型训练 350
    • 18.3.4 基于自定义LoRA的模型推断 352
    • 18.3.5 基于基本原理的LoRA实现 355
  • 18.4 高级微调方法3—基于Huggingface的PEFT模型微调 357
    • 18.4.1 PEFT技术详解 358
    • 18.4.2 PEFT的使用与参数设计 359
    • 18.4.3 Huggingface专用PEFT的使用 360
  • 18.5 本章小结 362

穷查理宝典(珍藏版)(1+2册)

《穷查理宝典》(珍藏本),分一、二册,副书名分别为《芒格的智慧箴言和私人书单》和《芒格最重要的三场演讲》。

《芒格的智慧箴言和私人书单》分上、下篇,上篇《芒格的智慧箴言》旨在做成一本关于生活、学习、工作和投资的芒格智慧语录。全书以《穷查理宝典》原书第一章“查理·芒格传略”与第三章“芒格主义:查理的即席谈话”为线索,串起了67条芒格金句,内容覆盖了芒格的传记、芒格对老年生活的评论、晚辈对芒格的评价,以及芒格在年会上的即席谈话。当芒格讲到学习、思维方式、家庭、投资等内容时,读者马上会读到芒格就该主题说过的最精彩的一句话。这既让人对芒格的传奇人生经历有了线性的了解,又能对他的精华思想加深印象,最终呈现出一个更加生动、立体的芒格形象。

下篇《芒格的私人书单》收入了芒格在不同场合推荐过的书,旨在为读者描绘芒格知识地图的概貌。根据《穷查理宝典》正文中提到的书以及书末的“查理·芒格的推荐书目”,整理出了一个39本书的书单。这39本书分为了6类,分别帮读者搞清楚了人类生存的自然环境、人类自身、经济的运行方式、投资的方法、杰出人物的故事,以及如何在社会中胜出等多个维度的问题。每本书都是芒格思维方式和知识结构的体现。我们为《芒格的私人书单》中的每一本建立了一个小档案,包括基本信息(作者、书名、出版社、封面、地位等)、主要内容、芒格推荐这本书的原因,以及书中精彩语录。就芒格荐书的原因而言,引用芒格推荐每本书时的原话,力求让读者明白这本书对芒格意味着什么。

《芒格最重要的三场演讲》收录了3场最适宜普通大众阅读的芒格演讲,分别为:第二讲《论基本的、普世的智慧,及其与投资管理和商业的关系》、第十讲《在南加州大学GOULD法学院毕业典礼上的演讲》和第十一讲《人类误判心理学》。其中前两场为大学演讲,向年轻学子或大学毕业生们讲述商业思维与人生智慧;最后的《人类误判心理学》被公认为是芒格最精彩的一场演讲,也是芒格独创的思想精华,反映了芒格对人类行为的深刻理解。

我的应许之地:以色列的荣耀与悲情

《我的应许之地》是一部震撼人心的以色列建国史,也是百年来犹太民族的奋斗复兴史。作者阿里•沙维特以自己家族故事为引子,通过亲身经历、深度访谈,历史文献、私人日志、信件等,通过一个个扣人心弦的个体故事,试图描述出以色列的全景大历史,以引出更深层次的以色列国家思考,并对中东地区的纷争渊源进行了历史性梳理。

《我的应许之地》从作者的曾祖父写起,这位犹太复国主义者是一位英国绅士,1987年却果断横跨地中海走向圣地,意识到这即将是本民族的未来之路;20世纪20年代一个怀理想主义的年轻农夫,自他的阿拉伯邻居处购入了土地种植雅法蜜桔,用汗水在不毛之地培育出富足繁荣;二战时期德军将至,具有先知使命感的古特曼,率领青年人攀登历史废墟马萨达,激励他们心中强大的犹太复国主义精神;1948年在吕大驱逐的悲剧性的一幕中,全城老小在流泪中背井离乡、渐行渐远;我们看到了二战后纳粹大屠杀的幸存者们,在应许之地辛勤地建设这个荣耀之国,并努力将孩子们培养成真正的新以色列人;60年代纵横捭阖的以色列政治家们,在艰难局势中,顽强推动了绝密的以色列核计划;1973年赎罪日战争的惨痛,令举国反思以色列的未来在哪里;以及今天引领世界潮流的互联网以色列新兴企业,还有在那些特拉维夫蓬勃发展的俱乐部里纵夜狂欢的青年男女……

今天,以色列人是赢得了最终胜利?还是深陷巨大危机,精神力衰退?他们能否复兴和救赎自我,挽救深爱的应许之地?在百年来一幕幕震撼人心的悲喜剧中,《我的应许之地》为这个生活在流沙之地又充满活力的弹丸小国,完成了一部当之无愧的以色列史诗。

走出中东:全球民主浪潮的见证与省思

资深国际记者 十年后重返中东

以世界的眼睛回望故园

【编辑推荐】

本书2016年在台湾上市,荣获《亚洲周刊》2016年度好书。梁文道、刘瑜、《东方历史评论》等合力推荐。内地版本增加50幅图片,全彩印刷,真实还原这个时代所经历的逆转、混乱与动荡。

周轶君为国内读者打开一扇了解伊斯兰世界的窗户,她作为华人新闻界中第一线国际经验最丰富的记者,带来最真实的中东与世界。作者既有专业的记者视角,也有细腻的女性视角,细读中东的过去与现在,以及世界上其他充满变革的地区,

作者遍访16个国家,与135位人物交谈,写出一百多篇采访,讲述的并非变革原理,而是大时代中小人物的故事。由独裁者与小市民、军人与信徒、男人与女人述说的真实故事,展现了变革之中个人的喜怒哀乐。

虽写的是中东与西欧国家,但对于作者而言,也在寻找自身问题的解答。体察不同生活、制度,均是为了重新认识自己心系的那片故园。后记中提到“我总是在别人的街头,联想自己的庙堂。千万里找寻大千世界的,心里其实都装着一个故园。”

【内容简介】

与中东的情缘召唤周轶君回到出发的原点:土耳其、埃及、巴林、利比亚、伊朗、尼泊尔……一站接一站,地覆天翻。尼泊尔改制、伊拉克重建、阿拉伯之春、乌克兰战争、委内瑞拉的阴影、列支敦士登公投、英国女王存废等全球重大变革事件在书中一一展现。身历16个国家,访问135位人物后,周轶君由中东落笔,荡至全球各大新闻热点地区,她冒着性骚扰、歧视、甚至汽车炸弹的危险,为这个时代正在经历的逆转、混乱与动荡,做了普遍描绘。她以客观、真实、思辨的笔触,记录下每个人在历史转折中的处境、变迁中的笑声与泪影。拉开时间的距离,每一瓢变革的滋味,冷暖自知。

【名人推荐】

梁文道╱作家:

在我所认识的跑国际线的记者朋友之中,周轶君最能掌握冷静与同情之间的巧妙平衡。于是她这部《走出中东》,扰乱了吾人僵固的视界,反而却因此构成了我们前路的警示。简单的讲,在观看世界的时候先把过于庞大的自我放在一边,并不是为了如其所是的‘客观’,而是为了得到更多出乎意料的联想。那些联想,对自己说不定才因此变得有教益。

刘瑜╱清华大学政治系副教授:

周轶君去过很多我们没去过的地方,见过很多我们没见过的人,听到过很多我们没听到的声音。从利比亚到埃及,从英国到尼泊尔,她以生动细腻的笔调将我们带入很多重大国际事件的现场,并以其冷静深入的分析引领我们思考世界前进的方向。

《东方历史评论》:

周轶君在很多方面都称得上我们时代最优秀的国际观察者,因为她超越部落狭隘思维的全球眼光,对理念和事实、历史和当下的无限好奇,也有不为炮弹所扰的冷静理性,和与之共存的人道悲悯。如果没有一批周轶君这样,具有真正的全球眼光和理解他族之能力的作者,中国就谈不上是一个现代大国。她清晰地讲述了中国与看似遥远的中东之间紧密而隐秘的关系,丰富密集的观察、阅读和极简的写作使她的书坚实而迷人。”

她来自马里乌波尔

★内容介绍

“如果你看见过我曾见到的。”母亲总是一再重复这句话。

“亲爱的上帝,请让我感觉她感觉到的,只要一瞬间就好。”多年之后,女儿这么说道。

娜塔莎·沃丁十岁的某天,母亲出门,再也没有回来,后来才得知母亲自沉雷格尼茨河,没能留下只言片语;父亲则酗酒,终日埋首俄语书籍。——在那之后,作者才意识到自己对她一无所知,唯一知道的是她来自马里乌波尔,1943年作为强制劳工被驱离乌克兰,前往德国。凭借少得可怜的线索,娜塔莎·沃丁一点一点地把碎裂的瓷片拼接在一起,她发现,这个家族的过往是一个巨大的谜,是一则关于东欧苦难的历史寓言……作者用迷人的方式完整还原了一部母亲的个人史、家族史、二十世纪动荡史。虽然这是一部非虚构作品,却比虚构作品更魔幻,更戏剧化,也更惊心动魄。

------------------------------------------------

★编辑推荐

◎一部家族史,百年世界灾难缩影

◎20世纪东欧灾难实录,填补二战东方劳工史出版空白

◎堪与温弗雷德·塞巴尔德媲美的作家,用文字抢救逝去的生命与记忆之书

◎重写东欧史,拼接历史的碎片,完整还原悲恸个人史。12000000名东方劳工,绝非二战犹太人大屠杀之外的历史注脚,展示欧洲文明悲剧的全景,揭示乌克兰人不为人知的命运

◎斩获德语第二大文学奖“莱比锡图书奖”(非虚构类)、德布林奖,德语文学在线、《明镜周刊》、《德国时代周报》、《法兰克福汇报》、《南德意志报》等高度赞誉

◎一出版即译为法国、黎巴嫩、意大利、立陶宛、荷兰、西班牙、乌克兰、阿拉伯等文字,长期踞于德国图书榜首

------------------------------------------------

★媒体评论

以家族史展现了世纪全景……一部了不起的作品。

——《明镜周刊》

……只有通过个人性的叙述,我们才能知道历史事件是怎样影响了一个人的经历,当下的事件是怎样从根本上形塑了一个人的生命。这部作品让人看到了德国伟大的记忆艺术家塞巴尔德从遗忘中抢救逝去生命的影子,这绝非偶然。

——勒夫勒(Sigrid Löffler),2015年德布林奖颁奖词

关于遗忘的重要文本。……这部扣人心弦的杰作,已经远远超出了寻找个人家族之根的范畴。

——德语文学在线

人类的生命是如此渺小又如此丰富,在历史的粉碎机里消逝得又是如此悄无声息。这就是《她来自马里乌波尔》所讲述的,作者在虚构和研究、重构和记忆中游走,寻找。……作者的语言朴实无华,但这再合适不过。……非常伟大、极富影响力的艺术。

——犹克‧玛根瑙(Jörg Magenau),德国广播电台文化台

不可预知和令人大跌眼镜的线索盘根错节,活像一部犯罪悬疑片,每个细节都增添了张力,偶然又衍生出了一连串不可思议……《她来自马里乌波尔》是二十世纪灾难史的缩影,其影响至今绵延不绝。

——赫尔穆特·伯蒂格(Helmut Böttiger),《德国时代周报》

近年来有好几部关于二十世纪梦魇的作品,它们与暴力相关,如档案中记录般遥远。虽然娜塔莎·沃丁仅展示了正在发生的故事的一小部分,但她的讲述是如此拉近了读者,我们在当中看到了我们自己。

——《法兰克福汇报》

娜塔莎·沃丁确立了一种既古典又非凡的写作范式。

——汉斯-彼得·库尼施(Hans-Peter Kunisch),《南德意志报》

革命,饥饿,世界大战,内战,古拉格,这是一个更富戏剧性的家族故事。……娜塔莎·沃丁继承了历史学家似乎无法接续的使命:将强制劳工和战俘的历史曝光在公众的视野中。

——德意志广播电台

这本书引人入胜,读开头第一句话就把心提溜到了嗓子眼,悲壮,震撼,很难停下翻动纸页的手指。……属于赫塔·米勒和凯尔泰斯·伊姆雷一脉。

——《科隆城市报》

……一部伟大的书,对抗沉默。那是一段鲜活的,生动的,发出叩问的,绝望而又动人的历史。当然,也充满了痛苦。这是一部催人泪下的书,是多重线索和寻找下的个人史书写。

——巴伐利亚州第二电台文化频道

凭借有限的信息,沃丁小心翼翼地把谜一般的家族史碎片拼接起来,于是便有了这部饱受赞誉的深情杰作,堪与W. G. 塞巴尔德媲美。……《她来自马里乌波尔》填补了文学领域的空白,通过对母亲家族的深情追溯,为成千上万东欧人民树立了纪念碑。

——New Books in German

这本书呼吁人们关注那些鲜为人知且往往不是焦点的历史议题,纳粹德国的东方劳工史即其中之一。有时候它像一本推理小说,在这本书面前你根本停不下来,因为你不知道娜塔莎·沃丁还要往窟窿里填充什么。许多东西浮出历史地表,但还有许多没有说出来。这就是书写家族史的意义。

——Beyond History

此书再次揭开了德国历史上的一块伤疤。许多档案材料被刻意销毁,记忆随着当事人的去世而荡然无存,即便尚有知情人在世也大多缄口不言。……相信随着该书的传播,这段被遮蔽和遗忘的历史会重新进入公共记忆之中。

——中国《文艺报》