随便推荐

新书推荐

深度学习

内容简介

《深度学习》由全球知名的三位专家Ian Goodfellow、Yoshua Bengio 和Aaron Courville撰写,是深度学习领域奠基性的经典教材。全书的内容包括3个部分:第1部分介绍基本的数学工具和机器学习的概念,它们是深度学习的预备知识;第2部分系统深入地讲解现今已成熟的深度学习方法和技术;第3部分讨论某些具有前瞻性的方向和想法,它们被公认为是深度学习未来的研究重点。

《深度学习》适合各类读者阅读,包括相关专业的大学生或研究生,以及不具有机器学习或统计背景、但是想要快速补充深度学习知识,以便在实际产品或平台中应用的软件工程师。

作者简介

作者简介
Ian Goodfellow,谷歌公司(Google) 的研究科学家,2014 年蒙特利尔大学机器学习博士。他的研究兴趣涵盖大多数深度学习主题,特别是生成模型以及机器学习的安全和隐私。Ian Goodfellow 在研究对抗样本方面是一位有影响力的早期研究者,他发明了生成式对抗网络,在深度学习领域贡献卓越。
Yoshua Bengio,蒙特利尔大学计算机科学与运筹学系(DIRO) 的教授,蒙特利尔学习算法研究所(MILA) 的负责人,CIFAR 项目的共同负责人,加拿大统计学习算法研究主席。Yoshua Bengio 的主要研究目标是了解产生智力的学习原则。他还教授“机器学习”研究生课程(IFT6266),并培养了一大批研究生和博士后。
Aaron Courville,蒙特利尔大学计算机科学与运筹学系的助理教授,也是LISA 实验室的成员。目前他的研究兴趣集中在发展深度学习模型和方法,特别是开发概率模型和新颖的推断方法。Aaron Courville 主要专注于计算机视觉应用,在其他领域,如自然语言处理、音频信号处理、语音理解和其他AI 相关任务方面也有所研究。

中文版审校者简介
张志华,北京大学数学科学学院统计学教授,北京大学大数据研究中心和北京大数据研究院数据科学教授,主要从事机器学习和应用统计学的教学与研究工作。

译者简介
赵申剑,上海交通大学计算机系硕士研究生,研究方向为数值优化和自然语言处理。
黎彧君,上海交通大学计算机系博士研究生,研究方向为数值优化和强化学习。
符天凡,上海交通大学计算机系硕士研究生,研究方向为贝叶斯推断。
李凯,上海交通大学计算机系博士研究生,研究方向为博弈论和强化学习。

目录

中文版致谢
英文原书致谢
数学符号
第1章 引言
1.1 本书面向的读者
1.2 深度学习的历史趋势
第1部分 应用数学与机器学习基础
第2章 线性代数
2.1 标量、向量、矩阵和张量
2.2 矩阵和向量相乘
2.3 单位矩阵和逆矩阵
2.4 线性相关和生成子空间
2.5 范数
2.6 特殊类型的矩阵和向量
2.7 特征分解
2.8 奇异值分解
2.9 Moore-Penrose伪逆
2.10 迹运算
2.11 行列式
2.12 实例:主成分分析
第3章 概率与信息论
3.1 为什么要使用概率
3.2 随机变量
3.3 概率分布
3.4 边缘概率
3.5 条件概率
3.6 条件概率的链式法则
3.7 独立性和条件独立性
3.8 期望、方差和协方差
3.9 常用概率分布
3.10 常用函数的有用性质
3.11 贝叶斯规则
3.12 连续型变量的技术细节
3.13 信息论
3.14 结构化概率模型
第4章 数值计算
4.1 上溢和下溢
4.2 病态条件
4.3 基于梯度的优化方法
4.4 约束优化
4.5 实例:线性最小二乘
第5章 机器学习基础
5.1 学习算法
5.2 容量、过拟合和欠拟合
5.3 超参数和验证集
5.4 估计、偏差和方差
5.5 最大似然估计
5.6 贝叶斯统计
5.7 监督学习算法
5.8 无监督学习算法
5.9 随机梯度下降
5.10 构建机器学习算法
5.11 促使深度学习发展的挑战
第2部分 深度网络:现代实践
第6章 深度前馈网络
6.1 实例:学习XOR
6.2 基于梯度的学习
6.3 隐藏单元
6.4 架构设计
6.5 反向传播和其他的微分算法
6.6 历史小记
第7章 深度学习中的正则化
7.1 参数范数惩罚
7.2 作为约束的范数惩罚
7.3 正则化和欠约束问题
7.4 数据集增强
7.5 噪声鲁棒性
7.6 半监督学习
7.7 多任务学习
7.8 提前终止
7.9 参数绑定和参数共享
7.10 稀疏表示
7.11 Bagging和其他集成方法
7.12 Dropout
7.13 对抗训练
7.14 切面距离、正切传播和流形正切分类器
第8章 深度模型中的优化
8.1 学习和纯优化有什么不同
8.2 神经网络优化中的挑战
8.3 基本算法
8.4 参数初始化策略
8.5 自适应学习率算法
8.6 二阶近似方法
8.7 优化策略和元算法
第9章 卷积网络
9.1 卷积运算
9.2 动机
9.3 池化
9.4 卷积与池化作为一种无限强的先验
9.5 基本卷积函数的变体
9.6 结构化输出
9.7 数据类型
9.8 高效的卷积算法
9.9 随机或无监督的特征
9.10 卷积网络的神经科学基础
9.11 卷积网络与深度学习的历史
第10章 序列建模:循环和递归网络
10.1 展开计算图
10.2 循环神经网络
10.3 双向RNN
10.4 基于编码-解码的序列到序列架构
10.5 深度循环网络
10.6 递归神经网络
10.7 长期依赖的挑战
10.8 回声状态网络
10.9 渗漏单元和其他多时间尺度的策略
10.10 长短期记忆和其他门控RNN
10.11 优化长期依赖
10.12 外显记忆
第11章 实践方法论
11.1 性能度量
11.2 默认的基准模型
11.3 决定是否收集更多数据
11.4 选择超参数
11.5 调试策略
11.6 示例:多位数字识别
第12章 应用
12.1 大规模深度学习
12.2 计算机视觉
12.3 语音识别
12.4 自然语言处理
12.5 其他应用
第3部分 深度学习研究
第13章 线性因子模型
13.1 概率PCA和因子分析
13.2 独立成分分析
13.3 慢特征分析
13.4 稀疏编码
13.5 PCA的流形解释
第14章 自编码器
14.1 欠完备自编码器
14.2 正则自编码器
14.3 表示能力、层的大小和深度
14.4 随机编码器和解码器
14.5 去噪自编码器详解
14.6 使用自编码器学习流形
14.7 收缩自编码器
14.8 预测稀疏分解
14.9 自编码器的应用
第15章 表示学习
15.1 贪心逐层无监督预训练
15.2 迁移学习和领域自适应
15.3 半监督解释因果关系
15.4 分布式表示
15.5 得益于深度的指数增益
15.6 提供发现潜在原因的线索
第16章 深度学习中的结构化概率模型
16.1 非结构化建模的挑战
16.2 使用图描述模型结构
16.3 从图模型中采样
16.4 结构化建模的优势
16.5 学习依赖关系
16.6 推断和近似推断
16.7 结构化概率模型的深度学习方法
第17章 蒙特卡罗方法
17.1 采样和蒙特卡罗方法
17.2 重要采样
17.3 马尔可夫链蒙特卡罗方法
17.4 Gibbs采样
17.5 不同的峰值之间的混合挑战
第18章 直面配分函数
18.1 对数似然梯度
18.2 随机最大似然和对比散度
18.3 伪似然
18.4 得分匹配和比率匹配
18.5 去噪得分匹配
18.6 噪声对比估计
18.7 估计配分函数
第19章 近似推断
19.1 把推断视作优化问题
19.2 期望最大化
19.3 最大后验推断和稀疏编码
19.4 变分推断和变分学习
19.5 学成近似推断
第20章 深度生成模型
20.1 玻尔兹曼机
20.2 受限玻尔兹曼机
20.3 深度信念网络
20.4 深度玻尔兹曼机
20.5 实值数据上的玻尔兹曼机
20.6 卷积玻尔兹曼机
20.7 用于结构化或序列输出的玻尔兹曼机
20.8 其他玻尔兹曼机
20.9 通过随机操作的反向传播
20.10 有向生成网络
20.11 从自编码器采样
20.12 生成随机网络
20.13 其他生成方案
20.14 评估生成模型
20.15 结论
参考文献
索引

从零开始大模型开发与微调:基于PyTorch与ChatGLM

内容简介

大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。本书使用PyTorch 2.0作为学习大模型的基本框架,以ChatGLM为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。本书配套示例源代码、PPT课件。

《从零开始大模型开发与微调:基于PyTorch与ChatGLM》共18章,内容包括人工智能与大模型、PyTorch 2.0深度学习环境搭建、从零开始学习PyTorch 2.0、深度学习基础算法详解、基于PyTorch卷积层的MNIST分类实战、PyTorch数据处理与模型展示、ResNet实战、有趣的词嵌入、基于PyTorch循环神经网络的中文情感分类实战、自然语言处理的编码器、预训练模型BERT、自然语言处理的解码器、强化学习实战、只具有解码器的GPT-2模型、实战训练自己的ChatGPT、开源大模型ChatGLM使用详解、ChatGLM高级定制化应用实战、对ChatGLM进行高级微调。

《从零开始大模型开发与微调:基于PyTorch与ChatGLM》适合PyTorch深度学习初学者、大模型开发初学者、大模型开发人员学习,也适合高等院校人工智能、智能科学与技术、数据科学与大数据技术、计算机科学与技术等专业的师生作为教学参考书。

作者简介

王晓华,高校计算机专业讲师,研究方向为云计算、大数据与人工智能。著有《PyTorch 2.0深度学习从零开始学》《Python机器学习与可视化分析实战》《谷歌JAX深度学习从零开始学》《Spark 3.0大数据分析与挖掘:基于机器学习》《TensorFlow深度学习应用实践》《OpenCV+TensorFlow深度学习与计算机视觉实战》《TensorFlow知识图谱实战》《TensorFlow人脸识别实战》《TensorFlow语音识别实战》《TensorFlow+Keras自然语言处理实战》《TensorFlow 2.0卷积神经网络实战》《Keras实战:基于TensorFlow2.2的深度学习实践》《TensorFlow 2.0深度学习从零开始学》《深度学习的数学原理与实现》。

目录

目 录

第1章 新时代的曙光—人工智能与大模型 1

  • 1.1 人工智能:思维与实践的融合 1
    • 1.1.1 人工智能的历史与未来 2
    • 1.1.2 深度学习与人工智能 2
    • 1.1.3 选择PyTorch 2.0实战框架 3
  • 1.2 大模型开启人工智能的新时代 4
    • 1.2.1 大模型带来的变革 4
    • 1.2.2 最强的中文大模型—清华大学ChatGLM介绍 5
    • 1.2.3 近在咫尺的未来—大模型的应用前景 6
  • 1.3 本章小结 7

第2章 PyTorch 2.0深度学习环境搭建 8

  • 2.1 环境搭建1:安装Python 8
    • 2.1.1 Miniconda的下载与安装 8
    • 2.1.2 PyCharm的下载与安装 11
    • 2.1.3 Python代码小练习:计算Softmax函数 14
  • 2.2 环境搭建2:安装PyTorch 2.0 15
    • 2.2.1 Nvidia 10/20/30/40系列显卡选择的GPU版本 15
    • 2.2.2 PyTorch 2.0 GPU Nvidia运行库的安装 15
    • 2.2.3 PyTorch 2.0小练习:Hello PyTorch 18
  • 2.3 生成式模型实战:古诗词的生成 18
  • 2.4 图像降噪:手把手实战第一个深度学习模型 19
    • 2.4.1 MNIST数据集的准备 19
    • 2.4.2 MNIST数据集的特征和标签介绍 21
    • 2.4.3 模型的准备和介绍 22
    • 2.4.4 对目标的逼近—模型的损失函数与优化函数 24
    • 2.4.5 基于深度学习的模型训练 24
  • 2.5 本章小结 26

第3章 从零开始学习PyTorch 2.0 27

  • 3.1 实战MNIST手写体识别 27
    • 3.1.1 数据图像的获取与标签的说明 27
    • 3.1.2 实战基于PyTorch 2.0的手写体识别模型 29
    • 3.1.3 基于Netron库的PyTorch 2.0模型可视化 32
  • 3.2 自定义神经网络框架的基本设计 34
    • 3.2.1 神经网络框架的抽象实现 34
    • 3.2.2 自定义神经网络框架的具体实现 35
  • 3.3 本章小结 43

第4章 一学就会的深度学习基础算法详解 44

  • 4.1 反向传播神经网络的前身历史 44
  • 4.2 反向传播神经网络两个基础算法详解 47
    • 4.2.1 最小二乘法详解 48
    • 4.2.2 梯度下降算法 50
    • 4.2.3 最小二乘法的梯度下降算法及其Python实现 52
  • 4.3 反馈神经网络反向传播算法介绍 58
    • 4.3.1 深度学习基础 58
    • 4.3.2 链式求导法则 59
    • 4.3.3 反馈神经网络的原理与公式推导 60
    • 4.3.4 反馈神经网络原理的激活函数 64
    • 4.3.5 反馈神经网络原理的Python实现 66
  • 4.4 本章小结 70

第5章 基于PyTorch卷积层的MNIST分类实战 71

  • 5.1 卷积运算的基本概念 71
    • 5.1.1 基本卷积运算示例 72
    • 5.1.2 PyTorch中的卷积函数实现详解 73
    • 5.1.3 池化运算 75
    • 5.1.4 Softmax激活函数 77
    • 5.1.5 卷积神经网络的原理 78
  • 5.2 实战:基于卷积的MNIST手写体分类 80
    • 5.2.1 数据的准备 80
    • 5.2.2 模型的设计 81
    • 5.2.3 基于卷积的MNIST分类模型 82
  • 5.3 PyTorch的深度可分离膨胀卷积详解 84
    • 5.3.1 深度可分离卷积的定义 84
    • 5.3.2 深度的定义以及不同计算层待训练参数的比较 86
    • 5.3.3 膨胀卷积详解 87
    • 5.3.4 实战:基于深度可分离膨胀卷积的MNIST手写体识别 87
  • 5.4 本章小结 90

第6章 可视化的PyTorch数据处理与模型展示 91

  • 6.1 用于自定义数据集的torch.utils.data工具箱使用详解 92
    • 6.1.1 使用torch.utils.data. Dataset封装自定义数据集 92
    • 6.1.2 改变数据类型的Dataset类中的transform的使用 93
    • 6.1.3 批量输出数据的DataLoader类详解 98
  • 6.2 实战:基于tensorboardX的训练可视化展示 100
    • 6.2.1 可视化组件tensorboardX的简介与安装 100
    • 6.2.2 tensorboardX可视化组件的使用 100
    • 6.2.3 tensorboardX对模型训练过程的展示 103
  • 6.3 本章小结 105

第7章 ResNet实战 106

  • 7.1 ResNet基础原理与程序设计基础 106
    • 7.1.1 ResNet诞生的背景 107
    • 7.1.2 PyTorch 2.0中的模块工具 109
    • 7.1.3 ResNet残差模块的实现 110
    • 7.1.4 ResNet网络的实现 112
  • 7.2 ResNet实战:CIFAR-10数据集分类 114
    • 7.2.1 CIFAR-10数据集简介 114
    • 7.2.2 基于ResNet的CIFAR-10数据集分类 117
  • 7.3 本章小结 118

第8章 有趣的词嵌入 120

  • 8.1 文本数据处理 120
    • 8.1.1 Ag_news数据集介绍和数据清洗 120
    • 8.1.2 停用词的使用 123
    • 8.1.3 词向量训练模型Word2Vec使用介绍 125
    • 8.1.4 文本主题的提取:基于TF-IDF 128
    • 8.1.5 文本主题的提取:基于TextRank 132
  • 8.2 更多的词嵌入方法—FastText和预训练词向量 134
    • 8.2.1 FastText的原理与基础算法 135
    • 8.2.2 FastText训练及其与PyTorch 2.0的协同使用 136
    • 8.2.3 使用其他预训练参数来生成PyTorch 2.0词嵌入矩阵(中文) 140
  • 8.3 针对文本的卷积神经网络模型简介—字符卷积 141
    • 8.3.1 字符(非单词)文本的处理 141
    • 8.3.2 卷积神经网络文本分类模型的实现—Conv1d(一维卷积) 148
  • 8.4 针对文本的卷积神经网络模型简介—词卷积 151
    • 8.4.1 单词的文本处理 151
    • 8.4.2 卷积神经网络文本分类模型的实现—Conv2d(二维卷积) 153
  • 8.5 使用卷积对文本分类的补充内容 155
    • 8.5.1 汉字的文本处理 155
    • 8.5.2 其他细节 157
  • 8.6 本章小结 158

第9章 基于循环神经网络的中文情感分类实战 160

  • 9.1 实战:循环神经网络与情感分类 160
  • 9.2 循环神经网络理论讲解 165
    • 9.2.1 什么是GRU 165
    • 9.2.2 单向不行,那就双向 167
  • 9.3 本章小结 168

第10章 从零开始学习自然语言处理的编码器 169

  • 10.1 编码器的核心—注意力模型 170
    • 10.1.1 输入层—初始词向量层和位置编码器层 170
    • 10.1.2 自注意力层 172
    • 10.1.3 ticks和Layer Normalization 177
    • 10.1.4 多头注意力 178
  • 10.2 编码器的实现 180
    • 10.2.1 前馈层的实现 181
    • 10.2.2 编码器的实现 182
  • 10.3 实战编码器:拼音汉字转化模型 184
    • 10.3.1 汉字拼音数据集处理 185
    • 10.3.2 汉字拼音转化模型的确定 187
    • 10.3.3 模型训练部分的编写 190
  • 10.4 本章小结 191

第11章 站在巨人肩膀上的预训练模型BERT 193

  • 11.1 预训练模型BERT 193
    • 11.1.1 BERT的基本架构与应用 194
    • 11.1.2 BERT预训练任务与微调 195
  • 11.2 实战BERT:中文文本分类 198
    • 11.2.1 使用Hugging Face获取BERT预训练模型 198
    • 11.2.2 BERT实战文本分类 200
  • 11.3 更多的预训练模型 203
  • 11.4 本章小结 205

第12章 从1开始自然语言处理的解码器 206

  • 12.1 解码器的核心—注意力模型 206
    • 12.1.1 解码器的输入和交互注意力层的掩码 207
    • 12.1.2 为什么通过掩码操作能够减少干扰 212
    • 12.1.3 解码器的输出(移位训练方法) 213
    • 12.1.4 解码器的实现 214
  • 12.2 解码器实战—拼音汉字翻译模型 215
    • 12.2.1 数据集的获取与处理 216
    • 12.2.2 翻译模型 218
    • 12.2.3 拼音汉字模型的训练 229
    • 12.2.4 拼音汉字模型的使用 230
  • 12.3 本章小结 231

第13章 基于PyTorch 2.0的强化学习实战 232

  • 13.1 基于强化学习的火箭回收实战 232
    • 13.1.1 火箭回收基本运行环境介绍 233
    • 13.1.2 火箭回收参数介绍 234
    • 13.1.3 基于强化学习的火箭回收实战 234
    • 13.1.4 强化学习的基本内容 239
  • 13.2 强化学习的基本算法—PPO算法 243
    • 13.2.1 PPO算法简介 243
    • 13.2.2 函数使用说明 244
    • 13.2.3 一学就会的TD-error理论介绍 245
    • 13.2.4 基于TD-error的结果修正 247
    • 13.2.5 对于奖励的倒序构成的说明 248
  • 13.3 本章小结 249

第14章 ChatGPT前身—只具有解码器的GPT-2模型 250

  • 14.1 GPT-2模型简介 250
    • 14.1.1 GPT-2模型的输入和输出结构—自回归性 251
    • 14.1.2 GPT-2模型的PyTorch实现 252
    • 14.1.3 GPT-2模型输入输出格式的实现 257
  • 14.2 Hugging Face GPT-2模型源码模型详解 259
    • 14.2.1 GPT2LMHeadModel类和GPT2Model类详解 259
    • 14.2.2 Block类详解 270
    • 14.2.3 Attention类详解 274
    • 14.2.4 MLP类详解 281
  • 14.3 Hugging Face GPT-2模型的使用与自定义微调 282
    • 14.3.1 模型的使用与自定义数据集的微调 282
    • 14.3.2 基于预训练模型的评论描述微调 285
  • 14.4 自定义模型的输出 286
    • 14.4.1 GPT输出的结构 286
    • 14.4.2 创造性参数temperature与采样个数topK 288
  • 14.5 本章小结 290

第15章 实战训练自己的ChatGPT 291

  • 15.1 什么是ChatGPT 291
  • 15.2 RLHF模型简介 293
    • 15.2.1 RLHF技术分解 293
    • 15.2.2 RLHF中的具体实现—PPO算法 296
  • 15.3 基于RLHF实战的ChatGPT正向评论的生成 297
    • 15.3.1 RLHF模型进化的总体讲解 297
    • 15.3.2 ChatGPT评分模块简介 298
    • 15.3.3 带有评分函数的ChatGPT模型的构建 300
    • 15.3.4 RLHF中的PPO算法—KL散度 301
    • 15.3.5 RLHF中的PPO算法—损失函数 303
  • 15.4 本章小结 304

第16章 开源大模型ChatGLM使用详解 305

  • 16.1 为什么要使用大模型 305
    • 16.1.1 大模型与普通模型的区别 306
    • 16.1.2 一个神奇的现象—大模型的涌现能力 307
  • 16.2 ChatGLM使用详解 307
    • 16.2.1 ChatGLM简介及应用前景 308
    • 16.2.2 下载ChatGLM 309
    • 16.2.3 ChatGLM的使用与Prompt介绍 310
  • 16.3 本章小结 311

第17章 开源大模型ChatGLM 高级定制化应用实战 312

  • 17.1 医疗问答GLMQABot搭建实战—基于ChatGLM搭建专业客服问答机器人 312
    • 17.1.1 基于ChatGLM搭建专业领域问答机器人的思路 313
    • 17.1.2 基于真实医疗问答的数据准备 314
    • 17.1.3 文本相关性(相似度)的比较算法 315
    • 17.1.4 提示语句Prompt的构建 316
    • 17.1.5 基于单个文档的GLMQABot的搭建 316
  • 17.2 金融信息抽取实战—基于知识链的ChatGLM本地化知识库检索与智能答案生成 318
    • 17.2.1 基于ChatGLM搭建智能答案生成机器人的思路 319
    • 17.2.2 获取专业(范畴内)文档与编码存储 320
    • 17.2.3 查询文本编码的相关性比较与排序 322
    • 17.2.4 基于知识链的ChatGLM本地化知识库检索与智能答案生成 325
  • 17.3 基于ChatGLM的一些补充内容 327
    • 17.3.1 语言的艺术—Prompt的前世今生 328
    • 17.3.2 清华大学推荐的ChatGLM微调方法 329
    • 17.3.2 一种新的基于ChatGLM的文本检索方案 330
  • 17.4 本章小结 331

第18章 对训练成本上亿美元的ChatGLM进行高级微调 332

  • 18.1 ChatGLM模型的本地化处理 332
    • 18.1.1 下载ChatGLM源码与合并存档 332
    • 18.1.2 修正自定义的本地化模型 335
    • 18.1.3 构建GLM模型的输入输出示例 337
  • 18.2 高级微调方法1—基于加速库Accelerator的全量数据微调 339
    • 18.2.1 数据的准备—将文本内容转化成三元组的知识图谱 339
    • 18.2.2 加速的秘密—Accelerate模型加速工具详解 342
    • 18.2.3 更快的速度—使用INT8(INT4)量化模型加速训练 345
  • 18.3 高级微调方法2—基于LoRA的模型微调 348
    • 18.3.1 对ChatGLM进行微调的方法—LoRA 348
    • 18.3.2 自定义LoRA的使用方法 349
    • 18.3.3 基于自定义LoRA的模型训练 350
    • 18.3.4 基于自定义LoRA的模型推断 352
    • 18.3.5 基于基本原理的LoRA实现 355
  • 18.4 高级微调方法3—基于Huggingface的PEFT模型微调 357
    • 18.4.1 PEFT技术详解 358
    • 18.4.2 PEFT的使用与参数设计 359
    • 18.4.3 Huggingface专用PEFT的使用 360
  • 18.5 本章小结 362

男性P點高潮:就爽前列腺

男性P點高潮:就爽前列腺

內容簡介

金手指加藤鷹到不了的地方!
全球男人都在玩!讓妳/你的男人歡喜「開門」的第1本書
現在就動手探索,享受來自P點綿綿不絕的震顫,高潮一直來一直來!

美國亞馬遜Amazon.com讀者四星半好評推薦!

情趣女王SallyQ.實戰玩家潤滑液男孩
愛不釋手.挖挖哇推薦!
潤滑液男孩:「讀著這本書,我癢到忍不住把整箱玩具玩了一遍!」

擁有本書,你/妳將學習到──
○ 最實用安全的按摩、體位、性玩具等操作技巧!
○ 如何與伴侶建立信賴、敞開心防討論慾望!
○ 直通強烈P點高潮的祕訣和竅門!
○ 提早維護並促進前列腺的健康!

「這本書解答了我一切有關前列腺遊戲、以及如何探索快感的疑問。」
──尼肯‧法蘭提克
「它提供的資訊豐富到難以想像!不僅每位男同志都該人手一本,異性戀男女也將從本書獲得超乎預期的性愛靈感。」
──L‧彼得森

前列腺遊戲是目前男性性行為中最火熱的潮流。愈來愈多男人藉由「P點」刺激和高潮,讓性樂趣倍加強烈。正如女性對G點的探索永遠改變了高潮體驗,圖文兼具的本書,將帶給你超乎想像的性愛滿足感!
由兩位性學專家聯手撰寫、圖文兼備的本書,內容包含P點高潮原理詳解、個人如何探索自爽、雙人如何愉悅合戲(男女/男男)、前列腺情趣玩具選購指南……等等一切你想知道的專業知識和技巧。不管是好奇想入門的新手男孩,已有後庭歡快經驗的男人,或躍躍欲試、想為男伴開發「美麗新世界」的女性朋友,都可以按部就班找到強烈性快感的源頭,順利開啟歡愉暢感的眾妙之門。

內附本書讀者專享好康──
頂! 台灣本土原創情趣玩具 異物根根9折獨家優惠!
爽! GuyShop全店G點/P點玩具全系列不限品牌88折優惠券!
噴! 延伸探索.身心極樂──來店購物限時送神秘福袋 !

★更多訊息,請上基本書坊部落格: http://gbookstaiwan.blogspot.tw

大梦无疆:勇气、想象和现代以色列的建立

二十世纪杰出政治家

以色列前任总理、总统

诺贝尔和平奖得主

西蒙•佩雷斯自传

-

写给全球年轻人的领导力必读书

-

马云作序推荐: “以色列让我看到梦想的力量。

这是一个先有梦想后有国家的地方,一个因为梦想而创造一切的地方。”

-

◎ 内容简介

《大梦无疆:勇气、想象 和 现代以色列的建立》是二十世纪杰出的政治家、以色列前任总理、总统及诺贝尔和平奖得主西蒙•佩雷斯的自传,也是他的遗作,就在完成这部作品的几周后,他与世长辞。在《大梦无疆》中,佩雷斯从亲历者、决策者和见证人的角度,记录了以色列的建国历程,完整再现以色列国家历史上几乎所有的决定性时刻,以及中东和全球的重大事件。他的第一手材料,各种幕后不为人所知的信息、决策和指令,是对这些重大历史事件的最好注解。

-

◎ 名人推荐

西蒙·佩雷斯凭借坚定的决心和原则,一次又一次引导他心爱的国家克服生死之间的挑战。然而,他内在的人性和高贵更为重要,启迪了整个世界并且铺筑了一条通往和平的康庄大道,足以让未来的人们携手并进。

——乔治·H.W. 布什(美国前总统)

西蒙·佩雷斯最初是以色列最聪明的学生,接着成为了最出色的导师,最后成为了最大的梦想家。他在完成最后一部作品《大梦无疆》的几周后与世长辞,在这部作品中,他回顾了自己70年的政治生涯和以色列历史上的关键时刻,这些时刻都为未来的和平与可能性打下了基石。这部作品捕捉了我的好友一生秉持的信念——我们可以战胜我们的创伤、憎恨和恐惧,抓紧当下,把握明日的成功。

——比尔·克林顿(美国前总统)

西蒙·佩雷斯是以色列建国一代的巨人,他坚持不懈地呼吁和平,他是一个永恒的乐观主义者,一生都在追求希望和可能性。他也是我珍贵的朋友,是我智慧的源泉之一。他的故事如今成为了时代的故事,有太多需要我们去了解和学习。

——巴拉克·奥巴马(美国前总统)

以色列为全球的科技创新做出了巨大贡献,它是名副其实的“初创国家”。《大梦无疆》这本书中的领导力的故事显示了当别人觉得必定会失败时,为何佩雷斯能够在不断的努力中看到机遇。如果你不尝试,你就不会知道——这就是创新的秘诀。西蒙·佩雷斯明白这一点。

——埃里克·施密特(谷歌董事长)

切尔诺贝利的午夜

【编辑推荐】

★著名读书网站Goodreads近30000人打出4.38高分,盛赞“《切尔诺贝利的午夜》是你能读到的最好的非虚构书籍之一”。

.

★普利策奖得主、《古拉格:一部历史》作者安妮·艾普尔鲍姆等欧美一流作家、学者倾情推荐;

HBO名剧《切尔诺贝利》主创Craig Mazin:开拍之前没能看过这部书,我感到十分遗憾。

.

栩栩如生地讲述了这场历史上最严重的灾难,同时也让我们看到了苏联最后的岁月中那些每天都在发生的令人迷惑不解的真实事件。

——安妮·艾普尔鲍姆(普利策奖得主)

.

本书对历史做出了宝贵的贡献,关于切尔诺贝利这样一个让世人瞩目的故事,它讲述得极为出色。

—— 沙希利·浦洛基

.

★切尔诺贝利,人类文明史上的永恒噩梦:权威记者十数年深度调查,数百小时采访录音,大量档案、书信、回忆录首次曝光,全景式展现了这场我们时代毁灭性核灾难的整个过程:

作者亚当·希金博特姆是《纽约客》的资深记者,驾驭故事与挖掘运用材料的能力皆为一流。全书精注详解 ,仅注释就一百余页,使用材料扎实严谨堪比学术著作,可读性之强又堪比惊悚小说。

.

★在一个狂妄自大和注定要失败的故事中,捕捉到科学与人性;这里没有无名英雄,每个人都有自己的脸孔:

书中有大量人物刻画,这是作者花费十几年时间走访灾难亲历者所得到的故事。这些人早已经被他们的国家和同胞所遗忘,其中,有苏联的各色高官,有“吹哨”人,有救援英雄,有医疗人员,有事故清理者,也有日后站在审判席上的人。

作者将焦点放在被卷入其中的人们以及他们面对突发灾难如何做出种种艰难抉择,它代表了苏联社会的一个横截面,暴露了人类个体的懦弱和勇敢,最终得到的,是一个比苏联传奇更复杂、更人性,也更恐怖的故事。

.

★比任何一部恐怖电影更令人痛心,比任何一本惊险小说更惊心动魄;

尽管提供了海量信息,但本书并不令人望而生畏,作者视野广阔,构思精巧,对细节的精确把握,使得故事推进的每一步都充满张力,如惊险小说般的叙事风格,使这本书可读性极强。

.

★包揽欧美多家一线媒体年度榜单:《柯克斯书评》年度最佳非虚构,《纽约时报》《时代周刊》年度图书,2020年安德鲁•卡内基奖;

.

【内容简介】

亚当·希金博特姆耗费多年心血,终于完成这部关于切尔诺贝利核电站事故的权威力作。书中充分有力的调查,揭示了这场二十世纪最大灾难之一的真相是如何在政治鼓吹、重重保密和谣言四散的共同作用下被掩盖起来的。

.

1986年4月26日凌晨,切尔诺贝利原子能电站的四号反应堆发生爆炸,由此引发了历史上最恶劣的一起核灾难。自那以后的三十年里,切尔诺贝利逐渐成为整个世界挥之不去的噩梦:阴魂不散的辐射中毒的恐怖威胁,一种危险技术脱缰失控的巨大风险,生态系统的脆弱,以及对其国民和整个世界造成的伤害。然而,这场事故的真相,却从一开始便被掩盖起来,长久以来一直众说纷纭。

.

十多年中,亚当·希金博特姆进行了数百小时的采访,以此为依托,辅之以往来书信、未发表的回忆录和新近解密的档案文件,他将那些灾难亲历者所目睹的一切,化成客观、冷静而又发人深省的叙述。由此得到的,是一本惊心动魄的非虚构杰作,一个比苏联传奇更复杂、更人性,也更恐怖的故事。