顶部
收藏

机器学习及R应用


作者:
陈强
定价:
68.00元
ISBN:
978-7-04-055139-6
版面字数:
730.000千字
开本:
16开
全书页数:
暂无
装帧形式:
平装
重点项目:
暂无
出版时间:
2020-11-05
读者对象:
高等教育
一级分类:
经济
二级分类:
经济学
三级分类:
经济统计学

本书对机器学习的核心方法进行了深入而详细的介绍,并特别关注各学科最常用的算法。最大特色在于力图以生动的语言、较多的插图与大量的实例来直观地解释机器学习的原理。同时,结合流行的R语言,及时地介绍相应的软件操作与经典案例,为读者提供“一站式”服务。本书还提供详尽的数学推导,尽量避免跳跃,并辅以直观的文字解释。对于看似复杂的机器学习原理,则删繁就简,娓娓道来,让读者渐入佳境。

本书适合普通高等学校理、工、农、医以及经济学、管理学、社会科学类的高年级本科生与研究生使用。先修课包括微积分、线性代数与概率统计,但不要求有编程或R语言经验。本书将从零开始,让读者快速体会到R语言的美妙与威力。

  • 前辅文
  • 第1章 绪论
    • 1.1 什么是机器学习
    • 1.2 机器学习的分类
    • 1.3 机器学习的术语
    • 1.4 机器如何学习
    • 1.5 机器学习与统计学、计量经济学的关系
  • 第2章 R语言入门
    • 2.1 为何使用R语言
    • 2.2 R与RStudio的安装
    • 2.3 计算器与赋值
    • 2.4 向量
    • 2.5 缺失值与空值
    • 2.6 因子
    • 2.7 矩阵
    • 2.8 数组
    • 2.9 列表
    • 2.10 数据框
    • 2.11 描述性统计
    • 2.12 画图
    • 2.13 读写数据
    • 2.14 随机抽样
    • 2.15 条件语句
    • 2.16 循环语句
    • 2.17 函数
    • 2.18 工作空间管理
    • 2.19 帮助
    • 2.20 R语言的更新
    • 2.21 进一步学习R的资源
    • 习题
  • 第3章 数学回顾
    • 3.1 微积分
    • 3.2 最优化
    • 3.3 线性代数
    • 3.4 概率统计
    • 习题
  • 第4章 线性回归
    • 4.1 监督学习的回归问题
    • 4.2 最优预测
    • 4.3 线性回归模型
    • 4.4 最小二乘法
    • 4.5 OLS的正交性与几何解释
    • 4.6 施密特正交化与QR分解
    • 4.7 拟合优度
    • 4.8 过拟合与泛化能力
    • 4.9 偏差与方差的权衡
    • 4.10 模型评估的再抽样方法
    • 4.11 线性回归的R案例
    • 习题
  • 第5章 逻辑回归
    • 5.1 逻辑回归概述
    • 5.2 最大似然估计
    • 5.3 Logit模型的解释
    • 5.4 非线性模型的拟合优度
    • 5.5 Logit模型的预测
    • 5.6 二分类模型的评估
    • 5.7 ROC与AUC
    • 5.8 科恩的kappa
    • 5.9 逻辑回归的R案例
    • 习题
  • 第6章 多项逻辑回归
    • 6.1 多项逻辑回归概述
    • 6.2 最大似然估计
    • 6.3 多项逻辑回归的解释
    • 6.4 多项逻辑回归的R案例
    • 习题
  • 第7章 判别分析
    • 7.1 贝叶斯决策理论
    • 7.2 线性判别分析
    • 7.3 二次判别分析
    • 7.4 费雪线性判别分析
    • 7.5 费雪线性判别与基于正态的线性判别之关系
    • 7.6 多分类问题的费雪判别分析
    • 7.7 判别分析的R案例
    • 附录
    • 习题
  • 第8章 朴素贝叶斯
    • 8.1 朴素贝叶斯假定
    • 8.2 拉普拉斯修正
    • 8.3 朴素贝叶斯的R案例
    • 习题
  • 第9章 惩罚回归
    • 9.1 高维回归的挑战
    • 9.2 岭回归
    • 9.3 岭回归的计算
    • 9.4 岭回归的几何解释
    • 9.5 套索估计量
    • 9.6 套索估计量的计算
    • 9.7 调节变量的选择
    • 9.8 弹性网估计量
    • 9.9 惩罚回归的R案例
    • 附录
    • 习题
  • 第10章 K近邻法
    • 10.1 回归问题的K近邻法
    • 10.2 如何选择K
    • 10.3 分类问题的K近邻法
    • 10.4 K近邻法的优缺点
    • 10.5 K近邻法的R案例
    • 习题
  • 第11章 决策树
    • 11.1 分类树的启发案例
    • 11.2 二叉树的数学本质
    • 11.3 分类树的分裂准则
    • 11.4 信息理论
    • 11.5 成本复杂性修枝
    • 11.6 回归树
    • 11.7 C5.0算法
    • 11.8 决策树的优缺点
    • 11.9 回归树的R案例
    • 11.10 分类树的R案例
    • 习题
  • 第12章 随机森林
    • 12.1 集成学习
    • 12.2 装袋法
    • 12.3 装袋法的原理
    • 12.4 袋外误差
    • 12.5 随机森林
    • 12.6 变量重要性
    • 12.7 偏依赖图
    • 12.8 回归问题的随机森林R案例
    • 12.9 分类问题的随机森林R案例
    • 习题
  • 第13章 提升法
    • 13.1 自适应提升法
    • 13.2 AdaBoost的统计解释
    • 13.3 回归问题的提升法
    • 13.4 回归问题的其他损失函数
    • 13.5 梯度提升法
    • 13.6 二分类问题的逻辑损失函数
    • 13.7 多分类问题的交叉熵损失函数
    • 13.8 随机梯度提升
    • 13.9 回归提升树的R案例
    • 13.10 二分类提升树的R案例
    • 13.11 多分类提升树的R案例
    • 13.12 XGBoost算法
    • 附录
    • 习题
  • 第14章 支持向量机
    • 14.1 分离超平面
    • 14.2 最大间隔分类器
    • 14.3 软间隔分类器
    • 14.4 软间隔分类器的统计解释
    • 14.5 支持向量机的含义
    • 14.6 多分类问题的支持向量机
    • 14.7 支持向量回归
    • 14.8 支持向量机的优缺点
    • 14.9 支持向量机的R案例:模拟数据
    • 14.10 支持向量机的二分类R案例
    • 14.11 支持向量机的多分类R案例
    • 14.12 支持向量回归的R案例
    • 习题
  • 第15章 人工神经网络
    • 15.1 人工神经网络的思想
    • 15.2 感知机
    • 15.3 神经网络的模型
    • 15.4 神经网络的激活函数
    • 15.5 通用函数近似器
    • 15.6 神经网络的损失函数
    • 15.7 神经网络的算法
    • 15.8 神经网络的小批量训练
    • 15.9 神经网络的正则化
    • 15.10 卷积神经网络
    • 15.11 回归问题的神经网络R案例
    • 15.12 二分类问题的神经网络R案例
    • 15.13 多分类问题的神经网络R案例
    • 习题
  • 第16章 主成分分析
    • 16.1 总体中的主成分分析
    • 16.2 方差分解
    • 16.3 样本中的主成分分析
    • 16.4 主成分分析的应用
    • 16.5 主成分分析的R案例
    • 16.6 主成分回归的R案例
    • 习题
  • 第17章 聚类分析
    • 17.1 K均值聚类的思想
    • 17.2 K均值聚类的算法
    • 17.3 如何选择K
    • 17.4 分层聚类
    • 17.5 基于相关系数的距离指标
    • 17.6 K均值聚类的R案例
    • 17.7 分层聚类的R案例
    • 习题
  • 第18章 数据科学的R语言
    • 18.1 何为数据科学
    • 18.2 管道算子
    • 18.3 输入数据
    • 18.4 数据清理
    • 18.5 数据变换
    • 18.6 高阶画图
    • 18.7 机器学习的统一接口
    • 习题
  • 参考文献

相关图书