顶部
收藏

机器学习及Python应用


作者:
陈强
定价:
89.00元
ISBN:
978-7-04-055342-0
版面字数:
980.000千字
开本:
16开
全书页数:
暂无
装帧形式:
平装
重点项目:
暂无
出版时间:
2021-03-29
读者对象:
高等教育
一级分类:
经济
二级分类:
经济学
三级分类:
经济统计学

本书对机器学习的核心方法进行了深入而详细的介绍,并特别关注各学科最常用的算法。最大特色在于力图以生动的语言、较多的插图与大量的实例来直观地解释机器学习的原理。同时,结合主流的Python语言,及时地介绍相应的软件操作与经典案例,为读者提供“一站式”服务。本书还提供详尽的数学推导,尽量避免跳跃,并辅以直观的文字解释。对于看似复杂的机器学习原理,则删繁就简,娓娓道来,让读者渐入佳境。

本书适合普通高等学校理、工、农、医以及经济管理等社会科学类的高年级本科生与研究生使用。先修课包括微积分、线性代数与概率统计,但不要求有编程或Python语言经验。本书将从零开始,让读者快速体会到Python语言的美妙与威力。

  • 前辅文
  • 第1章 绪论
    • 1.1 什么是机器学习
    • 1.2 机器学习的分类
    • 1.3 机器学习的术语
    • 1.4 机器如何学习
    • 1.5 机器学习与统计学、计量经济学的关系
  • 第2章 Python入门
    • 2.1 为何使用Python
    • 2.2 Python与Spyder的安装
    • 2.3 计算器与赋值
    • 2.4 模块
    • 2.5 字符串
    • 2.6 布尔型
    • 2.7 列表
    • 2.8 元组
    • 2.9 字典
    • 2.10 集合
    • 2.11 数组
    • 2.12 数据框
    • 2.13 缺失值
    • 2.14 描述性统计
    • 2.15 使用Matplotlit画图
    • 2.16 使用pandas与seaborn画图
    • 2.17 读写数据
    • 2.18 随机抽样
    • 2.19 条件语句
    • 2.20 循环语句
    • 2.21 函数
    • 2.22 类
    • 2.23 进一步学习Python的资源
    • 习题
  • 第3章 数学回顾
    • 3.1 微积分
    • 3.2 最优化
    • 3.3 线性代数
    • 3.4 概率统计
    • 习题
  • 第4章 线性回归
    • 4.1 监督学习的回归问题
    • 4.2 最优预测
    • 4.3 线性回归模型
    • 4.4 最小二乘法
    • 4.5 OLS的正交性与几何解释
    • 4.6 施密特正交化与QR分解
    • 4.7 拟合优度
    • 4.8 过拟合与泛化能力
    • 4.9 偏差与方差的权衡
    • 4.10 模型评估的再抽样方法
    • 4.11 线性回归的Python案例
    • 习题
  • 第5章 逻辑回归
    • 5.1 逻辑回归
    • 5.2 最大似然估计
    • 5.3 Logit模型的解释
    • 5.4 非线性模型的拟合优度
    • 5.5 Logit模型的预测
    • 5.6 二分类模型的评估
    • 5.7 ROC与AUC
    • 5.8 科恩的kappa
    • 5.9 逻辑回归的Python案例
    • 习题
  • 第6章 多项逻辑回归
    • 6.1 多项逻辑回归
    • 6.2 最大似然估计
    • 6.3 多项逻辑回归的解释
    • 6.4 多项逻辑回归的Python案例
    • 习题
  • 第7章 判别分析
    • 7.1 贝叶斯决策理论
    • 7.2 线性判别分析
    • 7.3 二次判别分析
    • 7.4 费雪线性判别分析
    • 7.5 费雪线性判别与基于正态的线性判别之关系
    • 7.6 多分类问题的费雪判别分析
    • 7.7 判别分析的Python案例
    • 附录
      • A7.1 总体中的多分类费雪判别分析
      • A7.2 样本中的多分类费雪判别分析
      • A7.3 线性判元对于组间方差的贡献率
    • 习题
  • 第8章 朴素贝叶斯
    • 8.1 朴素贝叶斯
    • 8.2 拉普拉斯修正
    • 8.3 朴素贝叶斯的Python案例
    • 习题
  • 第9章 惩罚回归
    • 9.1 高维回归的挑战
    • 9.2 岭回归
    • 9.3 岭回归的计算
    • 9.4 岭回归的几何解释
    • 9.5 套索估计量
    • 9.6 套索估计量的计算
    • 9.7 调节变量的选择
    • 9.8 弹性网估计量
    • 9.9 惩罚回归的Python案例
    • 附录
      • A9.1 估计量均方误差的分解
      • A9.2 次梯度向量与次微分
      • A9.3 连续凸函数的最小化定理
      • A9.4 标准正交设计下Lasso问题的解析解
    • 习题
  • 第10章 K近邻法
    • 10.1 回归问题的K近邻法
    • 10.2 如何选择K
    • 10.3 分类问题的K近邻法
    • 10.4 K近邻法的优缺点
    • 10.5 K近邻法的Python案例
    • 习题
  • 第11章 决策树
    • 11.1 分类树的启发案例
    • 11.2 二叉树的数学本质
    • 11.3 分类树的分裂准则
    • 11.4 信息理论
    • 11.5 成本复杂性修枝
    • 11.6 回归树
    • 11.7 变量重要性
    • 11.8 C5.0算法
    • 11.9 决策树的优缺点
    • 11.10 回归树的Python案例
    • 11.11 分类树的Python案例
    • 习题
  • 第12章 随机森林
    • 12.1 集成学习
    • 12.2 装袋法
    • 12.3 装袋法的原理
    • 12.4 袋外误差
    • 12.5 随机森林
    • 12.6 变量重要性
    • 12.7 偏依赖图
    • 12.8 回归问题的随机森林Python案例
    • 12.9 分类问题的随机森林Python案例
    • 习题
  • 第13章 提升法
    • 13.1 自适应提升法
    • 13.2 AdaBoost的统计解释
    • 13.3 回归问题的提升法
    • 13.4 回归问题的其他损失函数
    • 13.5 梯度提升法
    • 13.6 二分类问题的逻辑损失函数
    • 13.7 多分类问题的交叉熵损失函数
    • 13.8 随机梯度提升
    • 13.9 回归提升树的Python案例
    • 13.10 二分类提升树的Python案例
    • 13.11 多分类提升树的Python案例
    • 13.12 XGBoost算法
    • 附录
      • A13.1 交叉熵损失函数
    • 习题
  • 第14章 支持向量机
    • 14.1 分离超平面
    • 14.2 最大间隔分类器
    • 14.3 软间隔分类器
    • 14.4 软间隔分类器的统计解释
    • 14.5 支持向量机
    • 14.6 多分类问题的支持向量机
    • 14.7 支持向量回归
    • 14.8 支持向量机的优缺点
    • 14.9 支持向量机的Python案例:模拟数据
    • 14.10 支持向量机的二分类Python案例
    • 14.11 支持向量机的多分类Python案例
    • 14.12 支持向量回归的Python案例
    • 习题
  • 第15章 人工神经网络
    • 15.1 人工神经网络的思想
    • 15.2 感知机
    • 15.3 神经网络的模型
    • 15.4 神经网络的激活函数
    • 15.5 通用函数近似器
    • 15.6 神经网络的损失函数
    • 15.7 神经网络的算法
    • 15.8 神经网络的小批量训练
    • 15.9 神经网络的正则化
    • 15.10 卷积神经网络
    • 15.11 使用sklearn估计回归问题的神经网络
    • 15.12 使用sklearn估计分类问题的神经网络
    • 15.13 使用Keras估计回归问题的神经网络
    • 15.14 使用Keras估计二分类问题的神经网络
    • 15.15 使用Keras估计多分类问题的神经网络
    • 15.16 使用Keras估计卷积神经网络
    • 习题
  • 第16章 主成分分析
    • 16.1 总体中的主成分分析
    • 16.2 方差分解
    • 16.3 样本中的主成分分析
    • 16.4 主成分分析的应用
    • 16.5 主成分分析的Python案例
    • 16.6 主成分回归的Python案例
    • 习题
  • 第17章 聚类分析
    • 17.1 K均值聚类的思想
    • 17.2 K均值聚类的算法
    • 17.3 如何选择K
    • 17.4 分层聚类
    • 17.5 基于相关系数的距离指标
    • 17.6 K均值聚类的Python案例
    • 17.7 分层聚类的Python案例
    • 习题
  • 第18章 数据科学的Python语言
    • 18.1 何为数据科学
    • 18.2 读写文件
    • 18.3 输入数据
    • 18.4 缺失值
    • 18.5 重复观测值
    • 18.6 合并数据
    • 18.7 Sci-Kit Learn的管线类
    • 18.8 结束语
    • 习题
  • 参考文献

相关图书