顶部
收藏

机器学习与深度学习理论及应用


作者:
王兴梅
定价:
38.00元
ISBN:
978-7-04-061171-7
版面字数:
430.000千字
开本:
16开
全书页数:
暂无
装帧形式:
平装
重点项目:
暂无
出版时间:
2024-05-13
读者对象:
高等教育
一级分类:
计算机/教育技术类
二级分类:
计算机类专业核心课程
三级分类:
人工智能

机器学习和深度学习是人工智能领域开展科学研究的核心前沿理论,本书以“理论算法”为基础核心,以“实践案例”为创新驱动,以“思政元素”为育人之魂,在了解机器学习和深度学习发展前沿的基础上,掌握基本核心知识,深刻理解应用案例,加深实践开发要素理解,夯实人工智能领域核心理论算法。

全书共12章内容。第1章“绪论”,第2章“线性模型”,第3章“决策树”,第4章“贝叶斯分类器”,第5章“支持向量机”,第6章“聚类”,第7章“神经网络”,第8章“卷积神经网络”,第9章“循环神经网络”,第10章“生成对抗网络”,第11章“孪生神经网络”,第12章“图神经网络”。

本书内容翔实、逻辑严谨、易于学习,是作者结合多年教学科研经验,精心撰写的一本机器学习与深度学习的教科书,适合作为计算机类、自动化类、电子信息类相关专业高年级本科生和研究生的“机器学习与深度学习”课程教材,也适合作为人工智能等相关领域科研人员的参考书籍。

  • 前辅文
  • 第1章 绪论
    • 1.1 人工智能
      • 1.1.1 人工智能的发展历程
      • 1.1.2 人工智能的三大研究学派
    • 1.2 机器学习
      • 1.2.1 机器学习的发展历程与研究现状
      • 1.2.2 机器学习算法的分类
    • 1.3 深度学习
    • 1.4 评估理论
      • 1.4.1 划分数据集
      • 1.4.2 交叉验证
    • 1.5 本书知识结构图
    • 1.6 本章小结
    • 习题
  • 第2章 线性模型
    • 2.1 线性模型的基本形式
    • 2.2 线性回归模型
      • 2.2.1 一元线性回归
      • 2.2.2 多元线性回归
      • 2.2.3 对数线性回归
      • 2.2.4 逻辑回归
    • 2.3 损失函数
      • 2.3.1 均方差损失函数
      • 2.3.2 平均绝对误差损失函数
      • 2.3.3 平滑平均绝对误差损失函数
      • 2.3.4 交叉熵损失函数
    • 2.4 线性模型应用案例
      • 2.4.1 问题描述
      • 2.4.2 问题分析
      • 2.4.3 代码实现
      • 2.4.4 结果分析
    • 2.5 本章小结
    • 习题
  • 第3章 决策树
    • 3.1 决策树模型与学习
      • 3.1.1 决策树模型
      • 3.1.2 if-then规则
      • 3.1.3 决策树学习
    • 3.2 特征选择
      • 3.2.1 信息增益
      • 3.2.2 增益率
      • 3.2.3 基尼指数
    • 3.3 剪枝处理
      • 3.3.1 预剪枝
      • 3.3.2 后剪枝
    • 3.4 连续值与缺失值处理
      • 3.4.1 连续值处理
      • 3.4.2 缺失值处理
    • 3.5 多变量决策树
    • 3.6 决策树应用案例
      • 3.6.1 问题描述
      • 3.6.2 问题分析
      • 3.6.3 代码实现
      • 3.6.4 结果分析
    • 3.7 本章小结
    • 习题
  • 第4章 贝叶斯分类器
    • 4.1 贝叶斯方法
      • 4.1.1 贝叶斯定理
      • 4.1.2 极大后验假设
      • 4.1.3 贝叶斯最优分类器
      • 4.1.4 参数估计
    • 4.2 朴素贝叶斯分类器
    • 4.3 半朴素贝叶斯分类器
    • 4.4 贝叶斯网络
      • 4.4.1 贝叶斯网络的表示
      • 4.4.2 学习
      • 4.4.3 推断
    • 4.5 最大期望算法
      • 4.5.1 最大期望算法原理
      • 4.5.2 最大期望算法收敛性分析
    • 4.6 朴素贝叶斯分类器应用案例
      • 4.6.1 问题描述
      • 4.6.2 问题分析
      • 4.6.3 代码实现
      • 4.6.4 结果分析
    • 4.7 本章小结
    • 习题
  • 第5章 支持向量机
    • 5.1 支持向量机简介
    • 5.2 支持向量机的形式化描述
    • 5.3 支持向量机的数学描述
    • 5.4 支持向量机的求解
      • 5.4.1 拉格朗日乘子法
      • 5.4.2 对偶问题
    • 5.5 核函数
    • 5.6 软间隔
    • 5.7 支持向量回归
    • 5.8 支持向量机应用案例
      • 5.8.1 问题描述
      • 5.8.2 问题分析
      • 5.8.3 代码实现
      • 5.8.4 结果分析
    • 5.9 本章小结
    • 习题
  • 第6章 聚类
    • 6.1 聚类简介
    • 6.2 划分聚类
      • 6.2.1 K-means算法原理
      • 6.2.2 K-means算法流程
      • 6.2.3 K-means算法分析
    • 6.3 密度聚类
      • 6.3.1 DBSCAN算法原理
      • 6.3.2 DBSCAN算法流程
      • 6.3.3 DBSCAN算法分析
    • 6.4 层次聚类
      • 6.4.1 AGNES算法原理
      • 6.4.2 AGNES算法流程
      • 6.4.3 AGNES算法分析
    • 6.5 聚类应用案例
      • 6.5.1 问题描述
      • 6.5.2 问题分析
      • 6.5.3 代码实现
      • 6.5.4 结果分析
    • 6.6 本章小结
    • 习题
  • 第7章 神经网络
    • 7.1 神经网络简介
      • 7.1.1 神经网络的概念
      • 7.1.2 神经网络的功能
      • 7.1.3 神经网络的发展
      • 7.1.4 神经网络的应用
    • 7.2 M-P模型
      • 7.2.1 M-P模型概念
      • 7.2.2 标准M-P模型
      • 7.2.3 延时M-P模型
      • 7.2.4 改进的M-P模型
    • 7.3 感知器神经网络
      • 7.3.1 单层感知器
      • 7.3.2 多层感知器
    • 7.4 BP神经网络
      • 7.4.1 BP神经网络模型
      • 7.4.2 激活函数
      • 7.4.3 BP神经网络学习算法
      • 7.4.4 BP神经网络的相关问题与改进
    • 7.5 RBF神经网络
      • 7.5.1 RBF神经网络模型
      • 7.5.2 RBF神经网络学习算法
      • 7.5.3 RBF神经网络与BP神经网络比较
    • 7.6 BP神经网络应用案例
      • 7.6.1 问题描述
      • 7.6.2 问题分析
      • 7.6.3 代码实现
      • 7.6.4 结果分析
    • 7.7 本章小结
    • 习题
  • 第8章 卷积神经网络
    • 8.1 卷积神经网络简介
      • 8.1.1 卷积神经网络的概念
      • 8.1.2 卷积神经网络的发展
      • 8.1.3 卷积神经网络的基本结构
      • 8.1.4 卷积神经网络学习算法
    • 8.2 卷积神经网络基本部件
      • 8.2.1 “端到端”思想
      • 8.2.2 卷积层
      • 8.2.3 池化层
      • 8.2.4 激活函数
      • 8.2.5 全连接层
      • 8.2.6 损失函数
    • 8.3 卷积神经网络经典模型
      • 8.3.1 AlexNet模型
      • 8.3.2 VGGNet模型
      • 8.3.3 Network-In-Network模型
      • 8.3.4 ResNet模型
    • 8.4 卷积神经网络应用案例
      • 8.4.1 问题描述
      • 8.4.2 问题分析
      • 8.4.3 代码实现
      • 8.4.4 结果分析
    • 8.5 本章小结
    • 习题
  • 第9章 循环神经网络
    • 9.1 循环神经网络简介
      • 9.1.1 循环神经网络的概念
      • 9.1.2 循环神经网络的发展
      • 9.1.3 循环神经网络的应用
    • 9.2 循环神经网络结构
      • 9.2.1 循环神经网络的基本结构
      • 9.2.2 循环神经网络的算法
      • 9.2.3 循环神经网络的变体
    • 9.3 长短期记忆网络及其变体
      • 9.3.1 长期依赖性挑战
      • 9.3.2 长短期记忆网络
      • 9.3.3 长短期记忆网络的变体
    • 9.4 深度循环神经网络
      • 9.4.1 深度循环神经网络的基本结构
      • 9.4.2 深度循环神经网络的其他形式
    • 9.5 循环神经网络应用案例
      • 9.5.1 问题描述
      • 9.5.2 问题分析
      • 9.5.3 代码实现
      • 9.5.4 结果分析
    • 9.6 本章小结
    • 习题
  • 第10章 生成对抗网络
    • 10.1 生成对抗网络简介
      • 10.1.1 生成对抗网络的概念
      • 10.1.2 生成对抗网络的原理
      • 10.1.3 生成对抗网络的训练
      • 10.1.4 生成对抗网络的发展
      • 10.1.5 生成对抗网络的应用
    • 10.2 WGAN模型及其改进
      • 10.2.1 WGAN模型
      • 10.2.2 WGAN-GP模型
    • 10.3 文本转换图像的GAN模型
      • 10.3.1 GAWWN模型
      • 10.3.2 StackGAN模型
    • 10.4 图像转换的GAN模型
      • 10.4.1 iGAN模型
      • 10.4.2 Pix2Pix模型
      • 10.4.3 CycleGAN模型
      • 10.4.4 StarGAN模型
    • 10.5 生成对抗网络应用案例
      • 10.5.1 问题描述
      • 10.5.2 问题分析
      • 10.5.3 代码实现
      • 10.5.4 结果分析
    • 10.6 本章小结
    • 习题
  • 第11章 孪生神经网络
    • 11.1 孪生神经网络简介
      • 11.1.1 孪生神经网络的概念
      • 11.1.2 孪生神经网络的发展
      • 11.1.3 孪生神经网络的应用
    • 11.2 孪生神经网络的结构
      • 11.2.1 孪生网络
      • 11.2.2 伪孪生网络
      • 11.2.3 多重孪生网络
    • 11.3 目标跟踪中的孪生网络
      • 11.3.1 全卷积孪生网络
      • 11.3.2 注意力孪生网络
      • 11.3.3 孪生区域生成网络
    • 11.4 语义相似计算中的孪生网络
      • 11.4.1 Siamese LSTM模型
      • 11.4.2 Sentence-BERT模型
    • 11.5 孪生神经网络应用案例
      • 11.5.1 问题描述
      • 11.5.2 问题分析
      • 11.5.3 代码实现
      • 11.5.4 结果分析
    • 11.6 本章小结
    • 习题
  • 第12章 图神经网络
    • 12.1 图神经网络简介
      • 12.1.1 图特征学习的概念
      • 12.1.2 图神经网络的发展
    • 12.2 图论基础
      • 12.2.1 图的空间域表示
      • 12.2.2 谱图理论
      • 12.2.3 图信号处理
      • 12.2.4 图计算任务
    • 12.3 图嵌入
      • 12.3.1 简单图嵌入的深度游走算法
      • 12.3.2 复杂图嵌入的多维图模式
    • 12.4 图神经网络的结构
      • 12.4.1 图神经网络框架
      • 12.4.2 图过滤层
      • 12.4.3 图池化层
      • 12.4.4 图神经网络的参数学习
    • 12.5 图神经网络应用案例
      • 12.5.1 问题描述
      • 12.5.2 问题分析
      • 12.5.3 代码实现
      • 12.5.4 结果分析
    • 12.6 本章小结
    • 习题
  • 参考文献

相关图书