商品详情
作者:冯志钢,湖北省广济县(今武穴市)人;自2009年起,先后在苏黎世大学、普渡大学、伊利诺伊大学厄巴纳_香槟分校、中南财经政法大学从事教学与研究工作;现任美国内布拉斯加大学奥马哈分校经济系终身教授。 主要研究领域涵盖宏观经济学、数量方法与人工智能、公共财政学、劳动经济学及卫生经济学,在相关领域积累了一定的研究经验。于2020年在bilibili网站创建;中南宏观频道,致力于通过新媒体平台普及经济学知识,深入浅出地讲解宏观经济学理论与前沿动态,构建学术研究与知识传播之间的桥梁。
译者:李小平,中南财经政法大学校长助理、科学研究部部长,入选中宣部文化名家暨;四个一批人才、国家;万人计划哲学社会科学领军人才、青年长江学者、湖北省;楚天名师、湖北省有突出贡献的中青年专家,新世纪优秀人才支持计划获得者,湖北省新世纪优秀人才支持计划获得者,第三批;全国高校黄大年式教师团队负责人,国家一流本科线下课程;国际商务负责人。 兼任第一届全国数字经济专业学位研究生教育指导委员会委员、中国宏观经济管理教育学会副会长、湖北省世界经济学会副会长、中国美国经济学会副秘书长、中国世界经济学会常务理事、武汉市政府咨询委员会委员、国家社科基金重大项目和一般项目通讯评审专家等。
目录
第一篇 机器学习基础
第1章 机器学习绪论1.1 通过 Sora 理解机器学习 1.1.1 流形分布定理与低维数据 1.1.2 Sora 的突破与局限 1.1.3 临界态与物理悖论:机器学习的新前沿 1.2 机器学习与宏观经济学中的均衡 1.2.1 经济模型 vs. 物理系统模型 1.2.2 推动机器学习与经济建模的几何方法 1.3 机器学习的要素、目标与评估 1.3.1 理解要素 1.3.2 目标:泛化 1.3.3 性能评估 1.4 机器学习三要素 1.4.1 模型 1.4.2 学习准则 1.4.3 优化算法 1.5 泛化与模型选择 1.5.1 泛化误差、过拟合与欠拟合 1.5.2 偏差ndash;方差权衡 1.5.3 评估泛化性能的技术 1.5.4 正则化技术 1.5.5 集成方法 1.5.6 模型可解释性与可说明性 1.6 简单实例:线性回归 1.6.1 参数学习 1.7 小结 习题
第2章 神经网络原理2.1 神经元 2.2 激活函数 2.2.1 神经元的线性变换 2.2.2 线性变换、Arrow_Debreu 资产模型与流形分布定理 2.2.3 非线性变换与激活函数 2.2.4 Sigmoid 2.2.5 Hard_Logistic amp; Hard_Tanh 2.2.6 ReLU 2.2.7 Swish 2.2.8 GELU 2.2.9 Maxout 2.2.10 如何选择激活函数 2.3 网络结构 2.4 前馈神经网络 2.4.1 通用近似定理 2.4.2 机器学习应用 2.4.3 参数学习 2.4.4 Dropout 2.5 反向传播算法 2.5.1 数学基础 2.5.2 计算示例 2.5.3 优化与改进 2.6 自动梯度计算 2.6.1 数值微分 2.6.2 符号微分 2.6.3 自动微分 2.7 小结 习题
第3章 PyTorch 实战3.1 PyTorch 简介 3.1.1 什么是 PyTorch 3.1.2 优势 3.1.3 安装指南 3.1.4 基础语法 3.2 张量操作 3.2.1 张量概念 3.2.2 常用操作 3.3 构建神经网络 3.3.1 网络结构 3.3.2 激活函数 3.3.3 损失函数 3.3.4 优化算法 3.4 训练数据准备 3.4.1 随机回归数据生成 3.4.2 Dataset 与 DataLoader 3.4.3 批处理与数据增强 3.5 模型训练 3.5.1 Autograd 自动微分 3.5.2 训练与优化流程 3.5.3 架构定义 3.5.4 初始化与设备选择 3.5.5 训练循环 3.5.6 进度监控 3.6 模型保存与加载 3.6.1 参数保存 3.6.2 预训练模型加载 3.6.3 动态宏观模型应用 3.7 超参数调优 3.7.1 超参数概念 3.7.2 调优技术 3.7.3 PyTorch 内置工具 3.8 回归模型完整示例 3.9 JIT 编译加速 3.10 小结 习题
第二篇 动态模型与深度学习
第4章 随机增长模型数值方法4.1 模型设定 4.1.1 社会计划者问题 4.1.2 求解思路 4.2 扰动法 4.3 投影法 4.3.1 有限元 4.3.2 切比雪夫谱方法 4.3.3 Smolyak 算法 4.3.4 与神经网络的联系 4.4 值函数迭代 4.5 方法性能比较 4.6 小结 习题
第5章 深度学习求解动态均衡5.1 消费ndash;储蓄问题 5.2 深度学习解法 5.2.1 生命周期回报 5.2.2 欧拉方程 5.2.3 贝尔曼方程 5.3 PyTorch 实现 5.4 深度学习方法优势 5.5 小结 习题
第6章 异质代理人模型6.1 含总量不确定性的 Heterogeneous_Agent 模型 6.1.1 经济环境 6.1.2 竞争均衡 6.2 计算挑战 6.2.1 分布作为状态变量 6.2.2 分布演化 6.3 机器学习算法 6.3.1 直方图近似 6.3.2 神经网络函数近似 6.3.3 值函数与策略函数迭代 6.4 小结 习题
第7章 强化学习与非最优经济体7.1 经济环境 7.1.1 家庭 7.1.2 政府 7.1.3 政府问题的递归表示 7.2 均衡计算 7.2.1 集合 Omega; 的刻画 7.2.2 机器学习求均衡 7.2.3 数值算法概述 7.3 小结 习题
参考文献
机器学习(MachineLearning,ML)是人工智能的一个重要分支,在它的帮助下,计算机能够自主从数据中学习、识别模式并进行预测,且无须明确编程。机器学习涉及开发能够从数据中学习并做出决策的算法,而不是遵循预先确定的规则的算法。_x000D__x000D_在早期,机器学习领域通常被称为工程中的模式识别(PatternRecognition,PR),主要专注于光学字符识别、语音识别和人脸识别等特定应用。这些对人类来说直观的任务,对计算机而言却极具挑战性。这是因为我们尚未完全理解这些任务背后的认知过程,从而难以通过手动编程让计算机执行这些任务。机器学习提供了一种解决方案,它设计算法让计算机可以从有标签的样本中学习,并将所学应用到新的、未见过的数据上。_x000D__x000D_为了阐述这个概念,让我们以手写数字识别为例。人类手写的多样性和独特性使得计算机难以准确识别数字。机器学习通过在大量有标签的手写数字数据集上训练模型来解决手写数字识别的问题。该过程涉及以下几个关键步骤。_x000D__x000D_●模型选择:为任务选择合适的模型架构。在手写数字识别中,神经网络是常用选择。神经网络由相互连接的人工神经元层组成,可以学习提取相关特征并根据输入数据进行预测。具体的神经网络模型架构选择,如选择卷积神经网络(ConvolutionalNeuralNetwork,CNN)等,取决于问题的复杂性和可用的计算资源。_x000D_●特征提取:所选模型(如CNN)会自动学习识别和提取手写数字图像中的相关特征,包括边缘、角度、形状等与每个数字相关的区别特征。模型通过对大量有标签样本进行训练来学习这些特征。_x000D_●从数据中学习:在训练阶段,模型通过调整内部参数来最小化其预测与实际标签之间的差异。这个优化过程基于对样例的训练,迭代更新模型的权重和偏差,目标是找到能够使模型准确识别数字的最佳参数集。_x000D_●泛化:模型完成训练后,可以应用于新的、未见过的手写数字样例。模型使用已学习的特征和模式对这些新样例进行预测。模型准确识别以前未见过数据中数字的能力被称为泛化,展示了模型挖掘数据中潜在模式和结构的能力。_x000D__x000D_这种基于数据学习的方法凸显了机器学习的力量和灵活性。它模仿了人类通过接触多样化例子来学习并改进方式。手写数字识别便是一个很好的机器学习应用实例。_x000D__x000D_1.1通过Sora理解机器学习_x000D__x000D_机器学习的应用范围已从手写数字识别等简单任务扩展到复杂领域。OpenAI于2024年年初推出的Sora是这一进展的典型代表。作为“世界模拟视频生成模型”,Sora展示了机器学习在处理复杂系统方面的巨大潜力。_x000D__x000D_与手写数字识别类似,Sora也经历了模型选择、特征提取、从数据中学习和泛化等关键步骤。然而,Sora面临的挑战更为复杂:它不仅需要识别静态模式,还需要理解和生成动态、连贯的视频内容。_x000D__x000D_Sora的核心能力在于根据文本描述生成高质量、长时间的视频,展示了机器学习在跨模态理解和生成方面的进步。这种能力要求远超过简单的分类任务,涉及复杂的时空关系和物理规律的模拟。_x000D__x000D_然而,Sora也面临着维持物理一致性和长期因果关系等方面的挑战,反映了当前机器学习模型在模拟复杂系统时的局限性。这些挑战为未来研究指明了方向,凸显了在更复杂任务中实现有效学习和泛化的重要性。_x000D__x000D_通过分析Sora,我们可以深入理解机器学习在处理高度复杂任务时的优势和局限性,为探索更先进的学习算法和模型架构提供宝贵信息。_x000D__x000D_1.1.1流形分布定理和低维数据_x000D__x000D_要理解Sora等复杂模型的工作原理,我们首先需要回顾机器学习的一个基本概念:流形分布定理。这个定理解释了为什么机器学习算法能够在看似高维的数据中发现模式。_x000D__x000D_流形分布定理指出,尽管自然数据集表面上具有高维性,但它们通常集中在其高维空间中的低维子空间(被称为流形)。这种低维结构源于自然法则的约束,限制了数据可能的变化范围。机器学习算法通过识别和利用这些低维结构,实现了高效的学习和泛化。_x000D__x000D_为了更好地理解这个概念,让我们考虑一个人脸图像的数据集。每张图像都可以被视为高维像素空间中的一个点。然而,只有这些点的一小部分组合才对应有效的人脸图像,因为人脸图像受到多方面因素的制约:_x000D__x000D_●解剖学决定的面部比例;_x000D_●发育过程造成的面部对称性;_x000D_●基因和环境因素决定的特定范围的皮肤纹理和颜色;_x000D_●肌肉排列造成的面部表情;_x000D_●衰老引起的可预见改变。_x000D__x000D_这些约束将人脸图像的流形限制在表示有效、逼真面孔的低维子空间中。理解和利用这种低维结构对于设计能够发现数据底层模式的机器学习算法至关重要。_x000D__x000D_1.1.2Sora的突破与局限性_x000D__x000D_Sora在视频生成领域展现了机器学习的强大潜力,但同时也暴露了一些根本的局限性。这些局限性主要体现在以下几个方面。_x000D__x000D_●物理定律的精确表述:Sora等基于神经网络的模型在表达精确的物理定律时面临独特的困难。虽然物理世界由精确的、可微的定律支配,但神经网络在学习和表达这些可微函数时存在固有的局限性。这种局限性主要源于以下几个因素。_x000D_●离散化和有限精度:神经网络在数字计算机上实现时使用离散的、有限精_x000D_度的数值来表示连续函数,这可能导致在表示高度非线性或快速变化的函数时产生误差。_x000D_●训练数据的局限性:如果训练数据不能充分覆盖函数的整个定义域,特别是极值点或快速变化的区域,则网络可能无法准确捕捉函数的全局行为。_x000D_●函数复杂性和网络架构:某些物理定律涉及高度复杂的数学关系。虽然理论上神经网络是通用逼近器,但在实践中,可能需要极其复杂的网络架构才能准确表示某些函数。_x000D_●导数和高阶导数的表示:许多物理定律涉及导数和高阶导数。虽然神经网络可以近似函数值,但准确表示其导数,特别是高阶导数,仍然具有挑战性。由于这些限制,Sora生成的视频可能在局部看起来合理,但在全局上违反物理规律。例如,物体可能会表现出违反重力或质量守恒定律的行为。在流体动力学模拟中,生成的液体流动可能违反质量守恒或在速度上出现不连续。同样,在天文学模拟中,生成的星系图像可能表现出天体之间引力相互作用的不一致性。- 新华一城书集 (微信公众号认证)
- 上海新华书店官方微信书店
- 扫描二维码,访问我们的微信店铺
- 随时随地的购物、客服咨询、查询订单和物流...