- 科目名称:数值分析
- 科目代码:2321
- 试卷满分:100 分
- 考试时间:180 分钟
- 答题方式:闭卷、笔试
- 考试用具:黑色笔作答,可携带无存储功能的计算器
《数值分析》,李庆扬等著,华中理工大学出版社
- 核心考点:
- 误差来源(模型误差、观测误差、截断误差、舍入误差)
- 误差与有效数字的换算关系(如根据有效数字位数计算误差限)
- 算法稳定性分析(通过具体例子判断算法是否稳定)
- 病态问题识别与条件数计算(矩阵条件数的定义及应用)
- 必须掌握:
- 拉格朗日插值多项式构造(n 次多项式的基函数形式)
- 插值余项公式及误差估计(拉格朗日余项的推导与应用)
- 牛顿插值多项式构造(差商表的建立与使用)
- 理解内容:
- 埃尔米特插值多项式的构造(满足导数条件的插值)
- 三次样条插值的基本概念(光滑性条件)
- 重点模块:
- 最佳一致逼近:
- 切比雪夫多项式性质(正交性、极值点分布)
- 零次 / 一次最佳一致逼近多项式求解(切比雪夫定理应用)
- 最佳平方逼近:
- 勒让德多项式正交性及展开式
- 法方程建立与最佳平方逼近多项式求解
- 曲线拟合:
- 最小二乘法原理(误差平方和最小化)
- 多项式拟合参数求解及误差估计
- 高频考点:
- 代数精度定义与验证(通过具体公式计算代数精度)
- 插值型求积公式构造(基于拉格朗日插值)
- 复化求积公式:
- 复化梯形公式及误差估计(h 与误差的关系)
- 复化辛普森公式及误差估计(偶阶精度特性)
- 高斯 - 勒让德求积公式:
- 节点与权系数的性质(最高代数精度)
- 典型公式(如 n=2 时的高斯公式)
- 关键技术:
- 列主元消去法步骤(避免主元过小的数值稳定性处理)
- 矩阵三角分解(LU 分解、Doolittle 分解)
- 平方根法(对称正定矩阵的 Cholesky 分解)
- 范数计算:
- 向量范数(L1、L2、L∞范数)
- 矩阵范数(诱导范数、Frobenius 范数)
- 条件数 cond (A) 计算及病态判断
- 方法与理论:
- 雅可比迭代法(分量形式与矩阵形式)
- 高斯 - 塞德尔迭代法(迭代顺序对收敛的影响)
- 收敛性分析:
- 谱半径判断收敛条件(ρ(B)<1)
- 迭代误差估计(递推关系)
- 核心方法:
- 二分法:
- 收敛性保证(区间缩半原理)
- 二分次数计算(满足精度 ε 的最少次数)
- 牛顿迭代法:
- 迭代格式构造(f (x) 与 f’(x) 的应用)
- 局部收敛性分析(导数条件)
- 收敛阶判断(二次收敛特性)
- 方法构造与分析:
- 欧拉法与后退欧拉法(显式 / 隐式格式)
- 改进欧拉公式(预测 - 校正方法)
- 龙格 - 库塔法:
- 二阶 R-K 法(如中点公式)
- 绝对稳定性概念(稳定域的图形表示)
- 线性多步法:
- 基于泰勒展开构造格式(如 Adams 方法)
- 局部截断误差计算
题型 |
题量 |
分值 |
考查重点 |
简答题 |
4-5 题 |
30 分 |
基本概念(如误差、代数精度) |
计算题 |
5-6 题 |
50 分 |
插值、积分、迭代法等算法应用 |
证明题 |
1-2 题 |
20 分 |
收敛性分析、余项推导 |
- 误差分析:结合具体算例(如数值积分)计算误差限,理解有效数字对精度的影响。
- 迭代法收敛性:通过矩阵特征值计算谱半径,判断雅可比 / 高斯 - 塞德尔迭代的收敛性。
- 非线性方程求解:对比二分法与牛顿法的收敛速度,掌握牛顿法在重根情况下的改进策略。
- 习题集推荐:
- 《数值分析习题集》(配套李庆扬教材)
- 各校博士真题(如清华大学、北京大学数值分析考研题)
- 刷题重点:
- 插值多项式构造(拉格朗日 / 牛顿)
- 高斯积分公式推导
- 线性方程组迭代法编程实现(MATLAB/Python)
- 简答题:每题 5-8 分钟,重点清晰分点作答。
- 计算题:每题 10-15 分钟,写出关键步骤(如三角分解过程)。
- 证明题:每题 15-20 分钟,注意逻辑链条完整(如收敛性证明的前提条件)。
A:笔试不直接考编程,但需理解算法原理(如迭代法的迭代步骤),建议通过编程实践加深理解。
A:重点掌握 L∞范数(行范数)和 L2 范数(谱范数),需能计算具体矩阵的条件数 cond∞(A) 和 cond2 (A)。
A:需理解三次样条的光滑条件(二阶导数连续),掌握三弯矩方程的建立思路,不要求记忆复杂公式。
注:本大纲根据
辽宁工程技术大学 2025 年最新考试要求整理,如有变动以学校研究生院官网(
http://yjsy.lntu.edu.cn/)通知为准。建议考生结合教材课后习题与历年真题强化训练,重点关注标注 “掌握” 的知识点。咨询方式:研招办电话 0418-5110021,邮箱 lngdyzb@lntu.edu.cn。