2026/2/19 10:21:36
网站建设
项目流程
阿里 网站建设方案书 模板,做行程的网站,有经验的赣州网站建设,电子商务网站建设规划说明书立个flag#xff0c;这是未来一段时间打算做的Python教程#xff0c;敬请关注。1 数据及应用领域我的程序中给出数据data.xlsx#xff08;代码及数据见文末#xff09;#xff0c;10 列特征值#xff0c;1 个目标值#xff0c;适用于各行各业回归预测算法的需求#xf…立个flag这是未来一段时间打算做的Python教程敬请关注。1 数据及应用领域我的程序中给出数据data.xlsx代码及数据见文末10 列特征值1 个目标值适用于各行各业回归预测算法的需求其中出图及数据自动保存在当前目录设置的训练集与预测集的比例为 80%20%。一、地球科学与环境科学遥感反演利用多源遥感数据预测水体深度、土壤湿度、植被指数、叶面积指数等。气象与气候研究预测降水量、气温、风速、风向等连续气象变量。水文与水资源管理河流流量、地下水位、径流量预测。环境污染监测空气质量指数、PM2.5/PM10浓度、重金属污染水平预测。地质与矿业预测矿区地表沉降、地裂缝发展趋势或矿产储量评估。二、生物学与医学生态学预测物种分布密度、群落生物量或生态环境因子变化。公共卫生基于环境、生活方式或基因组数据预测疾病风险或血液生化指标。医学影像分析预测器官或病灶体积、组织属性、功能指标。三、工程与物理科学材料科学预测材料性能如强度、硬度、导热性、弹性模量土木与结构工程预测建筑物或桥梁的应力、位移、寿命周期。控制系统与信号处理连续控制变量预测、信号功率或系统状态预测。四、经济与社会科学经济预测股价、GDP、通货膨胀率、消费指数预测。市场分析销售额、客户需求、产品价格预测。社会行为人口增长、流动性、社会指标预测。五、数据科学与机器学习方向时间序列预测股票价格、气象指标、传感器数据。多变量因果建模分析各特征对连续目标变量的影响。特征重要性解释结合SHAP、LIME等方法揭示变量贡献。2 算法理论基础在传统回归模型中我们往往需要提前假设数据的函数形式如线性、多项式或树状结构。而 KR 回归Kernel Regression核回归提供了一种完全不同的思路不去假设模型长什么样而是直接根据邻近样本的分布来计算预测值。它是一种非常灵活的非参数方法尤其适合数据关系平滑、但难以用显式函数表达的任务。 一、KR 回归是什么Kernel Regression 的核心思想是预测一个点的值时让附近的样本以“加权平均”的方式贡献信息距离越近权重越大距离越远影响越弱。它不像线性模型需要拟合参数也不像树模型需要分裂特征而是完全基于样本空间的局部结构进行预测。 二、核函数决定“邻居的重要性”KR 回归的关键在于核函数Kernel。核函数告诉模型哪些样本算“近邻”距离越远权重下降速度如何局部区域的平滑程度常见核函数包括高斯核Epanechnikov 核均匀核不同核函数决定了模型拟合的形状和敏感度。 三、带宽Bandwidth决定模型的“平滑程度”在 KR 回归中带宽 h 是最关键的超参数。通俗理解带宽小 → 拟合更敏感、局部性更强、容易抖动带宽大 → 拟合更平滑、泛化能力更强但可能欠拟合带宽决定了核函数的“作用范围”也是 KR 回归最需要仔细选择的部分。 四、KR 回归的优势灵活、直观、无假设KR 回归具有典型的非参数方法特点不需假设数据分布能捕捉复杂非线性关系对局部特征高度敏感预测方式直观即看周围邻居的加权值在数据密集区域表现尤其好当你不知道数据的具体函数形式时KR 是一种非常自然的选择。 五、KR 回归适用场景KR 回归适用于非线性强但关系平滑的任务数据量中等且分布较均匀的场景不希望提前设定模型结构的分析需要局部加权拟合的需求作为 baseline 验证模型趋势在数据科学探索阶段KR 常被用于观察局部模式或作为对比模型。3 其他图示 一、特征值相关性热图特征值相关性热图用于展示各特征之间的相关强弱通过颜色深浅体现正负相关关系帮助快速识别冗余特征、强相关特征及可能影响模型稳定性的变量为后续特征选择和建模提供参考。 二、散点密度图散点密度图通过颜色或亮度反映点的聚集程度用于展示大量样本的分布特征。相比普通散点图它能更直观地呈现高密度区域、异常点及整体趋势常用于回归分析与模型评估。以下为训练集和测试集出图效果。 三、贝叶斯搜索参数优化算法及示意图 1. 先构建一个“参数-效果”的概率模型贝叶斯优化会根据每一次调参的表现持续更新一份“这个参数组合大概率能获得更好效果”的认知。这份认知由一个代理模型承担通常是高斯过程或树结构模型。它不像网格搜索那样盲目而是先学、再试。 2. 通过“探索”与“利用”平衡选点贝叶斯优化每次选新的参数时都会权衡探索去试试没探索过的区域可能藏着宝贝利用去当前最可能效果最好的区域稳扎稳打 这种带策略的试验方式让调参过程既高效又不容易错过最优解。 3. 不断用真实结果修正判断每试一个参数组合代理模型就会重新更新“信念”并重新预测哪些区域值得继续尝试。调参越往后模型越“聪明”搜索路径越精确。这就像一个不断学习经验的调参工程师越调越准。 4. 收敛快适用于高成本模型因为每一次试验都很有价值贝叶斯优化通常只需几十次实验就能找到非常优秀的超参数组合。这对训练成本高的模型XGBoost、LightGBM、CatBoost、深度学习尤其友好。 5. 程序能画非常直观的可视化该图展示贝叶斯优化过程中各超参数的重要性对模型误差影响最大的为 n_estimators 和 learning_rate其次为 max_depth而 subsample 与 reg_lambda 贡献较小用于判断调参优先级。 四、随机搜索参数优化算法及示意图 1、随机搜索是什么一句话概括随机搜索就是在超参数空间里不断“抽样试验”从而找到表现最好的参数组合。不同于按顺序走格子的调参方式随机搜索会在整个参数空间中“自由跳跃”每次从可能区域里随机挑选出一个参数组合用最直接的方式评估模型的表现。 2、它的核心思路其实很聪明虽然名字叫“随机”但它背后的逻辑却非常高效。✔ 1. 更广的覆盖范围每次抽取的点都可能落在搜索空间的不同区域让模型在有限的预算里探索更多潜在好参数。✔ 2. 支持多种采样策略你可以让 learning_rate 以对数分布抽取、让 n_estimators 偏向更大值这让随机搜索能更贴近真实优化需求。✔ 3. 每一次试验都独立有效不依赖复杂的历史记录适用于快速尝试、快速验证的场景。换句话说它简单但“简单得很有效”。 3、为什么它在实际调参中被广泛使用在许多模型中超参数空间往往非常大比如XGBoost 的树深、学习率、子采样比例神经网络的学习率、层数、节点数CatBoost、LightGBM 的几十种可调参数随机搜索能在这些复杂空间里迅速落点—— 不需要把所有组合都跑一遍也不需要构建额外的代理模型只需要不断抽样并测试结果。尤其在遥感反演、深度学习任务中这种轻量但高覆盖的方式往往能快速找到一个令人满意的初步最优解。 4、它适合什么场景简单总结几个典型应用模型初调快速找到可行参数范围大搜索空间超参数众多、组合巨大时训练成本高希望用少量试验找到较好解模型表现敏感需要探索更大范围避免局部最优这也是为什么随机搜索常被当作调参的起步策略先探索再进一步细化。 5. 程序能画非常直观的可视化该图为超参数的成对散点矩阵图展示不同超参数之间的分布特征与潜在关系对角线上为各参数的概率密度分布可用于分析参数空间结构与抽样多样性。该图展示超参数与模型误差的相关性重要性排名不同柱状高度反映各参数对 RMSE 的影响强弱其中 reg_alpha、max_depth 和 learning_rate 贡献最高有助于确定调参重点方向。 五、网格搜索参数优化算法及示意图 1、网格搜索是什么一句话概括网格搜索就是把所有设定好的超参数组合排成一个“网格”逐个尝试通过评估结果找到表现最佳的那一组参数。就像在一个二维或多维坐标空间里把所有候选参数都排列出来然后把每个点都跑一遍最终选出模型表现最优的位置。 2、它的核心原则全面、稳定、逐点验证网格搜索的理念非常直观先定义每个参数可能的取值范围再把这些取值组合成一个完整网格然后对每个组合进行模型训练与验证最后选择最优结果对应的参数这是一种系统化、无遗漏的搜索方式。它不会遗漏也不会偏向它用最直接的方式告诉你 哪个参数组合最适合你的模型。 3、为什么网格搜索常被用作调参基础流程网格搜索的价值主要体现在几个方面✔ 1. 结构清晰、可控性强你可以完全决定参数候选集调参过程完全透明。✔ 2. 适用于小范围、精细化的参数探索特别适合探索学习率、树深、正则项等关键参数的小步长变化。✔ 3. 方便结合交叉验证与 Cross-Validation 结合后能够获得稳定、可靠的参数评估结果。✔ 4. 结果可复现、可追踪每个组合都被尝试过调参过程完整记录适合科研工作。 4、典型应用场景网格搜索广泛应用于XGBoost / LightGBM / CatBoost的关键参数精调SVM、随机森林、岭回归等模型的标准调参小规模搜索空间的系统验证科研论文中要求严谨、可复现的实验设计在你的任务里网格搜索非常适合用于关键参数的局部精调确保模型在最佳点附近充分探索。 5. 程序能画非常直观的可视化该图展示 GridSearchCV 调参过程中各超参数与 RMSE 的相关性重要性其中 learning_rate、reg_alpha 和 n_estimators 影响最明显可用于识别关键参数并指导后续调参方向。5 代码包含具体内容一览并将训练集和测试集的精度评估指标保存到 metrics. Mat 矩阵中。共两行第一行代表训练集的第二行代表测试集的共 7 个精度评估指标分别代表 R, R2, ME, MAE, MAPE, RMSE 以及样本数量。保存的regression_result.mat数据中分别保存了名字为Y_train、y_pred_train、y_test、y_pred_test的矩阵向量。同样的针对大家各自的数据训练出的模型结构也保存在model.json中方便再一次调用。调用的程序我在程序中注释了如下# 加载模型 # model.load_model(model.json)主程序如下其中从1-10每一步都有详细的注释要获取完整程序请转下文代码获取# # 主程序 # def main(): print( 1. 读取数据 ) data pd.read_excel(data.xlsx) X data.iloc[:, :10].values y data.iloc[:, 10].values feature_names list(data.columns[:10]) print( 2. 划分训练与测试 ) X_train, X_test, y_train, y_test train_test_split( X, y, test_size0.2, random_state42 ) print( 3. 归一化 ) scaler_X MinMaxScaler() scaler_y MinMaxScaler() X_train_norm scaler_X.fit_transform(X_train) X_test_norm scaler_X.transform(X_test) y_train_norm scaler_y.fit_transform(y_train.reshape(-1, 1)).ravel() print( 4. 模型训练 ) model train_model(X_train_norm, y_train_norm) print( 5. 预测反归一化到原始尺度 ) y_pred_train_norm model.predict(X_train_norm) y_pred_test_norm model.predict(X_test_norm) y_pred_train scaler_y.inverse_transform( y_pred_train_norm.reshape(-1, 1) ).ravel() y_pred_test scaler_y.inverse_transform( y_pred_test_norm.reshape(-1, 1) ).ravel() print( 6. 模型评估 ) metrics_train evaluate_model(y_train, y_pred_train) metrics_test evaluate_model(y_test, y_pred_test) print(\n训练集评估指标:) for k, v in metrics_train.items(): print(f {k}: {v:.4f} if isinstance(v, float) else f {k}: {v}) print(\n测试集评估指标:) for k, v in metrics_test.items(): print(f {k}: {v:.4f} if isinstance(v, float) else f {k}: {v}) print( 7. 保存结果到 MAT 文件 ) result_dict { y_train: y_train.astype(float), y_pred_train: y_pred_train.astype(float), y_test: y_test.astype(float), y_pred_test: y_pred_test.astype(float), } savemat(regression_result.mat, result_dict) print(已保存 regression_result.mat) # 按指标顺序排列 metrics_matrix np.array([ [metrics_train[R], metrics_test[R]], [metrics_train[R2], metrics_test[R2]], [metrics_train[ME], metrics_test[ME]], [metrics_train[MAE], metrics_test[MAE]], [metrics_train[MAPE], metrics_test[MAPE]], [metrics_train[RMSE], metrics_test[RMSE]], [metrics_train[样本数], metrics_test[样本数]] ], dtypefloat) savemat(metrics.mat, {metrics: metrics_matrix}) print(已保存 metrics.mat矩阵大小 7×2) print( 8. SHAP 分析 ) X_combined np.vstack([X_train_norm, X_test_norm]) X_df pd.DataFrame(X_combined, columnsfeature_names) # shap_results shap_analysis(model, X_combined, feature_names) plot_shap_dependence(model, X_combined, feature_names, X_df) print( 9. 密度散点图 ) plot_density_scatter( y_test, y_pred_test, save_pathscatter_density_test.png ) plot_density_scatter( y_train, y_pred_train, save_pathscatter_density_train.png ) print( 10. 相关性热图 ) correlation_heatmap(data, feature_names) print( 完成) if __name__ __main__: main()6 代码获取Python | K折交叉验证的参数优化的核回归KR预测及可视化算法包括基础算法、贝叶斯搜索参数优化、随机搜索参数优化及网格搜索参数优化共4组算法https://mbd.pub/o/bread/YZWalJhyaA新手小白/python 初学者请先根据如下链接教程配置环境只需要根据我的教程即可不需要安装 Python 及 pycharm 等软件。如有其他问题可加微信沟通。Anaconda 安装教程保姆级超详解【附安装包环境玩转指南】https://mp.weixin.qq.com/s/uRI31yf-NjZTPY5rTXz4eA