2026/4/16 12:54:27
网站建设
项目流程
三亚房产网站开发,定制型网站建设服务器,自适应网站系统,旅游网站开发背景及意义01Abaqus/Standard求解器HPC性能更新介绍在Abaqus 2026x隐式求解器高性能计算的新功能更新说明中#xff0c;主要介绍了AMG迭代求解器在不同软件版本中的性能提升#xff0c;并且同隐式直接求解器进行了计算性能的比较。为了测试不同规模的模型在HPC中的性能提升表现#xf…01Abaqus/Standard求解器HPC性能更新介绍在Abaqus 2026x隐式求解器高性能计算的新功能更新说明中主要介绍了AMG迭代求解器在不同软件版本中的性能提升并且同隐式直接求解器进行了计算性能的比较。为了测试不同规模的模型在HPC中的性能提升表现选取了4个SIMULIA的中型、大型标准测试模型在Abaqus隐式求解中分别使用直接求解器和AMG迭代求解器进行求解效率的性能比较。通过Abaqus新旧软件版本2024x VS 2026x、不同求解器Direct求解器 VS AMG迭代求解器、不同分布式节点并行环境、不同通信架构OMPI VS IMPI等方面开展评估2024x版本中传统的直接求解器需要消耗约TB量级的内存对于大型模型计算会因为内存溢出而失败而AMG迭代求解器对内存的需求大大降低可从TB量级降低到GB量级同直接求解器相比仅需相对少量内存即可稳定运行完成计算将硬件门槛降低了约60%以上此外相较于直接求解器上千秒甚至无法计算的情况AMG迭代求解器的计算时间仅需要约百秒左右计算效率提升约80%。与2024x版本相比2026x版本的Abaqus中的AMG迭代求解器的性能进一步提升。仿真计算时间根据计算分布节点数量的不同计算效率可实现3-6倍的提升计算内存的消耗也比24x版本节省约40%左右极大缩短了企业研发迭代周期和降低了研发成本2026x新版本的AMG迭代求解器在OpenMPI与IntelMPI通信环境下均表现出一致的求解稳定性。相同计算模型在不同节点如4、6、8、12节点等的高性能计算性能评估中内存使用及管理与计算时间表现无太大差异。Abaqus 2026x新增Homogeneous Batch并发模式主要考虑了同一模型在进行少量参数修改后进行的多次大规模计算场景下的计算性能表现的提升。测试中选取了s4e标准测试模型即模型自由度为1500万的动力总成模型并对模型进行不同的参数修改最终将若干个此模型的计算文件打包提交测试在有限计算资源如100个计算节点下如何在一天内完成尽量多的计算任务。测试结果表明对于单个计算任务CPU数量越多计算完成的时间越快但是每天完成的总计算任务并不是最多的。通过测试当单任务计算选取32或64核心进行计算提交时计算节点的资源可以100%充分使用集群无排队且每天完成的计算任务数最多。与此同时License的投入会减少所有的计算任务共享1个许可以单任务64核计算核心为例单位许可产出1.55计算任务/天比传统“一任务一个许可”的配置模式的单位许可产出效率高。02Abaqus/Explicit求解器GPU加速性能更新介绍在Abaqus 2026x新功能介绍中首次在业界推出面向通用显式有限元分析求解器的GPU加速介绍此部分功能更新还在持续研发过程中。在本次发布中首先重点确保了显式求解器GPU加速后的计算结果与纯CPU求解的精度一致性在以单元计算为主的仿真场景如冲击、碰撞、跌落等瞬态动力学分析中加速效果明显支持跨多个节点的多GPU分布式计算但现阶段软件版本仅支持Linux系统上的NVIDIA GPU的显式求解加速。通过对e10、e11、e13、e14标准测试模型的测试结果显示相同CPU计算数量、增加1个GPU进行计算求解效率可以提升约54%若增加一个计算节点比如由1个计算节点下的2个GPU增加到2个计算节点的4个GPU求解效率可以提升约54%-62%。在本次Abaqus 2026x的发布版本中基于研发的阶段开发和测试结果给出了一些显式求解器的GPU加速建议对于大模型计算建议使用多节点和多GPU。对超大规模模型计算可考虑扩展至1000CPU以上。现阶段测试显示可以对三亿以上自由度的大模型计算进行加速处理单个CPU处理的网格数超过6000时建议使用HMP模式Inter单节点处理器条件下建议使用SMP为仿真设置适当的求解精度长物理时间求解且包含大量增量步时doubleexplicit以约束为主导的问题doubleconstraint一般工况doubleoff极端情况工况doubleboth值得注意的是此功能更新效果取决于具体的求解流程和场景不同分析模型获得的加速效果会不尽相同。随着后续持续研发此部分功能会有进一步的功能更新内容发布。03Abaqus分布式并行架构DMP协同仿真服务CSS性能更新介绍Abaqus 2026x新版本功能介绍中更新了DMP架构下的CSS多物理场协同仿真服务性能提升介绍尤其是大规模耦合计算的性能提升和稳定性表现。新版本中从协同仿真服务CSS的架构层面进行了改进推出了基于DMP分布式的CSS架构。新的基于DMP的CSS架构通过分布式内存并行技术将CSS从传统的单进程协调模式转变为分布式并行模式实现了大规模多物理场耦合仿真的性能提升。新的DMP CSS架构下性能提升具体表现在场数据在多个计算进程间并行传输和数据交换消除了根进程数据传输的瓶颈场数据映射可分布式并行执行大幅提升了数据的映射效率自动数据管理开发者无需手动处理数据扇入/扇出降低开发复杂度针对大模型的大规模体积数据映射和耦合效率进行了优化支持更复杂物理问题的求解实现了大规模多物理场耦合仿真的性能飞跃和效率提升。功能更新说明中最后给出若干案例案例模型涉及到上下游体数据的映射、大规模网格且网格节点不协调等。传统的串行协调模式下要实现如此大规模的体数据映射非常困难或者只能实现粗略网格的体数据映射而在新版本的DMP并行CSS架构下可以完成精细网格下的大规模体数据的映射。将FMK热传计算得到的温度场映射到Abaqus的体网格流体网格和体网格的节点不匹配Abaqus 2026 精彩不断其他详细功能更新敬请期待