CAE仿真云平台32问

1、你们支持哪些应用/工具?

fastone工业软件云平台支持以下CAE/CFD应用:

Abaqus、Actran、Adams、Ansoft、Autodesk、AUTODYN、Bladed、CFX、COMSOL、CST、DYTRAN、Feko、FloTHERM、Fluent、HFSS、HyperWorks、ICEMCFD、Icepack、Isight、LS-DYNA、MARC、Matlab、MaxWell、Mechanical、Multiphysics、Nastran、nCode DesignLife、Numeca、OptiStruct、Patran、PowerFLOW、Q3D、Radioos、Simcenter、SimManager、Simpack、StarCCM、SOLIDWORKS、TOSCA、UX UG、VASP、WRF等。

此外,平台还支持下列EDA应用:Innovus、Spectre、Genus、Dracula、Virtuoso、Ncsim、PowerSI、Xcelium、PT、DC、VCS、VC、FM、Verdi、OPC Proteus、Tmax2、HSPICE、Spyglass、Starrc、Calibre、Tessent、nmLVS、nmDRC、xACT、xL、xRC等。

还有这些AI框架:Pytorch、Mxnet、Tensorflow、Caffe2、Miniconda、Scikit Learn/OpenCV、Pylearn2、Keras等。

2、上述应用/工具是否都可以直接使用?

常用的应用/工具我们平台都已经做过适配,并且做过一些优化。商用软件因License授权不能直接使用,需要您BYOL(自带License)。

3、跑Bladed,风文件和任务文件的数据量非常大,云端传输很慢,怎么办?

我们有专门的数据传输工具DM(Data Manager),支持全自动化数据上传,可充分利用带宽,帮助用户快速上传、下载海量数据。同时,利用fastone自主研发的分段上传、高并发、断点续传等数据传输技术,优化海量数据的传输效率。详见《CAE云实证Vol.2:从4天到1.75小时,如何让Bladed仿真效率提升55倍?》

4、那么大的数据,上传或下载是否会有限制?

我们平台不限制数据的上传和下载大小,平台接收数据不收费。

5、是否支持Fluent可视化的并行计算操作?

平台支持Fluent在计算过程中的可视化监视操作,支持此类可视化监视的还包括CFX、StarCCM、Numeca、Matlab等软件。

6、Fluent计算过程能否监视求解状态?

支持,通过平台的任务管理中的日志可随时查看,状态实时刷新。

7、Fluent计算过程能否监视求解残差图?

支持,在任务管理中可以显示求解残差图。

8、用你们平台跑Fluent操作麻烦吗?

fastone平台可通过任务方式调度大量计算资源进行并行计算,处理Fluent任务。

如果您习惯使用图形化界面操作,我们也提供图形桌面,您可通过Web浏览器启动集群,跳转到虚拟桌面,并可在该桌面直接操作Fluent应用进行相应设置以开启云端Fluent任务。

9、试过Fluent上云,一开始跑得挺快,但核数加上去之后,提升的速度反而降下来了,是怎么回事?

像Fluent和LS-DYNA这些应用,随着核数逐渐增加,由于节点间通信开销指数级上升,性能的提升会逐渐变缓。云端的网络加强型实例可以有效解决这个问题。

详请可查看CAE云实证Vol.5:怎么把需要45天的突发性Fluent仿真计算缩短到4天之内?

CAE云实证Vol.8:LS-DYNA求解效率深度测评│六种规模,本地VS云端5种不同硬件配置

10、有时大半夜任务跑失败了,第二天早上才发现,很浪费时间,是否有自动重复提交任务的功能?

放着机器通宵跑任务时总会幻想:第二天一早,任务已经跑完了,完美。

现实是:任务才跑了10%。

任务出错,进度条卡住,可能会有两种情形:

第一种:每个任务之间独立,彼此没有关联。

一般任务数量越多,失败的任务数量大概率也会变多。

第二种:每个任务间有明确的先后处理顺序,必须从A任务按序跑到Z。

假如到F任务就失败了,整个任务就此停滞,凉凉。

自动检查任务状态并对失败任务及时重复提交的功能,就是这种场景的克星,尤其是第二种,不然等待着你的,大概就是通宵,同时睁大你的双眼了。

我们的任务监控告警功能,还会时刻监控任务状态,通过IM及时通知用户,任务出现异常或已经完成。

举一个其他行业出现过的特殊情况,Amber用GPU跑任务速度快,CPU较慢,但使用GPU计算时存在10%-15%的失败概率。一旦任务失败,需要调度CPU重新计算。

能否及时且自动地处理失败任务,将极大影响运算周期。如果想了解我们怎么应对的,请查看155个GPU!多云场景下的Amber自由能计算

11、是否支持前处理、后处理的可视化操作?

可以,我们通过VDI集群的方式提供前处理、后处理的可视化操作。

12、你们平台是否支持耦合计算?

支持,通过集群方式可以支持。

13、你们平台提供哪些编译库?

我们提供包括 GNU、Intel、PGI在内的编译库。

14、你们平台提供哪些并行计算框架库?

包括 Intel MPI、OpenMPI、MPICH3、MVAPICH、MAVPICH2、OpenMM。

注:Intel 编译器、Intel MPI、Intel MKL、Intel Vtune等为商业软件。

15、你们平台提供哪些GPU 库?

我们支持 CUDA、OpenACC和OpenCL。

16、你们平台提供哪些数学库?

我们提供ACML、FFTW、OpenBLAS、MKL以及ScaLAPACK。

17、我们有些仿真软件软件在使用时需要GPU支持,你们平台如何应对?

云上有很多类型的GPU实例,比如NVIDIA Tesla A100/V100/T4等GPU卡。针对有GPU计算要求的任务和应用,我们推荐使用GPU实例运行仿真软件。

18、我们的仿真任务算完后,机器是不是会闲置造成资源的浪费?

建议使用我们平台的任务模式进行仿真计算任务,任务结束后会自动保存结果数据,终止集群释放资源,并邮件通知用户任务计算完成。

19、你们是否提供Intel MPI支持?

平台提供Intel MPI。

20、任务工作流并发数如何设置?

并发数设置需要综合根据软件特性与用户实际需求,在小于开机核数的范围内进行设置。

21、现在公司里才几台机器,天天维护头就很大了,云上这么多机器还不得把自己搞秃了?

云上的运行环境都是自动化配置的,不需要人工干预,用户还可以通过平台进行统一管理和监控,方便易操作。

举个例子,我们的Auto-Scale功能可以自动监控用户提交的任务数量和资源的需求,动态按需地开启和关闭所需算力资源,在不够的时候,还能根据不同的用户策略,自动化调度本区域及其他区域的目标类型或相似类型实例资源。所有操作都是自动化完成,无需用户干预。

下图就是开启Auto-Scale功能后,用户某项目一周之内所调用云端计算资源的动态情况。

其中橙色曲线为OD实例的使用状况,红色曲线为SPOT的使用状况。

Auto-Scale功能可以根据任务运算情况动态开启云端资源,并在波峰过去后自动关闭,让资源的使用随着用户的需求自动扩张及缩小,最大程度匹配任务需求。

22、云上存储是你们自己的产品吗?与公有云上的存储有什么区别?

答: 云上存储可使用fastone Managed ZFS on Cloud或云原生存储方案,云原生存储方案可选EBS、云原生NFS及对象存储。

23、存储怎么收费呢?

冷存储和热存储的费用是不一样的,我们会根据用户的情况提供个性化的解决方案。

24、数据备份的频率如何?最高可以达到多少?现有策略怎样?

默认每周六进行数据备份,也可以根据客户需求按天或按小时备份。

25、使用平台的工作人员比较多,能否对每个人设置使用资源的上限?

fastone平台的权限和角色管理功能,支持管理员角色对每一个用户进行相关权限设定,包括预算使用上限和CPU核数使用上限,从而在全局角度管控项目的资源消耗。该功能与智能预测配合使用,能够从多个层面对预算和资源进行全方位规划。

26、公司里还有些机器能用,你们支持混合云模式吗?

支持。

可以将本地机器做成集群,也可以基于本地机器搭建混合云平台。我们支持本地资源不足的时候,自动溢出到云上。

27、你们怎么实现混合云?

云资源和本地之间通过安全的数据通道连接,所有资源在fastone平台统一管理,有统一视图,并按需智能调度,不改变用户的使用习惯。

28、公司里已经有机器了,再增加一套云环境,IT管理上会不会变麻烦?通过我们可以在不增加负担的情况下对接多云,减少IT管理压力。我们的自动化管理平台很容易上手,对提升研发效率和资源利用率都有很大帮助。

29、我们公司有海外研发部门,用你们平台方便吗?

我们的平台支持全球部署,我们会全球的优化组网,统一用户管理,数据管理,优化的远程接入方式,保持一致的用户体验。

30、云上云下的安全如何保障?

安全是一个立体的概念,包括系统安全、应用安全、流程安全、数据安全等很多方面。

云的基础架构和传统IT架构在安全方面并没有本质上的区别,依然是利用计算节点和存储资源。很多人觉得这两者之间存在差异,我们认为这取决于个人的认知。本地的安全措施在云上都可以实现,同时云厂商本身还提供更强大的安全保障。

31、数据安全如何实现?

数据全部通过安全协议传输,并支持RBAC的数据访问认证鉴权。同时,我们还支持数据加密存储,算法可自定义。

32、你们有哪些落地实践?

工业制造CAE跟云的结合,在全球几乎已经是主流,所以它的单独占比也相当高。而且现在国内CAE厂商,天然就是拥抱云的,甚至是云的推动者。

欢迎查看4个我们在CAE/CFD领域的合作案例:

怎么把需要45天的突发性Fluent仿真计算缩短到4天之内?

LS-DYNA求解效率深度测评│六种规模,本地VS云端5种不同硬件配置

从4天到1.75小时,如何让Bladed仿真效率提升55倍?

这样跑COMSOL,是不是就可以发Nature

半导体EDA领域,如果结合云的落地场景来看,我们完全可以说国内跟全球站在同一起跑线上。

欢迎查看3个落地案例与2个针对不同规模IC设计公司的解决方案:

Auto-Scale这支仙女棒如何大幅提升Virtuoso仿真效率?

从30天到17小时,如何让HSPICE仿真效率提升42倍?

揭秘20000个VCS任务背后的“搬桌子”系列故事

缺人!缺钱!赶时间!初创IC设计公司如何“绝地求生”?

续集来了:上回那个“吃鸡”成功的IC人后来发生了什么?


关于fastone云平台在其他应用上的表现,可以点击以下应用名称查看:

HSPICE │ Bladed │ Vina │ OPC │ Fluent │ Amber │ VCS │ MOE │ LS-DYNA  Virtuoso│ COMSOL


- END -

我们有个生物/化学计算云平台
集成多种CAE/CFD应用,大量任务多节点并行
应对短时间爆发性需求,连网即用
跑任务快,原来几个月甚至几年,现在只需几小时
5分钟快速上手,拖拉点选可视化界面,无需代码
支持高级用户直接在云端创建集群


扫码免费试用,送200元体验金,入股不亏~

更多电子书 欢迎扫码关注小F(ID:imfastone)获取

你也许想了解具体的落地场景:
这样跑COMSOL,是不是就可以发Nature了
Auto-Scale这支仙女棒如何大幅提升Virtuoso仿真效率?

1分钟告诉你用MOE模拟200000个分子要花多少钱
LS-DYNA求解效率深度测评 │ 六种规模,本地VS云端5种不同硬件配置
揭秘20000个VCS任务背后的“搬桌子”系列故事
155个GPU!多云场景下的Amber自由能计算
怎么把需要45天的突发性Fluent仿真计算缩短到4天之内?

5000核大规模OPC上云,效率提升53倍
提速2920倍!用AutoDock Vina对接2800万个分子

从4天到1.75小时,如何让Bladed仿真效率提升55倍?
从30天到17小时,如何让HSPICE仿真效率提升42倍?

关于为应用定义的云平台:
解读Hyperion年度报告:脱离场景谈用量就是耍流氓
这一届科研计算人赶DDL红宝书:学生篇
一次搞懂速石科技三大产品:FCC、FCC-E、FCP

AI太笨了……暂时
【2021版】全球44家顶尖药企AI辅助药物研发行动白皮书
国内超算发展近40年,终于遇到了一个像样的对手
帮助CXO解惑上云成本的迷思,看这篇就够了
花费4小时5500美元,速石科技跻身全球超算TOP500

相关推荐

发表评论

电子邮件地址不会被公开。 必填项已用*标注

微信扫一扫

微信扫一扫

微信扫一扫,分享到朋友圈

CAE仿真云平台32问
返回顶部

显示

忘记密码?

显示

显示

获取验证码

Close