刺客信条 奥德赛的性能测试软件要求,《刺客信条:奥德赛》PC性能表现分析:非常流畅...

《刺客信条:奥德赛》是2018年最受期待的游戏之一,本作由AnvilNext引擎打造,目标要让玩家进入古希腊世界,游戏即将正式发售,DSOGaming今日发布了这款游戏的PC版性能表现分析。以下是文章全文。

本次PC性能表现分析使用的是Intel i7 4930K(超频至4.20Ghz),8G内存,AMD Radeon RX580和RX Vega 64,NVIDIA GTX980Ti显卡,Windows 10 64位系统,更新到最新版本GeForce(411.70)和催化剂(18.9.3)驱动。本作不支持SLI和交火多核GPU,而且对GPU要求很高,所以我们没有测试GTX 690。

5db31b305e20745de2dbf78eb44085a1.png

《刺客信条:奥德赛》为PC玩家准备了许多画面选项。玩家可以调整抗锯齿质量、环境细节、材质、地形、蔟、雾气、水体、屏幕空间反射、体积云、角色细节、环境光遮蔽和景深。另外可以打开或关闭景深、分辨率缩放、FPS限制、HDR和垂直同步2等效果。每个选项都具备一段简短说明,但是并没有具体指出这个选项对CPU还是对GPU更依赖。

89533b269d0ac2873d96a61ec85f84b5.png

5678ee34538ffb8bef8a2a9a8483cc06.png

cebd8a9b300949f15d2d5de8884d8e74.png

ecfd29089c73ee737b115f67754d97fe.png

首先不洗说明AMD Radeon RX Vega 64表现欠佳的原因,AMD的DX11驱动明显带着CPU封顶,所以搭载AMD显卡的PC注定受限于CPU。《刺客信条:奥德赛》在NVIDIA GTX980Ti显卡上的表现远远优于Radeon RX Vega 64。唯一解决的方法是将CPU超频,当我们把i7 4930K超频到4.30Ghz的时候,果不其然看到了RX Vega 64配置下的5fps的表现提升。如果换成i9 9900K CPU或许可以完全排除CPU瓶颈的影响,但必须承认,AMD显卡在DX11游戏上的表现亟待改善。

理由很简单,无论是NVIDIA还是AMD,都不应该在发布最新最高端的产品以后彻底放弃对上一代产品的驱动支持。现在AMD的做法就是在忽略自己的DX11驱动,而驱动上的问题就导致AMD的显卡在大多数DX11上都表现得十分糟糕。《古墓丽影:暗影》和《极限竞速:地平线》等支持DX12的游戏上,Radeon RX Vega 64都能获得应有的表现,所以很显然问题的根源就在于AMD轻视DX11。当然,育碧方面如果能够支持DX12或Vulkan的话也能解决这一问题。

为了测试不同CPU的表现,我们模拟了双核和四核CPU。我们使用游戏自带的跑分工具进行测试。在不开启超线程的情况下,模拟双核配置卡顿极其严重,根本没法进行游戏。开启超线程以后,双核系统可以维持到最低31fps,平均38fps的水平,但偶尔也会出现卡顿现象。比较令人惊讶的是,开启超线程的效果同样可以体现在四核和六核CPU上,足可见育碧今年的AnvilNest引擎经过了明显的优化,可以充分利用多核CPU和多线程。

2942211af4200b3ad73791decf0dc1dc.png

所以《刺客信条:奥德赛》是一款主要吃GPU的游戏。在“非常高”画质设定,1080p分辨率下,我们的GTX980Ti足以维持最低38fps,平均53fps。而AMD Radeon RX580则能维持最低33fps,平均42fps。由于刚才提到的DX11导致CPU封顶现象,AMD Radeon RX Vega 64只能提供最低40fps,平均48fps。

9afcdd2e3e32f455e8f3d574e55aa206.png

为了尽可能达到60fps体验,我们不得不将画面设定为“高”,在1080p分辨率下,GTX 980Ti的最低帧数依然在40多帧左右。即使是在“低”画面配置下,GTX980Ti也依然达到了95%的运行负载,只能跑到77fps。可见《刺客信条:奥德赛》存在一些优化问题。

56ae858c1f33cde2823f2d3ecf9908d4.png

如果要挑战更高分辨率会怎样?在2560×1440分辨率,“非常高”画面配置下,GTX980Ti可以达到最低35fps,平均43fps。而Radeon RX Vega 64则可以超过GTX980Ti,但依然受限于GPU。而4K分辨率下,只有Radeon RX Vega 64能勉强维持30fps的“主机”体验。

29e17836223c5abaf546cf8e9ec6d4c1.png

游戏画面方面,《刺客信条:奥德赛》并没有令人眼前一亮的感觉,虽然角色和场景看上去都很不错,但正好我最近刚玩过《大革命》,所以对比起来明显感觉光照效果有所打折。所以《大革命》如果出去环境物体载入问题以外,依然是《刺客信条》系列里画面一流的作品。所以《奥德赛》不仅对硬件需求极高,而且换来的画质提升并不明显,与其他开放世界作品,例如《巫师3》相比的话,明显画质-硬件的性价比不高。

总而言之,《刺客信条:奥德赛》让人很难一言蔽之。育碧今年在引擎方面进行了改进,而且虽然使用了D加密,但却没有出现明显的卡顿。游戏的流畅度很高,但对于GPU的要求也显著高于前几部作品。比较令人惋惜的问题是,《奥德赛》的尝试场景看上去并不比《大革命》更精彩,而且因为只支持DX11的缘故,导致一些显卡不能发挥应有性能。如果你曾在《刺客信条:起源》遭遇过CPU封顶,则相同的配置现在会有更好的表现,如果当时你就以GPU性能为上线的话,现在你会发现这部游戏不那么流畅了。

eb1a9cf704fa1ca792f111df3d8d47e6.png

4d8aed3c490b146531f7809de33698d3.png

c3d8d06d76f4f704287e26059e6c2738.png

举报/反馈

内容概要:本文档主要介绍了Intel Edge Peak (EP) 解决方案,涵盖从零到边缘高峰的软件配置和服务管理。EP解决方案旨在简化客户的入门门槛,提供一系列工具和服务,包括Edge Software Provisioner (ESP),用于构建和缓存操作系统镜像和软件栈;Device Management System (DMS),用于远程集群或本地集群管理;以及Autonomous Clustering for the Edge (ACE),用于自动化边缘集群的创建和管理。文档详细描述了从软件发布、设备制造、运输、安装到最终设备激活的全过程,并强调了在不同应用场景(如公共设施、工业厂房、海上油井和移动医院)下的具体部署步骤和技术细节。此外,文档还探讨了安全设备注册(FDO)、集群管理、密钥轮换和备份等关键操作。 适合人群:具备一定IT基础设施和边缘计算基础知识的技术人员,特别是负责边缘设备部署和管理的系统集成商和运维人员。 使用场景及目标:①帮助系统集成商和客户简化边缘设备的初始配置和后续管理;②确保设备在不同网络环境下的安全启动和注册;③支持大规模边缘设备的自动化集群管理和应用程序编排;④提供详细的密钥管理和集群维护指南,确保系统的长期稳定运行。 其他说明:本文档是详细描述了Edge Peak技术及其应用案例。文档不仅提供了技术实现的指导,还涵盖了策略配置、安全性和扩展性的考虑,帮助用户全面理解和实施Intel的边缘计算解决方案。
### 回答1: Spark submit任务提交是指将用户编写的Spark应用程序提交到集群中运行的过程。在Spark中,用户可以通过命令行工具或API方式提交任务。 Spark submit命令的基本语法如下: ``` ./bin/spark-submit \ --class <main-class> \ --master <master-url> \ --deploy-mode <deploy-mode> \ --conf <key>=<value> \ <application-jar> \ [application-arguments] ``` 其中,`--class`指定应用程序的主类,`--master`指定集群的URL,`--deploy-mode`指定应用程序的部署模式,`--conf`指定应用程序的配置参数,`<application-jar>`指定应用程序的jar包路径,`[application-arguments]`指定应用程序的命令行参数。 在Spark中,任务提交的过程主要包括以下几个步骤: 1. 创建SparkConf对象,设置应用程序的配置参数; 2. 创建SparkContext对象,连接到集群; 3. 加载应用程序的主类; 4. 运行应用程序的main方法; 5. 关闭SparkContext对象,释放资源。 在任务提交的过程中,Spark会自动将应用程序的jar包和依赖的库文件上传到集群中,并在集群中启动Executor进程来执行任务。任务执行完成后,Spark会将结果返回给Driver进程,并将Executor进程关闭。 总之,Spark submit任务提交是Spark应用程序运行的关键步骤,掌握任务提交的原理和方法对于开发和调试Spark应用程序非常重要。 ### 回答2: Spark 作为一款强大的分布式计算框架,提供了很多提交任务的方式,其中最常用的方法就是通过 spark-submit 命令来提交任务。spark-submit 是 Spark 提供的一个命令行工具,用于在集群上提交 Spark 应用程序,并在集群上运行。 spark-submit 命令的语法如下: ``` ./bin/spark-submit [options] <app jar | python file> [app arguments] ``` 其中,[options] 为可选的参数,包括了执行模式、执行资源等等,<app jar | python file> 为提交的应用程序的文件路径,[app arguments] 为应用程序运行时的参数。 spark-submit 命令会将应用程序的 jar 文件以及所有的依赖打包成一个 zip 文件,然后将 zip 文件提交到集群上运行。在运行时,Spark 会根据指定的主类(或者 Python 脚本文件)启动应用程序。 在提交任务时,可以通过设置一些参数来控制提交任务的方式。例如: ``` --master:指定该任务运行的模式,默认为 local 模式,可设置为 Spark Standalone、YARN、Mesos、Kubernetes 等模式。 --deploy-mode:指定该任务的部署模式,默认为 client,表示该应用程序会在提交任务的机器上运行,可设置为 cluster,表示该应用程序会在集群中一台节点上运行。 --num-executors:指定该任务需要的 executor 数量,每个 executor 会占用一个计算节点,因此需要根据集群配置与任务要求确定该参数的值。 --executor-memory:指定每个 executor 可用的内存量,默认为 1g,可以适当调整该值以达到更好的任务运行效果。 ``` 此外,还有一些参数可以用来指定应用程序运行时需要传递的参数: ``` --conf:指定应用程序运行时需要的一些配置参数,比如 input 文件路径等。 --class:指定要运行的类名或 Python 脚本文件名。 --jars:指定需要使用的 Jar 包文件路径。 --py-files:指定要打包的 python 脚本,通常用于将依赖的 python 包打包成 zip 文件上传。 ``` 总之,spark-submit 是 Spark 提交任务最常用的方法之一,通过该命令能够方便地将应用程序提交到集群上运行。在提交任务时,需要根据实际场景调整一些参数,以达到更好的任务运行效果。 ### 回答3: Spark是一个高效的分布式计算框架,其中比较重要的组成部分就是任务提交。在Spark中,任务提交主要通过spark-submit来实现。本文将从两方面,即任务提交之前的准备工作和任务提交过程中的细节进行探讨。 一、任务提交之前的准备工作 1.环境配置 在执行任务提交前,需要确保所在的计算机环境已经配置好了Spark。Spark的环境配置主要包括JAVA环境、Spark的二进制包、PATH路径配置、SPARK_HOME环境变量配置等。 2.编写代码 Spark的任务提交是基于代码的,因此在任务提交前,需要编写好自己的代码,并上传到集群中的某个路径下,以便后续提交任务时调用。 3.参数设置 在任务提交时,需要对一些关键的参数进行设置。例如,任务名、任务对应的代码路径、任务需要的资源、任务需要的worker节点等。 二、任务提交过程中的细节 1.启动Driver 当使用spark-submit命令提交任务时,Spark会启动一个Driver来运行用户的代码。这个Driver通常需要连接到Spark集群来执行任务。 2.上传文件 Spark支持在任务提交时上传所需的文件。这些文件可以用于设置Spark的环境变量、为任务提供数据源等。 3.资源需求 Spark的任务执行依赖于一定的资源。每个任务可以指定自己的资源需求,例如需要多少内存、需要多少CPU等。这些资源需求通常与提交任务时需要的worker节点数量有关系。 4.监控和日志 在任务执行的过程中,Spark会收集任务的监控数据和日志信息。这些数据可用于后续的调试和性能优化。 总之,在Spark任务提交过程中,需要充分考虑任务的资源需求和监控日志信息的收集,以便更好地完成任务和优化Spark运行效率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值