随便发论坛

 找回密码
 立即注册
查看: 138|回复: 0

OKEX欧易邀请码ID是多少_ID:meizire

[复制链接]
跳转到指定楼层
楼主
发表于 2022-3-26 10:43:24 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
OKEX欧易邀请码ID是多少在哪里下载,为大家提供OKEX欧易邀请码ID是多少下载途径,OKEx致力于为用户和行业提供安全、专业、透明的数字资产一站式服务。欧易okx注册下载地址:
欧易okx邀请码:暂无邀请码

安卓版: http://www.meizire.com/
苹果版:  http://www.meizire.com【复制链接到浏览器打开注册,永久自动返20%现货和20%合约手续费,申请成为欧易节点助力人,拿永久返佣,添加薇信暂无微信号】
欧易okx观察:英伟达的春季发布给元宇宙带来了希望3月22日,玩家和AI从业者又爱又恨的老黄带着他的新“核弹”来了。可惜这颗新“核弹”与玩家关系不大,主要面向企业和工业市场。估计与玩家相关的RTX 40系列最早要到9月份才会有消息。

好了,废话不多说,看看老黄这次带出了什么样的“大宝贝”。首先是A100显卡的继任者。新一代计算卡H100登场。H100采用全新的Hopper架构和台积电最新的4nm工艺。与上一代A100相比,各方面的参数都有明显提升。
英伟达的超级服务器芯片 Grace 也再次曝光。与上次给出的数据相比,本次曝光的格雷斯芯片的性能有了惊人的提升。根据发布会的描述,英伟达似乎和苹果走在了同一条路上。使用更多芯片来组装处理器。
除了硬件产品的曝光和发布,NVIDIA还在软件领域带来了很多新的东西,比如Omniverse Cloud,主打云端协同,让多个用户直接参与同一个媒体文件的编辑和渲染在云端。
此外,NVIDIA还展示了多个基于虚拟现实环境的工业和交通仿真案例,以及一套AI驱动的虚拟角色系统。系统可以通过深度学习进行动作训练,训练后无需额外的骨骼动作设计。操作可以根据指令做出相应的动作。这不仅是AI从业者的狂喜,也是电影和游戏从业者的狂喜。
不得不说,老黄这次带来了很多东西,每一个都能给AI等行业的发展带来明显的变化。让我们来详细看看英伟达发布的内容。
H100 和Grace从去年开始,就有消息称英伟达今年将发布新一代计算卡,并将采用全新的Hopper架构。目前消息是准确的,不过大家都猜测新一代计算卡会采用台积电的5nm工艺,但现在看来,英伟达一步步选择了采用最新的4nm工艺。虽然本质上是5nm+,但就是功耗。它具有更好的性能,还可以集成更高的晶体管。
其实从H100的核心规格来看,不难理解为什么英伟达最终选择了4nm,晶体管集成度高达800亿,比上一代A100多了260亿。核心数增加到16896,这是世界上核心数最多的芯片核心,也是上一代100的2.5倍。

夸张的内核参数提升带来的性能提升也是极其夸张的。根据英伟达官方给出的数据,H100的浮点计算和张量核心计算能力将比上一代提升至少3倍,FP32最高可达60 teraflops/秒。,而上一代 A100 为 19.5 teraflops。
H100也将率先支持PCIe 5.0和HBM3,让内存带宽达到惊人的3TB/s。老黄说,目前全球网络流量只有20台H100可以处理。虽然听上去有些夸张,但确实反映了H100夸大的性能参数。
强大的性能也伴随着夸张的功耗。NVIDIA给出的H100功耗高达700W(真正的“核弹”显卡),相比上一代A100。功耗只有400W,换来的却是两倍的功耗。3倍的性能提升整体来说不算亏。
H100还针对AI训练中用到的模型等进行针对性优化,配备Transformer优化引擎,使大型模型的训练速度可以提高到原来的6倍,大大减少了大型模型所需的训练人工智能模型时间,这个功能也呼应了下面将要讨论的AI分身系统。
在 NVIDIA 给出的测试数据中,训练一个 1750 亿参数的 GPT-3 模型将时间从原来的一周缩短到仅 19 小时,一个 3950 亿参数的 Transforme 模型只需 21 小时即可完成。训练,效率提升近9倍。
虽然参数看起来很不错,但实际表现还有待后续实际测试结果来揭晓。至少从RTX 30系列和A100的体验来看,最终的实际性能提升可能在2倍到2.5倍之间。,实现3倍的可能性不大,但即使只有2倍,也已经相当不错了,至少在AI方面,已经彻底碾压了AMD的计算卡。
此外,H100还引入了NVIDIA最新的NVIDIA NVLink第四代互连技术,可以进一步提升多GPU串连的效率。在NVIDIA给出的数据中,串联后的I/O带宽可以扩展至900GB/s,比上一代提升50%。
再来看看英伟达的新“玩具”Grace,这是英伟达为服务器业务准备的超级服务器芯片。系列产品。Grace 芯片采用了最新的 Arm V9 架构,Nvidia 以此为基准构建了两款超级芯片——Grace Hopper 和 Grace CPU 超级芯片。
其中,Grace Hopper 由一个 Grace CPU 和一个采用 Hopper 架构的 GPU 组成。两者将组成一个完整的计算系统。只需要一个芯片就可以构建一个强大的计算服务器。芯片串联起来形成更大的计算阵列。
Grace CPU超级芯片由两颗Grace CPU组成,它们通过NVIDIA NVLink-C2C技术互连,形成一个内置144个Arm核心和1TB/s内存带宽的巨型芯片(Grace CPU Ultra)。
说实话,英伟达的 Grace CPU 超级芯片很难不让人联想到苹果在春季发布会上发布的 M1 Ultra。它同样基于 Arm 架构,同样由两颗芯片组成。它也有夸张的特点。内存带宽和性能。
显然,芯片互连与组装技术已成为行业趋势之一,AMD也透露类似技术的CPU正在研发中,最早将于2023年与大家见面。只能说性能发展单个芯片现在正在接近极限。如果想要有更大的提升,可能不得不使用类似的互连技术进行芯片堆叠。
不过,Grace CPU 超级芯片的功耗并不低。NVIDIA官方给出的数据是500W,已经远超传统x86架构CPU。当然,考虑到格雷斯CPU超级芯片的夸张表现:SPECrate跑分740分,比第二名高出60%,这样的功耗也不是不能接受的。
显然,在 Arm 服务器领域,英伟达的野心非常大。
英伟达的虚拟世界除了一堆高性能硬件,NVIDIA这次还展示了很多软件演示案例,包括使用H100等硬件模拟虚拟现实环境进行各种测试和模拟。在英伟达的演示中,未来企业可以通过强大的英伟达硬件搭建逼真的虚拟测试环境,在其中测试自动驾驶、智能工厂运营等。
通过使用虚拟测试环境,研究人员可以更轻松地测试自动驾驶在面对各种突发事件时的反馈,并在测试过程中直接定位问题,降低整体测试成本。此外,可以构建1:1的“数字工厂”,提前模拟运营,寻找提高效率,发现可能出现的问题,降低工厂正式运营后出现问题的概率。

英伟达将这组应用称为“数字孪生”,可以大大减少自动化工厂和自动驾驶方面的研究和测试投入。
Omniverse Cloud 是 NVIDIA 推出的全新云创建服务。通过Omniverse Cloud,用户可以随时随地访问和编辑大型3D场景,无需等待大量数据的传输,还可以让用户直接在线协作构建3D模型。
过去,3D模型和3D场景的协同构建需要在服务器上进行。Omniverse Cloud上线后,相关创作者可以通过任何支持Omniverse Cloud的终端直接访问协作空间并参与其中。大大提高了创作者的反应速度和工作自由度。
此外,NVIDIA还为创作者准备了第二个惊喜,一套AI驱动的虚拟角色系统,可以让AI在短时间内完成训练,学习各种指令对应的动作。比如一个简单的砍杀动作,在正常的制作过程中,动作架构师首先需要一步步调整动作骨架(俗称K帧),然后放到场景中进行测试。整个过程需要很多时间。并且每个不同的动作都需要重新调试。

借助这套AI虚拟角色系统,当你想让虚拟模型做出斩击动作时,只需要一个命令,AI就会从学习到的动作中找出关联的动作并自动运行,直接保存储蓄。大量的时间和人力,对于游戏开发者和视觉特效创作者来说,这个系统可以让他们将更多的精力集中在其他地方。
虽然 NVIDIA 的发布会并没有过多提及元宇宙,但从硬件到软件,都是未来构建元宇宙的基础。元宇宙目前无法成为现实的主要原因有两个。一是硬件性能无法满足我们的需求,二是软件领域还不够成熟,无法提供实时的真实环境模拟。技术的基础。
在此之前,我们首先需要的是更强大的计算硬件和更智能的人工智能系统。Nvidia 的 H100,虚拟现实环境和 AI 虚拟角色系统的出现,将使我们离真正的元宇宙更近一步。

热帖推荐
回复

使用道具 举报

广告合作|最好的免费自由发布信息,广告,帖子的平台

GMT+8, 2024-4-24 03:21 , Processed in 0.187200 second(s), 24 queries , Gzip On.

Powered by SBFbbs Plus!

© 2018-2023 随便发论坛 版权所有

快速回复 返回顶部 返回列表