搜尋結果
2023年12月10日 · Ampere 架构是 NVIDIA 的第二代深度学习架构,引入了更多的Tensor Cores、第三代NVLink以及改进的Ray Tracing技术。 Ampere 架构的GPU广泛应用于深度学习、科学计算和高性能计算领域。
2023年3月27日 · 汉语词源. NVIDIA(英伟达) 名字由来. 可能是因为下午的一时兴起,突然想写点什么,故有了此文。 现如今谈到nvidia公司,想必大伙都不会陌生。 如今chatgpt爆火带来的生成式AI的浪潮让nvidia这家加速计算硬件供应商获得了前所未有的关注。 回到本文的主…
- 概览
- NVIDIA Ada Lovelace
- NVIDIA Hopper
- NVIDIA Ampère
最初的 NVIDIA GPU 架构以温标命名,在 CUDA 发明后便开始以科学家的名称命名以致敬AI先驱们。随着 NVIDIA 公司的发展,GPU 架构的名称也在不断变化。最新一代架构则是以 1800 年代的数学家 Ada Lovelace 命名的,她被称为世界上第一位计算机程序员。
在 NVIDIA 开发新架构时,从不断发展的科学技术先驱名单中选出每一代新架构的名字。以先锋之名继续探索计算机科学宇宙。
“随着我们变得更像一家计算机公司,我们一直在将计算机科学家加入名单”——NVIDIA 创始人兼 CEO 黄仁勋
了解 NVIDIA GPU 架构命名背后有哪些伟大科学家!
NVIDIA Ada Lovelace 架构致力于打造出色的游戏与创作、专业图形、AI 和计算性能。
架构亮点:Ada GPU 架构能够为光线追踪和基于 AI 的神经图形提供革命性的性能。该架构显著提高了 GPU 性能基准,更代表着光线追踪和神经图形的转折点。
NVIDIA Hopper 架构助力全球 AI 基础设施引擎实现数量级的性能飞跃。
架构亮点:Hopper 采用先进的台积电 4N 工艺制造,拥有超过 800 亿个晶体管,采用五项突破性创新技术。
架构命名背后的科学家:
NVIDIA Hopper GPU 架构以及 2021 年推出的 NVIDIA Grace CPU 以计算机编程的开拓者 Grace Hopper 的名字命名。Grace Hopper发明了世界上第一个编译器——A-0 系统。到1956年,她开发出来一套很完整的程序语言,叫做FLOW-MATIC。格蕾丝为解决某些使用问题,写了一套称作“Validation”的程序。
NVIDIA Ampère 架构是全球超强弹性数据中心的核心。
架构亮点:NVIDIA Ampère 架构以 540 亿个晶体管打造的 7 纳米 (nm) 芯片,包含六项关键的突破性创新。
架构命名背后的科学家:
NVIDIA Ampère GPU 架构以帮助发展电磁学的法国物理学家 André-Marie Ampère 命名。安培对电磁作用的研究,结束了此前电、磁分离的认识,其分子电流假说揭示了磁现象的电本质,为此后电磁学的发展打下了基础。
NVIDIA Turing
NVIDIA Turing™ 架构集实时光线追踪、AI、模拟和光栅化于一身,为计算机图形带来了根本性变革,堪称自 2006 年 NVIDIA CUDA GPU 问世以来的一次巨大飞跃。
NVIDIA一般以历史上一些著名科学家的名字命名自己的GPU微架构,上面8种微架构分别是: 特斯拉, 费米, 开普勒, 麦克斯韦, 帕斯卡, 伏打, 图灵, 安培。 其中最新的是2020年宣布的Ampere架构。 二、Tesla 架构. Tesla 架构的资料在官网也没找到多少,不过这是英伟达第一个实现 统一着色器模型 的微架构。 经典型号是 G80,在Fermi架构白皮书的开篇部分有对G80的简要介绍: G80 是第一款支持 C 语言的 GPU,让程序员无需学习新的编程语言即可使用GPU的强大功能。 G80 是第一款用单一、统一的处理器取代独立的顶点和像素管道的 GPU,该处理器可以执行顶点、几何、像素和计算程序。 G80 是第一款使用标量线程处理器的 GPU,无需程序员手动管理向量寄存器
2023年8月23日 · 1)NVIDIA RTX:具有光线追踪技术,可以模拟光的物理行为,从而在计算机生成的场景实现更逼真的效果;还提供深度学习技术NVIDIA DLSS,将人工智能引入到游戏内的物理/动画模拟、实时渲染和 AI 增强的直播功能。
2023年11月10日 · 目前生产 GPU 主流厂商其实并不多,主要就是 NVIDIA、AMD、Intel、高通等厂家。本文将主要聊聊 NVIDIA GPU 的核心架构及架构演进。深入了解GPU架构 在探讨 NVIDIA GPU 架构之前,我们先来了解一些相关的基本知识。
上面这句话有几个概念解释一下. SM: 对应于上图中的SM硬件实体,内部有很多的CUDA Cores. Thread Block: 一个Thread Block包含多个线程(比如几百个),多个Blocks之间的执行完全独立,硬件可以任意调度多个Block间的执行顺序,而Block内部的多个线程执行规则由程序员决定,程同时程序员可以决定一共有多少个Blocks. Thread Warp: 32个线程为一个Thread Warp,Warp的调度有特殊规则,本文后面会继续深入. 由于本文不是讲怎么写CUDA,所以如果对SM/Block的解释仍然不明白,可以参考这一小节 docs.nvidia.com/cuda/cu.