当前位置: 首页 > article >正文

英伟达显卡系列与架构、代表产品

主要系列

1、GeForce系列:

        GeForce系列是NVIDIA最主要的消费者显卡系列,用于游戏和娱乐。包括不同性能水平的产品,从入门级到高端。

2、Quadro系列:

        Quadro系列是专业级别的显卡,主要用于专业图形工作站,如CAD(计算机辅助设计)和3D建模。

3、Tesla系列:

        Tesla系列是用于高性能计算和科学计算的显卡,通常用于数据中心和超级计算机。

主要架构

1、Tesla 架构 (2006)(芯片代号:GT)

        Tesla 架构是 NVIDIA 推出的第一个通用并行计算(GPGPU)架构,主要用于科学计算和高性能计算。

代表产品:Tesla C870/GeForce 8800 GTX

2、Fermi 架构 (2010)(芯片代号:GF)

        Fermi 架构引入了许多新技术,包括CUDA架构、ECC内存、NVIDIA Parallel DataCache、和GPU直接支持C++等。这个架构的GPU主要用于科学计算、图形处理和高性能计算。

代表产品:Tesla C2050/GeForce GTX 480

3、Kepler 架构 (2012)(芯片代号:GK)

        Kepler 架构在功耗效率和性能方面进行了改进,引入了GPU Boost技术,增加了对动态并行计算的支持。这个架构的GPU在科学计算、深度学习和游戏等领域取得了显著的成功。

代表产品:Tesla K40/GeForce GTX 680

4、Maxwell 架构 (2014)(芯片代号:GM)

        Maxwell 架构进一步提高了功耗效率,并引入了一些新的技术,例如多层次的内存系统、动态超分辨率技术和VR Direct技术。这个架构的GPU被广泛应用于游戏、深度学习和移动设备。

代表产品:Tesla M40/GeForce GTX 980

5、Pascal 架构 (2016)(芯片代号:GP)

        Pascal 架构引入了16nm FinFET制程技术,提供了更高的性能和功耗效率。同时,它加强了对深度学习和人工智能计算的支持,引入了NVIDIA 的Tensor Cores。Pascal 架构的GPU广泛应用于深度学习和高性能计算领域。

代表产品:Tesla P100/GeForce GTX 1080

6、Volta 架构 (2017)(芯片代号:GV)

        Volta 架构引入了更多的深度学习优化特性,如Tensor Cores和专为深度学习工作负载而设计的TensorRT。Volta 架构的GPU主要用于深度学习、科学计算和高性能计算。

代表产品:Tesla V100

7、Turing 架构 (2018)(芯片代号:TU)

       Turing 架构引入了实时光线追踪技术、深度学习技术(如RT Cores和Tensor Cores)以及新的流程图渲染技术。这个架构的GPU主要应用于游戏、深度学习和专业可视化等领域。

代表产品:Tesla T4/GeForce RTX 2080 Ti

8、Ampere 架构 (2020)(芯片代号:GA)

        Ampere 架构是 NVIDIA 的第二代深度学习架构,引入了更多的Tensor Cores、第三代NVLink以及改进的Ray Tracing技术。Ampere 架构的GPU广泛应用于深度学习、科学计算和高性能计算领域。

代表产品:Telsa A100/GeForce RTX 3080

9、Ada Lovelace 架构 (2022)(芯片代号:AD)

         这个架构是专为光线追踪和基于 AI 的神经图形设计的 GPU,能够提供高性能的游戏、专业图形、AI 和计算性能。该架构显著提高了 GPU 性能基准,更代表着光线追踪和神经图形的转折点。Ada Lovelace 架构引入了第四代 Tensor Core,可加速 AI 计算,以及第三代 RT Core,可加速光线追踪。

代表产品:GeForce RTX 4080

10、Hopper 架构 (2022)(芯片代号:GH)

        H100 NVL GPU是英伟达公司的下一代加速计算平台,采用了全新的Hopper架构。该GPU支持PCIe 5.0标准,具有40Tb/s的IO带宽,可承载全球互联网的流量。H100 GPU还包括一个专用的Transformer引擎,可解决万亿参数语言模型。H100的技术创新可以将大型语言模型(LLMs)的速度提高30倍,是业界领先的对话AI。H100 NVL GPU可在任何数据中心中实现最佳性能和易于扩展性,从而将LLMs带入主流。H100 NVL GPU可在功耗受限的数据中心环境中将GPT-175B模型性能提高12倍,同时保持低延迟。H100 GPU还提供了五年的订阅服务,包括企业支持,以及NVIDIA AI Enterprise软件套件,为企业级AI提供最高性能。

代表产品:Telsa H100


http://www.kler.cn/a/161113.html

相关文章:

  • F5全新报告揭示AI时代API安全面临严峻挑战
  • 【C++】详解RAII思想与智能指针
  • 【Linux】基础IO及文件描述符相关内容详细梳理
  • 【C++】详细介绍模版进阶,细节满满
  • Linux入门:环境变量与进程地址空间
  • 速盾:游戏盾的功能和原理详解
  • 基于JavaScript的jimp库处理图片,添加绘制点
  • 【华为od】存在一个m*n的二维数组,其成员取值范围为0,1。其中值为1的元素具备扩散性,每经过1S,将上下左右值为0的元素同化为1。
  • 要求CHATGPT高质量回答的艺术:提示工程技术的完整指南—第 23 章:命名实体识别提示
  • 《QDebug 2023年11月》
  • 要求CHATGPT高质量回答的艺术:提示工程技术的完整指南—第 7 章:让我们想一想 提示语
  • 背包问题学习
  • 数据结构与算法编程题50
  • NC 比telnet 强大网络命令
  • 我有才打造知识付费小程序
  • simulink trigger模块使用——多种调用案例分析
  • 出海电商中的技术护航:Socks5代理与代理IP的应用
  • 第16关 革新云计算:如何利用弹性容器与托管K8S实现极速服务POD扩缩容
  • JVM垃圾回收机制GC
  • Spring cloud - gateway
  • 【微软技术栈】基于任务的异步编程
  • 简单3D姿态基线模型网络架构与验证【SIM】
  • 生成器简述 - python 基础进阶知识点补全(一)
  • 【C++】多线程(二):std::mutex std::atomic的使用
  • hive里如何高效生成唯一ID
  • 私域最全养号攻略---微信