当前位置: 首页 > article >正文

NVIDIA Deep Learning Accelerator (DLA) 支持的几种张量格式

模型部署


文章目录

  • 模型部署
  • 前言
  • 参考


前言

DLA_LINEAR 是 NVIDIA Deep Learning Accelerator (DLA) 所支持的一种内存组织方式,它是一种行优先存储的连续内存块格式,用于存储卷积层和全连接层的输入输出数据。在 DLA_LINEAR 格式中,每个元素都是一个定点数,可以是 8 位或 16 位,具体取决于网络的精度要求。
在 DLA_LINEAR 格式中,一维数组中的每个元素都是一个定点数,代表了卷积核或全连接层的一个输入或输出通道的值。对于卷积层输入数据来说,一维数组中的每个元素表示了一个图像块中的所有通道的值,而对于卷积层输出数据和全连接层数据来说,一维数组中的每个元素表示了一个样本的所有通道的值。具体来说,对于一个大小为 (B, C, H, W) 的输入数据,它在 DLA_LINEAR 格式中的内存布局如下:

DLA_LINEAR[N] = [x11, x12, ..., x1C, x21, x22, ..., x2C, ..., xB1, xB2, ..., xBC],

其中 N = B * C * H * W,xij 表示第 i 个样本的第 j 个通道的第一个元素的值,元素按照行优先存储。
例如,假设有一个大小为 (2, 3, 4, 4) 的输入数据,它在 DLA_LINEAR 格式中的存储方式如下:

input = np.arange(2 * 3 * 4 * 4).reshape((2, 3, 4, 4)).astype(np.int8)
input_linear = input.transpose((0, 2, 3, 1)).reshape((-1,))
print(input_linear)

输出:

[  0   1   2   3   4   5   6   7   8   9  10  11  12  13  14  15  16  17
  18  19  20  21  22  23  24  25  26  27  28  29  30  31  32  33  34  35
  36  37  38  39  40  41  42  43  44  45  46  47  48  49  50  51  52  53
  54  55  56  57  58  59  60  61  62  63   0   1   2   3   4   5   6   7
   8   9  10  11  12  13  14  15  16  17  18  19  20  21  22  23  24  25
  26  27  28  29  30  31  32  33  34  35  36  37  38  39  40  41  42  43
  44  45  46  47  48  49  50  51  52  53  54  55  56  57  58  59  60  61
  62  63  64  65  66  67  68  69  70  71  72  73  74  75  76  77  78  79
  80  81  82  83  84  85  86  87  88  89  90  91  92  93  94  95  96  97
  98  99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115
 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133
 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151
 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169
 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187
 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205
 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223
 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241
 242 243 244 245 246 247 248 249 250 251 252 253 254 255]

可以看到,原先的 (2, 3, 4, 4) 的四维数组被转换成了一个长度为 192 的一维数组,每个元素都是一个 int8 类型的定点数。

参考

https://docs.nvidia.com/deeplearning/tensorrt/api/python_api/infer/Graph/LayerBase.html


http://www.kler.cn/a/37497.html

相关文章:

  • 3ds Max 无插件制作燃烧的火焰动画特效
  • 直方图 直方图均衡化
  • VScode 终端无法识别npm以及Missing script: “serve“ 问题
  • SpringBoot第22讲:SpringBoot如何实现接口限流之分布式
  • 如何保证消息的可靠性+延迟队列(TTL+死信队列+延迟队列)
  • 小程序:页面跳转闪屏
  • SpringCloud分布式搜索引擎、数据聚合、ES和MQ的结合使用、ES集群的问题
  • Kafka 概述、Filebeat+Kafka+ELK
  • 2023机器人操作系统(ROS)暑期学校预热-线下时间/地点-(转发)
  • 2023年7月最新ESI 中国 国内高校排名(附上下载链接),
  • Android adb说明与详解
  • centos 配置好网络后无法ping 通百度
  • 后端表情包依赖+自定义注解实现校验
  • Stable Diffusion 丝滑无闪烁AI动画 Temporalkit+Ebsynth+Controlnet
  • -bash: fork: Cannot allocate memory处理
  • VectorCAST单元测试手动配置测试用例
  • 谈谈VPN是什么、类型、使用场景、工作原理
  • pytong之语音环境:edge-tts and edge-playback
  • 使用matlab随机森林进行数据分类预测
  • MySQL的数据备份与还原--练习题