-
关于profiling.py 输出结果的问题
——来自《深度神经网络模型压缩- 第一期》·21浏览
@邱逸鹏大帅哥 请教关于RELU 有没有好的解决方法呢?
-
sensitive_layer_num 参数
——来自《深度神经网络模型压缩- 第一期》·22浏览
@邱逸鹏大帅哥 那是什么原因没有开放这个功能?
-
data_num 参数表示含义
——来自《深度神经网络模型压缩- 第一期》·13浏览
@邱逸鹏大帅哥 是,我也是看源码的时候发现这个batch 具体是咋回事
-
量化过程中校准数据越多越好吗
——来自《深度神经网络模型压缩- 第一期》·11浏览
@邱逸鹏大帅哥 嗯呢,你说的模型输入空间这个概念有点意思,我自己研究研究,谢谢了~
-
请问课程中qnn docker 环境怎么下载
——来自《深度神经网络模型压缩- 第一期》·15浏览
谢谢,已经成功跑起来了
-
余弦相似度能不能作为评价量化的指标?
——来自《深度神经网络模型压缩- 第一期》·16浏览
@谷石桥 信噪比是不是比余弦相似度更好的指标?
-
再请教个问题,如果只在配置的那个地方改成true,那当初设置为false的初衷是什么
-
qnn原生量化一般的量化策略选择
——来自《深度神经网络模型压缩- 第一期》·17浏览
@悦雯 嗯呢,这个是好方法。谢谢
-
@悦雯 好
-
dipoorlet量化工具对齐
——来自《深度神经网络模型压缩- 第一期》·6浏览
-
关于模型量化出现异常值的问题
——来自《深度神经网络模型压缩- 第一期》·8浏览
@悦雯 好的,谢谢
-
左边如果是反量化的结果,那就对了
-
先说结论,都会减少;
你量化之后的模型会减少模型参数的存储大小。比如把32位浮点数量化为8位整数后,每个参数的存储需求减少了75%; -
为什么量化后的加速效果不是成倍增加的?
——来自《深度神经网络模型压缩- 精品课》·6浏览
还有一个问题就是混合精度的计算的开销不是完全按照成倍去算的
-
对,int8 不是全都是int8计算的,还有fp16,这种混合精度的开销不是2倍这么算的