float16類型在深度學習領域CNN的模型壓縮,加速推理中常用,因為float32太占空間了。
在numpy中:
float16 半精度浮點數,包括:1 個符號位,5 個指數位,10 個尾數位
float32 單精度浮點數,包括:1 個符號位,8 個指數位,23 個尾數位
float64 雙精度浮點數,包括:1 個符號位,11 個指數位,52 個尾數位
但是在壹些芯片相關推理框架(c/c++實現)中確實有float16,還不清楚其怎麽實現的。