http://anonymouselectronica.net/bosubi/472/
波速比

以便更容易地优化模型

字号+ 作者:admin 来源:未知 2018-11-08 14:18 我要评论( )

这些优化将确保将最终模子中精度降低的操作定义与利用fixed-point和floating-point数学夹杂的内核实现配对。这将以较低的精度快速施行最繁重的计较,可是以较高的精度施行最敏感的计较,因而凡是会导致使命的最终精度丧失很小,以至没有丧失,但比拟纯浮点施

  这些优化将确保将最终模子中精度降低的操作定义与利用fixed-point和floating-point数学夹杂的内核实现配对。这将以较低的精度快速施行最繁重的计较,可是以较高的精度施行最敏感的计较,因而凡是会导致使命的最终精度丧失很小,以至没有丧失,但比拟纯浮点施行而言速度较着提高。

  相关模子尺寸缩小和施行时间加快,请拜见下图(利用单焦点在Android Pixel 2手机长进行丈量)。

  图3:精度比力:除 mobilenets外,优化后的模子的精度下降几乎能够忽略不计

  我们将继续改良post-training量化手艺以及其他手艺,以便更容易地优化模子。这些将集成到相关的TensorFlow工作流中,使它们易于利用。

  在底层,我们通过将参数(即神经收集权重)的精度从锻炼时的32位浮点暗示降低到更小、更高效的8位整数暗示来运转优化(也称为量化)。 相关细致消息,请参阅post-training量化指南。

  这些手艺对于优化任何用于摆设的TensorFlow模子都很是有用。出格是对于在内存严重、功耗限制和存储无限的设备上供给模子的TensorFlow Lite开辟人员来说,这些手艺特别主要。

  通过量化模子,开辟人员还将获得降低功耗的额外益处。这对于将模子摆设到手机之外的终端设备长短常有用的。

  今天,压缩波速比TensorFlow发布了一个新的优化东西包:一套能够闪开发者,无论是新手仍是高级开辟人员,都能够利用来优化机械进修模子以进行摆设和施行的手艺。

  这些加快和模子尺寸的减小对精度影响很小。一般来说,对于手头的使命来说曾经很小的模子(例如,用于图像分类的mobilenet v1)可能会发生更多的精度丧失。对于这些模子,我们供给预锻炼的完全量化模子(fully-quantized models)。

  【新智元导读】TensorFlow发布了一个新的优化东西包,引入post-training模子量化手艺,将模子大小缩小了4倍,施行速度提拔了3倍!

  对于没有婚配的“夹杂”内核的操作,或者东西包认为需要的操作,它会将参数从头转换为更高的浮点精度以便施行。相关支撑的夹杂操作的列表,请参阅post-training quantizaton页面。

  此次添加支撑的第一个手艺是向TensorFlow Lite转换东西添加post-training模子量化(post-training quantizat

转载请注明出处。

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
  • 新登记市场主体25.4万户

    新登记市场主体25.4万户

    2018-11-08 14:18

  • 尤其较大图档的时候保存时间很慢及保存图档占用内存大

    尤其较大图档的时候保存时间很慢及保存图档占用内存大

    2018-11-08 14:18

  • 可能还会涉及老房子产权不完整、产证不齐全

    可能还会涉及老房子产权不完整、产证不齐全

    2018-11-08 14:18

  • 全国票据交易额达120万亿

    全国票据交易额达120万亿

    2018-11-08 14:17

网友点评
无法在这个位置找到: ajaxfeedback.htm