Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_308e2df3f4232ad08e1c5ca6c7314ec4, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
腾讯推出0.4G离线翻译模型 比谷歌翻译得好 | 温哥华教育中心
   

[腾讯] 腾讯推出0.4G离线翻译模型 比谷歌翻译得好

原始1.8B模型在FP16精度下会占用3.3GB内存,为了不占用手机内存,研究人员进行了量化压缩。


其将模型里原本用16位数字(16-bit)表示的参数转用更低位数字储存。这就像把一幅高清照片压缩成缩略图,虽然文件小但还是能看清楚内容。

此外,针对不同的手机用户,腾讯还推出了2-bit与1.25-bit两种量化压缩方案。其实测显示,量化压缩后的两款模型表现效果远超同体积或更大体积大模型的翻译效果。



2-bit适用的中高端机型,模型体积压缩至574MB。

根据官方介绍,2-bit模型采用拉伸弹性量化(SEQ),将模型参数量化至{-1.5,-0.5,0.5,1.5},并结合量化感知蒸馏,在将模型体积压缩至574MB的同时,实现了几乎无损翻译质量,效果超越上百GB的大模型。在支持Arm SME2技术的移动设备上,2-bit模型能够实现更快速、更高效的推理。

1.25-bit模型适用全系机型,模型体积为440MB。

这一模型基于Sherry(稀疏高效三值量化)技术,其核心逻辑在于“细粒度稀疏”策略:每4个模型参数,3个最重要的用1-bit储存,1个用0储存,平均每个参数仅需1.25-bit。




此外,其还搭载了腾讯为手机CPU设计的STQ内核,适配SIMD指令集。这使得该模型能长时间在后台停留。Sherry技术方案已经被NLP顶级学术会议ACL 2026录用。



结语:腾讯混元拉低离线翻译普及门槛AI翻译已成为手机、输入法、浏览器、会议、客服工具等各种工具的标配功能,但大多工具仍是联网调用云端API,离线能力弱、体验差、隐私风险高。

腾讯混元此次开源轻量化翻译模型,用几百MB级的体积实现了媲美云端大模型的翻译质量,或直接把高端离线翻译从云端特权拉到手机可普及的门槛。

[加西网正招聘多名全职sales 待遇优]
无评论不新闻,发表一下您的意见吧
上一页123下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     延伸阅读 更多...
    微信朋友圈排版悄悄更新?腾讯客服回应 OpenClaw中国镜像上线!字节赞助,腾讯尴尬了!
    中国第一纳税大户 相当于21个华为 28个腾讯 AI变现前景不明,阿里,腾讯市值合计蒸发超4500亿
    给人新人机会,让剧作长青——腾讯视频以人才新血,相应行业新声 为什么腾讯能一口气推出这么多"龙虾"?
    腾讯 "龙虾战队" 回应一切:伪需求、FOMO 与安全 腾讯正秘密开发微信智能体,可能年底前推出
    阿里字节腾讯…巨头集体下场了(图 热播剧《逐玉》被指热度值造假,腾讯视频道歉:页面展示错误
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)



    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站