Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_308e2df3f4232ad08e1c5ca6c7314ec4, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
腾讯推出0.4G离线翻译模型 比谷歌翻译得好 | 温哥华教育中心
   

[腾讯] 腾讯推出0.4G离线翻译模型 比谷歌翻译得好

4月29日,腾讯混元推出并开源极致量化压缩版本翻译模型 Hy-MT1.5-1.8B-1.25bit,把支持 33 种语言的翻译大模型压缩至 440MB,无需联网,下载即可直接在手机本地运行,翻译质量优于谷歌翻译。




翻译质量及速度演示(设备:高通骁龙 865 8GB 内存)

这一离线翻译模型基于混元翻译大模型Hy-mt1.5打造 。Hy-mt1.5 是腾讯混元团队打造的专业翻译大模型,原生支持 33 种语言、5 种方言/民汉及 1056 个翻译方向。从常见的中英互译,到法语、日语、阿拉伯语、俄语,甚至藏语、蒙古语等少数民族语言,它都能游刃有余地处理。

值得注意到是,仅以 1.8B 参数量,Hy-mt1.5 实现了比肩商业翻译 API 和 235B 级大模型的翻译效果 。在严格的评测基准中,其翻译质量不仅超越了 Google 翻译等主流系统,更证明了在高效优化下,轻量级模型能够展现出亮眼的翻译能力。



在实际业务场景中,混元团队发现,原始的 1.8B 模型即使在 FP16 精度下,依然占用 3.3GB 内存,对于手机上金子般珍贵的内存来说,依然太大、太慢,所以需要量化压缩。

所谓的量化压缩,就是通过把模型里原本用16位数字(16-bit)表示的参数转用更低位数字储存,这就像把一幅高清照片压缩成缩略图,文件小了很多,但你还是能看清楚里面的内容。 针对不同的手机用户, 腾讯特别推出了2-bit 与 1.25-bit 两种极致的量化压缩方案。




2-bit模型在 SME2 及 Neon 内核的速度对比演示。



[物价飞涨的时候 这样省钱购物很爽]
无评论不新闻,发表一下您的意见吧
上一页123下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     延伸阅读 更多...
    微信朋友圈排版悄悄更新?腾讯客服回应 OpenClaw中国镜像上线!字节赞助,腾讯尴尬了!
    中国第一纳税大户 相当于21个华为 28个腾讯 AI变现前景不明,阿里,腾讯市值合计蒸发超4500亿
    给人新人机会,让剧作长青——腾讯视频以人才新血,相应行业新声 为什么腾讯能一口气推出这么多"龙虾"?
    腾讯 "龙虾战队" 回应一切:伪需求、FOMO 与安全 腾讯正秘密开发微信智能体,可能年底前推出
    阿里字节腾讯…巨头集体下场了(图 热播剧《逐玉》被指热度值造假,腾讯视频道歉:页面展示错误
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)



    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站