科技

压缩算法为大语言模型“瘦身”

2024年11月22日 | 查看: 58375

  据美国科学促进会旗下网站19日报道,美国普林斯顿大学和斯坦福大学团队开发出一种新压缩算法CALDERA,能精简大型语言模型(LLM)的海量数据,为LLM“瘦身”。这项算法不仅有助保护数据隐私、节约能源、降低成本,还能推动LLM在手机和笔记本电脑上高效使用。

压缩算法为大语言模型“瘦身”
图片来源于网络,如有侵权,请联系删除

  团队举例称,当人们使用ChatGPT时,请求会被发送到OpenAI公司的后端服务器进行处理。这一过程不仅成本高昂、能耗巨大,通常还很慢。如果用户想要使用消费级图形处理单元运行LLM,就需要对这些LLM进行压缩。

  CALDERA算法通过减少LLM冗余并降低信息层的精度来发挥作用。“瘦身”后的LLM更加精简,可在手机或笔记本电脑等设备上存储和访问,同时提供了与未压缩版本几乎一样准确而微妙的性能。

压缩算法为大语言模型“瘦身”
图片来源于网络,如有侵权,请联系删除

  虽然CALDERA并非首个压缩LLM的算法,但其独特之处在于兼具“低精度”和“低排序”两种特性。其中,“低精度”减少了比特数,加快了数据存储和处理速度。而“低排序”则降低了LLM数据中的冗余。

  团队表示,使用CALDERA压缩的LLM可能适用于那些对精度要求不是最高的场景。此外,用户可在智能手机或笔记本电脑等设备上对压缩后的LLM进行微调,这使其能根据特定需求调整模型来增强隐私,而无需与第三方共享敏感数据。

  不过团队也提醒道,在智能手机或笔记本电脑上运行LLM,可能会占用设备内存。(记者 刘霞)

【纠错】 【责任编辑:朱家齐】
    阅读下一篇:
      深度观察
      • 新华全媒头条丨江淮粮仓“扩容”记
      • 追光丨知道“三大球”的你,知道青少年三大球运动会吗?
      • 新华每日电讯丨上海最大单地块旧改项目100%签约背后
      • 聚焦大湾区丨秒过!旅客点赞深圳湾和拱北口岸“刷脸”通关
      • 新华全媒+丨找东北虎、野外搜救 “无人机+热成像”显身手
      • 新青年“兴”乡村丨大学生变身新农“领头雁”
      • 国道之行 海阔天空丨把定向招工式共富工坊开进田间车间
      • 穿越时空的团圆
      • 海南“巴厘村”架起文化桥梁

              推荐阅读:

              电动化智能化重塑汽车价值链

              上海:“车芯联动 ”探索芯片发展新模式

              人保车险|什么是NCD系数?它跟车险保费上涨有关?

              科技创新助推中国“智造”闪耀CES

              国内特种集成电路企业 成都华微IPO进入招股发行阶段

              多家公司业绩大幅预增 北交所“年报季”行情可期

              中国银河证券召开2024年党建和经营管理工作会议

              工信部推动超1.4亿台国产智能手机和智能电视适老化改造

              我国科学家成功实现无串扰的量子网络节点

              证监会副主席王建军:建设以投资者为本的资本市场

              关键词: