首页|必读|视频|专访|运营|制造|监管|大数据|物联网|量子|低空经济|智能汽车|特约记者
手机|互联网|IT|5G|光通信|人工智能|云计算|芯片|报告|智慧城市|移动互联网|会展
首页 >> 终端 >> 正文

树莓派 Zero“硬核改造”:8 年老设备实现本地运行大语言模型

2025年2月18日 09:46  IT之家  作 者:远洋

2 月 18 日消息,近年来,本地运行大语言模型(LLM)的趋势愈发明显,越来越多的人开始在个人电脑或系统上部署这些模型。

IT之家注意到,越南开发者 Binh Pham 最近尝试使用树莓派 Zero(Raspberry Pi Zero)进行了一项创新实验。他成功地将这款设备改造为一个小型 USB 驱动器,使其能够在本地运行 LLM,无需任何额外设备。这一项目主要得益于 llama.cpp 和 llamafile 的支持,这两者结合了指令集和一系列轻量级软件包,旨在提供一种离线的轻量级聊天机器人体验。

然而,由于树莓派 Zero 已经问世八年,其硬件性能有限,因此将 llama.cpp 移植到该设备并非易事。首先,Pham 将设备连接到 USB 接口,并为其 3D 打印了一个外壳。

在解决了硬件问题后,项目又因树莓派 Zero W 的 512MB 内存限制而变得更加复杂。在尝试将 llama.cpp 编译到该设备时,Pham 遇到了失败,此前也无人尝试在树莓派 Zero 或 One 上编译该软件。

问题的根源在于树莓派 Zero 的 CPU 采用的是 ARMv6 架构。为了克服这一障碍,Pham 不得不对 llama.cpp 的 ARMv8 指令集进行转换,并移除所有基于现代硬件的优化或注释。

在成功修改 llama.cpp 源代码后,Pham 将注意力转向软件的运行和用户体验的优化。他构建了一个基于文本文件输入的 LLM 实现,这些文本文件作为主要的提示,而 LLM 则会根据这些提示生成故事,并以完整的输出文件形式返回。

为了测试性能,Pham 设置了 64 个 token 的限制,并对 15M 到 136M 不等的多个模型进行了基准测试。其中,Tiny15M 模型的每个 token 处理速度为 223 毫秒,而较大的 Lamini-T5-Flan-77M 模型的每个 token 处理速度为 2.5 秒,SmolLM2-136M 模型的每个 token 处理速度为 2.2 秒。

这些 token 处理速度表明,该设备在许多实际应用场景中可能会显得过慢。尽管这一项目具有创新性,但在实际应用中,使用老旧的轻量级硬件运行本地 LLM 并不具备太多实用价值。相比之下,使用更复杂的模型,例如在树莓派 5 上运行 Deepseek,可能会是更好的选择。

编 辑:章芳
飞象网版权及免责声明:
1.本网刊载内容,凡注明来源为“飞象网”和“飞象原创”皆属飞象网版权所有,未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载,请必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和飞象网来源。
2.凡注明“来源:XXXX”的作品,均转载自其它媒体,在于传播更多行业信息,并不代表本网赞同其观点和对其真实性负责。
3.如因作品内容、版权和其它问题,请在相关作品刊发之日起30日内与本网联系,我们将第一时间予以处理。
本站联系电话为86-010-87765777,邮件后缀为cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
相关新闻              
 
人物
vivo胡柏山:手机行业是最典型的新质生产力代表
精彩专题
低空经济2025:助力中国经济腾飞,成就高质量发展
2024通信业年终盘点
2024数字科技生态大会
2024年度中国光电缆优质供应商评选活动
CCTIME推荐
关于我们 | 广告报价 | 联系我们 | 隐私声明 | 本站地图
CCTIME飞象网 CopyRight © 2007-2024 By CCTIME.COM
京ICP备08004280号-1  电信与信息服务业务经营许可证080234号 京公网安备110105000771号
公司名称: 北京飞象互动文化传媒有限公司
未经书面许可,禁止转载、摘编、复制、镜像