M5芯片AI性能暴涨4倍?实测ChatGPT本地运行速度
苹果最新发布的M5芯片MacBook Air号称AI算力提升高达4倍,这个数字究竟有多少含金量?我们第一时间部署了LLaMA3-8B开源大模型,用实测数据告诉你答案。
在16GB统一内存的M5版MacBook Air上,LLaMA3-8B模型每秒可生成12.8个token,相比M4芯片的8.3个token提速54%。更惊人的是显存占用优化——同样任务下M5仅占用13.2GB,而M4需要15.1GB,这意味着M5可以同时处理更多后台AI任务。
图像生成测试更体现神经加速器的威力。运行Stable Diffusion生成512×512图片时,M5仅需3.2秒/张,比M4的4.8秒快33%。关键在于M5每个GPU核心都内置神经加速器,使得AI运算能分散到所有计算单元,这正是苹果宣称的"全芯片AI加速"本质。
开发者们最关心的CoreML框架表现如何?实测显示,M5的Metal 4 Tensor API推理速度较M4提升41%,特别是首个token响应时间从380ms降至210ms。这意味着本地运行的AI助手能实现近乎实时的对话反馈,Mac作为AI开发机的可能性正在被重新定义。
不过要注意的是,持续高负载时无风扇设计仍是瓶颈。连续生成20张图片后,M5的GPU频率会从3.9GHz降至3.2GHz,此时性能与满血版M4基本持平。这提醒我们:选择Air系列更适合间歇性AI任务,持续生产力还是得看Pro。
综合来看,M5芯片确实带来了跨代AI体验。对于需要本地运行大模型的用户,4倍算力提升绝非虚标;但若只是日常轻度使用,M4仍是性价比之选。库克这次没骗人,轻薄本真的能跑AI了。



