用CPU本地运行LLM

  • 量子位
  • 2024-10-19 10:45:14
用CPU本地运行LLM Rust语言实现

没有GPU,也能运行LLM吗?

当然可以!这里有一个用CPU就可以在本地运行LLM的工具库,用Rust语言编写。

在下面的demo中,本地浏览器上就可以流畅运行LLM,它不仅可以解释代码,在你无聊的时候也可以给你讲笑话。

目前支持的模型包括Gemma2、Llama3.2和Phi-3.5中的一些小参数模型,日常任务肯定够用。(图3)

作者还表示开发这个项目是受到了大神karpathy的纯c语言llm的启发,llm的玩法真是越来越多了。

地址:网页链接
用CPU本地运行LLM用CPU本地运行LLM用CPU本地运行LLM