在MacbookProM1上构建一个能够运行的AI助手

新知榜官方账号

2023-09-25 16:56:32

背景

在国内经常会遇到各种网络问题,而且一旦失去网络连接就无法使用Chatgpt,此外,Chatgpt是需要付费的。在2023年,GPT将迎来发展元年,我相信未来每个人都应该有自己的Chatgpt大模型,而不仅仅是大型机构才能拥有。未来,对于Chatgpt大模型所需的计算能力,应该是人人都能负担得起的,就像现在的个人电脑一样。

本文主要介绍如何利用Facebook开源的LLAMA7B大模型和llama.cpp开源代码,在MacbookProM1上构建一个能够运行的AI助手。

步骤

第一步:下载7B的大模型

使用命令行方式下载curl-oggml-alpaca-7b-q4.bin-C-https://gateway.estuary.tech/gw/ipfs/QmQ1bf2BTnYxq73MFJWu1B7bQ2UD6qG7D7YDCxhTndVkPC或是直接使用浏览器打开,下载完成后文件改名为ggml-alpaca-7b-q4.bin:https://gateway.estuary.tech/gw/ipfs/QmQ1bf2BTnYxq73MFJWu1B7bQ2UD6qG7D7YDCxhTndVkPC

第二步:下载llama.cpp

llama.cpp工程是基于Facebook的llama开源项目进行改进的。请使用gitclone方式下载代码,以便以后轻松更新。当前项目更新速度较快。

git clone https://github.com/ggerganov/llama.cpp.git

第三步:编绎llama.cpp

进入llama.cpp,运行如下命令

make

如果没有报错则表示编绎成功了。在目录下会生成如下几个可执行文件:main、quantize。其中,main是启动会话的程序,而quantize目前不需要使用。

第四步:将ggml-alpaca-7b-q4.bin放到llama.cpp/models目录下

第五步:完成一个启动脚本start.sh

我们主要使用交互模式,并将可预测的令牌数设置为512,因此请按以下命令操作:

./main -m ./models/ggml-alpaca-7b-q4.bin --color-ins -r 'Me:' -n 512

启动后即可开始使用。生成的答案相比Chatgpt有点简陋,毕竟模型只有7B的参数,如果换到65B,应该效果会好很多。未来继续优化后会更好。

本页网址:https://www.xinzhibang.net/article_detail-13643.html

寻求报道,请 点击这里 微信扫码咨询

关键词

Chatgpt LLAMA7B AI助手

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯