使用AutoGPT自动拆解任务

新知榜官方账号

2023-07-10 06:02:34

使用AutoGPT自动拆解任务

当我们使用ChatGPT完成某些工作的时候,往往需要多轮对话,比如让ChatGPT分析、翻译、总结一篇网上的文章或者文档,再将总结的结果以文本的形式存储在本地。过程中免不了要和ChatGPT“折冲樽俎”一番,事实上,这个“交涉”的过程也可以自动化,AutoGPT可以帮助我们自动拆解任务,没错,程序能做到的事情,人类绝不亲力亲为。我们唯一需要做的,就是告诉AutoGPT一个任务目标,AutoGPT会自动根据任务目标将任务拆解成一个个的小任务,并且逐个完成,简单且高效。

配置AutoGPT先确保本地环境安装好了Python3.10.9。接着运行Git命令拉取项目:gitclonehttps://github.com/Significant-Gravitas/Auto-GPT.git随后进入项目的目录:cdAuto-GPT安装相关的依赖库:pip3install-rrequirements.txt安装成功后,复制一下项目的配置文件:cp.env.template.env这里通过cp命令将配置文件模版.env.template复制成为一个新的配置文件.env。随后将Openai的秘钥填入配置文件:###OPENAI#OPENAI_API_KEY-OpenAIAPIKey(Example:my-openai-api-key)#TEMPERATURE-SetstemperatureinOpenAI(Default:0)#USE_AZURE-UseAzureOpenAIornot(Default:False)OPENAI_API_KEY=您的秘钥TEMPERATURE=0USE_AZURE=False除了Openai官方的接口秘钥,AutoGPT也支持微软Azure的接口。如果希望使用微软Azure的接口,需要将配置中的USE_AZURE设置为True,随后复制azure.yaml.template配置模版为新的azure.yaml配置文件。接着将微软Azure服务的秘钥填入azure.yaml即可。由于微软Azure接入Openai接口需要极其复杂的申请流程,这里还是直接使用OpenAI官方的接口。当然了,如果不想在本地装那么多依赖,也可以通过Docker来构建Auto-GPT的容器:dockerbuild-tautogpt.dockerrun-it--env-file=./.env-v$PWD/auto_gpt_workspace:/app/auto_gpt_workspaceautogpt这里Docker会自动读取项目中的Dockerfile配置文件进行构建,相当方便。至此,Auto-GPT就配置好了。

运行Auto-GPT在项目根目录运行命令:python3-mautogpt--debug即可启动AutoGPT。AutoGPT会自动拆解任务并完成多步骤操作。AutoGPT还具有扫描互联网或在用户计算机上执行命令以获取信息的能力,这使其有别于可能仅依赖于预先存在的数据集的其他人工智能程序。

苹果Mac电脑可以完成机器学习和深度学习任务

本文介绍了苹果Mac电脑可以完成机器学习和深度学习任务,并且通过深度学习框架Tensorflow的安装和运行进行了佐证,同时还对Tensorflow的CPU和GPU的两种模型训练模式进行了深度对比和测试。

结语AutoGPT和其他AI程序的不同之处在于,它专门专注于在无需人工干预的情况下生成提示和自动执行多步骤任务。AutoGPT的底层逻辑并不复杂:先通过搜索引擎检索任务,然后把结果和目标丢给gpt让它给出序列化方案json,再把方案分段丢给gpt,最后用shell去创建Python文件+json.load并且执行,是一个反复递归的过程。不能否认的是,虽然实现逻辑简单,但这无疑是一种“自我进化”的过程,相信随着时间的推移,AutoGPT可以更好地处理愈加复杂的任务。

本页网址:https://www.xinzhibang.net/article_detail-7277.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AutoGPT ChatGPT 机器学习 深度学习 Tensorflow OpenAI

分享至微信: 微信扫码阅读

相关工具

相关文章