社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  Python

开源版GPT-4代码解释器,可安装任意Python库,本地终端运行

AIGC开放社区 • 1 年前 • 311 次点击  

专注AIGC领域的专业社区,关注OpenAI、百度文心一言等大语言模型(LLM)的发展和应用落地,关注LLM的基准评测和市场研究,欢迎关注!

克雷西 发自 凹非寺
量子位 公众号 | QbitAI

ChatGPT的代码解释器,用自己的电脑也能运行了。

刚刚有位大神在GitHub上发布了本地版的代码解释器,很快就凭借3k+星标并登顶GitHub热榜

不仅GPT-4本来有的功能它都有,关键是还可以联网

开源地址:https://github.com/KillianLucas/open-interpreter

ChatGPT“断网”的消息传出后引起了一片哗然,而且一关就是几个月。

这几个月间联网功能一直杳无音讯,现在可算是有解决的办法了。

由于代码是在本地运行,所以除了联网之外,它还解决了网页版的很多其他问题:

  • 3小时只能发50条消息

  • 支持的Python模块数量有限

  • 处理文件大小有限制,不能超过100MB

  • 关闭会话窗口之后,此前生成的文件会被删除

如果没有API,还可以把模型换成开源的Code LLaMa。

这个代码解释器推出之后,很快有网友表示期待一波网页版:

那么我们就来看看这个本地代码解释器到底怎么样吧!

让GPT“重新联网”

既然调用了GPT-4的API,那GPT-4支持的功能自然都能用,当然也支持中文。

关于GPT本身的功能这里就不再一一详细展示了。

不过值得一提的是,有了代码解释器之后,GPT的数学水平提升了好几个档次。

所以这里我们用一个高难度的求导问题来考验一下它,题目是f(x)=√(x+√(x+√x))。

Emmm……这个结果有些抽象,不过应该是提示词的问题,我们修改一下:

然后我们就看到了这样的结果:

这个式子和标准答案长得不太一样,不过是不是格式的问题呢?我们验证了一下:

结果是正确的!

接下来就要进入重头戏了,来看看这个代码解释器的联网功能到底是不是噱头:

比如我们想看一下最近有什么新闻。

程序会首先检查有没有安装必备的模块,如果没有的话会自动安装,然后就开始拉取网页了。

不得不说把整个网页都读取一遍,如果不是在本地运行,看着屏幕上滚动的代码,的确是有些肝儿颤……

然后程序会分析出新闻标题存储在了网友中的什么字段,并进行提取。

好在经历了一番折腾,我们最终得到了想要的结果:

除了让它自行搜索,也可以给出具体的网页让它来分析:

又一次的疯狂加载之后,代码解释器成功复现出了它的自我介绍。

那出了复刻了ChatGPT的联网版本,有没有什么更高级的功能呢?

当然有!比如我们想调整一项系统设置,但不知道怎么操作。

如果用网页版,我们大概率会看到一长串的文字说明,但现在直接交给代码解释器就可以了。

不是给出一大段不知所云的教程,而是自动运行代码,直接一步到位。

除了让GPT-4生成代码,一些代码仓库中的工具,也能通过它来调用。

比如想给一段视频添加字幕,那么就可以调用replicate上现成的语音识别模块。

由于手边没有现成的素材,这里就展示一下开发者给出的DEMO:

代码运行的过程是在本地进行的,所以不用担心视频大小超限。

总之,运行好之后,我们就可以看到字幕出现在视频下方了:

同样,利用这一特性还可以生成、修改文档或图片,或者调用ControlNet由一张静态图生成动画……

理论上,只要性能足够,Python能干的所有事情,它都能完成。

那么,怎么才能体验到这个本地代码解释器呢?

安装方法

作者在GitHub项目页(链接见文末)贴出了一份Colab笔记,有条件的网友可以直接进去体验。

在本地安装也非常简单(前提是安装好了Python),只需要一行“pip install open-interpreter”的代码就能搞定。

安装好后,在终端中输入“interpreter”就能直接启动。

这时程序会要求输入GPT-4的API,如果只有3.5的话,启动时要用“interpreter --fast”。

如果3.5也没有的话,可以直接在这步按回车,或者启动时直接输入“interpreter --local”,切换成Code-LLaMA。

其中包括7B、13B和34B三个版本,规模越小速度越快,越大结果越精确。

如果没有安装Code-LLaMA,按照程序的指示操作就能自动装好。

此外,默认情况下,代码生成之后需要确认才会运行,如果不想每次都确认,可以在启动时在命令后面加上“空格-y”。

常用的命令就介绍到这里了,如果想知道更高级的玩法可以参考作者的Colab笔记。

喜欢的话就赶快体验一下吧!

本文来源量子位,如有侵权请联系删除

END

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/161581
 
311 次点击