chatgpt生成方案文档 https://github.com/binary-husky/gpt_academic.git
的一个分支,提供了一个 库和 安装程序,以方便安装。
你可以到 页面下载 的离线安装包,解压后安装即可使用。或者也可以使用以下命令安装 :
pip install chatgpt-academic
配置项目请使用 。
2023.11.12: 某些依赖包尚不兼容 3.12,推荐 3.11。
2023.11.7: 安装依赖时,请选择.txt中指定的版本。 安装命令:pip -r .txt。本项目开源免费,近期发现有人蔑视开源协议并利用本项目违规圈钱,请提高警惕,谨防上当受骗。
GPT 学术优化 (GPT )
如果喜欢这个项目,请给它一个Star;如果您发明了好用的快捷键或插件,欢迎发pull !
If you like this , give it a Star. Read this in . All have been by the . To this to with GPT, read and run .py ().
1.请注意只有 高亮 标识的插件(按钮)才支持读取文件,部分插件位于插件区的下拉菜单中。另外我们以最高优先级欢迎和处理任何新插件的PR。
2.本项目中每个文件的功能都在自译解报告.md详细说明。随着版本的迭代,您也可以随时自行点击相关函数插件,调用GPT重新生成项目的自我解析报告。常见问题请查阅wiki。
3.本项目兼容并鼓励尝试国产大语言模型等。支持多个api-key共存,可在配置文件中填写如="-key1,-key2,azure-key3,api2d-key4"。需要临时更换时,在输入区输入临时的然后回车键提交后即可生效。
功能(⭐= 近期新增功能)描述
⭐接入新模型
百度千帆与文心一言, 通义千问Qwen,上海AI-Lab书生,讯飞星火,,智谱API,,
润色、翻译、代码解释
一键润色、翻译、查找论文语法错误、解释代码
自定义快捷键
支持自定义快捷键
模块化设计
支持自定义强大的插件,插件支持热更新
程序剖析
[插件] 一键剖析/C/C++/Java/Lua/...项目树 或 自我剖析
读论文、翻译论文
[插件] 一键解读latex/pdf论文全文并生成摘要
Latex全文翻译、润色
[插件] 一键翻译或润色latex论文
批量注释生成
[插件] 一键批量生成函数注释
中英互译
[插件] 看到上面5种语言的了吗?就是出自他的手笔
chat分析报告生成
[插件] 运行后自动生成总结汇报
PDF论文全文翻译功能
[插件] PDF论文提取题目&摘要+翻译全文(多线程)
Arxiv小助手
[插件] 输入arxiv文章url即可一键翻译摘要+下载PDF
Latex论文一键校对
[插件] 仿对Latex文章进行语法、拼写纠错+输出对照PDF
谷歌学术统合小助手
[插件] 给定任意谷歌学术搜索页面URL,让gpt帮你写
互联网信息聚合+GPT
[插件] 一键让GPT从互联网获取信息回答问题,让信息永不过时
⭐Arxiv论文精细翻译 ()
[插件] 一键以超高质量翻译arxiv论文,目前最好的论文翻译工具
⭐实时语音对话输入
[插件] 异步监听音频,自动断句,自动寻找回答时机
公式/图片/表格显示
可以同时显示公式的tex形式和渲染形式,支持公式、代码高亮
⭐多智能体插件
[插件] 借助微软,探索多Agent的智能涌现可能!
启动暗色主题
在浏览器url后面添加/?=dark可以切换dark主题
多LLM模型支持
同时被GPT3.5、GPT4、清华、复旦MOSS伺候的感觉一定会很不错吧?
⭐微调模型
支持加载微调模型,提供微调辅助插件
更多LLM模型接入,支持部署
加入接口(新必应),引入清华支持LLaMA和盘古α
⭐void- pip包
脱离GUI,在中直接调用本项目的所有函数插件(开发中)
⭐虚空终端插件
[插件] 能够使用自然语言直接调度本项目其他插件
更多新功能展示 (图像生成等) ……
见本文档结尾处 ……
安装方法I:直接运行 (, Linux or MacOS)
下载项目
git clone --depth=1 https://github.com/binary-husky/gpt_academic.git
cd gpt_academic
配置等变量
在.py中,配置API KEY等变量。特殊网络环境设置方法、Wiki-项目配置说明。
「 程序会优先检查是否存在名为.py的私密配置文件,并用其中的配置覆盖.py的同名配置。如您能理解以上读取逻辑,我们强烈建议您在.py同路径下创建一个名为.py的新配置文件,并使用.py配置项目,以确保更新或其他用户无法轻易查看您的私有配置 」。
「 支持通过环境变量配置项目,环境变量的书写格式参考-.yml文件或者我们的Wiki页面。配置读取优先级: 环境变量 > .py > .py 」。
安装依赖
# (选择I: 如熟悉python, python推荐版本 3.9 ~ 3.11)备注:使用官方pip源或者阿里pip源, 临时换源方法:python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
python -m pip install -r requirements.txt
# (选择II: 使用Anaconda)步骤也是类似的 (https://www.bilibili.com/video/BV1rc411W7Dr):
conda create -n gptac_venv python=3.11 # 创建anaconda环境
conda activate gptac_venv # 激活anaconda环境
python -m pip install -r requirements.txt # 这个步骤和pip安装一样的步骤
如果需要支持清华/复旦MOSS/RWKV作为后端,请点击展开此处
【可选步骤】如果需要支持清华/复旦MOSS作为后端,需要额外安装更多依赖(前提条件:熟悉 + 用过 + 电脑配置够强):
# 【可选步骤I】支持清华ChatGLM2。清华ChatGLM备注:如果遇到"Call ChatGLM fail 不能正常加载ChatGLM的参数" 错误,参考如下: 1:以上默认安装的为torch+cpu版,使用cuda需要卸载torch重新安装torch+cuda; 2:如因本机配置不够无法加载模型,可以修改request_llm/bridge_chatglm.py中的模型精度, 将 AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) 都修改为 AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
python -m pip install -r request_llms/requirements_chatglm.txt
# 【可选步骤II】支持复旦MOSS
python -m pip install -r request_llms/requirements_moss.txt
git clone --depth=1 https://github.com/OpenLMLab/MOSS.git request_llms/moss # 注意执行此行代码时,必须处于项目根路径
# 【可选步骤III】支持RWKV Runner
参考wiki:https://github.com/binary-husky/gpt_academic/wiki/%E9%80%82%E9%85%8DRWKV-Runner
# 【可选步骤IV】确保config.py配置文件的AVAIL_LLM_MODELS包含了期望的模型,目前支持的全部模型如下(jittorllms系列目前仅支持docker方案):
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-4", "chatglm", "moss"] # + ["jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"]
运行
python main.py
安装方法II:使用
部署项目的全部能力(这个是包含cuda和latex的大型镜像。但如果您网速慢、硬盘小,则不推荐该方法部署完整项目)
# 修改docker-compose.yml,保留方案0并删除其他方案。然后运行:
docker-compose up
仅+文心一言+spark等在线模型(推荐大多数人选择)
# 修改docker-compose.yml,保留方案1并删除其他方案。然后运行:
docker-compose up
P.S. 如果需要依赖Latex的插件功能,请见Wiki。另外,您也可以直接使用方案4或者方案0获取Latex功能。
+ + MOSS + + 通义千问(需要熟悉运行时)
# 修改docker-compose.yml,保留方案2并删除其他方案。然后运行:
docker-compose up
安装方法III:其他部署方法
一键运行脚本。完全不熟悉环境的用户可以下载中发布的一键运行脚本安装无本地模型的版本。脚本贡献来源:。
使用第三方API、Azure等、文心一言、星火等,见Wiki页面
云服务器远程部署避坑指南。请访问云服务器远程部署wiki
在其他平台部署&二级网址部署
:自定义新的便捷按钮(学术快捷键)
任意文本编辑器打开.py,添加如下条目,然后重启程序。(如果按钮已存在,那么可以直接修改(前缀、后缀都已支持热修改),无需重启程序即可生效。)例如
"超级英译中": {
# 前缀,会被加在你的输入之前。例如,用来描述你的要求,例如翻译、解释代码、润色等等
"Prefix": "请翻译把下面一段内容成中文,然后用一个markdown表格逐一解释文中出现的专有名词:nn",
# 后缀,会被加在你的输入之后。例如,配合前缀可以把你的输入内容用引号圈起来。
"Suffix": "",
},
II:自定义函数插件
编写强大的函数插件来执行任何你想得到的和想不到的任务。本项目的插件编写、调试难度很低,只要您具备一定的基础知识,就可以仿照我们提供的模板实现自己的插件功能。详情请参考函数插件指南。
:动态对话保存功能。在函数插件区调用 保存当前的对话 即可将当前对话保存为可读+可复原的html文件,另外在函数插件区(下拉菜单)调用 载入对话历史存档 ,即可还原之前的会话。Tip:不指定文件直接点击 载入对话历史存档 可以查看历史html存档缓存。
⭐Latex/Arxiv论文翻译功能⭐
===>
虚空终端(从自然语言输入中,理解用户意图+自动调用其他插件)
模块化功能设计,简单的接口却能支持强大的功能
译解其他开源项目
装饰的小功能(默认关闭,需要修改.py)
图像生成
音频解析与总结
Latex全文校对纠错
===>
语言、主题切换
II:版本:
GPT 开发者QQ群:
III:主题
可以通过修改THEME选项(.py)变更主题
-Small-and- 网址IV:本项目的开发分支 分支: 主分支,稳定版 分支: 开发分支,测试版如何接入其他大模型:接入其他大模型V:参考与学习
代码中参考了很多其他优秀项目中的设计,顺序不分先后:
# 清华ChatGLM2-6B:
https://github.com/THUDM/ChatGLM2-6B
# 清华JittorLLMs:
https://github.com/Jittor/JittorLLMs
# ChatPaper:
https://github.com/kaixindelele/ChatPaper
# Edge-GPT:
https://github.com/acheong08/EdgeGPT
# ChuanhuChatGPT:
https://github.com/GaiZhenbiao/ChuanhuChatGPT
# Oobabooga one-click installer:
https://github.com/oobabooga/one-click-installers
# More:
https://github.com/gradio-app/gradio
https://github.com/fghrsh/live2d_demo