goldfishh 283ad48b86 disable plugin(tool) log printing | 8 months ago | |
---|---|---|
.. | ||
README.md | 10 months ago | |
__init__.py | 1 year ago | |
config.json.template | 10 months ago | |
tool.py | 8 months ago |
一个能让chatgpt联网,搜索,数字运算的插件,将赋予强大且丰富的扩展能力
使用说明(默认trigger_prefix为$):
#help tool: 查看tool帮助信息,可查看已加载工具列表
$tool 工具名 命令: (pure模式)根据给出的{命令}使用指定 一个 可用工具尽力为你得到结果。
$tool 命令: (多工具模式)根据给出的{命令}使用 一些 可用工具尽力为你得到结果。
$tool reset: 重置工具。
2024.01.16更新
新版本工具名共19个,不一一列举,相应工具需要的环境参数见tool.py
里的_build_tool_kwargs
函数
使用该插件后将默认使用4个工具, 无需额外配置长期生效:
注1:url-get默认配置、browser需额外配置,browser依赖google-chrome,你需要提前安装好
注2:(可通过
browser_use_summary
或url_get_use_summary
开关)当检测到长文本时会进入summary tool总结长文本,tokens可能会大量消耗!
这是debian端安装google-chrome教程,其他系统请自行查找
https://www.linuxjournal.com/content/how-can-you-install-google-browser-debian
terminal调优记录:https://github.com/zhayujie/chatgpt-on-wechat/issues/776#issue-1659347640
注:该工具需要较高的对话技巧,不保证你问的任何问题均能得到满意的回复 注2:当前版本可只使用这个工具,返回结果较可控。
meteo调优记录:https://github.com/zhayujie/chatgpt-on-wechat/issues/776#issuecomment-1500771334
news更新:0.4版本对新闻类工具做了整合,配置文件只要加入
news
一个工具名就会自动加载所有新闻类工具
该tool每天返回内容相同
该工具需要用到browser工具解决反爬问题
可配置参数:
1. arxiv_summary: 是否使用总结工具,默认true, 当为false时会直接返回论文的标题、作者、发布时间、摘要、分类、备注、pdf链接等内容
0.4.2更新,例子:帮我找一篇吴恩达写的论文
该工具目前是和其他工具配合使用,暂未测试单独使用效果
qwen-vl-plus
模型{
"tools": ["bing-search", "morning-news", "你想要添加的其他工具"], // 填入你想用到的额外工具名,这里加入了工具"bing-search"和工具"morning-news"
"kwargs": {
"debug": true, // 当你遇到问题求助时,需要配置
"request_timeout": 120, // openai接口超时时间
"no_default": false, // 是否不使用默认的4个工具
"bing_subscription_key": "4871f273a4804743",//带*工具需要申请api-key,这里填入了工具bing-search对应的api,api_name参考前述`工具的api申请方法`
"morning_news_api_key": "5w1kjNh9VQlUc",// 这里填入了morning-news对应的api,
}
}
注:config.json文件非必须,未创建仍可使用本tool;带*工具需在kwargs填入对应api-key键值对
tools
:本插件初始化时加载的工具, 上述一级标题即是对应工具名称,带*工具必须在kwargs中配置相应api-keykwargs
:工具执行时的配置,一般在这里存放api-key,或环境配置
debug
: 输出chatgpt-tool-hub额外信息用于调试request_timeout
: 访问openai接口的超时时间,默认与wechat-on-chatgpt配置一致,可单独配置no_default
: 用于配置默认加载4个工具的行为,如果为true则仅使用tools列表工具,不加载默认工具model_name
: 用于控制tool插件底层使用的llm模型,目前暂未测试3.5以外的模型,一般保持默认