FastGPT 知识库两个问题求教

vu8f3i0k  于 2个月前  发布在  其他
关注(0)|答案(5)|浏览(27)

例行检查

  • 我已确认目前没有类似 issue
  • [ x ] 我已完整查看过项目 README,以及 项目文档
  • [ x ] 我使用了自己的 key,并确认我的 key 是可正常使用的
  • [ ]x 我理解并愿意跟进此 issue,协助测试和提供反馈

我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

你的版本

  • 公有云版本
  • [ x ] 私有部署版本, 具体版本号: 4.7.1

问题描述, 日志截图
问题1:建立知识库做了一些测试,把知识库清空删除以后,mongo的数据的占用空间很大(7.9GB)而且并没有减少,这个正常么?
问题2:远程电脑访问fastgpt在知识库中上传文件浏览器老是提示network error上传失败是什么问题啊?

复现步骤
预期结果
相关截图

bn31dyow

bn31dyow1#

  1. 看数据库配置,是否释放空间。pg 的话,不会释放空间,需要手动释放。
  2. 带宽太小,服务器规格问题……
neskvpey

neskvpey2#

  1. 看数据库配置,是否释放空间。pg 的话,不会释放空间,需要手动释放。
  2. 带宽太小,服务器规格问题……
    感谢回复
    1.好的,我研究一下数据库配置。
    2.部署的机器配置是cpu intel i7-11700f,32G内存,nvdia 3090,win10专业版,采用教程里的docker方式部署。机器在内网,千兆局域网。
v1l68za4

v1l68za43#

  1. 看数据库配置,是否释放空间。pg 的话,不会释放空间,需要手动释放。
  2. 带宽太小,服务器规格问题……
    问题2:会不会是docker默认的内存限制太小,上传的文件太大导致的?
uoifb46i

uoifb46i4#

  1. 看数据库配置,是否释放空间。pg 的话,不会释放空间,需要手动释放。
  2. 带宽太小,服务器规格问题……
    问题2:会不会是docker默认的内存限制太小,上传的文件太大导致的?
    默认一般没有,得看你有没有设置临时存储
yqlxgs2m

yqlxgs2m5#

  1. 检查数据库配置,看是否需要释放空间。如果是PostgreSQL(pg),则不会自动释放空间,需要手动进行。

  2. 带宽太小或服务器规格不足可能导致问题。

问题2:是否是Docker默认的内存限制太小,导致上传的文件过大?

通常情况下不会有这个问题,需要看你是否设置了临时存储。我按照教程构建了Docker,不清楚是否设置了临时存储。最近更新到了4.8.5版本,将Docker的内存限制增大后,好像没有再出现上传时出现网络错误的问题。

相关问题