目前我有两个MediaWiki,一个版本比另一个稍旧。我想把两个的内容合并在一起,而不删除重复的页面。到目前为止,我能想到的最好的选择是使用一个机器人(如pywikipedia)浏览一个Wiki的所有页面,并尝试将它们插入另一个,重命名重复的页面。这个解决方案看起来需要一段时间才能完成。有没有更好的方法来完成这个任务,我只是不知道?我没有直接使用MediaWiki数据库太多,所以我不太习惯在不知道自己在做什么的情况下摆弄它。
k97glaaz1#
MediaWiki有import和export功能,你可以使用它们来移动内容。它确实合并了现有页面的历史记录(见导入链接)。然而,它不能处理两个同名页面的冲突,所以你必须自己处理页面的移动。就我在MediaWiki page table的描述中所看到的,你可以直接在SQL中找到并重命名重复的页面,但是pywikipedia也应该可以工作(但是你需要删除那些“正确”的页面移动所导致的重定向,否则它们会与从其他wiki导入的页面混淆)。
xdnvmnnf2#
作为https://github.com/WolfgangFahl/py-3rdparty-mediawiki的提交者,我推荐使用该工具的wikibackup/wikirestore功能-它将以一种允许使用标准unix工具的方式进行导出/导入,同时在它上面,例如,对备份进行树比较,以查看如何处理副本。
2条答案
按热度按时间k97glaaz1#
MediaWiki有import和export功能,你可以使用它们来移动内容。它确实合并了现有页面的历史记录(见导入链接)。
然而,它不能处理两个同名页面的冲突,所以你必须自己处理页面的移动。就我在MediaWiki page table的描述中所看到的,你可以直接在SQL中找到并重命名重复的页面,但是pywikipedia也应该可以工作(但是你需要删除那些“正确”的页面移动所导致的重定向,否则它们会与从其他wiki导入的页面混淆)。
xdnvmnnf2#
作为https://github.com/WolfgangFahl/py-3rdparty-mediawiki的提交者,我推荐使用该工具的wikibackup/wikirestore功能-它将以一种允许使用标准unix工具的方式进行导出/导入,同时在它上面,例如,对备份进行树比较,以查看如何处理副本。