用于WordPress多站点安装的robots.txt存储在哪里?

时间:2010-10-06 作者:Mike Wills

谷歌网站管理员工具可以看到它,但我找不到它。你知道它是如何生成的,或者它的文件结构在哪里吗?我在我的根目录中看不到该文件。我的网站位于http://mikewills.me 还有机器人。txt文件URL为http://mikewills.me/robots.txt.

最后,谷歌没有为我的网站编制索引,我正试图找出如何编辑机器人。txt,以便允许索引。我已经更改了隐私选项以允许索引,但这并没有更新机器人。txt。

2 个回复
最合适的回答,由SO网友:Annika Backstrom 整理而成

它是由函数动态生成的do_robots(), 既有动作(do_robotstxt) 和一个过滤器(robots_txt). 如果您创建robots.txt 在你的WordPress根目录中,当/robots.txt 请求,否则处理将依靠WordPress。

当前文件如下所示:

User-agent: *
Disallow:

Sitemap: http://mikewills.me/sitemaps/mikewills-me.xml.gz
前两个设置适用于可索引博客。所以,你现在可能只是在等待谷歌。也许你需要request reconsideration of your site.

SO网友:user1167

机器人。txt是动态创建的。没有机器人。txt文件。安装机器人。txt插件将解决您的问题。希望这有帮助

结束

相关推荐

导入到WordPress MultiSite时禁用HTML过滤

我正在迁移到WordPress多站点实例的许多站点都在帖子中嵌入了视频和iFrame。我宁愿禁用WordPress功能,在导入时去掉嵌入的内容,而不是将每篇文章转换为犹太教式的视频嵌入方式。编辑帖子时禁用剥离是as simple as disabling the kses filter. 不幸的是,我不知道导入帖子需要禁用什么。目前我怀疑wp\\u insert\\u post()方法,但没有缩小过滤器的范围。有什么想法吗?Update: 这是特定于WordPress Multisite的。导入到单个Wo