📅  最后修改于: 2023-12-03 15:01:21.094000             🧑  作者: Mango
Hugo 是一款快速、灵活和现代的静态网站生成器,使用 Go 编程语言开发。而网站的 Robots.txt 文件是一种标准的协议,用于告知搜索引擎哪些页面可以被抓取和哪些页面不应被抓取。
在 Hugo 中,您可以使用 Robots.txt 模板来创建自己的 Robots.txt 文件,下面是一个示例模板:
User-agent: *
Disallow:
Sitemap: {{ "sitemap.xml" | absURL }}
这个模板的意思是,允许所有的搜索引擎抓取网站上的所有页面,并且告知搜索引擎网站的 Sitemap 位置。如果您想要更加精细地控制搜索引擎对您网站的抓取行为,可以使用其他的命令。
例如,如果您不希望搜索引擎抓取您网站上的某些页面,您可以在 Disallow 指令中列出这些页面的 URL:
User-agent: *
Disallow: /admin/
Disallow: /secret/
Sitemap: {{ "sitemap.xml" | absURL }}
这个模板的意思是,任何的搜索引擎都不应该抓取 /admin/
或 /secret/
目录下的页面。
除了 Disallow 和 Sitemap 指令之外,Robots.txt 还支持其他的命令,例如:
Robots.txt 模板可以让您轻松地创建自己的 Robots.txt 文件,帮助您更好地控制搜索引擎对您网站的抓取行为。