【现在谷歌seo怎么做】robots.txt文件和meta标签

现在谷歌seo怎么做?我们已经改进了站长中心的分析工具,使之能理解网站地图(sitemap)的声明和相关的URL。较早的版本并不认识网站地图,且仅仅理解绝对的URL;其他的任何东西都被报错成“不理解你的语法”。现在改进后的版本会告诉你网站地图的URL和范围是否正确。您还可以对相关的URL测试并少了许多输入工作。
 
现在生成的报告也好多了。你可以在一行中知道多个问题的答案(如果有的话)。不像早期版本,一行仅第一个遇到的问题给出答案。同时,我们也在其他用以分析和验证的功能上取得了改进。
 
假设你负责域名198ai.cn,你希望搜索引擎索引你网站的除/images文件夹之外的一切内容。您还想确保你的网站地图被搜索引擎知道,那么你可以使用以下内容作为你的robots.txt文件:
disallow images
user-agent: *
Disallow:
sitemap: http://www.example.com/sitemap.xml
你可以访问站长中心,使用robots.txt分析工具对你的网站进行测试,用这两个URL作测试:
http://www.example.com
/archives
站长工具的较早版本将会报错:
 
改进版会告诉你关于robots.txt文件的更多信息:
 
现在谷歌seo怎么做?
我们还希望确保你听说过新的unavailable_after元标签,该标签由Dan Crow数周前在Google官方博客中宣布。该标签可增加你的站点和谷歌的googlebot间的互动。试想,对www.example.com,有时你有一个临时性的新闻故事,限时公司促销,或一个宣传页,你可以对特定页面指定确切的日期和时间,来阻止被抓取和索引。
让我们假设你的一个促销活动有效期截至2007年年底。在www.example.com/2007promotion.html的源码开始,你可以使用以下行:
<META NAME="GOOGLEBOT"
CONTENT="unavailable_after: 31-Dec-2007 23:59:59 EST">
另一个令人振奋的消息是新的X-Robots-Tag指令。它增加了机器人排除协议(REP) META标签,该标签为非HTML网页提供支持!你终于可以控制对你的录像,电子表格,及其他索引文件类型的索引,就像控制对HTML页面的索引一样。还是上面的例子,比方说你的宣传页面是PDF格式。在文件www.example.com/2007promotion.pdf 中,你可以增加以下行:
X-Robots-Tag: unavailable_after: 31 Dec
2007 23:59:59 EST
现在谷歌seo怎么做?请记住,REP META标签可用于实现针对页面索引控制的noarchive,nosnippet,及现在的unavailable_after标签。这和robots.txt不同,robots.txt是对整个域名进行控制的。我们是应博客们和网站管理员的要求而增加这些特性的,请试用。如果你有其他的建议,也请随时提出。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.198ai.cn/google/49.html