久久亚洲国产欧洲精品一,久久久老熟一区二区三区,国产真实熟女弄必视频,少妇18p一区二区三区

資訊中心

資訊中心

通過robots.txt文件屏蔽蜘蛛抓取不存在的后綴

通過網(wǎng)站日志分析,會(huì)發(fā)現(xiàn)搜索引擎蜘蛛抓取了一些網(wǎng)站上不存在的文件后綴,如:.php、.asp、.aspx等。

搜外網(wǎng)站后臺(tái)日志分析結(jié)果如下圖:

搜外主站實(shí)際上不存在php后綴的URL地址。

可通過robots.txt文件禁止蜘蛛抓取不存在的后綴,減少出現(xiàn)404返回值。

在robots.txt文件填寫屏蔽規(guī)則如下:

注意前面一個(gè)*,后面一個(gè)$,代表后綴。

參考搜外的robots.txt文件寫法,點(diǎn)擊這里

擴(kuò)展閱讀:

robots.txt概念和10條注意事項(xiàng)




評(píng)論(0 條評(píng)論)
游客

歡迎咨詢技術(shù),多一份參考總有益處

點(diǎn)擊QQ咨詢
添加我,免費(fèi)做你的網(wǎng)絡(luò)顧問
返回頂部