掃二維碼與項目經(jīng)理溝通
我們在微信上24小時期待你的聲音
解答本文疑問/技術(shù)咨詢/運營咨詢/技術(shù)建議/互聯(lián)網(wǎng)交流
大家都知道,robots協(xié)議是主流搜索引擎共同遵守的一個協(xié)議,它主要作用是約定網(wǎng)站內(nèi)容那些事可以被抓取那些是不可以被抓取的,而且可以針對指定搜索引擎來進行設(shè)置,一般情況下搜索引擎是嚴格按照該文件進行網(wǎng)頁抓取的。因此,絕大多數(shù)網(wǎng)站中都存在一個robots.txt文件,那么在里面描述文件目錄的時候是否能夠使用中文字符呢?下面是百度官方發(fā)布的信息:
有同學(xué)問百度站長學(xué)院一個關(guān)于robots的問題:我們有個站點的目錄結(jié)構(gòu)使用的是中文,這樣式兒的:www.a.com/冒險島/123.html,那在制作robots文件和sitemap文件的時候,可以直接使用中文嗎?百度能獲取到嗎?在實際操作中我們發(fā)現(xiàn),sitemap中有文件是可以生效的,但robots封禁貌似沒有反應(yīng),所以想確認一下:robots文件是否支持中文?
工程師解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。
同學(xué)追問:那我們進行UrlEncode編碼會不會支持呢?比如這種:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97
工程師解答:robots文件支持這種寫法。但是否生效,還要取決于當(dāng)時BaiduSpider抓取的是哪種形式結(jié)構(gòu)的鏈接,如果是UrlEncode編碼就可以生效,如果是中文就非常不幸了。
簡單的說,一般情況下robots里是不支持中文的,就算是進行UrlEncode編碼如果連接是中文的還是不可以的。
我們在微信上24小時期待你的聲音
解答本文疑問/技術(shù)咨詢/運營咨詢/技術(shù)建議/互聯(lián)網(wǎng)交流