您好,登錄后才能下訂單哦!
虛擬主機如何禁止蜘蛛訪問?很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。
虛擬主機組織蜘蛛訪問,可以使用robots協議來實現。robots是網站跟爬蟲間的協議,用簡單直接的txt格式文本方式告訴對應的爬蟲被允許的權限,也就是說robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。
我們在管理虛擬主機時,有些情況下,不希望搜索引擎蜘蛛來訪問我們的內容,這時,我們需要編寫一個爬蟲協議,禁止搜索引擎來抓取數據。或者是禁止部分搜索引擎爬蟲來訪,而允許其他搜索引擎。都是可以通過robots文件實現。
當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。
虛擬主機阻止蜘蛛訪問,比如禁止全部搜索引擎來訪時,可以如下編寫:
User-agent: *
Disallow: /
虛擬主機阻止某個蜘蛛訪問時,可以如下編寫:
User-agent: xxxspider
Disallow:/
虛擬主機阻止某個目錄被蜘蛛訪問時,可以如下編寫:
User-agent: *
Disallow: /admin/
即表示/admin/目錄,所有搜索引擎都不得來訪問。
看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注億速云行業資訊頻道,感謝您對億速云的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。