蚌埠约友环保科技有限公司

廣東福建浙江江蘇上海北京山東遼寧江西河南四川湖北湖南廣西安徽黑龍江天津重慶吉林河北貴州甘肅山西云南新疆寧夏海南陜西西藏青海內蒙古

新聞中心

robots.txt是搜索引擎訪問網站的時侯要查看的第1個文件
發布時間:2021-06-03 09:01:05

rotbots.txt文件的制作


1.robots.txt文件的作用

robots.txt文件是一個文本文件,這個文件用來告訴搜索引擎蜘蛛網站的哪些部分應該被抓取,哪些部分不用抓取。比如說,如果有很多網站源文件,抓取可能會增加服務器的負載,且會耗費搜索引擎爬蟲的時間來索引網站文件。站長可以使用文本編輯器創建一個名為robots.txt的文件,比如NotePad++或記事本等工具。

注意:robots.txt實際上是搜索引擎訪問網站的時侯要查看的第1個文件,當一個搜索蜘蛛訪問一個網站時,它會首先檢查該站點根目錄下是否存在robots.txt文件,如果存在就會按照該文件中的內容來確定訪問的范圍。




2.robots.txt文件制作與上傳

打開Windows的記事本工具,在記事本中添加如下代碼,然后將其保存為robots.xt文件。

在記事本中編寫robots.txt文件效果

保存好robots.txt文件后,將其上傳到網站的根目錄下,就可以控制搜索引擎蜘蛛的爬行軌跡了。

鑒于robots.txt中包含了很多指令,互聯網上也有很多在線的工具用來生成這個文件,比如Chinaz的站長工具,網址為http://tool.chinaz.com/robots/,因此上面的示例可以用這個工具輕松實現。

使用站長工具編寫robots.txt文件

在編寫完成后,單擊下面的“生成”按鈕,將會在頁面底部的文本框控件中生成robots.txt文件內容,將其復制到文本文件中并保存,即可創建robots.xt文件。

上一篇:死鏈文件制作及提交,站點地圖 Sitemap的優化       下一篇: .htaccess的其他SEO用途

提供全國各地網站建設服務

上海北京深圳廣州天津南京大連杭州沈陽成都東莞濟南佛山無錫長沙武漢寧波長春蘇州青島珠海大慶福州廈門常州鄭州煙臺西安合肥南寧重慶東營昆明威海中山南昌紹興太原惠州溫州徐州揚州淄博鎮江鞍山保定銀川南通洛陽嘉興臺州桂林貴陽蘭州盤錦漳州黃石唐山濰坊湘潭肇慶吉林江門?株洲泉州泰州包頭柳州德州韶關寶雞金華鹽城新鄉十堰廊坊玉溪濟寧滄州蕪湖湖州梧州泰安安陽遼陽舟山梅州常德三明連云港哈爾濱秦皇島馬鞍山石家莊呼和浩特

 
備案系統認證 舉報不良網站 我們的支付方式 AAA級信用
廣州萬戶網絡信息科技有限公司 旗下網站建設品牌:萬戶網 www.axap.cn 版權所有 ©2000-2019 All Rights Reserved
網站備案編號:粵ICP備15049595號 地址:廣州市番禺區大石街北聯圍仔工業路2號E座305
電話:020-85421558   傳真:020-88140140   郵編:510515