搜索引擎數(shù)據(jù)庫(kù)中的所有網(wǎng)頁(yè),都是由Robot程序自動(dòng)抓取收錄的。但我們網(wǎng)站上總會(huì)有部分私密性數(shù)據(jù)不希望被搜索引擎抓取,這時(shí)候,就需要robots.txt。
robots.txt 是一個(gè)標(biāo)準(zhǔn)文檔,意在阻止搜索引擎的Spider(蜘蛛)從您的 Web 服務(wù)器下載某些或全部信息,控制Spider的搜索范圍。robots.txt的設(shè)置很簡(jiǎn)單,只要用記事本或其他文本編輯器,依照自己的網(wǎng)站需求,設(shè)定一系列選項(xiàng),然后將其上傳到網(wǎng)站根目錄即可。robots.txt的設(shè)置如下:
User-agent: 搜索引擎的spider代號(hào)
Disallow: 輸入數(shù)據(jù)夾或文件名的路徑
如設(shè)定所有的spider都能夠搜索及抓取整個(gè)網(wǎng)站。
User-agent: *
Disallow:
如拒絕Google搜索及抓取整個(gè)網(wǎng)站,但允許其它的
User-agent: Googlebot
Disallow:
如拒絕所有的Spider
User-agent: *
Disallow: /
如拒絕所有的Spider搜索及抓取protect目錄及seo目錄下abc.html文件
User-agent: *
Disallow: /protect/
Disallow: /seo/abc.html
如拒絕google搜索及抓取protect目錄及seo目錄下abc.html文件,但允許其他的
User-agent: Googlebot
Disallow: /protect/
Disallow: /seo/abc.html
很簡(jiǎn)單吧?另有一點(diǎn)請(qǐng)記住,搜索引擎不會(huì)立即對(duì)robots.txt 文件所作的更改作出反應(yīng),必須等到搜索引擎下一次讀取該文件。這段時(shí)間,依搜索引擎及具體網(wǎng)站情況,從幾小時(shí)到幾天不等。
?石家莊網(wǎng)站建設(shè)的優(yōu)點(diǎn):我們是專屬定制,制作符合您公司業(yè)務(wù)、風(fēng)格的網(wǎng)站,這就做到給您制作的網(wǎng)站是網(wǎng)絡(luò)上獨(dú)一無(wú)二的網(wǎng)站,這樣更有利于搜索引擎的收錄。如果您喜歡網(wǎng)絡(luò)上某個(gè)風(fēng)格的網(wǎng)站或者網(wǎng)站模板,我們是只仿制而不直接套用,我們會(huì)對(duì)其中的結(jié)構(gòu)和樣式做增減優(yōu)化,做…
?競(jìng)價(jià)排名營(yíng)銷是一種通過 競(jìng)價(jià)購(gòu)買搜索引擎中關(guān)鍵詞或關(guān)鍵短語(yǔ)的廣告方式。競(jìng)價(jià)排名營(yíng)銷分為兩種類型。 第一種,直接為真正的搜索引擎結(jié)果的排名付費(fèi),也就是說付的錢越多,網(wǎng)頁(yè)所獲得的排名名也就越高。 第二種則更類似于普通的廣告。這種競(jìng)價(jià)排名營(yíng)銷方式通過…
?網(wǎng)站優(yōu)化對(duì)網(wǎng)站來(lái)說是非常重要的,直接決定和影響著網(wǎng)站所起到的作用,以及在各個(gè)地方當(dāng)中的排名。在進(jìn)行seo優(yōu)化的過程中,我們必須要堅(jiān)持一定的原則,真正的把這些事情做得更好,才可以確保最終的結(jié)果,這對(duì)于我們來(lái)說是非常重要的事。 SEO優(yōu)化主要分為8小步: …