在SEO學(xué)習(xí)當(dāng)中我們會(huì)遇到很多代碼或者其他的命令工具,今天就為大家分享一下我對SEO中的robots和htaccess的理解,希望能對大家有個(gè)初步的理解,對于一個(gè)網(wǎng)站而言,要想做好SEO優(yōu)化有四樣必須做的:robots,301,404,sitemap,可見robots的重要性。
一、robots文件的作用與用途是什么
Robots.txt是網(wǎng)站通過Robots協(xié)議告訴蜘蛛可以抓取哪些頁面,哪些頁面不能抓取。而不是作為搜索引擎之間互相限制和不正當(dāng)競爭的工具,robots文件就是一個(gè)擴(kuò)展名為txt的文本文檔,它必須放置在網(wǎng)站的根目錄下面。
robots文件的格式是怎樣?robots文件全名是:robots.txt。通常以一行或多行User-agent開始,后面加上若干Disallow行,如例:禁止所有搜索引擎訪問網(wǎng)站的任何部分
User-agent:*
Disallow:/
其中*代表的所有的搜索引擎種類,而Disallow:/后面是在文目錄下的,當(dāng)然了還有allow的。Sitemap也是很重要的,很多網(wǎng)站在robots.txt中提供SiteMap文件鏈接地址,這樣能更加直白準(zhǔn)確的讓搜索引起抓取內(nèi)容。還有,如果我們網(wǎng)站有比較大的文件,視頻的話也可以用到robots,可見它的用途是很大的。
二、htaccess文件的用途由是什么
htaccess文件是提供了針對目錄改變配置的方法,主要可以實(shí)現(xiàn)網(wǎng)頁301重定向、自定義404錯(cuò)誤頁面、改變文件擴(kuò)展名、允許/阻止特定的用戶或者目錄的訪問、禁止目錄列表、配置默認(rèn)文檔等功能。而SEO常用的是301重定向和404錯(cuò)誤頁面。301重定向的htaccess是這樣的格式的:在linux空間下,http://baidu.com/跳轉(zhuǎn)到http://www.baidu.com/修改.htaccess文件方法如下:
RewriteEngineOnRewriteCond%{HTTP_HOST}!^baidu.com/$[NC]RewriteRule^(.*)$?http://www.baidu.com/$1[L,R=301]然后把這個(gè)文件放在網(wǎng)站的根目錄下。
在SEO優(yōu)化中,robots文件和htaccess文件都有它的重要性,我們不能一味的只在網(wǎng)頁的內(nèi)部做優(yōu)化,所以SEO優(yōu)化并不是一個(gè)很有講究的學(xué)問。今天就為大家分享的怎么理解SEO中robots文件和htaccess文件就到這里為止了,如果還是沒有得到解決,歡迎到三好官網(wǎng)了解更多詳情。
本文來源:三好網(wǎng)絡(luò),轉(zhuǎn)載請注明出處!如果需要阿里、淘寶、拼多多代運(yùn)營、抖音代運(yùn)營及培訓(xùn)、SEO、長沙網(wǎng)站制作、長沙網(wǎng)站模板、長沙手機(jī)網(wǎng)站模板、長沙微信開發(fā)、長沙小程序開發(fā),請聯(lián)系:
劉經(jīng)理 龔經(jīng)理
聯(lián)系方式:手機(jī):13787053962 座機(jī):0731-85537802 QQ:395939909 聯(lián)系方式:手機(jī):14789924025 座機(jī):0731-85537801 QQ:196983821
或掃一掃下面二維碼我們將提供上門服務(wù)!