導航:首頁 > 網站優化 > googleseorobot

googleseorobot

發布時間:2020-09-02 02:16:49

1、Robot.txt對SEO有什麼影響?

很多人認為只有防止搜索引擎技術抓取的時候才有用。但是實際上正確使用Robot.txt對 SEO很有好處,比如重復內容用不同形式表現是經常需要的,而這種情況很容易被搜索引擎判定為重復內容堆砌。正確利用Robot可以引導搜索引擎只收錄首 選內容這樣就不會有作弊嫌疑了。(參見:google網站管理員blog的文章
巧妙地處理內容重復)除了處理重復外,Yahoo允許你在Robot.txt文件裡面用Crawl-delay:參數設定抓取頻率(參看:
)。

2、網路搜索引擎優化要做多久?

上海獻峰網路指出一個完整的SEO優化方案主要由四個小組組成:
一、前端/頁編人員
二、內容編輯人員
三、推廣人員
四、數據分析人員

接下來,我們就對這四個小組分配工作。
首先,前端/頁編人員主要負責站內優化,主要從四個方面入手:
第一個,站內結構優化
合理規劃站點結構(1、扁平化結構 2、輔助導航、麵包屑導航、次導航)
內容頁結構設置(最新文章、推薦文章、熱門文章、增加相關性、方便自助根據鏈接抓取更多內容)
較快的載入速度
簡潔的頁面結構
第二個,代碼優化
Robot.txt
次導航
404頁面設置、301重定向
網站地圖
圖片Alt、title標簽
標題
關鍵詞
描述
關鍵字密度
個別關鍵字密度
H1H2H3中的關鍵字
關鍵字強調
外鏈最好nofollow
為頁面添加元標記meta
豐富網頁摘要(微數據、微格式和RDFa)
第三個,網站地圖設置
html網站地圖(1、為搜索引擎建立一個良好的導航結構 2、橫向和縱向地圖:01橫向為頻道、欄目、專題/02縱向主要針對關鍵詞 3、每頁都有指向網站地圖的鏈接)
XML網站地圖(sitemap提交給百度、google)
第四個,關鍵詞部署
挑選關鍵詞的步驟(1、確定目標關鍵詞 2、目標關鍵詞定義上的擴展 3、模擬用戶的思維設計關鍵詞 4、研究競爭者的關鍵詞)
頁面關鍵詞優化先後順序(1、最終頁>專題>欄目>頻道>首頁 2、最終頁:長尾關鍵詞 3、專題頁:【a、熱門關鍵詞 b、為熱點關鍵詞製作專題 c、關鍵詞相關信息的聚合 d、輔以文章內鏈導入鏈接】 4、欄目頁:固定關鍵詞 5、頻道頁:目標關鍵詞 6、首頁:做行業一到兩個頂級關鍵詞,或者網站名稱)
關鍵詞部署建議(1、不要把關鍵詞堆積在首頁 2、每個頁面承載關鍵詞合理數目為3-5個 3、系統規劃)
然後,我們的內容編輯人員要對網站進行內容建設,怎樣合理的做到網站內部優化的功效?這里主要有五個方面:
第一個,網站內容來源
原創內容或偽原創內容
編輯撰稿或UGC
掃描書籍、報刊、雜志
第二個,內容細節優化
標題寫法、關鍵詞、描述設置
文章摘要規范
URL標准化
次導航
內頁增加錨文本以及第一次出現關鍵詞進行加粗
長尾關鍵詞記錄單
圖片Alt、titile標簽
外鏈最好nofollow
百度站長工具、google管理員工具的使用
建立反向鏈接
第三個,關鍵詞部署
挑選關鍵詞的步驟(1、確定目標關鍵詞 2、目標關鍵詞定義上的擴展 3、模擬用戶的思維設計關鍵詞 4、研究競爭者的關鍵詞)
頁面關鍵詞優化先後順序(1、最終頁>專題>欄目>頻道>首頁 2、最終頁:長尾關鍵詞 3、專題頁:【a、熱門關鍵詞 b、為熱點關鍵詞製作專題 c、關鍵詞相關信息的聚合 d、輔以文章內鏈導入鏈接】 4、欄目頁:固定關鍵詞 5、頻道頁:目標關鍵詞 6、首頁:做行業一到兩個頂級關鍵詞,或者網站名稱)
關鍵詞部署建議(1、不要把關鍵詞堆積在首頁 2、每個頁面承載關鍵詞合理數目為3-5個 3、系統規劃)
第四個,內鏈策略
控制文章內部鏈接數量
鏈接對象的相關性要高
給重要網頁更多的關注
使用絕對路徑
需要改進的地方
第五個,注意事項
不要大量採集
有節奏的更新
編輯發布文章的時候要做好錨文本
做好長尾關鍵詞記錄單
接下來,我們的推廣人員就要對網站進行站外優化了,這里主要包括兩個大的方面:
第一個,外鏈建設基本途徑
友情鏈接
軟文
目錄提交
獨立博客
論壇簽名
黃頁網站
提交收藏
分類信息
微博推廣
sns推廣
第二個,鏈接誘餌建設思路
舉辦活動,帶上相關鏈接,引導網友大規模轉播
最後,我們的數據分析人員就要對網站進行每天的數據分析,總結流量來源,這里主要從五個方面分析:
第一個,數據分析
根據統計(百度統計工具,CNZZ統計工具等等),分析用戶進入的關鍵詞,模擬用戶思路,思考長尾關鍵詞
第二個,競爭對手分析
百度權重、PR值
快照
反鏈
內鏈
收錄
網站歷史
品牌關鍵詞
長尾關鍵詞
網站結構
第三個,關鍵詞定位
目標關鍵詞
品牌關鍵詞
熱門關鍵詞
長尾關鍵詞
第四個,長尾關鍵詞挖掘—長尾關鍵詞類型
目標型長尾(目標型指的是網站的產品或者服務延伸的長尾關鍵詞,往往優化長尾的時候都是先以目標型長尾為主,因為這些長尾可以真實給我們帶來目標客戶和目標量)
營銷型長尾(營銷型長尾是指與行業站服務相關的長尾,可以讓我們進行二次轉化成我們的目標用戶)
第五個,挖掘長尾關鍵詞用到的工具
百度指數工具
百度知道
百度及其他SE的相關搜索及下拉框
百度站長工具、google關鍵詞分析工具
至此,一個完整的網站SEO優化方案已經完成,接下來就是慢慢的完善了,當然嘍,這里講的很流程化,具體怎麼合理安排,合理運用,這需要長期的經驗積累。

3、robots.txt在谷歌seo中是必須的嗎?那麼要寫的話又寫在哪裡呢?

robots文件主要的作用就是阻止蜘蛛抓取你不想讓他抓取的文件。最好還是要一個,比如網站後台等一些文件 想要不被他他抓取,robots文件就能起到作用了。具體寫法如下圖片:

4、SEO 的 robot.txt 文件是怎麼寫的,怎樣屏蔽一些他們已經收錄了的網頁。 求指點,不說明白是不給分的。

如果是谷歌的話,反應很快的;如果是百度,就算你加上也有可能收錄,而且去掉速度也很慢,我的情侶seo博客就是很好的例子。
•要攔截整個網站,請使用正斜線。
Disallow: /•要攔截某一目錄以及其中的所有內容,請在目錄名後添加正斜線。
Disallow: /無用目錄/ •要攔截某個網頁,請列出該網頁。
Disallow: /私人文件.html•要從 Google 圖片中刪除特定圖片,請添加以下內容:
User-agent: Googlebot-Image
Disallow: /images/狗.jpg •要從 Goo le 圖片中 除您網站上的所有圖片,請執行以下指令:
User-agent: Googlebot-Image
Disallow: / •要攔截某一特定文件類型的文件(例如 .gif),請使用以下內容:
User-agent: Googlebot
Disallow: /*.gif$•要阻止抓取您網站上的網頁,而同時又能在這些網頁上顯示 Adsense 廣告,請禁止除 Mediapartners-Google 以外的所有漫遊器。這樣可使網頁不出現在搜索結果中,同時又能讓 Mediapartners-Google 漫遊器分析網頁,從而確定要展示的廣告。Mediapartners-Google 漫遊器不與其他 Google User-agent 共享網頁。例如:
User-agent: *
Disallow: /

User-agent: Mediapartners-Google
Allow: /
Googlebot(但並非所有搜索引擎)遵循某些模式匹配原則。

•要匹配連續字元,請使用星號 (*)。例如,要攔截對所有以 private 開頭的子目錄的訪問,請使用以下內容:
User-agent: Googlebot
Disallow: /private*/•要攔截對所有包含問號 (?) 的網址的訪問(具體地說,這種網址以您的域名開頭、後接任意字元串,然後接問號,而後又接任意字元串),請使用以下內容:
User-agent: Googlebot
Disallow: /*?•要指定與某個網址的結尾字元相匹配,請使用 $。例如,要攔截以 .xls 結尾的所有網址,請使用以下內容:
User-agent: Googlebot
Disallow: /*.xls$您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 代表一個會話 ID,那麼您可能希望排除包含 ? 的所有網址,以確保 Googlebot 不會抓取重復網頁。但是以 ? 結尾的網址可能是您希望包含在內的網頁的版本。在此情況下,您可以對您的 robots.txt 文件進行如下設置:

User-agent: *
Allow: /*?$
Disallow: /*?Disallow: /*? 指令會阻止包含 ? 的所有網址(具體地說,它將攔截所有以您的域名開頭、後接任意字元串,然後接問號,而後又接任意字元串的網址)。

Allow: /*?$ 指令將允許以 ? 結尾的任何網址(具體地說,它將允許所有以您的域名開頭、後接任意字元串,然後接 ?,? 之後不接任何字元的網址)。

與googleseorobot相關的知識