1、如何查看Web伺服器日誌
利用Windows 2003伺服器的遠程維護功能,並通過IE瀏覽界面,就能對伺服器的日誌文件進行遠程查看了,不過默認狀態下,Windows 2003伺服器的遠程維護功能並沒有開通,需要手工啟動。
查看伺服器日誌文件的作用
網站伺服器日誌記錄了web伺服器接收處理請求以及運行時錯誤等各種原始信息。通 過對日誌進行統計、分析、綜合,就能有效地掌握伺服器的運行狀況,發現和排除錯誤原 因、了解客戶訪問分布等,更好的加強系統的維護和管理。
對於自己有伺服器的朋友或是有條件可以看到伺服器日誌文件的朋友來說,無疑是了 解搜索引擎工作原理和搜索引擎對網頁抓取頻率的最佳途徑。
通過這個文件,您可以了解什麼搜索引擎、什麼時間、抓取了哪些頁面,以及可以知 道是主搜索蜘蛛還是從搜索蜘蛛抓取了您的網站等的信息。
訪問原理
1、客戶端(瀏覽器)和Web伺服器建立TCP連接,連接建立以後,向Web伺服器發出 訪問請求(如:Get),根據HTTP協議該請求中包含了客戶端的IP地址、瀏覽器類型、 請求的URL等一系列信息。
2、Web伺服器收到請求後,將客戶端要求的頁面內容返回到客戶端。如果出現錯誤,那麼返回錯誤代碼。
3、伺服器端將訪問信息和錯誤信息紀錄到日誌文件里。
下面我們就對本公司自己伺服器其中的一個日誌文件進行分析。由於文件比較長,所以我們只拿出典型的幾種情況來說明。
#Software: Microsoft Internet Information Services 6.0
#Version: 1.0
#Date: 2006-05-12 03:56:30
#Fields:
date time s-sitename s-ip cs-method cs-uri-stem cs-uri-query s-port
cs-username c-ip cs(User-Agent) sc-status sc-substatus sc-win32-status
2006-05-12
03:56:30 三圓三圓三圓** 218.25.92.169 GET / - 80 - 220.181.18.98
Baispider+(+http://www.baidu.com/search/spider.htm) 403 14 5
/* 說明 */
上面定義了在2006年5月12日的3點56分30秒的時候,IP為220.181.18.98的百度蜘蛛通過80埠(HTTP)訪問了IP為218.25.92.169的伺服器的根目錄,但被拒絕。
#Software: Microsoft Internet Information Services 6.0
#Version: 1.0
#Date: 2006-05-12 10:18:39
#Fields:
date time s-sitename s-ip cs-method cs-uri-stem cs-uri-query s-port
cs-username c-ip cs(User-Agent) sc-status sc-substatus sc-win32-status
2006-05-12
10:33:36 三圓三圓三圓** 218.25.92.169 GET /***/index.htm - 80 - 10.2.57.6
Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1) 200 0 0
2006-05-12
10:33:36 三圓三圓三圓** 218.25.92.169 GET /***/***/***.gif - 80 - 10.2.57.6
Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1) 200 0 0
/* 說明 */
上面定義了在2006年5月12日的10點33分36秒的時候,IP為10.2.57.6的用戶正常訪問了網站三圓三圓三圓**中***目錄下的index.htm頁和***/***下的***。gif圖片。
#Software: Microsoft Internet Information Services 6.0
#Version: 1.0
#Date: 2006-05-12 13:17:46
#Fields:
date time s-sitename s-ip cs-method cs-uri-stem cs-uri-query s-port
cs-username c-ip cs(User-Agent) sc-status sc-substatus sc-win32-status
2006-05-12
13:17:46 三圓三圓三圓** 218.25.92.169 GET /robots.txt - 80 - 66.249.66.72
Mozilla/5.0+(compatible;+Googlebot/2.1;++http://www.google.com/bot.html)
404 0 2
2006-05-12 13:17:46 三圓三圓三圓** 218.25.92.169 GET / - 80 -
66.249.66.72
Mozilla/5.0+(compatible;+Googlebot/2.1;++http://www.google.com/bot.html)
403 14 5
/* 說明 */
上面定義了在2006年5月12日的13點17分46秒的時候,IP為66.249.66.72的Google蜘蛛訪問了robots.txt文件,但沒有找到此文件,有訪問了此網站的根目 錄,但被拒絕。
現在也有很多日誌分析工具,如果您的伺服器流量很大的話,作者推薦使用分析工具來分析伺服器日誌。
2、伺服器日誌分析工具中文版哪個好用
可以安裝雲幫手啊,免費實用,支持日誌記錄,中文,一鍵巡航,支持一鍵環境部署,還有站點管理,主機管理功能。
3、如何進行網站日誌分析?
1、下載網站日誌:
流程如下:主機獨立控制面板——網站情報系統分析——網站日誌——下載WebLog日誌——右鍵點擊查看,鏈接另存為
在主機獨立控制面板中,找到網站情報系統分析板塊,裡面就能看到網站日誌了,點擊下載WebLog日誌,能看到最近幾天的網站日誌,但是點擊查看進去,會發現是一堆看不懂的代碼,沒有關系,我們先不要進去查看,而是右鍵點擊查看,鏈接另存為,下載網站日誌。
——————
2、代碼看不懂的話,可以使用光年日誌分析軟體GnAnalyzer,這是一個可以幫助我們進行網站日誌分析的軟體。比如蜘蛛抓取的情況,日誌裡面都有顯示。
——————
3、光年日誌分析軟體的使用:
下載好網站日誌後,就可以使用光年日誌分析軟體進行網站日誌的分析了。
流程如下:光年日誌分析軟體文件夾中的GnAnalyzer.exe——文件菜單,新建任務——添加(類型選擇所有文件)——下一步,保存——馬上分析
——————
4、網站日誌分析:
馬上分析後,就可以查看當天:蜘蛛分析(概要分析、目錄抓取、頁面抓取、IP排行);搜索引擎分析(關鍵字分析);狀態碼分析(用戶狀態碼、蜘蛛狀態碼)的相關信息。
文章參考自www.bjtcliuyan.com
4、如何分析網站伺服器日誌
一般通過主機服務商開通日誌功能,再通過FTP訪問網站的根目錄,在根目錄下可以看到一個log或者weblog文件夾,這裡面就是日誌文件,我們把這個日誌文件下載下來,用記事本(或瀏覽器)打開就可以看到網站日誌的內容。
首先必須知道各搜索引擎的蜘蛛名稱,比如百度的蜘蛛程序名稱是baiduspider,Google的機器人程序名稱是Google-Googlebot等等,我們在日誌的內容里搜索上述的的蜘蛛名就可以知道哪個搜索引擎已經爬取過網站了,這里就留下了他們的蛛絲馬跡。再者,必須能看懂常見的http狀態碼,最常見的HTTP狀態碼有200(頁面抓取成功)、304(上次抓取的和這次抓取的沒變化),404(未找到頁面,錯誤鏈接)500(伺服器未響應,一般由伺服器維護和出故障,網站打不開時出現的),這些狀態碼是我們站長朋友必須能看懂的,伺服器狀態碼的值是我們和蜘蛛交流的信號。知道了這些基本信息以後我們就可以根據網站日誌進行分析了,一般來說我們只看百度和谷歌蜘蛛的爬行和抓取情況,當然有特殊需要的也可以對其他幾個蜘蛛的爬行情況進行分析。網站日誌中出現大量的谷歌蜘蛛和百度蜘蛛,說明搜索引擎蜘蛛時常來光顧你的網站。
看網站日誌是否有搜索引擎的蜘蛛來網站抓取過,看返回的狀態碼是200還是其他,如果返回200說明抓取成功,如果返回404說明頁面錯誤,或者頁面不存在,就需要做301永久重定向或者302暫時重定向。一般抓取成功後被搜索引擎放出來的時間也會晚點,一般谷歌機器人放出來的比較快,最快可秒殺,但是百度反應就慢了,最快也要一周左右,不過11月份百度演算法調整後,放出來的速度還是很快的。其次,當網站收錄異常時我們要把正常收錄的日誌和異常的日誌進行對比分析,找出問題所在,這樣可以解決網站收錄問題,也是對完整優化大有裨益的。第三,網站被搜索引擎K掉後,我們必須要觀察網站日誌文件來亡羊補牢,一般這種情況下,日誌文件里只有很少的幾個蜘蛛爬行了首頁和robots,我們要找出被K的原因並改正,再提交給搜索引擎,接下來就可以通過觀察日誌來看蜘蛛是否正常來臨,慢慢過一段時間,如果蜘蛛數量增加或者經常來臨並且返回200狀態嗎,那麼恭喜你,你的網站又活了,如果半年都沒反應,那麼建議放棄該域名重新再戰了。
5、什麼是網站日誌分析需要分析哪些內容?
網站日誌是記錄web伺服器接收處理請求以及運行時錯誤等各種原始信息的以·log結尾的文件,確切的講,應該是伺服器日誌。網站日誌最大的意義是記錄網站運營中比如空間的運營情況,被訪問請求的記錄。
怎麼分析網站日誌?
登錄「FTP」賬號,鏈接到網站數據,找到網站日誌文件夾。(注意:一般情況下,網站日誌所在文件夾都是與網站文件同級文件夾,且帶有log字樣。只有少數情況下,網站日誌文件夾在網站根目錄下。)
打開文件夾,下載日誌壓縮文件!(下載方法很簡單,只要選中文件直接拖到電腦桌面,然後左下方的本地瀏覽下載目錄的文件上「右鍵—傳輸隊列」即可!)
解壓下載的日誌文件,而後將解壓後文件的後綴改為「txt」
新建一個excel表格,並打開!找到頂端工具欄的「數據」工具
點擊「導入數據」,默認「直接打開數據文件」,再選擇「選擇數據源」。
選中解壓後的txt文檔,並打開!
默認「其他編碼「
選擇「分隔符號」,並「下一步」;
勾選所有選項,然後「下一步」;
默認「常規」,並「完成」;
如圖,網站日誌哥數據項之間全部分隔開來;
接下來只要保留自己需要的數據項即可。刪除不需要的數據項!(如圖,僅保留了數據分析需要的訪客ip、訪問文件、訪問狀態碼以及訪客名稱四項數據。)
選中訪客名稱一整列,然後點擊「開始」欄目的「篩選」工具
點擊訪客名稱一列上方的三角下拉按鈕;
取消「全選」,找到百度蜘蛛的訪客名稱,選中並「確定」;
我們就可以得到日誌當天百度蜘蛛訪問網站的所有數據。
最後,該數據保存到網站每日分析日誌中。(注意:每日更新原創內容的網站一般在分析日誌的時候還需要保留時間數據。)
6、如何查看伺服器日誌進行網站分析?
工具/原料
網站伺服器、運行中網站
網站日誌分析工具、FTP工具
網站日誌查看流程
登錄虛擬主機的管理系統(本經驗以萬網為例),輸入主機的賬號以及密碼,登陸。操作如下所示:
登錄系統後台,找到"網站文件管理"中的"weblog日誌下載",並點擊。操作如下圖所示:
點擊"weblog日誌下載",可以看到很多以"ex"+時間命名的壓縮文件可以下載。選擇所需要下載的網站日誌,點擊下載。操作如下所示:
登錄FTP工具,在根目錄下找到"wwwlogs"文件,下載所需的壓縮文件。注意:不同程序,日誌存放目錄不一樣。操作如下圖所示:
網上有很多日誌分析軟體,本經驗以"光年seo日誌分析系統"這款軟體為例子,點擊"新建分析任務"。操作如下圖所示:
在"任務導向"中,按照實際要求改任務名以及日誌類別。一般情況下可以不用修改。點擊系下一步,操作如下圖所示:
接著上一步,在"任務導向"中添加所需要分析的網站日誌(也就是本經驗第三步下載的文件),添加文件可以是一個或者多個。點擊系下一步,操作如下圖所示:
接著上一步,在"任務導向"中選擇報告保存目錄。點擊系下一步,操作如下圖所示:
完成之後,軟體會生成一件文件夾,包含一個"報告"網頁以及"files"文件,點擊"報告"網頁就可以查看網站日誌數據了。
7、如何做網站日誌分析?
一、什麼是網站日誌
1.網站日誌是記錄web伺服器接收處理請求以及運行時錯誤等各種原始信息的以·log結尾的文件。
2.通過網站日誌可以清楚的得知用戶在什麼IP、什麼時間、用什麼操作系統、什麼瀏覽器、什麼解析度設備下訪問了網站的哪個頁面,是否訪問成功。
3.搜索引擎也屬於網站中的一類用戶,我們今天的分享課,主要是針對搜索引擎這種用戶在伺服器留下的記錄展開分析。
為了方便讀懂搜索引擎日誌,我們需要了解不同搜索引擎蜘蛛的標識,以下為4種搜索引擎的標識——*百度蜘蛛:Baispider*搜狗:Sogou News Spider*360:360Spider*谷歌:Googlebot
二、如何看懂網站日誌
(以下為一段日誌記錄)www.cafehome.com
58.180.251.134 - - [25/Mar/2015:13:24:33 +0800] "GET /m53256.html
HTTP/1.1" 200 12264 "http://www.cafehome.com/index-1s2i2p2" "Mozilla/5.0
(Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko)
Chrome/35.0.1916.153 Safari/537.36 SE 2.X MetaSr 1.0" "-" "-" "-"
以下為欄位解讀:
通常日誌文件較大的情況下,需要藉助shell與python結合起來,做數據提取與分析。所以讀懂網站日誌中的欄位就有利於日常的分析。這個在此不贅述,有興趣的童鞋 可以繼續深入了解。
大型網站通常可以用以上的方法來進行做日誌分析。
普通的個人站點,或者企業網站,則可以通過 光年日誌分析工具結合百度站長平台一起使用。
三、為什麼要做網站日誌分析
先來了解SEO流量的獲取流程:抓取-->索引--->排名--->點擊--->流量
因此,要獲得SEO流量的前提務必是,有價值的頁面被搜索引擎抓取到。
所以,對於SEO運營而言,分析搜索引擎網站日誌就顯得非常有必要:*分析抓取有無:解決一定的索引問題。*發現異常:及時規避。如存在大量異常頁面,404等*抓取調控:讓更多優質的內容被抓取,過濾無效抓取。
網站分析的最終目標:讓更多有價值的頁面被抓取,將有機會獲得索引,從而有機會獲得SEO流量。
四、怎麼做網站日誌分析
*定期監控搜索引擎抓取量變化,歷史數據的橫向縱向對比才能發現異常情況。*藉助第三方站長平台,如百度站長平台,了解搜索引擎抓取頻次變化。*藉助光年日誌分析工具,定期做數據記錄,了解重要欄目、重要頁面的抓取量變化。
舉個栗子:
老站點(建站1年且有人維護的網站):Seo流量出現異常波動。
分2種情況:
了解外界:了解外界的前提在於平時你得有一定的人脈基礎,如果沒有也沒關系。泡2個地方——去搜索引擎站長平台或者加入搜索引擎站長群。比如,像百度搜索引擎,它擁有站長平台,也會相應建立站長QQ群。有人脈基礎上,可以直接了解外界的情況——是否也出現類似幅度的波動?這個的前提要結合你短期做過的SEO操作一並考慮,避免誤判。無人脈的情況,泡群、泡站長平台。通常如果是搜索引擎演算法升級,會在群里或者站長平台有相關的小道信息出現。如果是搜索引擎自身演算法升級導致的流量波動,那麼就得根據新演算法做相應的站內優化。比如,百度冰桶3.0版本提出:將嚴厲打擊在百度移動搜索中,打斷用戶完整搜索路徑的調起行為。如果站點有存在以上的情況就需要針對性的做優化:無論是通過對接的APPLINK調起,還是網頁自主調起的應用,以及普通的網頁,都應是可返回,可關閉的。用戶校驗搜索結果的准確性,不需要額外下載APP或者許可權。
分析內在:
在分析內在之前,再次拋出這個公式:Seo流量=抓取量*收錄率(准確來說應該是索引率)*首頁率*點擊率
。當抓取頻次出現異常必然引起抓取量的減少。因此,排除了外界的因素,就需要對網站的日誌進行分析。如果你的站點是中文站點,且是百度站長平台的VIP用戶。那麼,你就可以先藉助第三方站長平台的「抓取頻次」工具(如,百度),先了解搜索引擎近期的抓取頻次、抓取時間、異常頁面。通常藉助這個工具,我們可以對搜索引擎近期抓取情況有初步了解,並且可以藉助這個工具,相應的找到一些解決辦法。
在此先解釋這個概念,方便理解:
1.抓取頻次:抓取頻次是搜索引擎在單位時間內(天級)對網站伺服器抓取的總次數,如果搜索引擎對站點的抓取頻次過高,很有可能造成伺服器不穩定,蜘蛛會根據網站內容更新頻率和伺服器壓力等因素自動調整抓取頻次。
2.抓取時間:指的是搜索引擎每次抓取耗時。而影響抓取頻次的可能原因有:
(1)抓取頻次上限誤調,調低了,則會直接影響到抓取量減少,抓取量減少則索引量少,流量相應減少。
(2)運營層面:存在大量重復頁面(情況一:自身網站存在大量重復的內容。情況二:自身網站內容採集了大量互聯網已存在的內容)。從搜索引擎的目標出發——搜索引擎希望抓取到更多更好的頁面,而你的網站產出的卻是網上泛濫的內容,何必浪費資源在你的網站上?另外,網站內容太久不更新。建議,通過有規律定期產出優質內容來解決此問題。抓取時間變長,也會導致網站抓取量減少。通常存在的可能情況是,伺服器速度變慢導致抓取時間變長。還有一種可能是與網站自身結構有關系。層級太深導致。
小結一下:
老站如何做網站日誌分析(針對中文站點):外界排除:
了解搜索引擎最新演算法是否發生變動、同行是否也有類似變化。
內在分析:
(1)使用工具:百度站長平台(非VIP賬戶看後文介紹)
(2)分析方法:主要使用抓取頻次分析工具進行分析,網站抓取頻次、抓取時間、異常頁面情況等數據變化。並與相關部門進行對接解決。
五、用光年日誌分析工具
非百度VIP:
步驟:
1.下載網站日誌(如果是企業站點,可以直接讓運維部門的童鞋幫忙下載,如果是個人站長,直接在你所購買的虛擬主機後台進行下載,文件以.log為結尾的便是)
2.打開光年日誌分析工具,上傳網站日誌。
3.查看分析結果。主要維度有這幾個:
(1)概況分析:各種爬蟲的總抓取量、總停留時間、總訪問次數。
(2)目錄分析:各種爬蟲抓取各目錄的情況分析。通過這個可以了解到搜索引擎對一些重要欄目的抓取情況,又抓取了哪些無效的頁面。
(3)頁面分析:通過頁面分析可以了解到經常被重復抓取的頁面有哪些,可以相應的做優化調整。比如,像網站的一些注冊頁面及登錄頁面,經常會發現多次被抓取,發現這種情況,我們通常會將登錄/注冊頁面進行屏蔽處理。
(4)狀態碼分析主要分為2種,爬蟲狀態碼以及用戶狀態碼。主要反應用戶/爬蟲訪問頁面時的頁面狀態。通過頁面狀態碼,我們可以了解到頁面狀態,做相應調整,如,當網站存在大量404頁面。那就需要進一步排查,比如,有些團購頁面,團購過期後,頁面就直接變成404了,但並未向百度站長平台提交死鏈清單,則容易造成無效抓取。
8、伺服器安全性日誌分析幫忙???
伺服器安全一般都是採用軟體輔助+手工服務的安全設置,有錢人都是買好幾W的硬體來做伺服器安全。但是對於我一個小小的站長,哪能承受的了。一年的伺服器託管才5000多,建議你找專業做伺服器安全的公司或者團隊,來給你做伺服器安全維護。
安全這問題,很重要,我上次就是為了省錢,在網上搜索了一些伺服器安全設置的文章,對著文章,我一個一個的設置起來,費了好幾天的時間才設置完,沒想到,伺服器竟然癱瘓了,網站都打不開了,也最終明白了,免費的東西,也是最貴的,損失真的很大,資料庫都給我回檔了,我哪個後悔啊。娘個咪的。最後還是讓機房把系統重裝了,然後找的sine安全公司給做的網站伺服器安全維護。跟他們還簽了合同,真的是一份價格一份服務,專業的服務 安全非常穩定。也只有網站安全了,才能帶來安全穩定的客戶源。道理也是經歷了才明白。說了這么多經歷,希望能幫到更多和我一樣的網站站長。
下面是關於安全方面的解決辦法!
建站一段時間後總能聽得到什麼什麼網站被掛馬,什麼網站被黑。好像入侵掛馬似乎是件很簡單的事情。其實,入侵不簡單,簡單的是你的網站的必要安全措施並未做好。
有條件建議找專業做網站安全的sine安全來做安全維護。
一:掛馬預防措施:
1、建議用戶通過ftp來上傳、維護網頁,盡量不安裝asp的上傳程序。
2、定期對網站進行安全的檢測,具體可以利用網上一些工具,如sinesafe網站掛馬檢測工具!
3、asp程序管理員的用戶名和密碼要有一定復雜性,不能過於簡單,還要注意定期更換。
4、到正規網站下載asp程序,下載後要對其資料庫名稱和存放路徑進行修改,資料庫文件名稱也要有一定復雜性。
5、要盡量保持程序是最新版本。
6、不要在網頁上加註後台管理程序登陸頁面的鏈接。
7、為防止程序有未知漏洞,可以在維護後刪除後台管理程序的登陸頁面,下次維護時再通過ftp上傳即可。
8、要時常備份資料庫等重要文件。
9、日常要多維護,並注意空間中是否有來歷不明的asp文件。記住:一分汗水,換一分安全!
10、一旦發現被入侵,除非自己能識別出所有木馬文件,否則要刪除所有文件。
11、對asp上傳程序的調用一定要進行身份認證,並只允許信任的人使用上傳程序。這其中包括各種新聞發布、商城及論壇。
二:掛馬恢復措施:
1.修改帳號密碼
不管是商業或不是,初始密碼多半都是admin。因此你接到網站程序第一件事情就是「修改帳號密碼」。
帳號密碼就不要在使用以前你習慣的,換點特別的。盡量將字母數字及符號一起。此外密碼最好超過15位。尚若你使用SQL的話應該使用特別點的帳號密碼,不要在使用什麼什麼admin之類,否則很容易被入侵。
2.創建一個robots.txt
Robots能夠有效的防範利用搜索引擎竊取信息的駭客。
3.修改後台文件
第一步:修改後台里的驗證文件的名稱。
第二步:修改conn.asp,防止非法下載,也可對資料庫加密後在修改conn.asp。
第三步:修改ACESS資料庫名稱,越復雜越好,可以的話將數據所在目錄的換一下。
4.限制登陸後台IP
此方法是最有效的,每位虛擬主機用戶應該都有個功能。你的IP不固定的話就麻煩點每次改一下咯,安全第一嘛。
5.自定義404頁面及自定義傳送ASP錯誤信息
404能夠讓駭客批量查找你的後台一些重要文件及檢查網頁是否存在注入漏洞。
ASP錯誤嘛,可能會向不明來意者傳送對方想要的信息。
6.慎重選擇網站程序
注意一下網站程序是否本身存在漏洞,好壞你我心裡該有把秤。
7.謹慎上傳漏洞
據悉,上傳漏洞往往是最簡單也是最嚴重的,能夠讓黑客或駭客們輕松控制你的網站。
可以禁止上傳或著限制上傳的文件類型。不懂的話可以找專業做網站安全的sinesafe公司。
8. cookie 保護
登陸時盡量不要去訪問其他站點,以防止 cookie 泄密。切記退出時要點退出在關閉所有瀏覽器。
9.目錄許可權
請管理員設置好一些重要的目錄許可權,防止非正常的訪問。如不要給上傳目錄執行腳本許可權及不要給非上傳目錄給於寫入權。
10.自我測試
如今在網上黑客工具一籮筐,不防找一些來測試下你的網站是否OK。
11.例行維護
a.定期備份數據。最好每日備份一次,下載了備份文件後應該及時刪除主機上的備份文件。
b.定期更改資料庫的名字及管理員帳密。
c.借WEB或FTP管理,查看所有目錄體積,最後修改時間以及文件數,檢查是文件是否有異常,以及查看是否有異常的賬號。
網站被掛馬一般都是網站程序存在漏洞或者伺服器安全性能不達標被不法黑客入侵攻擊而掛馬的。
網站被掛馬是普遍存在現象然而也是每一個網站運營者的心腹之患。
您是否因為網站和伺服器天天被入侵掛馬等問題也曾有過想放棄的想法呢,您否也因為不太了解網站技術的問題而耽誤了網站的運營,您是否也因為精心運營的網站反反復復被一些無聊的黑客入侵掛馬感到徬彷且很無耐。有條件建議找專業做網站安全的sine安全來做安全維護。
9、有沒有人知道,我們要學會如何去看我們伺服器日誌、我們該怎樣查看伺服器日誌,我是做seo的,有關的方面
利用Windows 2003伺服器的遠程維護功能,並通過IE瀏覽界面,就能對伺服器的日誌文件進行遠程查看了,不過默認狀態下,Windows 2003伺服器的遠程維護功能並沒有開通,需要手工啟動。
查看伺服器日誌文件的作用
網站伺服器日誌記錄了web伺服器接收處理請求以及運行時錯誤等各種原始信息。通 過對日誌進行統計、分析、綜合,就能有效地掌握伺服器的運行狀況,發現和排除錯誤原 因、了解客戶訪問分布等,更好的加強系統的維護和管理。
對於自己有伺服器的朋友或是有條件可以看到伺服器日誌文件的朋友來說,無疑是了 解搜索引擎工作原理和搜索引擎對網頁抓取頻率的最佳途徑。
通過這個文件,您可以了解什麼搜索引擎、什麼時間、抓取了哪些頁面,以及可以知 道是主搜索蜘蛛還是從搜索蜘蛛抓取了您的網站等的信息。
訪問原理
1、客戶端(瀏覽器)和Web伺服器建立TCP連接,連接建立以後,向Web伺服器發出 訪問請求(如:Get),根據HTTP協議該請求中包含了客戶端的IP地址、瀏覽器類型、 請求的URL等一系列信息。
2、Web伺服器收到請求後,將客戶端要求的頁面內容返回到客戶端。如果出現錯誤,那麼返回錯誤代碼。
3、伺服器端將訪問信息和錯誤信息紀錄到日誌文件里。
下面我們就對本公司自己伺服器其中的一個日誌文件進行分析。由於文件比較長,所以我們只拿出典型的幾種情況來說明。
#Software: Microsoft Internet Information Services 6.0
#Version: 1.0
#Date: 2006-05-12 03:56:30
#Fields: date time s-sitename s-ip cs-method cs-uri-stem cs-uri-query s-port cs-username c-ip cs(User-Agent) sc-status sc-substatus sc-win32-status
2006-05-12 03:56:30 三圓三圓三圓** 218.25.92.169 GET / - 80 - 220.181.18.98 Baispider+(+http://www.baidu.com/search/spider.htm) 403 14 5
/* 說明 */
上面定義了在2006年5月12日的3點56分30秒的時候,IP為220.181.18.98的百度蜘蛛通過80埠(HTTP)訪問了IP為218.25.92.169的伺服器的根目錄,但被拒絕。
#Software: Microsoft Internet Information Services 6.0
#Version: 1.0
#Date: 2006-05-12 10:18:39
#Fields: date time s-sitename s-ip cs-method cs-uri-stem cs-uri-query s-port cs-username c-ip cs(User-Agent) sc-status sc-substatus sc-win32-status
2006-05-12 10:33:36 三圓三圓三圓** 218.25.92.169 GET /***/index.htm - 80 - 10.2.57.6 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1) 200 0 0
2006-05-12 10:33:36 三圓三圓三圓** 218.25.92.169 GET /***/***/***.gif - 80 - 10.2.57.6 Mozilla/4.0+(compatible;+MSIE+6.0;+Windows+NT+5.1;+SV1) 200 0 0
/* 說明 */
上面定義了在2006年5月12日的10點33分36秒的時候,IP為10.2.57.6的用戶正常訪問了網站三圓三圓三圓**中***目錄下的index.htm頁和***/***下的***。gif圖片。
#Software: Microsoft Internet Information Services 6.0
#Version: 1.0
#Date: 2006-05-12 13:17:46
#Fields: date time s-sitename s-ip cs-method cs-uri-stem cs-uri-query s-port cs-username c-ip cs(User-Agent) sc-status sc-substatus sc-win32-status
2006-05-12 13:17:46 三圓三圓三圓** 218.25.92.169 GET /robots.txt - 80 - 66.249.66.72 Mozilla/5.0+(compatible;+Googlebot/2.1;++http://www.google.com/bot.html) 404 0 2
2006-05-12 13:17:46 三圓三圓三圓** 218.25.92.169 GET / - 80 - 66.249.66.72 Mozilla/5.0+(compatible;+Googlebot/2.1;++http://www.google.com/bot.html) 403 14 5
/* 說明 */
上面定義了在2006年5月12日的13點17分46秒的時候,IP為66.249.66.72的Google蜘蛛訪問了robots.txt文件,但沒有找到此文件,有訪問了此網站的根目 錄,但被拒絕。
現在也有很多日誌分析工具,如果您的伺服器流量很大的話,作者推薦使用分析工具來分析伺服器日誌。
Windows獨享主機如何查看伺服器系統日誌?
伺服器系統日誌是記載著伺服器每時每刻的信息的一個資料庫,上面記載著的一些信息對於我們了解伺服器的運行狀況都有很大的幫助。
查看方法:登陸伺服器後進入控制面板—管理工具—事件查看器
10、網站日誌是什麼?如何分析網站日誌
網站日誌是記錄web伺服器接收處理請求以及運行時錯誤等各種原始信息的以·log結尾的文件,確切的講,應該是伺服器日誌。網站日誌最大的意義是記錄網站運營中比如空間的運營情況,被訪問請求的記錄。
怎麼分析網站日誌?
登錄「FTP」賬號,鏈接到網站數據,找到網站日誌文件夾。(注意:一般情況下,網站日誌所在文件夾都是與網站文件同級文件夾,且帶有log字樣。只有少數情況下,網站日誌文件夾在網站根目錄下。)
打開文件夾,下載日誌壓縮文件!(下載方法很簡單,只要選中文件直接拖到電腦桌面,然後左下方的本地瀏覽下載目錄的文件上「右鍵—傳輸隊列」即可!)
解壓下載的日誌文件,而後將解壓後文件的後綴改為「txt」
新建一個excel表格,並打開!找到頂端工具欄的「數據」工具
點擊「導入數據」,默認「直接打開數據文件」,再選擇「選擇數據源」。
選中解壓後的txt文檔,並打開!
默認「其他編碼」
選擇「分隔符號」,並「下一步」;
勾選所有選項,然後「下一步」;
默認「常規」,並「完成」;
如圖,網站日誌哥數據項之間全部分隔開來;
接下來只要保留自己需要的數據項即可。刪除不需要的數據項!(如圖,僅保留了數據分析需要的訪客ip、訪問文件、訪問狀態碼以及訪客名稱四項數據。)
選中訪客名稱一整列,然後點擊「開始」欄目的「篩選」工具
點擊訪客名稱一列上方的三角下拉按鈕;
取消「全選」,找到百度蜘蛛的訪客名稱,選中並「確定」;
我們就可以得到日誌當天百度蜘蛛訪問網站的所有數據。
最後,該數據保存到網站每日分析日誌中。(注意:每日更新原創內容的網站一般在分析日誌的時候還需要保留時間數據。)