1、http public-suffix-list.txt
判斷兩個網站是否是同一站點用的。
我上面說的原話是:當一個請求本身的 URL 和它的發起頁面的 URL 不屬於同一個站點時,這個請求就算第三方請求。那麼怎樣算是同一個站點?是我們經常說的同源(same-origin)嗎,cross-origin 的兩個請求就不屬於同一個站點?顯然不是的,foo.a.com 和 bar.a.com 是不同源的,但很有可能是同一個站點的,a.com 和 a.com:8000 是不同源的,但它倆絕對是屬於同一個站點的,瀏覽器在判斷第三方請求時用的判斷邏輯並不是同源策略,而是用了 Public Suffix List 來判斷。
有些同學可能會這么想:一個域名可以用逗號分成多個欄位,如果兩個域名的最後兩個欄位都是相同的,那它們就是同一個站點的,比如 foo.a.com 和 bar.a.com 就是。但是 sina.com.cn 和 sohu.com.cn 也滿足這個條件啊,它們絕對不是同一個網站吧,那是不是說瀏覽器需要維護一份列表來記錄所有國家頒布的二級域名啊,但是不僅國家可以開放三級域名給不同的網站使用,普通的網站也可能會,比如新浪就開放 *.sinaapp.com 三級域名注冊,foo.sinaapp.com 和 bar.sinaapp.com 是兩個不同的網站,那 sinaapp.com 也應該加入那個列表中,以及 github.io 等等。
Mozilla 很久之前就將自己維護的這個域名後綴列表放到了 github 上,起名為 Public Suffix List,裡面不僅有 IANA 頒布的頂級域名,眾多二級域名,還有三級域名比如 compute.amazonaws.com,甚至四級域名比如 compute.amazonaws.com.cn,判斷兩個 URL 是不是同一個網站的,只要判斷兩個 URL 的域名的 public suffix(按能匹配到的最長的算)以及它前面的那個欄位(後面用 public suffix+1 指代)是否都相同,是的話就是同一個站點的,否則不是。比如
Public Suffix List 最初被 Firefox 用在限制 Set-Cookie 響應頭的 Domain 屬性上的, Domain 不能設置成一個比自己網站的 public suffix+1 還高層級的域名,比如 foo.w3c.github.io 就不能設置 Set-Cookie: foo=1; Domain=github.io,最高只能設置成 Set-Cookie: bar=1; Domain=w3c.github.io,現在其它瀏覽器也都在用同樣的列表做同樣的限制。DOM API 里的 document.domain 後來也加上了這個限制。有些瀏覽器還用這個列表來高亮地址欄上的 URL 中的 public suffix+1 部分(Firefox 和 IE 有用,Chrome 是高亮了整個域名),此外瀏覽器們還用該列表干一些其它瑣事,比如將歷史網址按不同站點排列等等。
瀏覽器們會定期同步這份列表,比如 Chrome 是在每個正式版本發布之前同步一次。
補充下:www.sina.com.cn和www.sohu.com.cn的判斷細節。首先根據www.sina.com.cn,查找public suffix list的suffix list。只能找到com.cn。所以public suffix + 1(sina)。就是sina.com.cn。同理sohu.com.cn,對比不一致。所以不算同一站點
非原創,原文地址:網頁鏈接
2、自己在家架設的傳奇私服,空間域名都有了,把登陸器上傳到網站為什麼下載打開登陸器沒有列表呢?
登陸器配置器配置出來登陸器以後,有個伺服器列表文件,你把它放網站目錄文件夾,這樣就行了,要不然讀取不到你的伺服器列表信息。
文件一般是ServerList.txt
3、種子列表 - 動漫 - Csze BT種子發布共享系統 - BT種子BT種子發布BT影視下載BT動漫 最新域名
發任★意郵★件到: [email protected] 【自★動回★復你想要的,你懂得!】
4、phpstudy站點域名配置怎麼改hosts
很多使用phpstudy做站群的同行經常要綁定多個域名,對於一次完成上百個域名的綁定,如果一個個添加,可是費些腦筋,而使用phpstudy自帶的域名導入功能,可是事半功倍,而phpstudy操作手冊並沒有講述這一步,但對於做站群的同行十分有用,具體看步驟。
1.
打開phpstudy管理器,點擊「其它選項菜單」,再點擊站點域名管理
2.
找到左側的域名列表(如果沒有添加過就是空白的,可先綁定幾個域名,主要是為了查看格式) ,點擊右鍵,再點擊導出全部站點,提示成功,導出的是一個txt文件,會出現文件所在位置。
3
打開這個txt文件看到它的格式樣式,
4
然後把它全部復制到excel表裡,通過excel一些簡單的公式(主要用到連字元進行多單元格內容合並到一個單元格)把准備好的域名和前綴、位置合並到一個單元格
5
然後把同在一列的內容復制到txt文件里,再通過phpstudy的網站列表導入這個txt文件
6
最後點擊設置並生成配置文件,大功告成
5、如何使用工具獲取自己網站的頁面總數和相對應的域名
獲取網站頁面總數和所有頁面鏈接的方法1:使用網站自帶的sitemap功能
生成整站sitemap文件回,就能答得到所有的鏈接,用瀏覽器打開sitemap頁面,然後用常見的瀏覽器打開,ctrl+f,在彈出的搜索框處寫入完整域名,就能顯示有多少條連接。
2:使用小爬蟲等外部sitemap生成工具
通過第三方工具抓取網站,生成sitemap文件,並通過ftp上傳至網站空間,用上面提到的方法進行操作即可。
百度收錄百分比數據獲取方法可通過工具將sitemap文件提取轉成txt的純網址列表文件或直接生成txt格式的sitemap純網址列表文件,將所有網址列表復制到chinaz站長工具中的鏈接收錄率查詢工具中進行查詢即可。
6、在管理域名時域名解析記錄列表中的記錄類型都是什麼含義
解析最快10分鍾左右就可以生效了,慢的話要等2小時左右才可以生效。如果你不會設置解析,我這兒有操作說明,可以發給你。
7、如何設置域名的 SPF 記錄
為什麼從主機上發送郵件會被當成垃圾郵件而進了 Spam?為什麼會有人冒充你的域名發送郵件?這些問題的原因很可能是你沒有 SPF 記錄。一、SPF 介紹說來也神奇,互聯網誕生至今已經幾個世紀了(嗯?),但是目前互聯網上發送電子郵件還是使用著最古老的「簡單郵件傳輸協議」(SMTP),這協議在設計之初就沒有考慮過多的安全性與防偽造性。但是那時候使用互聯網的人都很純潔啊,不會用 SMTP 來發垃圾郵件,但是現在的人不同了,由於 SMTP 可以不需要驗證,所以隨便找個主機,就能大量地向任何一個郵箱地址發送郵件了,垃圾郵件(Spam)就開始泛濫了。另外,發郵件的時候隨便填寫一下別人的域名,就可以冒充別的網站來發送郵件了,欺詐郵件(Phishing)也就開始泛濫了。為了解決這種情況,兩大針對域名的主要防範措施被推出:SPF 和 PTR。由於 PTR 需要 ISP 等支持,不是人人都可以做到的,所以此文暫時不介紹,主要講一下 SPF。Sender Policy Framework (SPF) is an email validation system designed to prevent email spam by detecting email spoofing, a common vulnerability, by verifying sender IP addresses. SPF allows administrators to specify which hosts are allowed to send mail from a given domain by creating a specific SPF record (or TXT record) in the Domain Name System (DNS). Mail exchangers use the DNS to check that mail from a given domain is being sent by a host sanctioned by that domain's administrators.這是Wikipedia 上對SPF 的介紹,大意是說,SPF 是一種對發送郵件者的 IP 地址來進行簡單的郵件驗證的系統,域名的管理員通過 SPF 記錄或 TXT 記錄來規定這個域名下哪些 IP 地址是「允許」發送郵件的,這樣如果有人用別的 IP 地址來偽造發送的話,收件方可以根據 SPF 來選擇拒收這些郵件。二、為什麼要設置 SPF相信各位讀者也看出來了,這是需要發送方和接收方都配合才能生效的一套系統。如果發送方在 SPF 里拚命規定「某某 IP 不是我們的,如果從那裡發郵件千萬不要相信!」,但是接收方根本不去看 SPF 的話,那也是白搭。還好,很多國外的郵箱提供商都會去檢查發送者域名的 SPF 的,一部分郵箱提供商如果發送發送者的域名沒有 SPF 的話,會直接拒收郵件,所以我們要給自己的域名設置 SPF!三、SPF 語法格式咳咳,相信細心的讀者也發現了,上面說 SPF 是通過「SPF 記錄」和「TXT 記錄」來檢查的。為什麼會有 TXT 記錄呢?這只是兼容性的考量:一部分老的 DNS 伺服器不支持 SPF 記錄,因此只能拿 TXT 記錄來代替一下, OpenSPF 建議在這段過渡時期,SPF 記錄和 TXT 記錄都要添加……SPF 記錄和格式和 TXT 記錄因此也是非常相近的:1234wzyboy@vermilion:~$ digwzyboy.im txt +short"v=spf1 include:_spf.wzyboy.im include:_spf.google.com ~all"wzyboy@vermilion:~$ digwzyboy.im spf +short"v=spf1 include:_spf.wzyboy.im include:_spf.google.com ~all"嗯,記錄類型不一樣,記錄內容是一模一樣的……如果要在 BIND9 里設置的話,是這樣的:12wzyboy.im. 3600 IN TXT "v=spf1 include:_spf.wzyboy.im include:_spf.google.com ~all" wzyboy.im. 3600 IN SPF "v=spf1 include:_spf.wzyboy.im include:_spf.google.com ~all"還是比較容易理解的,如果使用第三方的 DNS 解析服務的話,在也差不多是這樣設置。根據OpenSPF 的介紹,我編造了一個 SPF 的示例:v=spf1 mx a:pluto.example.net ip4:192.168.0.1/16 ip6:1080::8:800:200C:417A/96 include:aspmx.googlemail.com -all看起來很長的樣子,其實很多成分是可選的,我只是盡量把它們都列出來而已,如果拆解看來看是這樣的:v=spf1 這說明這是 SPF 第一版,這個一定要有 mx 這個說明把這個域名上的 MX 記錄所對應的伺服器加入「信任列表」。可選。 a:pluto.example.net 代表把 pluto.example.net 這個域名 A 記錄所對應的 IP 加入「信任列表」。可選。 ip4:192.168.0.1/16 代表把這一段 IPv4 的地址段加入「信任列表」。可選。 ip6:1080::8:800:200C:417A/96 代表把這一段 IPv6 的地址段加入「信任列表」。可選。 include:aspmx.googlemail.com 代表讀取這個域名上的 SPF,然後把它們都加入「信任列表」。可選。 -all 或 ~all 或 ?
8、怎樣下載一個網站目錄下的全部文件?
wget
-c
-r
-nd
-np
-k
-l
-p
-a
c,h
www.xxx.org/pub/path/
-c
斷點續傳
-r
遞歸下載,下載指定網頁某一目錄下(包括子目錄)的所有文件
-nd
遞歸下載時不創建一層一層的目錄,把所有的文件下載到當前目錄
-np
遞歸下載時不搜索上層目錄。如wget
-c
-r
www.xxx.org/pub/path/
沒有加參數-np,就會同時下載path的上一級目錄pub下的其它文件
-k
將絕對鏈接轉為相對鏈接,下載整個站點後離線瀏覽網頁,最好加上這個參數
-l
遞歸時不進入其它主機,如wget
-c
-r
www.xxx.org/
如果網站內有一個這樣的鏈接:
www.yyy.org,不加參數-l,就會像大火燒山一樣,會遞歸下載www.yyy.org網站
-p
下載網頁所需的所有文件,如圖片等
-a
指定要下載的文件樣式列表,多個樣式用逗號分隔
-i
後面跟一個文件,文件內指明要下載的url。