導航:首頁 > IDC知識 > centosnfs伺服器配置

centosnfs伺服器配置

發布時間:2020-11-04 23:08:59

1、centos 6.5 iscsi伺服器和nfs的區別

前面這個個ISCSI的存儲,採用6.5的系統。後面這個簡寫,就看不太懂了。你可以去伺服器廠商(正睿)的網上找找ISCSI的產品參考對比一下,幾分鍾就清楚了!

2、如何在Centos 6上設置NFS掛載目錄

設置來NFS至少需要兩台伺服器,一台是提源供共享文件夾的服務端,一台客戶端。

假設伺服器和客戶端IP地址:

伺服器: 192.168.1.100   

客戶端: 192.168.1.101

一、搭建 NFS 服務端

1、首先使用 yum 安裝 NFS 軟體。

2、通過以下腳本啟動 NFS 服務。

3、目錄必須添加到 /etc/exports 文件,通過它指定的目錄共享位置以及共享詳細信息。
 

假設想要分享的目錄是 /home,打開exports這個文件。

4、添加以下的信息,分享給客戶端。

/home192.168.1.101(rw,sync,no_root_squash,no_subtree_check)

5、設置完成每個共享目錄,運行以下命令導出。

二、搭建 NFS 客戶端。

1、下載依賴庫和軟體,首先使用 yum 安裝 NFS 軟體。

2、創建一個目錄用於 NFS 掛載。

3、掛載目錄。

mount 192.168.1.100:/home /mnt/nfs/home

4、可以使用  df -h
命令來查看是否已經成功掛載。

至此步,即可完成在Centos 6上設置NF掛載目錄。

3、如何在centos上配置nfs服務

方法/步驟
Step 1:檢查是否安裝NFS和rpcbind兩個軟體。
打開linux終端,通過rpm -qa命令查看是否安裝這兩個包,如沒有安裝,請通過yum或源碼包進行安裝,這里不再說明安裝方法。如圖:

Step 2:修改配置文件:
用su切換成root用戶,編輯/etc/exports文件,指定共享目錄及許可權等。 如圖所示。我們來分析一下exports文件內容。
第一列是伺服器要輸出的共享目錄。在本例中,共享目錄是/db2Backup。
第二列指定允許哪些ip第一列的共享目錄。
括弧內的參數意義描述如下:
rw:讀/寫許可權,只讀許可權的參數為ro;
sync:數據同步寫入內存和硬碟,async,此時數據會先暫存於內存中,而不立即寫入硬碟。
no_root_squash:NFS 伺服器共享目錄用戶的屬性,如果用戶是 root,那麼對於這個共享目錄來說就具有 root 的許可權。修改文件後,保存退出。

Stet 3 :啟動服務
在啟動NFS伺服器,要先啟動portmap服務,然後再啟動NFS服務。操作方法如圖所示:
在啟動服務時,要用root。

Step 4:掛載目錄
在另一台電腦上面,查看能否訪問NFS服務,如果能訪問,則掛載,如圖所示。
首先查看能否訪問NFS,命令返回的結果是可以正常訪問。然後在本地建立/home/nfs文件夾,並把nfs掛載到該文件夾下面。mount -f參數指明了掛載類型是nfs。

5
Step 5:測試
經過以上4步,已經成功搭建了NFS服務,並載入到了本地文件系統中,接下來我們測試一下。cd到/home/nfs目錄,mkdir一個文件夾,假設文件名是hello,然後進入到nfs伺服器上,應該能看到hello文件。

6
以上就是簡單的配置NFS服務的方法,未涉及防火牆等內容。如果在第4步時出現錯誤,請檢查防火牆的設置。歡迎大家多多交流。

4、虛擬機中安裝了centos操作系統,但是配置nfs伺服器時遇到了不少問題,很急人,希望牛人幫忙解決,

不一定所有的版本都有portmap服務

比如CENTOS 6:
yum install nfs-utils -y

service rpcbind start #rpcbind根據依賴關系,會自回動隨nfs-utils安裝答
service nfs start

5、centos6.9,用非root成功掛載nfs。但登錄客戶端mount不顯示掛載,只有cd到掛載目錄後再mount才顯示掛載。

在NFS客戶端掛載/卸載NFS服務端目錄的時候一定要事先退出掛載目錄!掛載/卸載目錄之後,再進入掛載目錄查看結果!

6、centos lvs干什麼用的

CentOS系統之LVS負載均衡群集
一、群集技術的概述
1、群集的類型
無論是那種群集,都至少包括兩台節點伺服器,而外表現為一個整體,只提供一個訪問入口,相當於一台大型計算機。根據群集所針對的目標差異,可分為以下三種內型。
負載均衡群集:以提高應用系統的響應能力,盡可能處理更多的訪問請求,減少延遲,獲得高並發,高負載的整天性能,例如:「DNS輪詢」,「應用層交換」,「反向代理」等都可以做負載均衡群集。
高可用群集:以提高應用系統的可靠性,盡可能地減少中斷時間,確保服務的連續性,達到高可用的容錯效果,例如:「故障切換」,「雙機熱備」,「多機熱備」等都屬於高可用群集。
高性能運算群集:以提高應用系統的CPU運算速度,擴展硬體資源和分析能力,獲得相當於大型,超級計算機的高性能運算能力,例如:「雲計算」等就屬於高性能運算群集的一種。
2、負載均衡的分層結構
在典型的負載均衡群集中,包括以下三個層次的組件。
第一層:負載調度器,這是訪問整個群集系統的唯一入口,多外使用所有伺服器共有的VIP(虛擬IP)地址,也稱群集IP地址。通常會配置主,備兩台調度器實現熱備,當主調度器失效以後平滑替換至備用調度器,確保高可用性。
第二層:伺服器池:群集所提供的應用服務由伺服器池承擔,其中的每個節點具有獨立的RIP(真實IP)地址,只處理調度器分發過來的客戶機請求。
第三層:共享存儲,為伺服器池中的所有節點提供穩定,一致的文件存取服務,確保整個群集的統一性。在Linux環境中,共享存儲可以使用NAS設備或者提供NFS(網路文件系統)共享服務的專用伺服器。
典型的負載均衡群集結構拓撲圖如下:

3、負載均衡的工作模式
關於群集的負載調度技術,可以基於IP,埠,內容等進行分發,其中基於IP的負載調度室效率最高的。基於IP的負載均衡中,常見的有地址轉換,IP隧道,直接路由這三種工作模式。
地址轉換:簡稱NAT模式,類似於防火牆的私有網路結構,負載調度器作為所有伺服器節點的網關,即作為客戶機的訪問入口,也是個節點回應客戶機的訪問出口,伺服器節點使用私有IP地址,與負載均衡調度器位於同一個物理網路,安全性要優於其他兩種方式。
IP隧道:簡稱TUN模式,採用開放式的網路結構,負載調度器僅作為客戶機的入口,各節點通過各自的Internet連接直接回應客戶機,而不再經過負調度器。伺服器節點分散在互聯網的不同位置,具有獨立的公網IP地址,通常專用IP隧道與負載調度器相互通信。
直接路由:簡稱DR模式,採用半開放式的網路結構,與TUN模式的結構類似,但個節點並不是分散在各地,而是與調度器位於同一個物理網路。負載調度器與個節點伺服器通過本地網路連接,不需要建立專用的IP隧道。

二、LVS虛擬伺服器概述
Linux Virtual Server是針對Linux內核開發的一個負載均衡項目,LVS現在已經成為Linux內核的一部分,默認編譯為ip_vs模塊,必要時能夠自動調用。
1、LVS的負載調度演算法
輪詢(rr):將收到的訪問請求按照順序輪流分配給群集中的各節點,均等地對待每一台伺服器,而不管伺服器實際的連接數和系統負載。
加權輪詢(wrr):根據真實伺服器的處理能力輪流分配收到的訪問請求,調度器可以自動查詢各節點的負載情況,並動態調整其權重。
最少連接(lc):根據真實伺服器已建立的連接數進行分配,將收到的訪問請求優先分配給連接數最少的節點。
加權最少連接(wlc):在服務節點的性能差異較大的情況下,可以為真實伺服器自動調整權重,權重較高的節點將承載更大比例的活動連接負載。
2、載入LVS內核模塊,安裝ipvsadm管理工具
ipvsadm是在負載調度器上使用的LVS群集管理工具,通過調用ip_vs模塊來添加,刪除伺服器節點,以及查看群集的運行狀態。
[root@localhost /]#modprobe ip_vs
[root@localhost /]#rpm -ivh /media/Packages/ipvsadm-1.25-9.e16.i686.rpm

3、使用ipvsadm工具管理LVS群集
LVS群集的管理工作主要包括:創建虛擬伺服器,添加伺服器節點,查看群集節點狀態,刪除伺服器節點保存負載分配策略。
1)創建虛擬伺服器
若群集的VIP地址為172.16.16.172,針對TCP的80埠提供負載分流服務,使用調度演算法為輪詢,則命令語法如下。對於負載均衡調度器來說,VIP必須是本機(調度器)實際以啟用的IP地址。
[root@localhost /]#ipvsadmin -A -t 172.16.16.172:80 -s rr

上述操作中,選項「-A」表示添加虛擬伺服器,「-t」用來指定VIP地址及TCP埠,「-s」用來指定負載調度演算法——輪詢(rr),加權輪詢(wrr),最少連接(lc),加權最少連接(wlc)。
2)添加伺服器節點
為虛擬伺服器172.16.16.172添加四個伺服器節點,IP地址依次為192.168.7.21-192.168.7.24,對應的ipvsadm命令語法如下。若希望使用保持連接,可以使用「-p 60」參數,其中60為60秒。
[root@localhost /]#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.21:80 -m -w 1
[root@localhost /]#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.22:80 -m -w 1
[root@localhost /]#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.23:80 -m -w 1
[root@localhost /]#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.24:80 -m -w 1
上述操作中,選項「-a」表示添加真實伺服器,「-t」用來指定VIP地址及TCP埠,「-r」用來指定RIP地址及TCP埠,「-m」表示使用NAT群集模式(-g DR模式,-i TUN模式),「-w」用來設置權重(權重為0時表示暫停節點)
3)查看群集節點狀態
結合選項「-L」可以列表查看LVS虛擬伺服器,可以指定只查看某一個VIP地址,結合選項「-n」將以數字形式顯示地址,埠等信息。
[root@localhost /]#ipvsadm -L -n //查看節點狀態
[root@localhost /]#ipvsadm -Lnc //查看負載連接情況

4)刪除伺服器節點
需要刪除伺服器池中某一個節點時,使用選項「-d」。執行刪除操作必須指定目標對象,包括節點地址,虛擬IP地址。如果需要刪除整個虛擬伺服器時,使用選項「-D」並指定虛擬IP地址即可,無需指定節點。
[root@localhost /]#ipvsadm -d -r 192.168.7.24:80 -t 172.16.16.172:80
[root@localhost /]#ipvsadm -D -t 172.16.16.172:80 //刪除整個虛擬伺服器

5)保存負載分配策略
使用導出/導入工具ipvsadm-save/ipvsadm-restore可以保存,恢復LVS策略,操作方法類似於iptables規則的導入/出 。
[root@localhost /]#ipvsadm-save > /etc/sysconfig/ipvsadm //保存策略
[root@localhost /]#service ipvsadm stop //停止服務(清楚策略)
[root@localhost /]#service ipvsadm start //啟動服務(載入保存的策略)

三、配置NFS共享存儲服務
NFS是一種基於TCP/IP傳輸的網路文件系統協議,最初由SUN公司開發。
1、使用NFS發布共享資源
NFS服務的實現依賴於RPC(遠程過程調用)機制,以完成遠程到本地的映射過程。在RHEL 6系統中,需要安裝nfs-utils和rpcbind軟體包來提供NFS共享服務,前者用NFS共享發布和訪問,後者用於NPC支持。
1)安裝nfs-utils和rpcbind軟體包
[root@localhost /]#yum -y install nfs-utils rpcbind
[root@localhost /]#chkconfig nfs on
[root@localhost /]#chkconfig rpcbind on

2)設置共享目錄
NFS的配置文件為「/etc/exports」,文件內容默認為空(無任何共享)。在exports文件中設置共享資源時,記錄格式為「目錄文件」 客戶機地址(許可權選項)。
[root@localhost /]#vim /etc/exports
/var/www/html 192.168.7.0/24(rw,sync,no_root_squash)

其中客戶機地址可以是主機名,IP地址,網段地址,允許使用*,?等通配符;許可權選項中rw表示讀寫,sync表示同步寫入,no_root_squash表示客戶機以root身份登錄時將root許可權作為nfsnobody用戶降權對待。當需要將同一個目錄共享給不同的客戶機,且分配不同的許可權時,只需要分隔指定多個「客戶機(許可權選項)」即可。
[root@localhost /]#vim /etc/exports
/var/www/html 192.168.7.1(ro) 192.168.7.10(rw)
3)啟動NFS共享服務程序
[root@localhost /]#service rpcbind start
[root@localhost /]#service nfs start
[root@localhost /]#netstat -anpt | grep rpcbind

4)查看本機發布的NFS共享目錄
[root@localhost /]#showmount -e

2、在客戶機上訪問NFS共享資源
NFS協議的目標是提供一種網路文件系統,因此對NFS共享的訪問方式也使用mount命令來進行掛載,對應的文件系統內型為NFS。
1)安裝rpcbind軟體包,並啟用rpcbind服務
若要正常訪問NFS共享資源,客戶機中也需要安裝rpcbind軟體包,並啟用rpcbind系統服務;另外,為了是showmount查詢工具,建議將nfs-utils軟體包也一起裝上。
[root@localhost /]#yum -y install rpcbind nfs-utils
[root@localhost /]#chkconfig rpcbind on
[root@localhost /]#service rpcbind start

2)手動掛載NFS目錄
[root@localhost /]#mount 192.168.7.250:/var/www/html /var/www/html

完成掛載以後,只要訪問客戶機的「/var/www/html」文件夾,實際上就相當於訪問NFS伺服器上的「/var/www/html」文件夾。
3)fstab自動掛載設置
修改「/etc/fstab」配置文件,加入NFS共享目錄的掛載設置,注意文件系統類型設為nfs,掛載參數建議添加netdev;若添加soft,intr參數可以實現軟掛載,允許在網路中斷時放棄掛載。這樣客戶機就可以在每次開機後自動掛載NFS共享資源了。
[root@localhost /]#vim /etc/fstab
......//省略部分內容
192.168.7.250:/var/www/html nfs /var/www/html defaults,_netdev 0 0

四、構建LVS負載均衡群集實例
1、案例1:構建NAT模式的負載均衡群集
在NAT模式的群集中,LVS負載調度器是所有節點訪問Internet的網關伺服器,其外網地址172.16.16.172同時也作為整個群集的VIP地址。LVS調度器具有兩塊網卡,分別連接內外網路。
對於LVS負載調度器來說,需要使用iptables為出站配置SNAT轉發規則,以便節點伺服器能夠訪問Internet。所有的節點伺服器,共享存儲均位於私有網路內,其默認網關設為LVS負載調度器的內外地址(192.168.7.254).
1)配置SNAT轉發規則
[root@localhost /]#vim /etc/sysctl.conf
......//省略部分內容
net.ipv4.ip_forward = 1
[root@localhost /]#sysctl -p
[root@localhost /]#iptables -t nat -A POSTROUTING -s 192.168.7.0/24 -o eth0 -j SNAT --to-source 172.16.16.172

2)配置負載分配策略
[root@localhost /]#service ipvsadm stop //清楚原有策略
[root@localhost /]#ipvsadm -A -t 172.16.16.172:80 -s rr
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.21:80 -m -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.22:80 -m -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.23:80 -m -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.24:80 -m -w 1
[root@localhost /]#service ipvsadm save //保存策略
[root@localhost /]#chkconfig ipvsadm on

3)配置節點伺服器
所有節點伺服器均使用相同的配置,包括httpd服務埠 ,網站文檔內容。實際上各節點的網站文檔可存放在共享存儲設備上,從而免去同步過程。
[root@localhost /]#yum -y install httpd
[root@localhost /]#mount 192.168.7.250:/var/www/html /var/www/html
[root@localhost /]#vim /var/www/html/index.html
<h1>負載均衡測試網頁!!!</h1>
[root@localhost /]#service httpd start
[root@localhost /]#chkcofnig httpd on

4)測試LVS群集
安排多台測試機,從Internet中直接訪問http://172.16.16.172將能夠看到由真實伺服器提供的網頁內容——如果各節點的網頁不同,則不同客戶機看到的網頁也可能不以樣。可以使用ipvsadm工具查看當前連接負載的情況。(在調度器上進行查詢)
[root@localhost /]#ipvsadm -Ln

2、案例2:構建DR模式的負載均衡群集
在DR模式的群集中,LVS負載調度器作為群集的訪問入口,但不作為網關使用;伺服器池中的所有節點都各自接入Internet,發送給客戶機的WEB響應數據包不需要經過LVS負載調度器。
這種方式入站,出站訪問數據被分別處理,因此LVS負載調度器和所有的節點伺服器都需要配置有VIP地址,以便響應對整個群集的訪問。考慮到數據存儲的安全性,共享存儲設備會放在內部的專用網路中。
1)配置調度器的虛擬IP地址(VIP)
採用虛介面的方式(eth0:0),為網卡eth0綁定VIP地址,以便響應群集訪問。配置結果為eht0 172.16.16.173/24,eth0:0 172.16.16.172/24
[root@localhost /]#cd /etc/sysconfig/network-scripts/
[root@localhost network-scripts]#cp ifcfg-eth0 ifcfg-eth0:0
[root@localhost network-scripts]#vim ifcfg-eth0;0
......//省略部分內容
DEVICE=eht0:0
ONBOOT=yes
IPADDR=172.16.16.172
NETMASK=255.255.255.0
[root@localhost network-scripts]#service network restart
2)調整/proc響應參數
對於DR群集模式來說,由於LVS負載調度器和各節點需要公用VIP地址,為了避免網路內的ARP解析出現異常,應關閉Linux內核的重定向參數響應。
[root@localhost /]#vim /etc/sysctl.conf
......//省略部分內容
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.eth0.send_redirects = 0
[root@localhost /]#sysctl -p

3)配置負載分配策略
[root@localhost /]#service ipvsadm stop
[root@localhost /]#ipvsadm -A -t 172.16.16.172:80 -s rr
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 172.16.16.177:80 -g -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 172.16.16.178:80 -g -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 172.16.16.179:80 -g -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 172.16.16.180:80 -g -w 1
[root@localhost /]#service ipvsadm save
[root@localhost /]#chkconfig ipvsadm on

4)配置節點伺服器的虛擬IP地址(VIP)
在每個節點伺服器,同樣需要具有VIP地址172.16.16.172,但此地址僅用作發送WEB響應數據包的源地址,並不需要監聽客戶機的訪問請求(訪問請求有調度器監聽)。因此使用虛介面lo:0來承載VIP地址,並為本機添加一條路由記錄,將訪問VIP的數據限制在本地以避免通信絮亂。 [root@localhost /]#cd /etc/sysconfig/network-scripts/
[root@localhost network-scripts]#cp ifcfg-lo ifcfg-lo:0
[root@localhost network-scripts]#vim ifcfg-lo:0
......//省略部分內容
DEVICE=lo:0
ONBOOT=yes
IPADDR=172.16.16.172
NETMASK=255.255.255.255
[root@localhost network-scripts]#service network restart
[root@localhost network-scripts]#vim /etc/rc.local
......//省略部分內容
/sbin/route add -host 172.16.16.172 dev lo:0
[root@localhost network-scripts]#route add -host 172.16.16.172 dev lo:0
5)調整/proc響應參數
[root@localhost /]#vim /etc/sysctl.conf
......//省略部分內容
net.ipv4.conf.all.arp_ignore = 1
net.ipve.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipve.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipve.conf.lo.arp_announce = 2
[root@localhost /]#sysctl -p

6)配置節點伺服器
[root@localhost /]#yum -y install httpd
[root@localhost /]#mount 192.168.7.250:/var/www/html /var/www/html
[root@localhost /]#vim /var/www/html/index.html
<h1>負載均衡測試網頁!!!</h1>
[root@localhost /]#service httpd start
[root@localhost /]#chkcofnig httpd on

7)測試LVS群集
安排多台測試機,從Internet中直接訪問http://172.16.16.172將能夠看到由真實伺服器提供的網頁內容——如果各節點的網頁不同,則不同客戶機看到的網頁也可能不以樣。可以使用ipvsadm工具查看當前連接負載的情況。(在調度器上進行查詢)
[root@localhost /]#ipvsadm -Ln

本文出自 「鄧奇的Blog」 博客,請務必保留此出處http://dengqi.blog.51cto.com/5685776/1307880

7、在LINUX中怎麼看nfsserver的服務是否開啟

1、通抄過進程查看襲nfs服務是否運行

ps -aux|grep -v grep|grep nfs
#有該進程即為開啟狀態

2、通過命令查看nfs服務的狀態

/etc/init.d/nfs status

3、chkconfig命令查詢系統服務

chkconfig --list nfs

8、centos系統配置nfs伺服器的時候,到這一步/etc/init.d/smb restart的時候在init.d目錄下找不到smb文件

配置nfs服務,不需要smb

smb是samba服務

9、如何在Centos 6上設置NFS掛載目錄

NFS共享服務設置(服務端):
第1步:創建NFS服務端的共享目錄。
清空默認的規則鏈:
[root@linuxprobe ~]# iptables -F

保存清空後的iptables規則:
[root@linuxprobe ~]# service iptables save

創建nfsfile共享目錄:
[root@linuxprobe ~]# mkdir /nfsfile

寫入一個文件,用於NFS客戶端讀取:
[root@linuxprobe ~]# echo "welcome to linuxprobe.com" > /nfsfile/readme

NFS服務端配置文件是"/etc/exports",用於定義要共享的目錄以及相應許可權。
[root@linuxprobe ~]# vim /etc/exports
//格式為:共享目錄的絕對路徑 允許訪問NFS資源的客戶端(許可權參數)
/nfsfile 192.168.10.* (rw,sync,root_squash)

NFS配置共享的參數有:
參數 作用
ro 只讀默認
rw 讀寫模式
root_squash 當NFS客戶端使用root用戶訪問時,映射為NFS服務端的匿名用戶。
no_root_squash 當NFS客戶端使用root用戶訪問時,映射為NFS服務端的root用戶。
all_squash 不論NFS客戶端使用任何帳戶,均映射為NFS服務端的匿名用戶。
sync 同時將數據寫入到內存與硬碟中,保證不丟失數據。
async 優先將數據保存到內存,然後再寫入硬碟,效率更高,但可能造成數據丟失。

第2步:啟動NFS服務端
剛剛講到NFS服務是依賴於RPC服務的,但在紅帽RHEL7系統中RPC服務已經默認運行(active)了,所以無需再配置RPC服務啦。
[root@linuxprobe ~]# systemctl status rpcbind

啟動nfs-server程序:
[root@linuxprobe ~]# systemctl start nfs-server

設置NFS服務端為開機啟動:
[root@linuxprobe ~]# systemctl enable nfs-server

將共享掛載到客戶端
第3步:配置NFS客戶端
如果NFS客戶端也是紅帽RHEL7系統,那麼軟體包nfs-utils一定也是已經默認安裝,直接掛載共享就可以了。
showmount命令用於查詢NFS服務端共享信息,格式為:「showmount [參數] [遠程主機]」。
參數 作用
-e 顯示NFS服務端的共享列表
-a 顯示本機掛載NFS資源的情況
-v 顯示版本號
查詢遠程NFS服務端中可用的共享資源:
[root@linuxprobe ~]# showmount -e 192.168.10.10
Export list for 192.168.10.10:
/nfsfile (everyone)

創建本地掛載目錄:
[root@linuxprobe ~]# mkdir /nfsfile
[root@linuxprobe ~]# mount -t nfs 192.168.10.10:/nfsfile /nfsfile

順利查看到剛剛寫入文件內容:
[root@linuxprobe ~]# cat /nfsfile/readme
welcome to linuxprobe.com

如果希望開機後自動將NFS資源掛載到本地,那麼就可以通過修改fstab文件來實現:
[root@linuxprobe ~]# vim /etc/fstab
192.168.10.10:/nfsfile /nfsfile nfs defaults 0 0

具體過程和截圖可以參看一下這篇文章:http://www.linuxprobe.com/chapter-11/#113_NFS

10、centos 7 nfs 共享通過什麼協議傳輸

方法/步驟

在伺服器端安裝NFS服務軟體包,伺服器地址:192.168.5.21

配置防火牆,內使nfs流量可以正常容通過防火牆

創建共享目錄

編輯nfs配置文件:/etc/exports
在文件中寫入:/nfs 192.168.5.0/24(sync)

在客戶端查看可掛載nfs共享目錄,發現一個可掛載目錄,客戶端地址:192.168.5.22

在客戶端創建共享目錄並掛載

使用df命令查看,發現已經掛載成功

在服務端拷貝一個文件到共享目錄中

在客戶端可以看到服務端拷貝的文件,驗證成功。

與centosnfs伺服器配置相關的知識