Chinaunix首页 | 论坛 | 博客
  • 博客访问: 2847746
  • 博文数量: 523
  • 博客积分: 11908
  • 博客等级: 上将
  • 技术积分: 5475
  • 用 户 组: 普通用户
  • 注册时间: 2009-04-03 15:50
文章分类

全部博文(523)

文章存档

2019年(3)

2013年(4)

2012年(71)

2011年(78)

2010年(57)

2009年(310)

分类: LINUX

2009-07-12 01:00:50

【摘要】:本文介绍了网络文件系统相关的概念,然后介绍了如何设置nfs server端的共享,并检验是否设置成功;然后介绍了在嵌入式平台中如何让内核支持nfs并进行相关设置、加载、卸载等;针对常见的问题进行了分析,最后给出了一个调试实例。
 
【关键词】:nfs,模块加载,远程调试,portmap,timeout,防火墙,showmount,df,exportfs
 
 

一、网络文件系统初步介绍 2
1.1 什么是NFS(Network File System) 2
1.2 与之相关的RPC服务 2
1.3 NFS 激活的 RPC daemons 2
1.4 NFS需要的两个套件 3
二、NFS server端的设定 3
2.1 系统对nfs的支持 3
2.2 系统共享文件的设置 3
2.2.1 nfs共享文件设置脚本/etc/exports 3
2.2.2 设置实例 4
2.2.3 嵌入式系统的典型设置 4
2.2.4 通过系统界面来设置 4
2.3 启动portmap、nfs服务 4
2.4 exportfs的用法 5
2.5 showmount命令显示系统共享文档 5
2.6 /var/lib/nfs/xta 5
2.7 查看激活的portnumber 6
2.8 在主机上检查nfs是否成功 6
三、NFS客户端的设定 7
3.1内核支持nfs的配置 7
3.2 配置网络做好准备 7
3.3扫瞄可以使用的NFS Server目录 7
3.4 加载nfs文件系统 8
3.5 检查是否加载成功df 8
3.6 Nfs文件系统的卸载 8
3.7 Nfs文件系统的自动加载 9
四、可能出问题的地方 9
4.1权限的设定不符合 9
4.2忘记了激活portmap 9
4.3被防火墙搞掉 9
4.5 开发板和主机的网络不畅通 10
4.6 连接超时 10
4.7 nfs版本不符合 10
五、 运行实例 10
 
 
 
一、网络文件系统初步介绍
1.1 什么是NFS(Network File System)
    NFS 就是 Network FileSystem 的缩写,最早之前是由 Sun 所发展出来的。他最大的功能就是可以透过网络,让不同的机器、不同的操作系统、可以彼此分享个别的档案 ( share file ),所以,也可以简单的将他看做是一个 file server 呢!这个 NFS Server 可以让你的 PC 来将网络远程的 NFS 主机分享的目录,挂载到本地端的机器当中,所以,在本地端的机器看起来,那个远程主机的目录就好象是自己的 partition (是否占用实际的物理内存呢?否)一般!
虽然 NFS 有属于自己的协议与使用的 port number ,但是在资料传送或者其它相关讯息传递的时候, NFS 使用的则是一个称为远程过程调用( Remote Procedure Call, RPC )的协议来协助 NFS 本身的运作!
1.2 与之相关的RPC服务
当我们在使用某些服务来进行远程联机的时候,有些信息,例如主机的IP、服务的 port number、与对应到的服务之 PID 等等,都需要管理与对应!这些管理 port 的对应与服务相关性的工作,就是这个 Remote Procedure Call, RPC 的任务了, NFS 本身的服务并没有提供资料传递的协议,但是 NFS 却能让我们进行档案的分享,这其中的原因,就是 NFS 使用到一些其它相关的传输协议!而这些传输的协议,就是使用到这个所谓的 RPC 的功能啰!这也就是说, NFS 本身就是使用 RPC 的一个 program 就是了!说的更白话一点, NFS 也可以视作是一个 RPC server 啦!同时要注意到的是,在某些状况中,不但跑 NFS 的 Server 需要激活 RPC 的服务,连带的,要挂载 NFS partition 的 Client 机器,也需要同步激活 RPC 才行(但是对于嵌入式ARM linux,没有portmap此项工作)!这样 Server 端与 Client 端才能藉由 RPC 的协议来进行 program port 的对应喔!NFS 主要在管理分享出来的目录,而至于资料的传递,就直接将他丢给 RPC 的协议来运作就是了!
1.3 NFS 激活的 RPC daemons
rpc.nfsd:这个 daemon 主要的功能就是在管理 Client 是否能够登入主机的权限啦,其中还包含这个登入者的 ID 的判别。
rpc.mountd:这个 daemon 主要的功能,则是在管理 NFS 的档案系统!当 Client 端顺利的通过 rpc.nfsd 而登入主机之后,在他可以使用 NFS server 提供的档案之前,还会经过档案使用权限 ( 就是那个 -rwxrwxrwx 与 owner, group 那几个权限啦 ) 的认证程序!他会去读 NFS 的设定档 /etc/exports 来比对 Client 的权限,当通过这一关之后, Client 就可以取得使用 NFS 档案的权限啦!(注:这个也是我们用来管理 NFS 分享之目录的使用权限与安全设定的地方哩)
1.4 NFS需要的两个套件
nfs-utils
就是提供 rpc.nfsd 及 rpc.mountd 这两个 NFS daemons 与其它相关 documents 与说明文件、执行档等的套件!这个就是 NFS 的主要套件
portmap
    就如同刚刚提的到,我们的 NFS 其实可以被视为一个 RPC server program,而要激活任何一个 RPC server program 之前,我们都需要做好 port 的对应 ( mapping ) 的工作才行,这个工作其实就是『 portmap 』这个服务所负责的!也就是说,在激活任何一个 RPC server 之前,我们都需要激活 portmap 才行呢!那么这个 portmap 到底在干嘛呢?就如同这个服务的名称,哈哈!就是作 port 的 mapping 啊!举个例子来说:当 Client 端尝试来使用 RPC server 所提供的服务时,由于 Client 需要取得一个可以连接的 port 才能够使用 RPC server 所提供的服务,因此, Client 首先就会去跟 portmap 讲『喂!可不可以通知一下,给我个 port number ,好让我可以跟 RPC 联络吧!』这个时候 portmap 就自动的将自己管理的 port mapping 告知 Client ,好让他可以连接上来 server 呢!所以啰:『激活 NFS 之前,请先激活 portmap !』
二、NFS server端的设定
软件包:nfs-utils
进程:nfsd,lockd,rpciod,rpc.mounted,rquotad,statd}
脚本:nfs,nfslock
端口:由portmap服务指派端口(111)
配置文件:/etc/exports
辅助工具:portmap(必须)
相关命令:rpcinfo -p [IPADD]:查看服务器提供的rpc服务
          showmount -e:查看服务共享的目录
2.1 系统对nfs的支持
查看系統有沒有nfs功能
cat /proc/filesystes,如果有nfs相关选型,则证明系统支持nfs,否则安装nfs
2.2 系统共享文件的设置
2.2.1 nfs共享文件设置脚本/etc/exports
设置的格式:
分享的目录 主机名称1或IP1(参数1,参数2) 主机名称2或IP2(参数3,参数4)
参数意义:
rw: 可擦写的权限
ro: 只读的权限
no_root_squash: 登入 NFS 主机使用分享目录的使用者,如果是 root 的话,那么对于这个分享的目录来说,他就具有 root 的权限! root_squash: 在登入 NFS 主机使用分享之目录的使用者如果是 root 时,那么这个使用者的权限将被压缩成为匿名使用者,通常他的 UID 与 GID 都会变成 nobody 那个身份;
all_squash: 不论登入 NFS 的使用者身份为何,他的身份都会被压缩成为匿名使用者,通常也就是 nobody 啦!
sync: 资料同步写入到内存与硬盘当中
async: 资料会先暂存于内存当中,而非直接写入硬盘
2.2.2 设置实例
a). /tmp *(rw,no_root_squash)  //*号表示所有的IP都可以访问
b). /tmp *(rw)
/home/public 192.168.0.*(rw) *(ro)  //下面两行作用一样
/home/public 192.168.0.0/24(rw) *(ro)
c). /home/test 192.168.0.100(rw) //只对某部机器设置权限
d). /home/linux *.linux.org(rw,all_squash,anonuid=40,anongid=40) //
当*.linux.org登陆此NFS主机,并且在/home/linux下面写入档案时,该档案的所有人与所有组,就会变成/etc/passwd 里面对应的UID为40的那个身份的使用者了.
2.2.3 嵌入式系统的典型设置
由于嵌入式系统都是自己的电脑跟开发板相连来开发,对访问IP及权限等都没有太大的安全考虑,所以设置较为简单,一般
/yourshareddir *(rw, no_root_squash),表示所有用户都可以访问,这样你不会因为IP设置问题使得开发板不能访问主机,具备可读写的权限,对于开发板上登陆的root用户,其拥有和主机root一样的权限。
2.2.4 通过系统界面来设置
设置路径:开始》系统设置》服务器设置》nfs服务器,配置后自动生成/etc/exports。
2.3 启动portmap、nfs服务
服务的启动可以通过好几种方式
界面配置:
在虚拟终端下通过redhat-config-services命令或开始》系统设置》服务器设置》服务可以开启服务配置界面,在左边列表中选中portmap及nfs(分两次操作),点击start或restart可以重新开启服务;希望每次系统开机时自动开启相关服务,可以勾选上,restart,提示成功后每次开机时将自动开启,但记住没有勾选portmap而只选nfs后系统将启动不了;也可通过/sbin/chkconfig nfs on来让系统开机自动启动nfs服务。
配置脚本启动:
#/etc/rc.d/init.d/portmap start 
# /etc/rc.d/init.d/nfs [ start | stop | restart | reload ]
start 启动 NFS 服务
stop 停止 NFS 服务
restart 停止并重新启动 NFS 服务
reload 重新载入 NFS 设定值
服务脚本启动:
(or:#service portmap start)
(or:#service nfs start)
实际上服务脚本将nfs及start等作为参数来调用其对应的脚本
查看是否启动成功:
脚本开启服务后,将有提示是否操作成功,也可以到/var/log/messages里面查看是否正确激活。
注意:一定要先启动portmap服务,否则报错,nfs不能正常运行
2.4 exportfs的用法
如果我们修改了/etc/exports后,并不需要重启nfs服务,只要用exportfs重新扫描一次/etc/exports,并且重新加载即可
 语法: exportfs [-aruv]
 -a: 全部挂载(或卸载) /etc/exports档案内的设定
 -r: 重新挂载/etc/exports里面的设定,也同步的更新/etc/exports和/var/lib/nfs/xtab里面的内容
 -u:卸载某一目录
 -v:在export的时候,将分享的目录显示到荧屏上,便于确认系统共享目录
 例子
 #exportfs -rv //重新export一次
 #exportfs -au //全部卸载
2.5 showmount命令显示系统共享文档
    语法: showmount [-ae] hostname,无hostname时为当前主机
-a: 显示目前主机与client所连上来的使用目录的状态,即客户正在访问的目录
-e: 显示hostname的/etc/exports里面共享的目录,即可以被客户访问的目录
[root@dding root]# showmount -e
Export list for dding:
/tftpboot         *
/opt/app-software *
[root@dding root]# showmount -a dding
All mount points on dding:
192.168.0.12:/tftpboot
2.6 /var/lib/nfs/xta
里面可以查看每个目录的分享权限(但是我怎么也没有找到,靠,找到了,原来要有人mount上nfs后才会出现内容,试验一下啊,自己mount到主机上)
检验所共享的目录内容,查看/var/lib/nfs/xtab这个文件:
# vi /var/lib/nfs/xtab
/home/cao  192.168.0.1(rw,sync,wdelay,hide,secure,root_squash,
no_all_squash,subtree_check,secure_locks, mapping=identity,anonuid=-2,
anongid=-2)
这就是/home/cao这个共享出去的目录预设NFS里面的属性。
2.7 查看激活的portnumber
#netstat –utln
nfs 自己所开启的 port ,就是那个 2049 的 port 啦!就是 NFS 主要产生的 port
NFS server 在前面我们就提过了,他是 RPC server 的一种,而 NFS 由于提供了多个 program ( 例如 rpc.mountd, rpc.rquotad, rpc.nfsd... ) ,因此就需要激活多个 port 了!而且这些 port 是『随机产生的』,也就是那个 port number 不会是固定的啦!每次 restart nfs 都会得到不一样的 port number 呢!那么 Client 端怎么知道要连接上那个 port 来呼叫需要的 program 呢?呵呵!那就是 sunrpc ( port 111 ) 那个 portmap 服务所产生的 port number 的功用啦!Client 会先连接到 sunrpc 那个 port 去知道应该到那个 port 去呼叫所需要的程序!所以啰, rpc.xxxx 等之类的 daemon 自然就不需要有固定的 port number 啰!
   
nfs所开启的端口是2049,其它的端口是RPC Server其它程序(例如rpc.mountd、rpc.rquotad、rpc.nfsd... )随机产生的,也就是端口号不会是固定的,每次restart nfs都会得到不一样的端口号。
2.8 在主机上检查nfs是否成功
为了确定问题所在,可以先在主机上用nfs挂载自己的东西到其他目录,若能够挂载成功,则说明主机端nfs设置成功。
Mount -t nfs 192.168.0.12:/tftpboot /mnt/usb,检查usb目录下是否为tftpboot的内容即可
 
三、NFS客户端的设定
3.1内核支持nfs的配置
    要在目标板上运行nfs,必须编译内核,使得其支持nfs
    File systems》network file systems》
   
选择nfs file system support和其目录下的provide nfsv3 client support,另外选中nfs server support
3.2 配置网络做好准备
Nfs的通讯必须有网络,所有前提是配置好MAC、IP等,打开eth0,跟主机ping下,看网络目前是否可用,否则后面出现问题都不知道是哪的事,确保此步无误。
3.3扫瞄可以使用的NFS Server目录
假设主机名称是,使用showmount查看NFS Server可以共享的目录。然后将/home/public挂载在 /home/nfs/public下:
# showmount -e
     Export list for localhost:
     /tmp         *
     /home/linux  *.cao.net
/home/public (everyone)
/home/cao   192.168.0.1
对于嵌入式系统来说,其可能不支持此命令,不过本人应该对自己主机上共享的东西很熟悉,呵呵,只要在主机端确认共享目录可访问即可。
3.4 加载nfs文件系统
#mount -t nfs hostname(orIP):/directory  /mountpoint   搞定,就这么简单(此时安装在mountpoint文件夹下面,此目录必须提前建立好)
为了担心会不小心将 NFS 端挂进来的具有 SUID 权限档案的程序执行,root可以将NFS 所分享的目录以较为安全的情况挂载进来,可以
#mount -t nfs -o nosuid,ro hostname:/directory /mountponit
    对于非嵌入式主机还需要提前开启service portmap start[restart]
mount nfs的其它可选参数:
bg:在执行mount时如果无法顺利mount上时,系统会将mount的操作转移到后台并继续尝试mount,直到mount成功为止。(通常在设定/etc/fstab文件时都应该使用bg,以避免可能的mount不上而影响启动速度)
fg:和bg正好相反,是默认的参数
nfsvers=n:设定要使用的NFS版本,默认是使用2,这个选项的设定还要取决于server端是否支持NFS VER 3
timeo=n:设置超时时间,当数据传输遇到问题时,会根据这个参数尝试进行重新传输。默认值是7/10妙(0.7秒)。如果网络连接不是很稳定的话就要加大这个数值
udp:使用udp作为nfs的传输协议(NFS V2只支持UDP)
tcp:使用tcp作为nfs的传输协议
retry=n:设定当网络传输出现故障的时候,尝试重新连接多少时间后不再尝试。默认的数值是10000 minutes,此值可以设置小点,防止网络出现故障时总是处于连接状态而无法退出。
同时使用多个参数的方法:
mount -t nfs -o timeo=3,udp,hard 192.168.0.30:/tmp /nfs
 
3.5 检查是否加载成功df
     # mount -t nfs hostname(orIP):/directory/mount/point
     例如 # mount -t nfs 192.168.1.100:/tmp /mnt/nfs
     # df
      Filesystem           1K-blocks      Used Available Use% Mounted on
      /dev/hda1   1904920   1235380    572776  68% /
      /dev/hdb1   976344    115212    810736  13% /backup
     1904920   1235376    572776  69% /home/nfs/public
将资料挂载进来后,只要进入/home/nfs/public目录,就等于到了那部NFS Server的/home/public 目录中。
df可以显示目前系统的盘符,包括挂载的nfs目录
另外可以直接查看挂载之后的目录,即可知道挂载是否成功。
3.6 Nfs文件系统的卸载
# umount /home/nfs/public
卸载前需要退出当前挂载的目录,否则提示 the device is busy!
3.7 Nfs文件系统的自动加载
如果希望开机的时候,系统就自动挂载 NSF,则需要编辑 /etc/fstab 档。
例:
192.168.1.100:/tmp /mnt/nfs nfs defaults 0 0
/etc/fstab的格式如下:
fs_spec   fs_file  fs_type   fs_options  fs_dump fs_pass 
fs_spec:该字段定义希望加载的文件系统所在的设备或远程文件系统,对于nfs这个参数一般设置为这样:192.168.0.1:/NFS
fs_file:本地的挂载点
fs_type:对于NFS来说这个字段只要设置成nfs就可以了
fs_options:挂载的参数,可以使用的参数可以参考上面的mount参数。
fs_dump - 该选项被"dump"命令使用来检查一个文件系统应该以多快频率进行转储,若不需要转储就设置该字段为0
fs_pass - 该字段被fsck命令用来决定在启动时需要被扫描的文件系统的顺序,根文件系统"/"对应该字段的值应该为1,其他文件系统应该为2。若该文件系统无需在启动时扫描则设置该字段为0 。
四、可能出问题的地方
4.1权限的设定不符合
确保主机端/etc/exports设置正确
4.2忘记了激活portmap
此时会报错:
    mount: RPC: Port mapper failure - RPC: Unable to receive 或者
mount: RPC: Program not registered
那么,主机端启动portmap,并且重新启动nfs
    #service portmap start
 #service nfs restart
4.3被防火墙搞掉
重新设置防火墙,包括iptables与TCP_Wrappers,因为激活了portmap,所以port 111必须提   供出去.因此在iptables rules中,要增加:
iptables -A INPUT -p TCP --dport 111 -j ACCEPT
iptables -A INPUT -p UDP --dport 111 -j ACCEPT
如果还不行,那就是TCP_Wrappers的问题,检查/etc/hosts.deny,如果有一行是:
    ALL: ALL: deny
那就必须在/etc/hosts.allow中增加:
  portmap: ALL: allow
4.5 开发板和主机的网络不畅通
连接后若网络端了,则出现
Nfs:server 192.168.0.12 not responding ,still trying
4.6 连接超时
    portmap: server localhost not responding, timed out
解决办法:
    mount -t nfs -o nolock node1:/public /public
    即增加-o nolock参数,原因:
Unfsd doesn't support NLM locking, and it's causing the lockd daemon to be started (which again requires the portmapper to be installed etc.)
4.7 nfs版本不符合
nfs warning: mount version older than kernel,目前未解决,但系统能正常工作,ok,难道默认版本是2的原因,试试看
五、 运行实例
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
 AT91RM9200DK login: root
[root@AT91RM9200DK /root]$ifconfig -a
eth0      Link encap:Ethernet  HWaddr 00:E0:4C:4D:8D:5F
          BROADCAST MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:100
          Interrupt:24 Base address:0xc000
                                                                               
lo        Link encap:Local Loopback
          LOOPBACK  MTU:16436  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
                                                                               
[root@AT91RM9200DK /root]$ifconfig eth0 192.168.0.14
eth0: Link now 100-FullDuplex
[root@AT91RM9200DK /root]$ifconfig -a
eth0      Link encap:Ethernet  HWaddr 00:E0:4C:4D:8D:5F
          inet addr:192.168.0.14  Bcast:192.168.0.255  Mask:255.255.255.0
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:100
          Interrupt:24 Base address:0xc000
                                                                               
lo        Link encap:Local Loopback
          LOOPBACK  MTU:16436  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
                                                                               
[root@AT91RM9200DK /root]$ping 192.168.0.12
PING 192.168.0.12 (192.168.0.12): 56 data bytes
64 bytes from 192.168.0.12: icmp_seq=0 ttl=64 time=0.8 ms
64 bytes from 192.168.0.12: icmp_seq=1 ttl=64 time=0.3 ms
64 bytes from 192.168.0.12: icmp_seq=2 ttl=64 time=0.3 ms
64 bytes from 192.168.0.12: icmp_seq=3 ttl=64 time=0.3 ms
64 bytes from 192.168.0.12: icmp_seq=4 ttl=64 time=0.3 ms
64 bytes from 192.168.0.12: icmp_seq=5 ttl=64 time=0.2 ms
                                                                               
--- 192.168.0.12 ping statistics ---
6 packets transmitted, 6 packets received, 0% packet loss
round-trip min/avg/max = 0.2/0.3/0.8 ms
nfs warning: mount version older than kernel
[root@AT91RM9200DK /root]$ls /mnt/nfs/
X86PC             ramdisk           ulmage            ramdiskv9
ramdisk-dingsure  ramdisktest       ramback-oring     uImage
[root@AT91RM9200DK /root]$
[root@AT91RM9200DK /root]$df
Filesystem           1k-blocks      Used Available Use% Mounted on
rootfs                   19362     18393       969  95% /
/dev/root                19362     18393       969  95% /
192.168.0.12:/tftpboot  10894932   3169536   7171960  31% /mnt/nfs
 
[root@dding root]# cp -rf /mnt/system/cygwin/home/dding/arm /tftpboot/
[root@AT91RM9200DK /root]$ls /mnt/nfs/
X86PC             ramdisk           ulmage            ramdiskv9
ramdisk-dingsure  ramdisktest       ramback-oring     uImage
arm
[root@AT91RM9200DK /root]$cd /mnt/nfs/arm/
[root@AT91RM9200DK arm]$ls
gdbsamplearm  mainarm       mainparacarm
[root@AT91RM9200DK arm]$
[root@AT91RM9200DK arm]$./mainparacarm i finally made it!
The   number   of   command   line   arguments   is:
5
The   program   name   is:./mainparacarm
The   command   line   arguments:
i
finally
made
it!
 
 
 
参考文献:
 
本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/sailor_8318/archive/2008/04/15/2295495.aspx
阅读(2139) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~