[root@mini3 hadoop]# mount -t nfs mini1:/home/hadoop/share /home/hadoop/share
mount: wrong fs type, bad option, bad superblock on mini1:/home/hadoop/share,
missing codepage or helper program, or other error
(for several filesystems (e.g. nfs, cifs) you might
need a /sbin/mount.<type> helper program)
In some cases useful info is found in syslog - try
dmesg | tail or so
[root@mini3 hadoop]# yum install -y portmap*
[root@mini3 hadoop]# yum install -y nft-*
[root@mini3 hadoop]# mount -t nfs mini1:/home/hadoop/share /home/hadoop/share
mount.nfs: access denied by server while mounting mini1:/home/hadoop/share
[root@mini3 hadoop]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/vg_mini3-lv_root
18G 1009M 16G 7% /
tmpfs 491M 0 491M 0% /dev/shm
/dev/sda1 477M 33M 419M 8% /boot
登录到
[root@mimi1 home]#vi /etc/exports
/home/hadoop/share/ mini2(rw,sync,no_root_squash)
/home/hadoop/share/ mini3(rw,sync,no_root_squash)
/home/hadoop/share/ mini4(rw,sync,no_root_squash)
[root@mimi1 home]#exportfs -r#更新
或者
[root@mimi1 home]#exportfs -a #重新挂载
[root@mini1 ~]# showmount -e #现在是否授权成功
Export list for mini1:
/home/hadoop/share mini4,mini3,mini2,shizhan
正确挂载如下:
[root@mimi3 home]# mount mini1:/home/hadoop/share/ /home/hadoop/share/
[root@mimi3 home]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/vg_mimi2-lv_root
18G 994M 16G 6% /
tmpfs 491M 0 491M 0% /dev/shm
/dev/sda1 477M 33M 419M 8% /boot
mini1:/home/hadoop/share/
18G 1007M 16G 7% /home/hadoop/share
相关命令介绍如下:
1、exportfs
如果我们在启动了NFS之后又修改了/etc/exports,是不是还要重新启动nfs呢?这个时候我们就可以用exportfs 命令来使改动立刻生效,该命令格式如下:
# exportfs [-aruv]
-a 全部挂载或卸载 /etc/exports中的内容
-r 重新读取/etc/exports 中的信息 ,并同步更新/etc/exports、/var/lib/nfs/xtab
-u 卸载单一目录(和-a一起使用为卸载所有/etc/exports文件中的目录)
-v 在export的时候,将详细的信息输出到屏幕上。
具体例子:
# exportfs -au 卸载所有共享目录
# exportfs -rv 重新共享所有目录并输出详细信息
2、nfsstat
查看NFS的运行状态,对于调整NFS的运行有很大帮助。
3、rpcinfo
查看rpc执行信息,可以用于检测rpc运行情况的工具,利用rpcinfo -p 可以查看出RPC开启的端口所提供的程序有哪些。
4、showmount
-a 显示已经于客户端连接上的目录信息
-e IP或者hostname 显示此IP地址分享出来的目录
相关推荐
1 安装 将硬盘通过排线插到主板上,对于有需要单独供电的硬盘,提供合理的供电电源,供电电压一定要稳定,不然硬盘比较容易出问题。 2 查看系统是否识别到硬盘 lsblk 其他不相关的分区就不截图了,如果你看到很多...
usage example 1: %mksquashfs /home/phillip/test output_fs This will generate a squashfs filesystem with root entries "file1", "file2" and "dir1". example 2: %mksquashfs /home/phillip/test goodies ...
关于SUPERBLOCK的简要概述,是一种优化的闪存存储方式
usage example 1: %mksquashfs /home/phillip/test output_fs This will generate a squashfs filesystem with root entries "file1", "file2" and "dir1". example 2: %mksquashfs /home/phillip/test goodies ...
1. 下列属于 UNIX 操作系统管理进程的数据结构是 2. 画出 UNIX 文件系统的磁盘存储区分配图 3. UNIX V6++文件系统中,如果每个硬盘扇区
2. 【参考答案】UNIX 文件系统的磁盘存储区分配图如下所示: 3. 【参考答案】 4. 【参考答案】
QUASHFS error: sb_bread failed reading block 的错误一般都是文件系统不完整导致的。
Linux下文件系统superblock故障修复归类.pdf
Ext Superblock.tpl
linux由于superblock损坏lvm分区损坏修复方法
每个块都可能含有superblock,...事实上除了第一个块内会含有superblock 之外,后续的块不一定含有superblock,而若含有superblock则该superblock主要是做为第一个块内superblock的备份,这样可以进行superblock的救援
e2fsck [-pacnydfvFV] [-b superblock] [-B blocksize] [-l|-L bad_blocks_file] [-C fd] device 参数说明: device : 预备检查的硬盘 partition,例如:/dev/sda1 -a : 对 partition 做检查,若有问题便自动修复,...
-b: 设定 superblock 位置。 -B size: 指定 size 作为区块大小。 -c: 检查 partition 是否有坏轨。 -C file: 将检查结果储存到 file。 -d: 输出 e2fsck debug 结果。 -f: e2fsck 预设只会对错误的档案系统检查,加上...
二级文件系统 用户登录 读写文件 ...typedef struct SuperBlock { FAT fatfile[BNUM]; //fat表 MFD mfd[MAXUSER]; //主用户目录 int currentuser; //当前用户 inode currentdir; //用户文件夹inode }surper;
文件管理 一、实验目的: 1.了解os中文件的组织和管理。 2.熟悉文件中所用的数据结构。 二、实验要求: 1. 设计一个N个用户的文件系统,每个用户最多保存m个文件。 2. 限制用户在一次使用中只能打开L个文件。 3. ...
make the magic number something a human could read.
RAID 1: 镜像(Mirror) RAID 4: 带容错的条带阵列 RAID 5: 带分布式冗余信息的条带阵列 RAID 6: 带分布式双冗余信息的条带阵列 Linux Swap (版本1 和 2) LVM 和 LVM2, Linux逻辑卷管理器(Linux Logical Volume ...
查找ext2/ext3/ext4备份的SuperBlock 从FAT,NTFS及ext2文件系统恢复删除文件 从已删除的FAT,NTFS及ext2/ext3/ext4分区复制文件. TestDisk拥有两种模式:新手模式和专家模式。对于那些对数据恢复技巧了解很少,...
查找ext2/ext3/ext4备份的SuperBlock 从FAT,NTFS及ext2文件系统恢复删除文件 从已删除的FAT,NTFS及ext2/ext3/ext4分区复制文件. TestDisk拥有两种模式:新手模式和专家模式。对于那些对数据恢复技巧了解很少,...
/bin/bash PATH=/bin:/sbin:/usr/bin:/usr/sbinexport PATH i=1while [ $i -lt 13 ] #硬盘数量,除系统盘之外是12块doj=`echo $i|awk ‘{printf “%c”,97+$i}’` #系统盘是sda,如果是其它的需要修改脚本 parted...