最近很多小伙伴都在问CentOS-7挂载iscsi网络存储和centos7挂载iscsi网络存储这两个问题,那么本篇文章就来给大家详细解答一下,同时本文还将给你拓展CentOS6.3下配置iSCSI网
最近很多小伙伴都在问CentOS-7挂载iscsi网络存储和centos7挂载iscsi网络存储这两个问题,那么本篇文章就来给大家详细解答一下,同时本文还将给你拓展CentOS 6.3下配置iSCSI网络存储、CentOS 6.4如何安装及设置GlusterFS以解决网络存储的问题、CentOS 6.5 安装部署iSCSi共享存储、CentOS 6.6挂载iSCSI存储等相关知识,下面开始了哦!
本文目录一览:- CentOS-7挂载iscsi网络存储(centos7挂载iscsi网络存储)
- CentOS 6.3下配置iSCSI网络存储
- CentOS 6.4如何安装及设置GlusterFS以解决网络存储的问题
- CentOS 6.5 安装部署iSCSi共享存储
- CentOS 6.6挂载iSCSI存储
CentOS-7挂载iscsi网络存储(centos7挂载iscsi网络存储)
yum install binutils iscsi-initiator-utils kmod-xfs xfsprogs
//启动iscsi服务
service iscsi start
//查看存储服务器的iscsi是否在线
iscsiadm -m discovery --type sendtargets --portal 192.168.2.30
如下是输入上面的命令后返回的结果:
192.168.2.30:3260,1 iqn.1986-03.com.ibm:2145.v37001.node2
//设置开机自动登陆iscsi
iscsiadm -m node -T iqn.1986-03.com.ibm:2145.v37001.node2 -p 192.168.2.30:3260 --op update -n node.startup -v automatic
//显示当前的连接
iscsiadm -m session
如下是输入上面的命令后返回的结果:
tcp: [1] 192.168.2.30:3260,1 iqn.1986-03.com.ibm:2145.v37001.node2 (non-flash)
//查看存储空间是否已经显示在磁盘列表中
fdisk -l
如下显示了我存储的空间
disk /dev/sdb: 32985.3 GB,32985348833280 bytes,64424509440 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 32768 bytes / 32768 bytes
disk label type: gpt
//用parted命令进行分区
parted /dev/sdb mklabel gpt //创建标识 mkpart primary 0% 100% //分配所有空间 print //显示当前分区 quit //退出
//用mkfs.ext4命令格式化硬盘
mkfs.ext4 -T largefile /dev/sdb1 参数说明:-T largefile对格式化大文件速度要快很多
如下是输入上面的命令后返回的输出:
[[email protected] ~]# mkfs.ext4 -T largefile /dev/sdb1
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=8 blocks,Stripe width=8 blocks
31457280 inodes,8053063168 blocks
402653158 blocks (5.00%) reserved for the super user
First data block=0
245760 block groups
32768 blocks per group,32768 fragments per group
128 inodes per group
Superblock backups stored on blocks:
32768,98304,163840,229376,294912,819200,884736,1605632,2654208,
4096000,7962624,11239424,20480000,23887872,71663616,78675968,
102400000,214990848,512000000,550731776,644972544,1934917632,
2560000000,3855122432,5804752896
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
//挂载
mount /dev/sdb1 /iscsi/
开机自动挂载
编辑/etc/fstab文件,加入如下代码:
UUID=bdef610b-0f6c-4888-b3ea-7dc986109604 /iscsi ext4 defaults,_netdev 0 0 注意:一定要加_netdev不然系统会无法启动,_netdev的意思是等有了网络之后再挂载。
CentOS 6.3下配置iSCSI网络存储
一、简介
iSCSI(internet SCSI)技术由IBM公司研究开发,是一个供硬件设备使用的、可以在IP协议的上层运行的SCSI指令集,这种指令集合可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行路由选择。iSCSI技术是一种新储存技术,该技术是将现有SCSI接口与以太网络(Ethernet)技术结合,使服务器可与使用IP网络的储存装置互相交换资料。
iSCSI是一种基于TCP/IP 的协议,用来建立和管理IP存储设备、主机和客户机等之间的相互连接,并创建存储区域网络(SAN)。SAN 使得SCSI 协议应用于高速数据传输网络成为可能,这种传输以数据块级别(block-level)在多个数据存储网络间进行。SCSI 结构基于C/S模式,其通常应用环境是:设备互相靠近,并且这些设备由SCSI 总线连接。
iSCSI 的主要功能是在TCP/IP 网络上的主机系统(启动器 initiator)和存储设备(目标器 target)之间进行大量数据的封装和可靠传输过程。
完整的iSCSI系统的拓扑结构如下:
二、实验环境
操作系统:CentOS release 6.3 (Final)
iSCSI Target:192.168.1.21 / scsi-target-utils-1.0.24-12.el6_5.i686
iSCSI Initiator:192.168.1.22 / iscsi-initiator-utils-6.2.0.873-10.el6.i686
防火墙已关闭/iptables: Firewall is not running.
SELINUX=disabled
三、准备工作
iSCSI可分享的设备类型有很多,包括镜像文件(*.img)、分区(partition)、物理硬盘、raid设备、逻辑卷等,下面我们将准备其中的几种来测试,其他类型大家可以自行测试。
3.1 模拟镜像
在iSCSI Target的/srv目录下创建一个200M大小的镜像文件。
# mkdir /srv/iscsi
# dd if=/dev/zero of=/srv/iscsi/disk1.img bs=1M count=200
# ll -lh /srv/iscsi/disk1.img
3.2 建立分区
创建一个500M大小的分区/dev/sdb1.
# fdisk /dev/sdb
3.3 创建逻辑卷
创建一个800M大小的LV.
# pvcreate /dev/sdc
# vgcreate vg0 /dev/sdc
# lvcreate -L 800M -n lv1 vg0
四、配置iSCSI Target
4.1 安装tgt
CentOS 自带了scsi-target-utils 软件,我们使用该软件进行target设置。
# yum -y install scsi-target-utils
4.2 配置tgt
tgt的主配置文件为/etc/tgt/targets.conf,下面我们来设置改文件。
在该文件最后新增以下设置:
<target iqn.2014-07.dev.iscsi-target:iscsidisk> backing-store /srv/iscsi/disk1.img backing-store /dev/sdb1 backing-store /dev/vg0/lv1 backing-store /dev/sdd </target>
说明:
iqn = iSCSI Qualified Name
iSCSI target的名称规则如下:
iqn.2014-07.dev.iscsi-target:iscsidisk
iqn.年份-月份.域名反写.设备识别
每个在同一个target上的backing-store 称为逻辑单元号(Logical Unit Number,LUN),这个实验中有4个LUN。
其他高级设置如initiator-address、incominguser,大家自行查资料。
4.3 启动iSCSI target
# /etc/init.d/tgtd start
# chkconfig tgtd on
# netstat -tulnp|grep tgt
4.4 查看iSCSI target
# tgt-admin –show
LUN0 是控制器,可以看到各个LUN的大小和磁盘路径。
至此,iSCSI Target 设定完毕。
五、配置iSCSI Initiator
5.1 安装initiator
# yum -y install iscsi-initiator-utils
5.2 设置开机启动
# chkconfig iscsid on
# chkconfig iscsi on
5.3 配置文档
initiator的配置文档位于/etc/iscsi/,该目录下有两个文件,initiatorname.iscsi 和iscsid.conf,
其中iscsid.conf 是其配置文件,initiatorname.iscsi 是标记了initiator的名称,它的默认名称是InitiatorName=iqn.1994-05.com.redhat:b45be5af6021,我们可以根据实际情况进行更改,比较好区分,这里我们修改为InitiatorName=iqn.2014-07.dev.iscsi-initiator:initiator。
因为在target里面,我们并没有设置访问限制,所以iscsid.conf 文件并不需要修改。
5.4 侦测target
如果我们事先不知道目标主机的target名称,我们就需要进行侦测,下面来讲解。
# iscsiadm -m discovery -t sendtargets -p 192.168.1.21
说明:
5.5 查看nodes
iscsiadm 侦测到的结果会写入/var/lib/iscsi/nodes/ 中,因此只需启动/etc/init.d/iscsi 就能够在下次开机时,自动连接到正确的target了。
# ll -R /var/lib/iscsi/nodes/
侦测信息都写入了/var/lib/iscsi/nodes/iqn.2014-07.dev.iscsi-target:iscsidisk/192.168.1.21,3260,1/default 文件中了。
5.6 连接target
查看目前系统上面所有的target
# iscsiadm -m node
登录target
# iscsiadm -m node -T iqn.2014-07.dev.iscsi-target:iscsidisk –login
5.7 查看磁盘情况
# fdisk –l
可以看到,initiator 上面多了四块硬盘,大小和target上的LUN一致。这时你就可以像使用本地磁盘一样使用这些iSCSI设备了,下面我们来测试。
5.8 将/dev/sdb 和/dev/sdc 创建成LV挂载使用
创建LV
# pvcreate /dev/sdb /dev/sdc
# vgcreate iscsi /dev/sdb /dev/sdc
# lvcreate -L 1G -n iscsilv iscsi
格式化并挂载
# mkfs.ext4 /dev/iscsi/iscsilv
# mkdir /mnt/iscsi
# vi /etc/fstab
创建测试文件
挂载成功,创建测试文件成功。
5.9 重启测试
测试成功。
5.10 查看target信息
# tgt-admin --show
可以看到,此时使用该target的initiator 为iqn.2014-07.dev.iscsi-initiator:initiator,也就是我们上面更改的initiatorname,IP地址为192.168.1.22。
至此,iSCSI 置完毕。
CentOS 6.4如何安装及设置GlusterFS以解决网络存储的问题
glusterFS因有很好的扩展性,使用的用户很多,使用glusterFS能够解决网络存储、冗余备份等问题,那么在Linux下要如何安装glusterFS呢?今天小编以CentOS6.4为例,给大家介绍下CentOS6.4安装配置glusterFS的方法。
环境介绍:
OS: CentOS 6.4 x86_64 Minimal
Servers: sc2-log1,sc2-log2,sc2-log3,sc2-log4
Client: sc2-ads15
具体步骤:
1. 在sc2-log{1-4}上安装glusterFS软件包:
代码如下
# wget -P /etc/yum.repos.d http://download.gluster.org/pub/gluster/glusterfs/LATEST/CentOS/glusterfs-epel.repo
# yum install -y glusterfs-3.4.2-1.el6 glusterfs-server-3.4.2-1.el6 glusterfs-fuse-3.4.2-1.el6
# /etc/init.d/glusterd start
# chkconfig glusterfsd on
2. 在sc2-log1上配置整个glusterFS集群:
代码如下
[root@sc2-log1 ~]# gluster peer probe sc2-log1
1 peer probe: success: on localhost not needed
[root@sc2-log1 ~]# gluster peer probe sc2-log2
1 peer probe: success
[root@sc2-log1 ~]# gluster peer probe sc2-log3
1 peer probe: success
[root@sc2-log1 ~]# gluster peer probe sc2-log4
1 peer probe: success
[root@sc2-log1 ~]# gluster peer status
01 Number of Peers: 3
02
03 Hostname: sc2-log2
04 Port: 24007
05 Uuid: 399973af-bae9-4326-9cbd-b5b05e5d2927
06 State: Peer in Cluster (Connected)
07
08 Hostname: sc2-log3
09 Port: 24007
10 Uuid: 833a7b8d-e3b3-4099-baf9-416ee7213337
11 State: Peer in Cluster (Connected)
12
13 Hostname: sc2-log4
14 Port: 24007
15 Uuid: 54bf115a-0119-4021-af80-7a6bca137fd9
16 State: Peer in Cluster (Connected)
3. 在sc2-log{1-4}上创建数据存放目录:
代码如下
# mkdir -p /usr/local/share/{models,geoip,wurfl}
# ls -l /usr/local/share/
1 total 24
2 drwxr-xr-x 2 root root 4096 Apr 1 12:19 geoip
3 drwxr-xr-x 2 root root 4096 Apr 1 12:19 models
4 drwxr-xr-x 2 root root 4096 Apr 1 12:19 wurfl
4. 在sc2-log1上创建glusterFS磁盘:
代码如下
[root@sc2-log1 ~]# gluster volume create models replica 4 sc2-log1:/usr/local/share/models sc2-log2:/usr/local/share/models sc2-log3:/usr/local/share/models sc2-log4:/usr/local/share/models force
1 volume create: models: success: please start the volume to access data
[root@sc2-log1 ~]# gluster volume create geoip replica 4 sc2-log1:/usr/local/share/geoip sc2-log2:/usr/local/share/geoip sc2-log3:/usr/local/share/geoip sc2-log4:/usr/local/share/geoip force
1 volume create: geoip: success: please start the volume to access data
[root@sc2-log1 ~]# gluster volume create wurfl replica 4 sc2-log1:/usr/local/share/wurfl sc2-log2:/usr/local/share/wurfl sc2-log3:/usr/local/share/wurfl sc2-log4:/usr/local/share/wurfl force
1 volume create: wurfl: success: please start the volume to access data
[root@sc2-log1 ~]# gluster volume start models
1 volume start: models: success
[root@sc2-log1 ~]# gluster volume start geoip
1 volume start: geoip: success
[root@sc2-log1 ~]# gluster volume start wurfl
1 volume start: wurfl: success
[root@sc2-log1 ~]# gluster volume info
01 Volume Name: models
02 Type: Replicate
03 Volume ID: b29b22bd-6d8c-45c0-b199-91fa5a76801f
04 Status: Started
05 Number of Bricks: 1 x 4 = 4
06 Transport-type: tcp
07 Bricks:
08 Brick1: sc2-log1:/usr/local/share/models
09 Brick2: sc2-log2:/usr/local/share/models
10 Brick3: sc2-log3:/usr/local/share/models
11 Brick4: sc2-log4:/usr/local/share/models
12
13 Volume Name: geoip
14 Type: Replicate
15 Volume ID: 69b0caa8-7c23-4712-beae-6f536b1cffa3
16 Status: Started
17 Number of Bricks: 1 x 4 = 4
18 Transport-type: tcp
19 Bricks:
20 Brick1: sc2-log1:/usr/local/share/geoip
21 Brick2: sc2-log2:/usr/local/share/geoip
22 Brick3: sc2-log3:/usr/local/share/geoip
23 Brick4: sc2-log4:/usr/local/share/geoip
24
25 Volume Name: wurfl
26 Type: Replicate
27 Volume ID: c723a99d-eeab-4865-819a-c0926cf7b88a
28 Status: Started
29 Number of Bricks: 1 x 4 = 4
30 Transport-type: tcp
31 Bricks:
32 Brick1: sc2-log1:/usr/local/share/wurfl
33 Brick2: sc2-log2:/usr/local/share/wurfl
34 Brick3: sc2-log3:/usr/local/share/wurfl
35 Brick4: sc2-log4:/usr/local/share/wurfl
5. 在sc2-ads15上部署客户端并mount glusterFS文件系统:
[sc2-ads15][root@sc2-ads15 ~]# wget -P /etc/yum.repos.d http://download.gluster.org/pub/gluster/glusterfs/LATEST/CentOS/glusterfs-epel.repo
[sc2-ads15][root@sc2-ads15 ~]# yum install -y glusterfs-3.4.2-1.el6 glusterfs-fuse-3.4.2-1.el6
[sc2-ads15][root@sc2-ads15 ~]# mkdir -p /mnt/{models,geoip,wurfl}
[sc2-ads15][root@sc2-ads15 ~]# mount -t glusterfs -o ro sc2-log3:models /mnt/models/
[sc2-ads15][root@sc2-ads15 ~]# mount -t glusterfs -o ro sc2-log3:geoip /mnt/geoip/
[sc2-ads15][root@sc2-ads15 ~]# mount -t glusterfs -o ro sc2-log3:wurfl /mnt/wurfl/
[sc2-ads15][root@sc2-ads15 ~]# df -h
1 Filesystem Size Used Avail Use% Mounted on
2 /dev/mapper/vg_t-lv_root
3 59G 7.7G 48G 14% /
4 tmpfs 3.9G 0 3.9G 0% /dev/shm
5 /dev/xvda1 485M 33M 428M 8% /boot
6 sc2-log3:models 98G 8.6G 85G 10% /mnt/models
7 sc2-log3:geoip 98G 8.6G 85G 10% /mnt/geoip
8 sc2-log3:wurfl 98G 8.6G 85G 10% /mnt/wurfl
6. 相关数据读写可用性测试:
在sc2-ads15挂载点上写入数据:
代码如下
[sc2-ads15][root@sc2-ads15 ~]# umount /mnt/models
[sc2-ads15][root@sc2-ads15 ~]# mount -t glusterfs sc2-log3:models /mnt/models/
[sc2-ads15][root@sc2-ads15 ~]# echo “This is sc2-ads15” 》 /mnt/models/hello.txt
[sc2-ads15][root@sc2-ads15 ~]# mkdir /mnt/testdir
在sc2-log1数据目录中进行查看:
[root@sc2-log1 ~]# ls /usr/local/share/models/
1 hello.txt testdir
结果: 数据写入成功
在sc2-log1数据目录中直接写入数据:
代码如下
[root@sc2-log1 ~]# echo “This is sc2-log1” 》 /usr/local/share/models/hello.2.txt
[root@sc2-log1 ~]# mkdir /usr/local/share/models/test2
在sc2-ads15挂载点上进行查看:
[sc2-ads15][root@sc2-ads15 ~]# ls /mnt/models
[sc2-ads15][root@sc2-ads15 ~]# ls -l /mnt/models
1 hello.txt testdir
结果: 数据写入失败
在sc2-log1挂载点上写入数据:
代码如下
[root@sc2-log1 ~]# mount -t glusterfs sc2-log1:models /mnt/models/
[root@sc2-log1 ~]# echo “This is sc2-log1” 》 /mnt/models/hello.3.txt
[root@sc2-log1 ~]# mkdir /mnt/models/test3
在sc2-ads15挂载点上进行查看:
[sc2-ads15][root@sc2-ads15 models]# ls /mnt/models
1 hello.2.txt hello.3.txt hello.txt test2 test3 testdir
结果: 数据写入成功,同时之前写入失败的数据也成功加载了。
最终结论:
在数据目录中直接写入数据,会导致其它节点因为得不到通知而使数据同步失败。
正确的做法是所有的读写操作都通过挂载点来进行。
7. 其它操作笔记:
删除glusterFS磁盘:
代码如下
# gluster volume stop models
# gluster volume delete models
卸载glusterFS磁盘:
代码如下
sc2-log4
ACL访问控制:
代码如下
# gluster volume set models auth.allow 10.60.1.*,10.70.1.*
添加glusterFS节点:
代码如下
# gluster peer probe sc2-log5
# gluster peer probe sc2-log6
# gluster volume add-brick models sc2-log5:/data/gluster sc2-log6:/data/gluster
迁移glusterFS磁盘数据:
代码如下
# gluster volume remove-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models start
# gluster volume remove-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models status
# gluster volume remove-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models commit
修复glusterFS磁盘数据(例如在sc2-log1宕机的情况下):
代码如下
# gluster volume replace-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models commit -force
# gluster volume heal models full
通过本文的介绍,想必你已经对glusterFS在CentOS6.4的安装配置有了一定的了解,除此之外,本文还介绍了glusterFS的其他操作方法。
CentOS 6.5 安装部署iSCSi共享存储
CentOS 6.5 安装部署iSCSi共享存储
一、前言
1、什么是iSCSI?
iSCSI技术是一种由IBM公司研究开发的,是一个供硬件设备使用的可以在IP协议的上层运行的SCSI指令集,这种指令集合可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行路由选择。iSCSI技术是一种新储存技术,该技术是将现有SCSI接口与以太网络(Ethernet)技术结合,使服务器可与使用IP网络的储存装置互相交换资料。
iSCSI:Internet 小型计算机系统接口 (iSCSI:Internet Small Computer System Interface)。
Internet 小型计算机系统接口(iSCSI)是一种基于 TCP/IP的协议,用来建立和管理 IP 存储设备、主机和客户机等之间的相互连接,并创建存储区域网络(SAN)。SAN 使得 SCSI 协议应用于高速数据传输网络成为可能,这种传输以数据块级别(block-level)在多个数据存储网络间进行。
SCSI 结构基于客户/服务器模式,其通常应用环境是:设备互相靠近,并且这些设备由 SCSI 总线连接。iSCSI 的主要功能是在 TCP/IP 网络上的主机系统(启动器 initiator)和存储设备(目标器 target)之间进行大量数据的封装和可靠传输过程。此外,iSCSI 提供了在 IP 网络封装 SCSI 命令,且运行在 TCP 上。
2、环境介绍:
本次部署由3台物理机实现,具体信息分别为以下:
a、iSCSI_Server:192.168.30.133
b、iSCSI_Client1:192.168.30.131
c、iSCSI_Client2:192.168.30.132
需要用到的软件为:
a、scsi-target-utils # 提供Server端服务
b、iscsi-initiator-utils #提供Client服务
二、安装部署服务端,即iSCSI_Server
1、在服务端创建可共享的磁盘或卷;这里就新添加一块新磁盘做为共享;
查看新添加的硬盘:
[root@iSCSI_Server~]#fdisk-l
disk/dev/sda:32.2GB,32212254720bytes
64heads,32sectors/track,30720cylinders
Units=cylindersof2048*512=1048576bytes
Sectorsize(logical/physical):512bytes/512bytes
I/Osize(minimum/optimal):512bytes/512bytes
diskidentifier:0x000da3dc
DeviceBootStartEndBlocksIdSystem
/dev/sda1*250151200083Linux
Partition1doesnotendoncylinderboundary.
/dev/sda250230720309442568eLinuxLVM
Partition2doesnotendoncylinderboundary.
disk/dev/sdb:21.5GB,21474836480bytes
64heads,20480cylinders
Units=cylindersof2048*512=1048576bytes
Sectorsize(logical/physical):512bytes/512bytes
I/Osize(minimum/optimal):512bytes/512bytes
diskidentifier:0x00000000
2、对硬盘进行分区并创建LVM卷:
[root@iSCSI_Server ~]# fdisk /dev/sdb Device contains neither a valid DOS partition table,nor Sun,sgi or OSF disklabel Building a new DOS disklabel with disk identifier 0x47756356. Changes will remain in memory only,until you decide to write them. After that,of course,the prevIoUs content won't be recoverable.
Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite) WARNING: DOS-compatible mode is deprecated. It's strongly recommended to switch off the mode (command 'c') and change display units to sectors (command 'u'). Command (m for help): p # 查看分区信息
disk /dev/sdb: 21.5 GB,21474836480 bytes64 heads,128);">32 sectors/track,128);">20480 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes disk identifier: 0x47756356 Device Boot Start End Blocks Id System Command (m for help): n #新建一个分区
Command action e extended p primary partition (1-4) e # 新建一个逻辑分区
Partition number (4): 4 # 卷标为 4
First cylinder (20480,default 1): Using default value 1Last cylinder,+cylinders or +size{K,M,G} (20480): Using 20480Command (m for help): p # 查看信息
disk /dev/sdb: 0x47756356 Device Boot Start End Blocks Id System/dev/sdb4 1 20480 20971504 5 Extended Command (m for help): n # 新建逻辑卷
Command action l logical (5 or over) p primary partition (4) l # 选择l,逻辑卷
First cylinder (for help): p # 查看信息
disk /dev/sdb: 0x47756356 Device Boot Start End Blocks Id System
/dev/sdb4 5 Extended
/dev/sdb5 20971488 83 Linux Command (m for help): w # 保存
The partition table has been altered!Calling ioctl() to re-read partition table. Syncing disks
[root@iSCSI_Server ~]# partprobe /dev/sdb # 使刚才的配置立即生效
[root@iSCSI_Server ~]# fdisk -l
disk /dev/sda: 32.2 GB,32212254720 bytes
64 heads,32 sectors/track,30720 cylinders
Units = cylinders of 2048 * 512 = 1048576 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
disk identifier: 0x000da3dc
Device Boot Start End Blocks Id System
/dev/sda1 * 2 501 512000 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 502 30720 30944256 8e Linux LVM
Partition 2 does not end on cylinder boundary.
disk /dev/sdb: 21.5 GB,21474836480 bytes
64 heads,20480 cylinders
Units = cylinders of 2048 * 512 = 1048576 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
disk identifier: 0x47756356
Device Boot Start End Blocks Id System
/dev/sdb4 1 20480 20971504 5 Extended
/dev/sdb5 1 20480 20971488 83 Linux
[root@iSCSI_Server ~]# cat /proc/partitions
major minor #blocks name
8 0 31457280 sda
8 1 512000 sda1
8 2 30944256 sda2
8 16 20971520 sdb
8 20 1 sdb4
8 21 20971488 sdb5
253 0 27795456 dm-0
253 1 3145728 dm-1
#注:看到以上标黄的信息证明已经创建逻辑卷成功!
接下来创建LVM卷
[root@iSCSI_Server ~]# pvcreate /dev/sdb5 # 创建PV
Physical volume "/dev/sdb5" successfully created
[root@iSCSI_Server ~]# vgcreate kvmvg /dev/sdb5 # 创建VG
Volume group "kvmvg" successfully created
[root@iSCSI_Server ~]# lvcreate -L 19G -n kvmlv kvmvg # 创建LV
Logical volume "kvmlv" created.
[root@iSCSI_Server ~]# lvs # 查看
LV VG Attr LSize Pool Origin Data% Meta% Move Log cpy%sync Convert
lv_root VolGroup -wi-ao---- 26.51g
lv_swap VolGroup -wi-ao---- 3.00g
kvmlv kvmvg -wi-a----- 19.00g
[root@iSCSI_Server ~]#
#注:看到以上标黄的信息证明已经创建成功!
3、安装服务端软件:scsi-target-utils
[root@iSCSI_Server~]#yum-yinstallepel-release
[root@iSCSI_Server~]#yum-yinstallscsi-target-utils.x86_64
4、配置iSCSI服务:
[root@iSCSI_Server~]#vim/etc/tgt/targets.conf
####在40行后添加以下信息#######
<targetiqn.2017-03.com.zlyang:kvm.iscsi>
backing-store/dev/kvmvg/kvmlv
initiator-address192.168.30.0/24
</target>
注:
iqn.2017-03.com.zlyang:kvm.iscsi : 为共享名
iqn.2017-03.com.zlyang:kvm.iscsi :共享卷名及路径
initiator-address 192.168.30.0/24 :允许哪些地址访问
5、启动服务
[root@iSCSI_Server~]# service tgtd start
[root@iSCSI_Server ~]# chkconfig tgtd on
[root@iSCSI_Server~]#netstat-tnlt|grep3260
tcp 0 0 0.0.0.0:3260 0.0.0.0:* LISTEN
tcp 0 0 :::3260 :::* LISTEN
6、添加防火墙规则
[root@iSCSI_Server~]#iptables-IINPUT4-ptcp--dport 3260 -j ACCEPT
[root@iSCSI_Server ~]#iptables-save
[root@iSCSI_Server~]#serviceiptablessave
[root@iSCSI_Server~]#serviceiptablesrestart
三、安装Client
因为两台Client配置几乎一样,在此以Client1为例给大家演示具体部署过程
1、首先查看本地磁盘
[root@iSCSI_Client_1~]#fdisk-l
disk/dev/sda:32.2GB,32212254720bytes64heads,30720cylinders
Units=cylindersof2048*512=1048576bytes
Sectorsize(logical/physical):512bytes/512bytes
I/Osize(minimum/optimal):512bytes/512bytes
diskidentifier:0x000da3dc
DeviceBootStartEndBlocksIdSystem
/dev/sda1*250151200083Linux
Partition1doesnotendoncylinderboundary.
/dev/sda250230720309442568eLinuxLVM
Partition2doesnotendoncylinderboundary.
disk/dev/mapper/VolGroup-lv_root:28.5GB,28462546944bytes
255heads,63sectors/track,3460cylinders
Units=cylindersof16065*512=8225280bytes
Sectorsize(logical/physical):512bytes/512bytes
I/Osize(minimum/optimal):512bytes/512bytes
diskidentifier:0x00000000
disk/dev/mapper/VolGroup-lv_swap:3221MB,3221225472bytes
255heads,391cylinders
Units=cylindersof16065*512=8225280bytes
Sectorsize(logical/physical):512bytes/512bytes
I/Osize(minimum/optimal):512bytes/512bytes
diskidentifier:0x00000000
# 可以看出只有一块磁盘
2、安装Client软件
[root@iSCSI_Client_1~]#yum-yinstallepel-release
[root@iSCSI_Client_1~]#yum-yinstalliscsi-initiator-utils.x86_64
3、启动服务
[root@iSCSI_Client_1~]#serviceiscsidstart
[root@iSCSI_Client_1~]#chkconfigiscsidon
4、发现下iSCSI服务端
[root@iSCSI_Client_1~]#iscsiadm-mdiscovery-tst-p192.168.30.133
192.168.30.133:3260,1iqn.2017-03.com.zlyang:kvm.iscsi
5、挂载该磁盘
a、加载磁盘
#iscsiadm-mnode-Tiqn.2017-03.com.zlyang:kvm.iscsi-p192.168.30.133-l
Logginginto[iface:default,target:iqn.2017-03.com.zlyang:kvm.iscsi,portal:192.168.30.133,3260](multiple)
Loginto[iface:default,3260]successful.
#echo"iscsiadm-mnode-Tiqn.2017-03.com.zlyang:kvm.iscsi-p192.168.30.133-l">>/etc/rc.d/rc.local"
[root@iSCSI_Client_1~]#fdisk-l
disk /dev/sdc: 20.4 GB,20401094656 bytes
64 heads,19456 cylinders
Units = cylinders of 2048 * 512 = 1048576 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
disk identifier: 0x00000000
注:看到此信息表示已经加载成功
b、分区格式化
[root@iSCSI_Client_1~]#mkfs.ext4/dev/sdc
mke2fs1.41.12(17-May-2010)/dev/sdcisentiredevice,notjustonepartition!
Proceedanyway?(y,n)y
Filesystemlabel=OStype:Linux
Blocksize=4096(log=2)
Fragmentsize=4096(log=2)
Stride=0blocks,Stripewidth=0blocks
1245184inodes,4980736blocks
249036blocks(5.00%)reservedforthesuperuser
Firstdatablock=0
Maximumfilesystemblocks=4294967296
152blockgroups3
2768blockspergroup,32768fragmentspergroup
8192inodespergroup
Superblockbackupsstoredonblocks:
32768,98304,163840,229376,294912,819200,884736,1605632,2654208,
4096000Writinginodetables:done
Creatingjournal(32768blocks):done
Writingsuperblocksandfilesystemaccountinginformation:done
Thisfilesystemwillbeautomaticallycheckedevery35mountsor
180days,whichevercomesfirst.Usetune2fs-cor-itooverride.
[root@iSCSI_Client_1~]#
c、挂载到本地
[root@iSCSI_Client_1 ~]# mount /dev/sdc /mnt
[root@iSCSI_Client_1 ~]# echo "mount /dev/sdc /mnt" >> /etc/rc.d/rc.local [root@iSCSI_Client_1 ~]# df -h Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup-lv_root 26G 2.6G 23G 11% /
tmpfs 939M 0 939M 0% /dev/shm
/dev/sda1 477M 52M 400M 12% /boot
/dev/sdc 19G 44M 18G 1% /mnt
[root@iSCSI_Client_1 ~]#
Client_1的所有配置已经配置完成,Client_2配置与Client_1基本相同,只是Client_2不需要再分区格式化了,直接加载及挂载就可以!
好了,部署已经全部完成,如果什么问题可以回复或发邮件到:DBA_Master@163.com
CentOS 6.6挂载iSCSI存储
为解决公司备份和日志问题,特地设置了一台备份服务器,并准备8T的存储空间使用,现在我们就在客户端来进行挂载iSCSI存储。
Linux系统为:CentOS6.6
1.客户端安装iscsi的相关安装包,并启动
yuminstall binutils iscsi-initiator-utils kmod-xfs xfsprogs
service iscsi start
其中kmod-xfs xfsprogs为xfs文件系统的组件。
2.配置initiatiorname
将initiatorname.iscsi 里添加target的名称
vim /etc/iscsi/initiatorname.iscsi
InitiatorName=iqn.1994-05.com.RedHat:677b9f2936f8
3.发现target
[root@usvr119 data]# iscsiadm -m discovery -t sendtargets -p 192.168.3.16
192.168.3.16:3260,1 iqn.2001-05.com.equallogic:0-af1ff6-dce2985d0-95e004e6a155508d-bak-disk01
4.登陆target
iscsiadm -m node -T iqn.2001-05.com.equallogic:0-af1ff6-dce2985d0-95e004e6a155508d-bak-disk01 -p 192.168.3.16:3260 --login
5.查看存储是否挂载上
[root@usvr119 data]# fdisk -l
disk /dev/sdb: 8796.1 GB,8796100362240 bytes
255 heads,63 sectors/track,1069398 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
6.用parted进行分区
parted /dev/sdb
mklabel gpt 设置分区为gpt
mkpart primary 0% 100% 将空间划分为一个分区
quit
注:fdisk支持小于2TB的磁盘,大于2TB的磁盘需要用parted
7.格式化分区
mkfs.ext4 -T largefile /dev/sdb1
注:-T largefile对格式化大文件速度要快很多
查看磁盘的uuid
blkid /dev/sdb1
/dev/sdb1: UUID="27f0ec37-d7ab-4c93-b9e3-cd09ddd9e340" TYPE="ext4"
8.挂载硬盘
mount -t ext4 /dev/sdb1 /data
9.开机自动挂载
先在/etc/rc.local进行登陆
vim /etc/rc.lcoal
vim /etc/fstab
UUID=27f0ec37-d7ab-4c93-b9e3-cd09ddd9e340 /data ext4 defaults 0 0
注:default后面的一定要注意,第一个0为是否之处dump,第二个0问支持fsck,这个在启动后会fsck /dev/sdb1,而此时没有挂载导致启动失败。
关于CentOS-7挂载iscsi网络存储和centos7挂载iscsi网络存储的问题我们已经讲解完毕,感谢您的阅读,如果还想了解更多关于CentOS 6.3下配置iSCSI网络存储、CentOS 6.4如何安装及设置GlusterFS以解决网络存储的问题、CentOS 6.5 安装部署iSCSi共享存储、CentOS 6.6挂载iSCSI存储等相关内容,可以在本站寻找。
本文标签: