GVKun编程网logo

CentOS-7挂载iscsi网络存储(centos7挂载iscsi网络存储)

14

最近很多小伙伴都在问CentOS-7挂载iscsi网络存储和centos7挂载iscsi网络存储这两个问题,那么本篇文章就来给大家详细解答一下,同时本文还将给你拓展CentOS6.3下配置iSCSI网

最近很多小伙伴都在问CentOS-7挂载iscsi网络存储centos7挂载iscsi网络存储这两个问题,那么本篇文章就来给大家详细解答一下,同时本文还将给你拓展CentOS 6.3下配置iSCSI网络存储、CentOS 6.4如何安装及设置GlusterFS以解决网络存储的问题、CentOS 6.5 安装部署iSCSi共享存储、CentOS 6.6挂载iSCSI存储等相关知识,下面开始了哦!

本文目录一览:

CentOS-7挂载iscsi网络存储(centos7挂载iscsi网络存储)

CentOS-7挂载iscsi网络存储(centos7挂载iscsi网络存储)

// 安装相关软件,其中kmod-xfs、xfsprogs为xfs文件系统的组件。

yum install binutils iscsi-initiator-utils kmod-xfs xfsprogs

//启动iscsi服务

service iscsi start

//查看存储服务器的iscsi是否在线

iscsiadm -m discovery --type sendtargets --portal 192.168.2.30

如下是输入上面的命令后返回的结果:
192.168.2.30:3260,1 iqn.1986-03.com.ibm:2145.v37001.node2

//设置开机自动登陆iscsi

iscsiadm -m node -T iqn.1986-03.com.ibm:2145.v37001.node2 -p 192.168.2.30:3260 --op update -n node.startup -v automatic

//显示当前的连接

iscsiadm -m session

如下是输入上面的命令后返回的结果:
tcp: [1] 192.168.2.30:3260,1 iqn.1986-03.com.ibm:2145.v37001.node2 (non-flash)

//查看存储空间是否已经显示在磁盘列表中

fdisk -l

如下显示了我存储的空间
disk /dev/sdb: 32985.3 GB,32985348833280 bytes,64424509440 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 32768 bytes / 32768 bytes
disk label type: gpt

//用parted命令进行分区

parted /dev/sdb          
mklabel gpt                     //创建标识
mkpart primary 0% 100%          //分配所有空间
print                           //显示当前分区
quit                            //退出

//用mkfs.ext4命令格式化硬盘

mkfs.ext4 -T largefile /dev/sdb1
参数说明:-T largefile对格式化大文件速度要快很多

如下是输入上面的命令后返回的输出:
[[email protected] ~]# mkfs.ext4 -T largefile /dev/sdb1
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=8 blocks,Stripe width=8 blocks
31457280 inodes,8053063168 blocks
402653158 blocks (5.00%) reserved for the super user
First data block=0
245760 block groups
32768 blocks per group,32768 fragments per group
128 inodes per group
Superblock backups stored on blocks:
32768,98304,163840,229376,294912,819200,884736,1605632,2654208,
4096000,7962624,11239424,20480000,23887872,71663616,78675968,
102400000,214990848,512000000,550731776,644972544,1934917632,
2560000000,3855122432,5804752896

Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

//挂载

mount /dev/sdb1 /iscsi/

开机自动挂载

编辑/etc/fstab文件,加入如下代码:

UUID=bdef610b-0f6c-4888-b3ea-7dc986109604 /iscsi ext4 defaults,_netdev 0 0 
注意:一定要加_netdev不然系统会无法启动,_netdev的意思是等有了网络之后再挂载。

CentOS 6.3下配置iSCSI网络存储

CentOS 6.3下配置iSCSI网络存储

一、简介

iSCSI(internet SCSI)技术由IBM公司研究开发,是一个供硬件设备使用的、可以在IP协议的上层运行的SCSI指令集,这种指令集合可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行路由选择。iSCSI技术是一种新储存技术,该技术是将现有SCSI接口与以太网络(Ethernet)技术结合,使服务器可与使用IP网络的储存装置互相交换资料。

iSCSI是一种基于TCP/IP 的协议,用来建立和管理IP存储设备、主机和客户机等之间的相互连接,并创建存储区域网络(SAN)。SAN 使得SCSI 协议应用于高速数据传输网络成为可能,这种传输以数据块级别(block-level)在多个数据存储网络间进行。SCSI 结构基于C/S模式,其通常应用环境是:设备互相靠近,并且这些设备由SCSI 总线连接。

iSCSI 的主要功能是在TCP/IP 网络上的主机系统(启动器 initiator)和存储设备(目标器 target)之间进行大量数据的封装和可靠传输过程。

完整的iSCSI系统的拓扑结构如下:

二、实验环境

操作系统:CentOS release 6.3 (Final)

iSCSI Target:192.168.1.21 / scsi-target-utils-1.0.24-12.el6_5.i686

iSCSI Initiator:192.168.1.22 / iscsi-initiator-utils-6.2.0.873-10.el6.i686

防火墙已关闭/iptables: Firewall is not running.

SELINUX=disabled

三、准备工作

iSCSI可分享的设备类型有很多,包括镜像文件(*.img)、分区(partition)、物理硬盘、raid设备、逻辑卷等,下面我们将准备其中的几种来测试,其他类型大家可以自行测试。

3.1 模拟镜像

在iSCSI Target的/srv目录下创建一个200M大小的镜像文件。

# mkdir /srv/iscsi

# dd if=/dev/zero of=/srv/iscsi/disk1.img bs=1M count=200

# ll -lh /srv/iscsi/disk1.img

3.2 建立分区

创建一个500M大小的分区/dev/sdb1.

# fdisk /dev/sdb

3.3 创建逻辑卷

创建一个800M大小的LV.

# pvcreate /dev/sdc

# vgcreate vg0 /dev/sdc

# lvcreate -L 800M -n lv1 vg0

四、配置iSCSI Target

4.1 安装tgt

CentOS 自带了scsi-target-utils 软件,我们使用该软件进行target设置。

# yum -y install scsi-target-utils

4.2 配置tgt

tgt的主配置文件为/etc/tgt/targets.conf,下面我们来设置改文件。

在该文件最后新增以下设置:

<target iqn.2014-07.dev.iscsi-target:iscsidisk> 
    backing-store /srv/iscsi/disk1.img 
    backing-store /dev/sdb1 
    backing-store /dev/vg0/lv1 
    backing-store /dev/sdd 
</target>

说明:

iqn = iSCSI Qualified Name

iSCSI target的名称规则如下:

iqn.2014-07.dev.iscsi-target:iscsidisk

iqn.年份-月份.域名反写.设备识别

每个在同一个target上的backing-store 称为逻辑单元号(Logical Unit Number,LUN),这个实验中有4个LUN。

其他高级设置如initiator-address、incominguser,大家自行查资料。

4.3 启动iSCSI target

# /etc/init.d/tgtd start

# chkconfig tgtd on

# netstat -tulnp|grep tgt

4.4 查看iSCSI target

# tgt-admin –show

LUN0 是控制器,可以看到各个LUN的大小和磁盘路径。

至此,iSCSI Target 设定完毕。

五、配置iSCSI Initiator

5.1 安装initiator

# yum -y install iscsi-initiator-utils

5.2 设置开机启动

# chkconfig iscsid on

# chkconfig iscsi on

5.3 配置文档

initiator的配置文档位于/etc/iscsi/,该目录下有两个文件,initiatorname.iscsi 和iscsid.conf,

其中iscsid.conf 是其配置文件,initiatorname.iscsi 是标记了initiator的名称,它的默认名称是InitiatorName=iqn.1994-05.com.redhat:b45be5af6021,我们可以根据实际情况进行更改,比较好区分,这里我们修改为InitiatorName=iqn.2014-07.dev.iscsi-initiator:initiator。

因为在target里面,我们并没有设置访问限制,所以iscsid.conf 文件并不需要修改。

5.4 侦测target

如果我们事先不知道目标主机的target名称,我们就需要进行侦测,下面来讲解。

# iscsiadm -m discovery -t sendtargets -p 192.168.1.21

说明:

-m discovery  //侦测target
-t sendtargets  通过iscsi协议
-p IP:port  指定target的IP和port,不写port的话,默认为3260

5.5 查看nodes

iscsiadm 侦测到的结果会写入/var/lib/iscsi/nodes/ 中,因此只需启动/etc/init.d/iscsi 就能够在下次开机时,自动连接到正确的target了。

# ll -R /var/lib/iscsi/nodes/

侦测信息都写入了/var/lib/iscsi/nodes/iqn.2014-07.dev.iscsi-target:iscsidisk/192.168.1.21,3260,1/default 文件中了。

5.6 连接target

查看目前系统上面所有的target

# iscsiadm -m node

登录target

# iscsiadm -m node -T iqn.2014-07.dev.iscsi-target:iscsidisk –login

5.7 查看磁盘情况

# fdisk –l

可以看到,initiator 上面多了四块硬盘,大小和target上的LUN一致。这时你就可以像使用本地磁盘一样使用这些iSCSI设备了,下面我们来测试。

5.8 将/dev/sdb 和/dev/sdc 创建成LV挂载使用

创建LV

# pvcreate /dev/sdb /dev/sdc

# vgcreate iscsi /dev/sdb /dev/sdc

# lvcreate -L 1G -n iscsilv iscsi

格式化并挂载

# mkfs.ext4 /dev/iscsi/iscsilv

# mkdir /mnt/iscsi

# vi /etc/fstab

创建测试文件

挂载成功,创建测试文件成功。

5.9 重启测试

测试成功。

5.10 查看target信息

# tgt-admin --show

可以看到,此时使用该target的initiator 为iqn.2014-07.dev.iscsi-initiator:initiator,也就是我们上面更改的initiatorname,IP地址为192.168.1.22。

至此,iSCSI 置完毕。

CentOS 6.4如何安装及设置GlusterFS以解决网络存储的问题

CentOS 6.4如何安装及设置GlusterFS以解决网络存储的问题

glusterFS因有很好的扩展性,使用的用户很多,使用glusterFS能够解决网络存储、冗余备份等问题,那么在Linux下要如何安装glusterFS呢?今天小编以CentOS6.4为例,给大家介绍下CentOS6.4安装配置glusterFS的方法。

环境介绍:

OS: CentOS 6.4 x86_64 Minimal

Servers: sc2-log1,sc2-log2,sc2-log3,sc2-log4

Client: sc2-ads15

具体步骤:

1. 在sc2-log{1-4}上安装glusterFS软件包:

代码如下

# wget -P /etc/yum.repos.d http://download.gluster.org/pub/gluster/glusterfs/LATEST/CentOS/glusterfs-epel.repo

# yum install -y glusterfs-3.4.2-1.el6 glusterfs-server-3.4.2-1.el6 glusterfs-fuse-3.4.2-1.el6

# /etc/init.d/glusterd start

# chkconfig glusterfsd on

2. 在sc2-log1上配置整个glusterFS集群:

代码如下

[root@sc2-log1 ~]# gluster peer probe sc2-log1

1 peer probe: success: on localhost not needed

[root@sc2-log1 ~]# gluster peer probe sc2-log2

1 peer probe: success

[root@sc2-log1 ~]# gluster peer probe sc2-log3

1 peer probe: success

[root@sc2-log1 ~]# gluster peer probe sc2-log4

1 peer probe: success

[root@sc2-log1 ~]# gluster peer status

01 Number of Peers: 3

02

03 Hostname: sc2-log2

04 Port: 24007

05 Uuid: 399973af-bae9-4326-9cbd-b5b05e5d2927

06 State: Peer in Cluster (Connected)

07

08 Hostname: sc2-log3

09 Port: 24007

10 Uuid: 833a7b8d-e3b3-4099-baf9-416ee7213337

11 State: Peer in Cluster (Connected)

12

13 Hostname: sc2-log4

14 Port: 24007

15 Uuid: 54bf115a-0119-4021-af80-7a6bca137fd9

16 State: Peer in Cluster (Connected)

3. 在sc2-log{1-4}上创建数据存放目录:

代码如下

# mkdir -p /usr/local/share/{models,geoip,wurfl}

# ls -l /usr/local/share/

1 total 24

2 drwxr-xr-x 2 root root 4096 Apr 1 12:19 geoip

3 drwxr-xr-x 2 root root 4096 Apr 1 12:19 models

4 drwxr-xr-x 2 root root 4096 Apr 1 12:19 wurfl 

4. 在sc2-log1上创建glusterFS磁盘:

代码如下

[root@sc2-log1 ~]# gluster volume create models replica 4 sc2-log1:/usr/local/share/models sc2-log2:/usr/local/share/models sc2-log3:/usr/local/share/models sc2-log4:/usr/local/share/models force

1 volume create: models: success: please start the volume to access data

[root@sc2-log1 ~]# gluster volume create geoip replica 4 sc2-log1:/usr/local/share/geoip sc2-log2:/usr/local/share/geoip sc2-log3:/usr/local/share/geoip sc2-log4:/usr/local/share/geoip force

1 volume create: geoip: success: please start the volume to access data

[root@sc2-log1 ~]# gluster volume create wurfl replica 4 sc2-log1:/usr/local/share/wurfl sc2-log2:/usr/local/share/wurfl sc2-log3:/usr/local/share/wurfl sc2-log4:/usr/local/share/wurfl force

1 volume create: wurfl: success: please start the volume to access data

[root@sc2-log1 ~]# gluster volume start models

1 volume start: models: success

[root@sc2-log1 ~]# gluster volume start geoip

1 volume start: geoip: success

[root@sc2-log1 ~]# gluster volume start wurfl

1 volume start: wurfl: success

[root@sc2-log1 ~]# gluster volume info

01 Volume Name: models

02 Type: Replicate

03 Volume ID: b29b22bd-6d8c-45c0-b199-91fa5a76801f

04 Status: Started

05 Number of Bricks: 1 x 4 = 4

06 Transport-type: tcp

07 Bricks:

08 Brick1: sc2-log1:/usr/local/share/models

09 Brick2: sc2-log2:/usr/local/share/models

10 Brick3: sc2-log3:/usr/local/share/models

11 Brick4: sc2-log4:/usr/local/share/models

12

13 Volume Name: geoip

14 Type: Replicate

15 Volume ID: 69b0caa8-7c23-4712-beae-6f536b1cffa3

16 Status: Started

17 Number of Bricks: 1 x 4 = 4

18 Transport-type: tcp

19 Bricks:

20 Brick1: sc2-log1:/usr/local/share/geoip

21 Brick2: sc2-log2:/usr/local/share/geoip

22 Brick3: sc2-log3:/usr/local/share/geoip

23 Brick4: sc2-log4:/usr/local/share/geoip

24

25 Volume Name: wurfl

26 Type: Replicate

27 Volume ID: c723a99d-eeab-4865-819a-c0926cf7b88a

28 Status: Started

29 Number of Bricks: 1 x 4 = 4

30 Transport-type: tcp

31 Bricks:

32 Brick1: sc2-log1:/usr/local/share/wurfl

33 Brick2: sc2-log2:/usr/local/share/wurfl

34 Brick3: sc2-log3:/usr/local/share/wurfl

35 Brick4: sc2-log4:/usr/local/share/wurfl

5. 在sc2-ads15上部署客户端并mount glusterFS文件系统:

[sc2-ads15][root@sc2-ads15 ~]# wget -P /etc/yum.repos.d http://download.gluster.org/pub/gluster/glusterfs/LATEST/CentOS/glusterfs-epel.repo

[sc2-ads15][root@sc2-ads15 ~]# yum install -y glusterfs-3.4.2-1.el6 glusterfs-fuse-3.4.2-1.el6

[sc2-ads15][root@sc2-ads15 ~]# mkdir -p /mnt/{models,geoip,wurfl}

[sc2-ads15][root@sc2-ads15 ~]# mount -t glusterfs -o ro sc2-log3:models /mnt/models/

[sc2-ads15][root@sc2-ads15 ~]# mount -t glusterfs -o ro sc2-log3:geoip /mnt/geoip/

[sc2-ads15][root@sc2-ads15 ~]# mount -t glusterfs -o ro sc2-log3:wurfl /mnt/wurfl/

[sc2-ads15][root@sc2-ads15 ~]# df -h

1 Filesystem Size Used Avail Use% Mounted on

2 /dev/mapper/vg_t-lv_root

3 59G 7.7G 48G 14% /

4 tmpfs 3.9G 0 3.9G 0% /dev/shm

5 /dev/xvda1 485M 33M 428M 8% /boot

6 sc2-log3:models 98G 8.6G 85G 10% /mnt/models

7 sc2-log3:geoip 98G 8.6G 85G 10% /mnt/geoip

8 sc2-log3:wurfl 98G 8.6G 85G 10% /mnt/wurfl 

6. 相关数据读写可用性测试:

在sc2-ads15挂载点上写入数据:

代码如下

[sc2-ads15][root@sc2-ads15 ~]# umount /mnt/models

[sc2-ads15][root@sc2-ads15 ~]# mount -t glusterfs sc2-log3:models /mnt/models/

[sc2-ads15][root@sc2-ads15 ~]# echo “This is sc2-ads15” 》 /mnt/models/hello.txt

[sc2-ads15][root@sc2-ads15 ~]# mkdir /mnt/testdir

在sc2-log1数据目录中进行查看:

[root@sc2-log1 ~]# ls /usr/local/share/models/

1 hello.txt testdir

结果: 数据写入成功

在sc2-log1数据目录中直接写入数据:

代码如下

[root@sc2-log1 ~]# echo “This is sc2-log1” 》 /usr/local/share/models/hello.2.txt

[root@sc2-log1 ~]# mkdir /usr/local/share/models/test2

在sc2-ads15挂载点上进行查看:

[sc2-ads15][root@sc2-ads15 ~]# ls /mnt/models

[sc2-ads15][root@sc2-ads15 ~]# ls -l /mnt/models

1 hello.txt testdir

结果: 数据写入失败

在sc2-log1挂载点上写入数据:

代码如下

[root@sc2-log1 ~]# mount -t glusterfs sc2-log1:models /mnt/models/

[root@sc2-log1 ~]# echo “This is sc2-log1” 》 /mnt/models/hello.3.txt

[root@sc2-log1 ~]# mkdir /mnt/models/test3

在sc2-ads15挂载点上进行查看:

[sc2-ads15][root@sc2-ads15 models]# ls /mnt/models

1 hello.2.txt hello.3.txt hello.txt test2 test3 testdir

结果: 数据写入成功,同时之前写入失败的数据也成功加载了。

最终结论:

在数据目录中直接写入数据,会导致其它节点因为得不到通知而使数据同步失败。

正确的做法是所有的读写操作都通过挂载点来进行。

7. 其它操作笔记:

删除glusterFS磁盘:

代码如下

# gluster volume stop models

# gluster volume delete models

卸载glusterFS磁盘:

代码如下

sc2-log4

ACL访问控制:

代码如下

# gluster volume set models auth.allow 10.60.1.*,10.70.1.*

添加glusterFS节点:

代码如下

# gluster peer probe sc2-log5

# gluster peer probe sc2-log6

# gluster volume add-brick models sc2-log5:/data/gluster sc2-log6:/data/gluster

迁移glusterFS磁盘数据:

代码如下

# gluster volume remove-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models start

# gluster volume remove-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models status

# gluster volume remove-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models commit

修复glusterFS磁盘数据(例如在sc2-log1宕机的情况下):

代码如下

# gluster volume replace-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models commit -force

# gluster volume heal models full

通过本文的介绍,想必你已经对glusterFS在CentOS6.4的安装配置有了一定的了解,除此之外,本文还介绍了glusterFS的其他操作方法。

CentOS 6.5 安装部署iSCSi共享存储

CentOS 6.5 安装部署iSCSi共享存储

CentOS 6.5 安装部署iSCSi共享存储

一、前言

  1、什么是iSCSI?

    iSCSI技术是一种由IBM公司研究开发的,是一个供硬件设备使用的可以在IP协议的上层运行的SCSI指令集,这种指令集合可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行路由选择。iSCSI技术是一种新储存技术,该技术是将现有SCSI接口与以太网络(Ethernet)技术结合,使服务器可与使用IP网络的储存装置互相交换资料。

    iSCSI:Internet 小型计算机系统接口 (iSCSI:Internet Small Computer System Interface)。
Internet 小型计算机系统接口(iSCSI)是一种基于 TCP/IP的协议,用来建立和管理 IP 存储设备、主机和客户机等之间的相互连接,并创建存储区域网络(SAN)。SAN 使得 SCSI 协议应用于高速数据传输网络成为可能,这种传输以数据块级别(block-level)在多个数据存储网络间进行。
    SCSI 结构基于客户/服务器模式,其通常应用环境是:设备互相靠近,并且这些设备由 SCSI 总线连接。iSCSI 的主要功能是在 TCP/IP 网络上的主机系统(启动器 initiator)和存储设备(目标器 target)之间进行大量数据的封装和可靠传输过程。此外,iSCSI 提供了在 IP 网络封装 SCSI 命令,且运行在 TCP 上。

  2、环境介绍:

    本次部署由3台物理机实现,具体信息分别为以下:

      a、iSCSI_Server:192.168.30.133

      b、iSCSI_Client1:192.168.30.131

      c、iSCSI_Client2:192.168.30.132

    需要用到的软件为:

      a、scsi-target-utils    # 提供Server端服务

      b、iscsi-initiator-utils  #提供Client服务

二、安装部署服务端,即iSCSI_Server


   1、在服务端创建可共享的磁盘或卷;这里就新添加一块新磁盘做为共享;

    查看新添加的硬盘:

     

[root@iSCSI_Server~]#fdisk-l
disk/dev/sda:32.2GB,32212254720bytes
64heads,32sectors/track,30720cylinders
Units=cylindersof2048*512=1048576bytes
Sectorsize(logical/physical):512bytes/512bytes
I/Osize(minimum/optimal):512bytes/512bytes
diskidentifier:0x000da3dc
DeviceBootStartEndBlocksIdSystem
/dev/sda1*250151200083Linux
Partition1doesnotendoncylinderboundary.
/dev/sda250230720309442568eLinuxLVM
Partition2doesnotendoncylinderboundary.
disk/dev/sdb:21.5GB,21474836480bytes
64heads,20480cylinders
Units=cylindersof2048*512=1048576bytes
Sectorsize(logical/physical):512bytes/512bytes
I/Osize(minimum/optimal):512bytes/512bytes
diskidentifier:0x00000000


  2、对硬盘进行分区并创建LVM卷:

[root@iSCSI_Server ~]# fdisk /dev/sdb
Device contains neither a valid DOS partition table,nor Sun,sgi or OSF disklabel
Building a new DOS disklabel with disk identifier 0x47756356.
Changes will remain in memory only,until you decide to write them.
After that,of course,the prevIoUs content won't be recoverable.

Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite) WARNING: DOS-compatible mode is deprecated. It's strongly recommended to switch off the mode (command 'c') and change display units to sectors (command 'u'). Command (m for help): p      # 查看分区信息

disk /dev/sdb: 21.5 GB,21474836480 bytes64 heads,128);">32
sectors/track,128);">20480 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes disk identifier: 0x47756356 Device Boot Start End Blocks Id System Command (m for help): n      #新建一个分区

Command action e extended p primary partition (1-4) e                   # 新建一个逻辑分区
 
Partition number (4): 4     # 卷标为 4

First cylinder (20480,default 1): Using default value 1Last cylinder,+cylinders or +size{K,M,G} (20480): Using 20480Command (m for help): p      # 查看信息
 
disk /dev/sdb: 0x47756356 Device Boot Start End Blocks Id System/dev/sdb4 1 20480 20971504 5 Extended Command (m for help): n      # 新建逻辑卷

Command action l logical (5 or over) p primary partition (4) l                   # 选择l,逻辑卷
 
First cylinder (for help): p      # 查看信息

disk /dev/sdb: 0x47756356 Device Boot Start End Blocks Id System
/dev/sdb4 5 Extended
/dev/sdb5 20971488 83 Linux Command (m for help): w      # 保存

The partition table has been altered!Calling ioctl() to re-read partition table. Syncing disks

[root@iSCSI_Server ~]# partprobe /dev/sdb      # 使刚才的配置立即生效
[root@iSCSI_Server ~]# fdisk -l

disk /dev/sda: 32.2 GB,32212254720 bytes
64 heads,32 sectors/track,30720 cylinders
Units = cylinders of 2048 * 512 = 1048576 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
disk identifier: 0x000da3dc

Device Boot Start End Blocks Id System
/dev/sda1 * 2 501 512000 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 502 30720 30944256 8e Linux LVM
Partition 2 does not end on cylinder boundary.

disk /dev/sdb: 21.5 GB,21474836480 bytes
64 heads,20480 cylinders
Units = cylinders of 2048 * 512 = 1048576 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
disk identifier: 0x47756356

Device Boot Start End Blocks Id System
/dev/sdb4 1 20480 20971504 5 Extended
/dev/sdb5 1 20480 20971488 83 Linux

[root@iSCSI_Server ~]# cat /proc/partitions
major minor #blocks name
8 0 31457280 sda
8 1 512000 sda1
8 2 30944256 sda2
8 16 20971520 sdb
8 20 1 sdb4
8 21 20971488 sdb5
253 0 27795456 dm-0
253 1 3145728 dm-1

#注:看到以上标黄的信息证明已经创建逻辑卷成功!

接下来创建LVM卷


[root@iSCSI_Server ~]# pvcreate /dev/sdb5        # 创建PV
Physical volume "/dev/sdb5" successfully created
[root@iSCSI_Server ~]# vgcreate kvmvg /dev/sdb5     # 创建VG
Volume group "kvmvg" successfully created
[root@iSCSI_Server ~]# lvcreate -L 19G -n kvmlv kvmvg  # 创建LV
Logical volume "kvmlv" created.
[root@iSCSI_Server ~]# lvs                 # 查看
LV VG Attr LSize Pool Origin Data% Meta% Move Log cpy%sync Convert
lv_root VolGroup -wi-ao---- 26.51g
lv_swap VolGroup -wi-ao---- 3.00g
kvmlv kvmvg -wi-a----- 19.00g
[root@iSCSI_Server ~]#

#注:看到以上标黄的信息证明已经创建成功!


  3、安装服务端软件:scsi-target-utils

[root@iSCSI_Server~]#yum-yinstallepel-release
[root@iSCSI_Server~]#yum-yinstallscsi-target-utils.x86_64


  4、配置iSCSI服务:

[root@iSCSI_Server~]#vim/etc/tgt/targets.conf
####在40行后添加以下信息#######
<targetiqn.2017-03.com.zlyang:kvm.iscsi>
  backing-store/dev/kvmvg/kvmlv      
  initiator-address192.168.30.0/24
</target>

  注:

  iqn.2017-03.com.zlyang:kvm.iscsi : 为共享名

  iqn.2017-03.com.zlyang:kvm.iscsi  :共享卷名及路径

  initiator-address 192.168.30.0/24  :允许哪些地址访问

  5、启动服务

[root@iSCSI_Server~]# service tgtd start
[root@iSCSI_Server ~]# chkconfig tgtd on
[root@iSCSI_Server~]#netstat-tnlt|grep3260

tcp 0 0 0.0.0.0:3260 0.0.0.0:* LISTEN
tcp 0 0 :::3260 :::* LISTEN

  

  6、添加防火墙规则

[root@iSCSI_Server~]#iptables-IINPUT4-ptcp--dport 3260 -j ACCEPT
[root@iSCSI_Server ~]#iptables-save
[root@iSCSI_Server~]#serviceiptablessave
[root@iSCSI_Server~]#serviceiptablesrestart


三、安装Client

  因为两台Client配置几乎一样,在此以Client1为例给大家演示具体部署过程

  

  1、首先查看本地磁盘

 

[root@iSCSI_Client_1~]#fdisk-l

disk/dev/sda:32.2GB,32212254720bytes64heads,30720cylinders
Units=cylindersof2048*512=1048576bytes
Sectorsize(logical/physical):512bytes/512bytes
I/Osize(minimum/optimal):512bytes/512bytes
diskidentifier:0x000da3dc

DeviceBootStartEndBlocksIdSystem
/dev/sda1*250151200083Linux
Partition1doesnotendoncylinderboundary.
/dev/sda250230720309442568eLinuxLVM
Partition2doesnotendoncylinderboundary.

disk/dev/mapper/VolGroup-lv_root:28.5GB,28462546944bytes
255heads,63sectors/track,3460cylinders
Units=cylindersof16065*512=8225280bytes
Sectorsize(logical/physical):512bytes/512bytes
I/Osize(minimum/optimal):512bytes/512bytes
diskidentifier:0x00000000
disk/dev/mapper/VolGroup-lv_swap:3221MB,3221225472bytes
255heads,391cylinders
Units=cylindersof16065*512=8225280bytes
Sectorsize(logical/physical):512bytes/512bytes
I/Osize(minimum/optimal):512bytes/512bytes
diskidentifier:0x00000000

# 可以看出只有一块磁盘


  2、安装Client软件

[root@iSCSI_Client_1~]#yum-yinstallepel-release
[root@iSCSI_Client_1~]#yum-yinstalliscsi-initiator-utils.x86_64


  3、启动服务

[root@iSCSI_Client_1~]#serviceiscsidstart
[root@iSCSI_Client_1~]#chkconfigiscsidon




  4、发现下iSCSI服务端

[root@iSCSI_Client_1~]#iscsiadm-mdiscovery-tst-p192.168.30.133
192.168.30.133:3260,1iqn.2017-03.com.zlyang:kvm.iscsi


  5、挂载该磁盘

    a、加载磁盘

#iscsiadm-mnode-Tiqn.2017-03.com.zlyang:kvm.iscsi-p192.168.30.133-l
Logginginto[iface:default,target:iqn.2017-03.com.zlyang:kvm.iscsi,portal:192.168.30.133,3260](multiple)
Loginto[iface:default,3260]successful.
#echo"iscsiadm-mnode-Tiqn.2017-03.com.zlyang:kvm.iscsi-p192.168.30.133-l">>/etc/rc.d/rc.local"

[root@iSCSI_Client_1~]#fdisk-l
disk /dev/sdc: 20.4 GB,20401094656 bytes
64 heads,19456 cylinders
Units = cylinders of 2048 * 512 = 1048576 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
disk identifier: 0x00000000



注:看到此信息表示已经加载成功


    b、分区格式化

[root@iSCSI_Client_1~]#mkfs.ext4/dev/sdc
mke2fs1.41.12(17-May-2010)/dev/sdcisentiredevice,notjustonepartition!
Proceedanyway?(y,n)y
Filesystemlabel=OStype:Linux
Blocksize=4096(log=2)
Fragmentsize=4096(log=2)
Stride=0blocks,Stripewidth=0blocks
1245184inodes,4980736blocks
249036blocks(5.00%)reservedforthesuperuser
Firstdatablock=0
Maximumfilesystemblocks=4294967296
152blockgroups3
2768blockspergroup,32768fragmentspergroup
8192inodespergroup
Superblockbackupsstoredonblocks:
32768,98304,163840,229376,294912,819200,884736,1605632,2654208,
4096000Writinginodetables:done
Creatingjournal(32768blocks):done
Writingsuperblocksandfilesystemaccountinginformation:done

Thisfilesystemwillbeautomaticallycheckedevery35mountsor
180days,whichevercomesfirst.Usetune2fs-cor-itooverride.
[root@iSCSI_Client_1~]#


    c、挂载到本地

[root@iSCSI_Client_1 ~]# mount /dev/sdc /mnt
[root@iSCSI_Client_1 ~]# echo "mount /dev/sdc /mnt" >> /etc/rc.d/rc.local [root@iSCSI_Client_1 ~]# df -h Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup-lv_root 26G 2.6G 23G 11% /
tmpfs 939M 0 939M 0% /dev/shm
/dev/sda1 477M 52M 400M 12% /boot
/dev/sdc 19G 44M 18G 1% /mnt
[root@iSCSI_Client_1 ~]#


Client_1的所有配置已经配置完成,Client_2配置与Client_1基本相同,只是Client_2不需要再分区格式化了,直接加载及挂载就可以!


好了,部署已经全部完成,如果什么问题可以回复或发邮件到:DBA_Master@163.com

CentOS 6.6挂载iSCSI存储

CentOS 6.6挂载iSCSI存储

为解决公司备份和日志问题,特地设置了一台备份服务器,并准备8T的存储空间使用,现在我们就在客户端来进行挂载iSCSI存储。

Linux系统为:CentOS6.6

1.客户端安装iscsi的相关安装包,并启动

yuminstall binutils iscsi-initiator-utils kmod-xfs xfsprogs

service iscsi start

其中kmod-xfs xfsprogs为xfs文件系统的组件。

2.配置initiatiorname

将initiatorname.iscsi 里添加target的名称

vim /etc/iscsi/initiatorname.iscsi

InitiatorName=iqn.1994-05.com.RedHat:677b9f2936f8

3.发现target

[root@usvr119 data]# iscsiadm -m discovery -t sendtargets -p 192.168.3.16
192.168.3.16:3260,1 iqn.2001-05.com.equallogic:0-af1ff6-dce2985d0-95e004e6a155508d-bak-disk01

4.登陆target

iscsiadm -m node -T iqn.2001-05.com.equallogic:0-af1ff6-dce2985d0-95e004e6a155508d-bak-disk01 -p 192.168.3.16:3260 --login

5.查看存储是否挂载上

[root@usvr119 data]# fdisk -l

disk /dev/sdb: 8796.1 GB,8796100362240 bytes
255 heads,63 sectors/track,1069398 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes

6.用parted进行分区

parted /dev/sdb

mklabel gpt 设置分区为gpt

mkpart primary 0% 100% 将空间划分为一个分区

print

quit

注:fdisk支持小于2TB的磁盘,大于2TB的磁盘需要用parted

7.格式化分区

mkfs.ext4 -T largefile /dev/sdb1

注:-T largefile对格式化大文件速度要快很多

查看磁盘的uuid

blkid /dev/sdb1

/dev/sdb1: UUID="27f0ec37-d7ab-4c93-b9e3-cd09ddd9e340" TYPE="ext4"

8.挂载硬盘

mount -t ext4 /dev/sdb1 /data

9.开机自动挂载

先在/etc/rc.local进行登陆

vim /etc/rc.lcoal

vim /etc/fstab

UUID=27f0ec37-d7ab-4c93-b9e3-cd09ddd9e340 /data ext4 defaults 0 0

注:default后面的一定要注意,第一个0为是否之处dump,第二个0问支持fsck,这个在启动后会fsck /dev/sdb1,而此时没有挂载导致启动失败。

关于CentOS-7挂载iscsi网络存储centos7挂载iscsi网络存储的问题我们已经讲解完毕,感谢您的阅读,如果还想了解更多关于CentOS 6.3下配置iSCSI网络存储、CentOS 6.4如何安装及设置GlusterFS以解决网络存储的问题、CentOS 6.5 安装部署iSCSi共享存储、CentOS 6.6挂载iSCSI存储等相关内容,可以在本站寻找。

本文标签: