GlusterFS 集群安装及使用 实战篇 Linux磁盘空间管理-------- GPT分区模式 群集负载均衡--LVS DR+keepalived部署实战 VMware Workstation和CentOS下载、安装设置 Linux下find命令的使用(命令+案例) 学习大数据应该从哪里开始,以及需要有哪些知识储备 国内最强大数据平台如何炼成 腾讯云给出“标准答案” 探访哈尔滨地铁:人工智能+大数据+云计算+5G 大数据为现代农业赋能 智慧农业高峰论坛举行 中金:物联网生态之战 长期投资价值如何演进? 从0开始搭建嵌入式linux开发平台 C语言集锦 | 03 - C语言的复合数据类型(typedef关键字、结构体、枚举体、共用体) 【鸿蒙OS最新进展】鸿蒙内核liteos-a体验 在ART-Pi H750上移植TouchGFX(一)——使用STM32CUBMX生成TouchGFX工程 李开复口误?大数据时代,我们的隐私真的安全吗? 下一代数据和AI驱动的营销:大数据平台结构化数据占15%左右-可下载 午报 | 大数据杀熟行为下月明令禁止;比亚迪成为苹果新iPad代工方 「全球程序员节」长安计算唐欣:自主计算机整机带动陕西信息产业 通信行业2020年中报总结:Q2整体环比改善,光器件、物联网与IDC表现突出,维持“增持”评级 Best Efforts 1PC 跨库事务 LeetCode-579、查询员工的累计薪水,601、体育馆的人流量 为啥不推荐uuid作为Mysql的主键呢 手把手教学:linux下oracle升级至11.2.0.4 数据库专题——深入理解count(*)为什么这么慢 Linux中MySQL数据库的使用④-----常用查询语句、常用函数 mysql备份与恢复:完全备份,增量备份,基于位置点恢复,基于时间点恢复 MySQL数据库的编译安装过程 《MySQL 入门教程》第 28 篇 字符集与排序规则 PHP面试技巧 之 职场暗语知多少?! [Dubox]实测。还是原来的配方,还是一样的味道! 【剑指金九银十】程序员,如何做到不惑?(附四面拿到字节跳动offer全过程) 超厉害的阿里技术读物,1500页超全计算机系统底层解析宝典 【融中财经早报9.16】大数据杀熟行为10月1日起明令禁止 大数据时代,机器学习算法该如何升级? 怎么判断自己是否适合做程序员 一分钟告诉你什么是区块链 一个时代一个机会,DeFi的起点X-DeFi,如何玩转X-DeFi? RTX3080显卡已被用于挖矿!映众辟谣:工程师测试散热 2020-09-15 比特币相当于房地产,怎样利用比特币获得流动现金? 区块链安全事件与代码审计 fisco bcos solidity销毁合约,删除合约的方法 Linux 中 Golang 的安装和环境配置 Golang interface{} 转换为某个结构体 区块链知识系列 - Raft 共识 OpenHarmony开发者文档开源计划,快快加入吧 融合创新提升服务,大数据搭建信息网 长三角税收一体化按下“快进键” 河钢集团与海尔集团签署物联网生态战略合作协议 1一个拥有万物互联神话,让我们看物联网是如何蓬勃发展的? 重庆大数据产业研究院成立,首批专家服务团名单公布
您的位置:首页 >物联网 >

GlusterFS 集群安装及使用 实战篇

文章目录

一、GlusterFS、MFS、Ceph的比较二、GFS集群安装部署1.准备环境2. 设置hosts3.对硬盘进行自动分区挂载4. 安装软件 glusterfs (所有设备都要安装)4.1 同步时钟5.添加节点(在任意一台节点上操作)5.1查看所有节点(在任意节点都可查看)5.2创造分布式卷5.3 查看5.4 启动5.5 停止5.6 删除, 查看列表三 . 创建卷组,并挂载查看其存储分布情况3.1 创建分布式卷3.1.1 挂载卷3.1.2 向卷组中写入数据,查看存储分布情况 3.2 创建复制卷3.2.1 挂载3.2.2 查看分布情况复制卷 3.3 创建分布式复制卷3.3.1 挂载3.3.2 查看数据分布情况 四 . 下面补充一下3.12版本 条带卷的一些操作4.1 创建条带卷4.1.1挂载条带卷"4.1.2 把测试文件放到条带卷目录下,查看服务端存储分布 4.2 创建分布式条带卷(至少4个节点)4.2.1 挂载4.2.2 把测试文件放到分布式条带卷目录下,查看服务端存储分布五.其他维护命令

一、GlusterFS、MFS、Ceph的比较

glusterfs、mfs、Ceph、Luster 相等为分布式文件系统,单纯的优缺点是无法描述的,下列是从它们的 Metadata server 、fuse、冗余、数据可靠性、故障恢复、扩展、适用场景、领域等进行简单比对。

(1.) MFS(moosefs)的特点 Metadata server: 单个MDS,存在单点故障、并发瓶颈 fuse:支持 访问接口:POSIX 冗余:多副本 数据可靠性:由数据的多副本提供可靠性。 故障恢复:手动恢复 扩展性:增加存储服务器,可以提高容量和文件操作性能。但是由于 不能增加MDS,因此元数据操作性能不能提高,是整个系统的瓶颈 适合场景:大量小文件读写 缺点:存在单点故障

(2.)GFS(glusterfs)的特点 metadata server:没有MDS,不存在单点故障。靠运行在各个节点上的动态算法来代替MDS,不需同步元数据,无硬盘I/O瓶颈。 fuse: 支持 访问接口:POSIX 冗余:通过镜像的方式 数据可靠性:通过镜像提供可靠性 故障恢复:当节点、硬件、磁盘、网络发生故障时,系统会自动处理这些故障,管理员不需介入 扩展性:容量可以扩展 适用场景:适合大文件 缺点:无元数据服务器,堆栈式架构(基本功能模块可以进行堆栈式组合,实现强大功能)。具有线性横向扩展能力。由于没有元数据服务器,因此增加了客户端的负载,占用相当的CPU和内存。但遍历文件目录时,则实现较为复杂和低效,需要搜索所有的存储节点。因此不建议使用较深的路径

(3.)Ceph的特点 metadata server:多个MDS,不存在单点故障和瓶颈。MDS可以扩展,不存在瓶颈 fuse: 支持 访问接口:POSIX 冗余:多副本 数据可靠性:由数据的多副本提供可靠性。 故障恢复:当节点失效时,自动迁移数据、重新复制副本。 扩展性:可以增加元数据服务器和存储节点。容量可扩展。文件操作性能可扩展。元数据操作性能可扩展 适用场景:小文件 缺点:略,自行研究,之后会更新

二、GFS集群安装部署

此安装背景是由于k8s的需要进行安装的,也可另为它用。

1.准备环境

由于资源有限,此次采用5台机器进行搭建 注意: GlusterFS6.1版本分布式存储集群(已弃用stripe模式),即 不再支持 条带卷 本实验以 7.7 版本为例

1台客户机,4台节点设备每台新增4个20G硬盘,实验需要

一台centos7虚拟机,IP地址为:192.168.100.9,主机名为:node1,添加4块20G磁盘

一台centos7虚拟机,IP地址为:192.168.100.10,主机名为:node2,添加4块20G磁盘,

一台centos7虚拟机,IP地址为:192.168.100.11,主机名为:node3,添加4块20G磁盘

一台centos7虚拟机,IP地址为:192.168.100.12,主机名为:node4,添加4块20G磁盘

一台centos7虚拟机,IP地址为:192.168.100.3,当做测试机使用

将要使用的卷名称和信息

卷名称卷类型 空间大小/GB Brickdis 分布式卷 40G node1:/data/sdb1 node2:/data/sdb1 rep-volume 复制卷20G node3:/data/sdb1node4:/data/sdb1 dis-rep 分布式复制卷40G node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 

关闭防火墙

systemctl stop firewalldsetenforce 0Iptables -F

2. 设置hosts

每台都需设置hosts

[root@server-9 ~]# vim /etc/hosts192.168.100.9 node1192.168.100.10 node2192.168.100.11 node3192.168.100.12 node4

将 hosts 文件复制给其他节点

[root@server-9 ~]# scp /etc/hosts root@192.168.100.10:/etc/hosts[root@server-9 ~]# scp /etc/hosts root@192.168.100.11:/etc/hosts[root@server-9 ~]# scp /etc/hosts root@192.168.100.12:/etc/hosts

[root@server-9 ~]#

测试节点通信

PING node4 (192.168.100.12) 56(84) bytes of data.64 bytes from node4 (192.168.100.12): icmp_seq=1 ttl=64 time=0.449 ms

3.对硬盘进行自动分区挂载

编辑脚本,实现自动化对硬盘分区挂载

vim zdfq.sh#!/bin/bashecho "the disks exist list:"fdisk -l | grep '磁盘 /dev/sd[a-z]'echo "================================="PS3="chose which disk you want to create:"select VAR in `ls /dev/sd* | grep -o 'sd[b-z]'|uniq` quitdocase $VAR insda)fdisk -l /dev/sdabreak ;;sd[b-z])#create partitionsecho "npw" | fdisk /dev/$VAR#make filesystemmkfs.xfs -i size=512 /dev/${VAR}"1" &> /dev/null#mount the systemmkdir -p /data/${VAR}"1" &> /dev/nullecho -e "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0\n" >> /etc/fstabmount -a &> /dev/nullbreak ;;quit)break;;*)echo "wrong disk,please check again";;esacdone
[root@server-9 opt]# chmod +x zdfq.sh./zdfq.sh执行分区挂载

4. 安装软件 glusterfs (所有设备都要安装)

两种方法 1.挂载本地源,安装软件mount.cifs //192.168.1.163/linux_soft /opt/abc/opt/abc/gfsrepo安装3.10版本创建本地yum源[root@pc-4 gfsrepo]# cd /etc/yum.repos.d/[root@pc-4 yum.repos.d]# mkdir bak[root@pc-4 yum.repos.d]# mv Centos-* bak/Vim gfs.repo[gfs]name=glfsbaseurl=file:////opt/abc/gfsrepogpgcheck=0enabled=1~有些设备安装3.10版本时, 有时会因为版本问题产生冲突,可进行如下操作yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma###安装//报错解决,把系统自带的包先删掉yum remove glusterfs -yyum remove glusterfs-libs.x86_64 -y再安装systemctl start glusterd.servicesystemctl enable glusterd.servicesystemctl status glusterd.service或安装7.7版本1、先下载阿里云yum源:wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo2、清理yum源:yum clean all3、获取yum源列表:yum list4、安装:yum -y install centos-release-gluster5、安装:yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma6、systemctl start glusterd.service ## 启动glusterfs或者直接使用默认的现网源1、安装:yum -y install centos-release-gluster2、安装:yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma3、systemctl start glusterd.service ## 启动glusterfs注意:GlusterFS6.1版本分布式存储集群(已弃用stripe模式),即 不再支持 条带卷

本实验以 7.7 版本为例

4.1 同步时钟

ntpdate ntp1.aliyun.com

5.添加节点(在任意一台节点上操作)

[root@server-9 yum.repos.d]# gluster peer probe node2peer probe: success.[root@server-9 yum.repos.d]# gluster peer probe node3peer probe: success.[root@server-9 yum.repos.d]# gluster peer probe node4peer probe: success.

5.1查看所有节点(在任意节点都可查看)

[root@server-9 yum.repos.d]# gluster peer statusNumber of Peers: 3Hostname: node2Uuid: 248e4cc1-5697-4b59-8be6-12505b4c1785State: Peer in Cluster (Connected)Hostname: node3Uuid: 97dd09e5-98e4-4842-bb28-4b2af28b932cState: Peer in Cluster (Connected)Hostname: node4Uuid: eb3c47ec-86d1-4ea1-b31f-e0b828f71e4cState: Peer in Cluster (Connected)[root@server-9 yum.repos.d]#

5.2创造分布式卷

gluster volume create dis-vol node1:/data/sdb1 node2:/data/sdb1 force[root@server-9 yum.repos.d]# gluster volume create dis-vol node1:/data/sdb1 node2:/data/sdb1 forcevolume create: dis-vol: success: please start the volume to access data[root@server-9 yum.repos.d]#gluster volume info dis-vol

5.3 查看

[root@server-9 yum.repos.d]# gluster volume info dis-volVolume Name: dis-volType: DistributeVolume ID: b6883698-bb50-4b82-9425-7ed78345634dStatus: CreatedSnapshot Count: 0Number of Bricks: 2Transport-type: tcpBricks:Brick1: node1:/data/sdb1Brick2: node2:/data/sdb1Options Reconfigured:transport.address-family: inetstorage.fips-mode-rchecksum: onnfs.disable: on

5.4 启动

[root@server-9 yum.repos.d]# gluster volume start dis-volvolume start: dis-vol: success[root@server-9 yum.repos.d]# gluster volume info dis-volVolume Name: dis-volType: DistributeVolume ID: b6883698-bb50-4b82-9425-7ed78345634dStatus: StartedSnapshot Count: 0Number of Bricks: 2Transport-type: tcpBricks:Brick1: node1:/data/sdb1Brick2: node2:/data/sdb1Options Reconfigured:transport.address-family: inetstorage.fips-mode-rchecksum: onnfs.disable: on[root@server-9 yum.repos.d]#

5.5 停止

[root@server-9 yum.repos.d]# gluster volume stop dis-volStopping volume will make its data inaccessible. Do you want to continue? (y/n) yvolume stop: dis-vol: success[root@server-9 yum.repos.d]# gluster volume info dis-volVolume Name: dis-volType: DistributeVolume ID: b6883698-bb50-4b82-9425-7ed78345634dStatus: StoppedSnapshot Count: 0Number of Bricks: 2Transport-type: tcpBricks:Brick1: node1:/data/sdb1Brick2: node2:/data/sdb1Options Reconfigured:transport.address-family: inetstorage.fips-mode-rchecksum: onnfs.disable: on

5.6 删除, 查看列表

[root@server-9 yum.repos.d]# gluster volume delete dis-volDeleting volume will erase all information about the volume. Do you want to continue? (y/n) yvolume delete: dis-vol: success[root@server-9 yum.repos.d]# gluster volume info dis-volVolume dis-vol does not exist[root@server-9 yum.repos.d]# gluster volume listNo volumes present in cluster[root@server-9 yum.repos.d]#

三 . 创建卷组,并挂载查看其存储分布情况

3.1 创建分布式卷

root@server-9 yum.repos.d]# gluster volume create dis-vol node1:/data/sdb1 node2:/data/sdb1 forcevolume create: dis-vol: success: please start the volume to access data[root@server-9 yum.repos.d]# gluster volume listdis-vol[root@server-9 yum.repos.d]# gluster volume start dis-volvolume start: dis-vol: success

3.1.1 挂载卷

[root@pc-4 yum.repos.d]# systemctl start glusterd.service[root@pc-4 yum.repos.d]# mkdir -p /test/dis[root@pc-4 yum.repos.d]# mount.glusterfs node2:dis-vol /tet/disERROR: Mount point does not existPlease specify a mount pointUsage:man 8 /usr/sbin/mount.glusterfs[root@pc-4 yum.repos.d]# mount.glusterfs node2:dis-vol /test/dis[root@pc-4 yum.repos.d]# df -htdf:选项需要一个参数 -- tTry 'df --help' for more information.[root@pc-4 yum.repos.d]# df -h文件系统容量已用可用 已用% 挂载点/dev/sda591G4.1G 87G5% /devtmpfs895M 0895M0% /devtmpfs 910M 0910M0% /dev/shmtmpfs 910M 11M900M2% /runtmpfs 910M 0910M0% /sys/fs/cgroup/dev/sda2 5.9G 33M5.9G1% /home/dev/sda11014M174M841M 18% /boottmpfs 182M 12K182M1% /run/user/42tmpfs 182M 0182M0% /run/user/0//192.168.1.163/linux_soft632G181G451G 29% /opt/abcnode2:dis-vol40G475M 40G2% /test/dis[root@pc-4 yum.repos.d]#dd if=/dev/zero of=/demo1.log bs=1M count=40dd if=/dev/zero of=/demo2.log bs=1M count=40dd if=/dev/zero of=/demo3.log bs=1M count=40dd if=/dev/zero of=/demo4.log bs=1M count=40dd if=/dev/zero of=/demo5.log bs=1M count=40

3.1.2 向卷组中写入数据,查看存储分布情况

[root@pc-4 opt]# cd /[root@pc-4 /]# dd if=/dev/zero of=/demo1.log bs=1M count=40记录了40+0 的读入记录了40+0 的写出41943040字节(42 MB)已复制,0.0170802 秒,2.5 GB/秒[root@pc-4 /]# dd if=/dev/zero of=/demo2.log bs=1M count=40记录了40+0 的读入记录了40+0 的写出41943040字节(42 MB)已复制,0.0174415 秒,2.4 GB/秒[root@pc-4 /]# dd if=/dev/zero of=/demo3.log bs=1M count=40记录了40+0 的读入记录了40+0 的写出41943040字节(42 MB)已复制,0.0659369 秒,636 MB/秒[root@pc-4 /]# dd if=/dev/zero of=/demo4.log bs=1M count=40记录了40+0 的读入记录了40+0 的写出41943040字节(42 MB)已复制,0.0867373 秒,484 MB/秒[root@pc-4 /]# dd if=/dev/zero of=/demo5.log bs=1M count=40记录了40+0 的读入记录了40+0 的写出41943040字节(42 MB)已复制,0.0828524 秒,506 MB/秒[root@pc-4 /]# lsbin demo1.logdemo3.logdemo5.logetc libmediaopt rootsbinsys tmpvarbootdemo2.logdemo4.logdevhomelib64mntprocrun srv testusr[root@pc-4 /]# cp demo* /test/dis/[root@pc-4 /]# cd /test/dis/[root@pc-4 dis]# ll -h总用量 200M-rw-r--r-- 1 root root 40M 9月13 22:35 demo1.log-rw-r--r-- 1 root root 40M 9月13 22:35 demo2.log-rw-r--r-- 1 root root 40M 9月13 22:35 demo3.log-rw-r--r-- 1 root root 40M 9月13 22:35 demo4.log-rw-r--r-- 1 root root 40M 9月13 22:35 demo5.log[root@pc-4 dis]#[root@SERVER 10 sdb1]# ll -h总用量 40M-rw-r--r-- 2 root root 40M 9月13 22:35 demo5.log

3.2 创建复制卷

[root@server 11 yum.repos.d]# gluster volume create rep-vol replica 2 node3:/data/sdb1node4:/data/sdb1 forcevolume create: rep-vol: success: please start the volume to access data[root@server 11 yum.repos.d]# gluster volume start rep-volvolume start: rep-vol: success

3.2.1 挂载

[root@pc-4 dis]# mount.glusterfs node2:rep-vol /test/rep-vol/[root@pc-4 dis]# df -h文件系统容量已用可用 已用% 挂载点/dev/sda591G4.3G 86G5% /devtmpfs895M 0895M0% /devtmpfs 910M 0910M0% /dev/shmtmpfs 910M 11M900M2% /runtmpfs 910M 0910M0% /sys/fs/cgroup/dev/sda2 5.9G 33M5.9G1% /home/dev/sda11014M174M841M 18% /boottmpfs 182M 12K182M1% /run/user/42tmpfs 182M 0182M0% /run/user/0//192.168.1.163/linux_soft632G181G451G 29% /opt/abcnode2:dis-vol40G675M 40G2% /test/disnode2:rep-vol20G238M 20G2% /test/rep-vol

3.2.2 查看分布情况复制卷

[root@server_12 yum.repos.d]# cd /data/sdb1[root@server_12 sdb1]# ll -h总用量 200M-rw-r--r-- 2 root root 40M 9月13 22:58 demo1.log-rw-r--r-- 2 root root 40M 9月13 22:58 demo2.log-rw-r--r-- 2 root root 40M 9月13 22:58 demo3.log-rw-r--r-- 2 root root 40M 9月13 22:58 demo4.log-rw-r--r-- 2 root root 40M 9月13 22:58 demo5.log
[root@server 11 sdb1]# ll -h总用量 200M-rw-r--r-- 2 root root 40M 9月13 22:58 demo1.log-rw-r--r-- 2 root root 40M 9月13 22:58 demo2.log-rw-r--r-- 2 root root 40M 9月13 22:58 demo3.log-rw-r--r-- 2 root root 40M 9月13 22:58 demo4.log-rw-r--r-- 2 root root 40M 9月13 22:58 demo5.log

3.3 创建分布式复制卷

[root@server 11 sdb1]#gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 forcevolume create: dis-rep: success: please start the volume to access data[root@server 11 sdb1]# gluster volume listdis-repdis-volrep-vol[root@server 11 sdb1]# gluster volume start dis-repvolume start: dis-rep: success

3.3.1 挂载

[root@pc-4 /]# mount.glusterfs node1:dis-rep /test/dis-rep/[root@pc-4 /]# df -h文件系统容量已用可用 已用% 挂载点/dev/sda591G4.3G 86G5% /devtmpfs895M 0895M0% /devtmpfs 910M 0910M0% /dev/shmtmpfs 910M 11M900M2% /runtmpfs 910M 0910M0% /sys/fs/cgroup/dev/sda2 5.9G 33M5.9G1% /home/dev/sda11014M174M841M 18% /boottmpfs 182M 12K182M1% /run/user/42tmpfs 182M 0182M0% /run/user/0//192.168.1.163/linux_soft632G181G451G 29% /opt/abcnode2:dis-vol40G675M 40G2% /test/disnode2:rep-vol20G438M 20G3% /test/rep-volnode1:dis-rep40G475M 40G2% /test/dis-rep[root@pc-4 /]#

3.3.2 查看数据分布情况

[root@server-9 sde1]# ll -h总用量 160M-rw-r--r-- 2 root root 40M 9月13 23:11 demo1.log-rw-r--r-- 2 root root 40M 9月13 23:11 demo2.log-rw-r--r-- 2 root root 40M 9月13 23:11 demo3.log-rw-r--r-- 2 root root 40M 9月13 23:11 demo4.log[root@server-9 sde1]#[root@SERVER 10 sde1]# ll -h总用量 160M-rw-r--r-- 2 root root 40M 9月13 23:11 demo1.log-rw-r--r-- 2 root root 40M 9月13 23:11 demo2.log-rw-r--r-- 2 root root 40M 9月13 23:11 demo3.log-rw-r--r-- 2 root root 40M 9月13 23:11 demo4.log[root@server 11 sde1]# ll -h总用量 40M-rw-r--r-- 2 root root 40M 9月13 23:11 demo5.log[root@server_12 sde1]# ll -h总用量 40M-rw-r--r-- 2 root root 40M 9月13 23:11 demo5.log[root@server_12 sde1]#

四 . 下面补充一下3.12版本 条带卷的一些操作

4.1 创建条带卷

[root@node1 ~]# gluster volume create stripe-vol stripe 2 node1:/data/sdc1node2:/data/sdc1 forcevolume create: stripe-vol: success: please start the volume to access data"创建"[root@node1 ~]# gluster volume start stripe-vol "启动"volume start: stripe-vol: success[root@node1 ~]# gluster volume info stripe-vol "查看信息"Volume Name: stripe-volType: StripeVolume ID: 04e52229-541c-478e-a216-fe9b44f13cffStatus: StartedSnapshot Count: 0Number of Bricks: 1 x 2 = 2Transport-type: tcpBricks:Brick1: node1:/data/sdc1Brick2: node2:/data/sdc1Options Reconfigured:transport.address-family: inetnfs.disable: on

4.1.1挂载条带卷"

[root@client ~]# mkdir -p /text/strip[root@client ~]# mount.glusterfs node1:stripe-vol /text/strip[root@client /]# df -Th//192.168.31.224/redhat7 cifs227G 42G185G 19% /optnode1:dis-volfuse.glusterfs 40G265M 40G1% /text/disnode1:stripe-vol fuse.glusterfs 40G 65M 40G1% /text/strip

4.1.2 把测试文件放到条带卷目录下,查看服务端存储分布

[root@client ~]# cp /demo* /text/strip[root@node1 sdb1]# cd /data/sdc1[root@node1 sdc1]# ll -h总用量 100M-rw-r--r--. 2 root root 20M 9月14 00:02 demo1.log "每个40M的文件被分成两块进行两个节点分布式存储"-rw-r--r--. 2 root root 20M 9月14 00:02 demo2.log-rw-r--r--. 2 root root 20M 9月14 00:02 demo3.log-rw-r--r--. 2 root root 20M 9月14 00:02 demo4.log-rw-r--r--. 2 root root 20M 9月14 00:02 demo5.log[root@node2 sdb1]# cd /data/sdc1[root@node2 sdc1]# ll -h总用量 100M-rw-r--r--. 2 root root 20M 9月14 00:02 demo1.log-rw-r--r--. 2 root root 20M 9月14 00:02 demo2.log-rw-r--r--. 2 root root 20M 9月14 00:02 demo3.log-rw-r--r--. 2 root root 20M 9月14 00:02 demo4.log-rw-r--r--. 2 root root 20M 9月14 00:02 demo5.log

4.2 创建分布式条带卷(至少4个节点)

[root@node1 ~]# gluster volume create dis-stripe stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 forcevolume create: dis-stripe: success: please start the volume to access data[root@node1 ~]# [root@node1 ~]# gluster volume start dis-stripevolume start: dis-stripe: success[root@node1 ~]# gluster volume info dis-stripe Volume Name: dis-stripeType: Distributed-StripeVolume ID: 3715b2f7-cf52-4a85-97db-5354ed77784bStatus: StartedSnapshot Count: 0Number of Bricks: 2 x 2 = 4Transport-type: tcpBricks:Brick1: node1:/data/sdd1Brick2: node2:/data/sdd1Brick3: node3:/data/sdd1Brick4: node4:/data/sdd1Options Reconfigured:transport.address-family: inetnfs.disable: on

4.2.1 挂载

[root@client ~]# mkdir /text/dis-str[root@client ~]# mount.glusterfs node2:dis-stripe /text/dis-str/

4.2.2 把测试文件放到分布式条带卷目录下,查看服务端存储分布

[root@client ~]# cp /demo* /text/dis-str[root@node1 sdc1]# cd /data/sdd1[root@node1 sdd1]# ll -h总用量 80M-rw-r--r--. 2 root root 20M 9月14 00:15 demo1.log-rw-r--r--. 2 root root 20M 9月14 00:15 demo2.log-rw-r--r--. 2 root root 20M 9月14 00:15 demo3.log-rw-r--r--. 2 root root 20M 9月14 00:15 demo4.log[root@node2 sdc1]# cd /data/sdd1[root@node2 sdd1]# ll -h总用量 80M"1234分布式到node1和node2;再对1234条带分割,每个文件分两半,进行存储"-rw-r--r--. 2 root root 20M 9月14 00:15 demo1.log-rw-r--r--. 2 root root 20M 9月14 00:15 demo2.log-rw-r--r--. 2 root root 20M 9月14 00:15 demo3.log-rw-r--r--. 2 root root 20M 9月14 00:15 demo4.log[root@node3 sdb1]# cd /data/sdd1[root@node3 sdd1]# ll -h总用量 20M"5分布式到node3和node4;再对5进行分割存储"-rw-r--r--. 2 root root 20M 9月14 00:15 demo5.log[root@node4 sdb1]# cd /data/sdd1[root@node4 sdd1]# ll -h总用量 20M-rw-r--r--. 2 root root 20M 9月14 00:15 demo5.log

五.其他维护命令

1、查看GlusterFS卷[root@node1 ~]# gluster volume list 2、查看所有卷的信息[root@node1 ~]# gluster volume info3.查看所有卷状态[root@node1 ~]# gluster volume status4. ####停止一个卷[root@node1 ~]# gluster volume stop dis-stripe 5. 删除一个卷[root@node1 ~]# gluster volume delete dis-stripe 6.白名单 仅允许[root@node1 ~]# gluster volume set dis-rep auth.allow 192.168.100.* ##设置192.168.100.0网段的所有IP地址 都能访问dis-rep卷(分布式复制卷)volume set: success 7.黑名单 仅拒绝[root@node1 sde1]# gluster volume set dis-rep auth.reject 192.168.100.80volume set: success[root@node1 ~]# gluster volume add-brickheal quotastartbarrierhelp rebalancestatedumpclear-locksinfo remove-brick statuscreate list replace-brickstopdelete logresetsyncgeo-replicationprofilesettop"reset" 恢复默认

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。