在部署块设备前必须保证Ceph存储集群处于active+clean状态。


一. 环境准备

wKioL1nDxQOQf30yAAAYwuSDwIk552.png


IP 主机名
角色
10.10.10.20
admin-node ceph-deploy
10.10.10.24
ceph-client client


二. 安装CEPH


  • 在管理节点上,通过ceph-deploy把 Ceph 安装到ceph-client节点。


  1. [root@admin-node ceph]# ceph-deploy install ceph-client


  • 在管理节点上,用ceph-deploy把 Ceph 配置文件和ceph.client.admin.keyring拷贝到ceph-client


  1. [root@admin-node ceph]# ceph-deploy admin ceph-client

  2. [root@ceph-client ~]# chmod +r /etc/ceph/ceph.client.admin.keyring


三.配置块设备


  • 查看内核版本


  1. [root@ceph-client ceph-block-device]# uname -r
    3.10.0-693.el7.x86_64


  • --image-formatformat-id

  • 选择使用哪个对象布局,默认为 1

  • format 1 - (废弃)新建 rbd 映像时使用最初的格式。此格式兼容所有版本的 librbd 和内核模块,但是不支持诸如克隆这样较新的功能。

  • format 2 - 使用第二版 rbd 格式, librbd 和 3.11 版以上内核模块才支持(除非是分拆的模块)。此格式增加了对克隆的支持,日后扩展以增加新功能也变得更加容易。


笔者用的虽然是Centos7.4的系统,但内核是3.10.0的,低于3.11版本所以我们要用format1我们直接修改Ceph的配置文件,在[global]下添加 rbd_default_features = 1


  • ceph-client节点上创建一个块设备 image


  1. [root@ceph-client ceph]# rbd create f --size 4096 -m 10.10.10.21 -k /etc/ceph/ceph.client.admin.keyring

  2. [root@ceph-client ceph]# rbd ls
    f

  • 节点上,把 image 映射为块设备


  1. [root@ceph-client ceph]# rbd map f --name client.admin -m 10.10.10.21 -k /etc/ceph/ceph.client.admin.keyring


  • 节点上,创建文件系统后就可以使用块设备了


  1. [root@ceph-client ceph]# mkfs.ext4 -m0 /dev/rbd/rbd/f


  • 节点上挂载此文件系统


  1. [root@ceph-client ceph]# lsblk
    NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
    fd0 2:0 1 4K 0 disk
    sda 8:0 0 20G 0 disk
    ├─sda1 8:1 0 1G 0 part /boot
    └─sda2 8:2 0 19G 0 part
    ├─centos-root 253:0 0 17G 0 lvm /
    └─centos-swap 253:1 0 2G 0 lvm [SWAP]
    sdb 8:16 0 20G 0 disk
    sr0 11:0 1 8.1G 0 rom
    rbd0 252:0 0 4G 0 disk

  2. [root@ceph-client ceph]# mkdir /mnt/ceph-block-device

  3. [root@ceph-client ceph]# mount /dev/rbd/rbd/f /mnt/ceph-block-device

Centos7.4部署ceph块设备的更多相关文章

  1. Ceph vs Swift - 架构剖析

    Ceph和Swift,哪种更好?当工程师们讨论存储,谈到Ceph和Swift时,他们通常都一致认为其中一个非常棒,另外一个却很糟糕。另一个原因,也是很多人认为Ceph更好的原因,是Swift不支持块存储和文件存储。Ceph的另一个短板是安全性。一个原因是Ceph只能同步写入,并且要求写入节点达到quorum数才能成功返回。比如,可以使用Ceph作为本地高性能存储,而Swift则作为多地域Glance后台,这时复制很重要而速度并不关键。

  2. Ceph部署二RGW搭建

    背景CephRGW简介CephRGW基于librados,是为应用提供RESTful类型的对象存储接口。环境规划如上篇文章《Ceph部署(一)集群搭建》所述:4台服务器:1台作为Monitor,1台作为OSDRGW,还有两台作为OSD。部署CephRGW进入上文所述的my-cluster目录。该脚本会连接RGW,创建一个bucket并列出所有的bucket。正常的输出应该为:小结通过ceph-deploy命令,已经大大地简化了对Ceph集群和RGW的安装和配置。但如果想挑战下自己,或者想让自己了解更多,试

  3. centos – CEPH的原始空间使用情况

    除了df所示的净数据使用之外,还有一些文件系统开销.除了“超级块”和其他文件系统内部数据结构之外,还可以从RBD分配数据的粒度中获得一些开销.我认为RBD将始终分配4MB块,即使只使用了其中的一部分.

  4. ubuntu-14.04 – Ceph OSD总是在Ubuntu 14.04.1中“关闭”

    我在非常相同的环境中遇到了同样的问题.我终于将问题跟踪到了一个混乱的OSDUUID.放弃它的是MON日志中的以下行(不是OSD日志!如果它立刻被记录下来,我肯定会早点发现这个问题.

  5. ubuntu – ceph – 无法在重新启动的群集主机上启动osd

    在试图解决这个问题大约2天并且撞到墙上之后,另一个人对ceph的IRC频道上的类似问题提出了质疑,这使我找到了一个解决方案:其中#是主机上的osd数,重启了,所以我用过:请记住在已关闭的节点上登录并运行此命令.

  6. CentOS 7.5安装部署Jewel版本Ceph集群

    CephMonitor:由该英文名字我们可以知道它是一个监视器,负责监视Ceph集群,维护Ceph集群的健康状态,同时维护着Ceph集群中的各种Map图,比如OSDMap、MonitorMap、PGMap和CrushMap,这些Map统称为ClusterMap,ClusterMap是RADOS的关键数据结构,管理集群中的所有成员、关系、属性等信息以及数据的分发,比如当用户需要存储数据到Ceph集群时,OSD需要先通过Monitor获取最新的Map图,然后根据Map图和objectid等计算出数据最终存储的

  7. CentOS7.0安装Ceph(jewel)及以上版本

    背景由于docker的Ceph插件rexray对Ceph版本有一定的要求,当Ceph版本为hammer时,rexray无法成功创建rbd设备。CentOS7及以上版本,默认安装的就是hammer版本,因此,我们需要安装更高的jewel版本。Ceph的版本可参见。安装为了安装速度,我们可以选用国内源。安装依赖这一步非常重要,如果跳过这一步,直接进行ceph的安装,那么会报如下的错误:安装Ceph最后一步,安装Ceph,这里以安装Ceph-common为例:验证Ceph如上便表示安装成功。

  8. rexray在CentOS上不能创建ceph rbd的docker volume问题定位

    背景我们通过docker的rexray插件来创建cephrbd设备的dockervolume,但总提示创建失败。OS版本:Ceph版本:rexray版本:分析之前我们在ubuntu16.04的环境中,也搭建过docker+ceph+rexray的环境,使用docker命令创建volume并没有报错。查看docker日志,也只是提示“Failedtocreatenewvolume”,并没有其他有用的信息。也就是说,很可能就是在rexray调用rbdcreate命令时发生了错误。这里,我们打开rexray源码

  9. Ubuntu下ceph快速安装QUICK

    bees@monitor1:/root$sudowget-Orelease.aschttps://download.ceph.com/keys...05-0916:38:03--https://download.ceph.com/keys/release.ascX92XResolvingdownload.ceph.com...Failed:Noaddressassociatedwithhostname.wget:unabletoresolvehostaddressdownload.ceph.com原因:在

  10. Centos7.4部署ceph块设备

    在部署块设备前必须保证Ceph存储集群处于active+clean状态。[root@admin-nodeceph]#ceph-deployinstallceph-client在管理节点上,用ceph-deploy把Ceph配置文件和ceph.client.admin.keyring拷贝到ceph-client[root@admin-nodeceph]#ceph-deployadminceph-client[root@ceph-client~]#chmod+r/etc/ceph/ceph.client.ad

随机推荐

  1. 在airgapped(离线)CentOS 6系统上安装yum软件包

    我有一个CentOS6系统,出于安全考虑,它已经被空气泄漏.它可能从未连接到互联网,如果有,它很长时间没有更新.我想将所有.rpm软件包放在一个驱动器上,这样它们就可以脱机安装而无需查询互联网.但是,我在测试VM上遇到的问题是,即使指定了本地路径,yum仍然会挂起并尝试从在线存储库进行更新.另外,有没有办法使用yum-utils/yumdownloader轻松获取该包的所有依赖项和所有依赖项?目前

  2. centos – 命名在日志旋转后停止记录到rsyslog

    CentOS6.2,绑定9.7.3,rsyslog4.6.2我最近设置了一个服务器,我注意到在日志轮换后,named已停止记录到/var/log/messages.我认为这很奇怪,因为所有日志记录都是通过rsyslog进行的,并且named不会直接写入日志文件.这更奇怪,因为我在更新区域文件后命名了HUPed,但它仍然没有记录.在我停止并重新启动命名后,记录恢复.这里发生了什么?

  3. centos – 显示错误的磁盘大小

    对于其中一个磁盘,Df-h在我的服务器上显示错误的空白区域:Cpanel表明它只有34GB免费,但还有更多.几分钟前,我删除了超过80GB的日志文件.所以,我确信它完全错了.fdisk-l/dev/sda2也显示错误:如果没有格式化,我该怎么做才能解决这个问题?并且打开文件描述符就是它需要使用才能做到这一点.所以…使用“lsof”并查找已删除的文件.重新启动写入日志文件的服务,你很可能会看到空间可用.

  4. 如何在centos 6.9上安装docker-ce 17?

    我目前正在尝试在centOS6.9服务器上安装docker-ce17,但是,当运行yuminstalldocker-ce时,我收到以下错误:如果我用跳过的标志运行它我仍然得到相同的消息,有没有人知道这方面的方法?

  5. centos – 闲置工作站的异常负载平均值

    我有一个新的工作站,具有不寻常的高负载平均值.机器规格是:>至强cpu>256GB的RAM>4x512GBSSD连接到LSI2108RAID控制器我从livecd安装了CentOS6.564位,配置了分区,网络,用户/组,并安装了一些软件,如开发工具和MATLAB.在启动几分钟后,工作站负载平均值的值介于0.5到0.9之间.但它没有做任何事情.因此我无法理解为什么负载平均值如此之高.你能帮我诊断一下这个问题吗?

  6. centos – Cryptsetup luks – 检查内核是否支持aes-xts-plain64密码

    我在CentOS5上使用cryptsetupluks加密加密了一堆硬盘.一切都很好,直到我将系统升级到CentOS6.现在我再也无法安装磁盘了.使用我的关键短语装载:我收到此错误:在/var/log/messages中:有关如何装载的任何想法?找到解决方案问题是驱动器使用大约512个字符长的交互式关键短语加密.出于某种原因,CentOS6中的新内核模块在由旧版本创建时无法正确读取512个字符的加密密钥.似乎只会影响内核或cryptsetup的不同版本,因为在同一系统上创建和打开时,512字符的密钥将起作用

  7. centos – 大量ssh登录尝试

    22个我今天登录CentOS盒找到以下内容这是过去3天内的11次登录尝试.WTF?请注意,这是我从我的提供商处获得的全新IP,该盒子是全新的.我还没有发布任何关于此框的内容.为什么我会进行如此大量的登录尝试?是某种IP/端口扫描?基本上有4名匪徒,其中2名来自中国,1名来自香港,1名来自Verizon.这只发生在SSH上.HTTP上没有问题.我应该将罪魁祸首子网路由吗?你们有什么建议?

  8. centos – kswap使用100%的CPU,即使有100GB的RAM也可用

    >Linux内核是否应该足够智能,只需从内存中清除旧缓存页而不是启动kswap?

  9. centos – Azure将VM从A2 / 3调整为DS2 v2

    我正在尝试调整前一段时间创建的几个AzureVM,从基本的A3和标准A3到标准的DS2v2.我似乎没有能力调整到这个大小的VM.必须从头开始重建服务器会有点痛苦.如果它有所不同我在VM中运行CentOS,每个都有一个带有应用程序和操作系统的磁盘.任何人都可以告诉我是否可以在不删除磁盘的情况下删除VM,创建新VM然后将磁盘附加到新VM?

  10. centos – 广泛使用RAM时服务器计算速度减慢

    我在非常具体的情况下遇到服务器速度下降的问题.事实是:>1)我使用计算应用WRF>2)我使用双XeonE5-2620v3和128GBRAM(NUMA架构–可能与问题有关!

返回
顶部