ceph部署时osd create在/home/osd下出问题

今天我在实机部署的时候,因为之前分区大部分空间都在home下,所以只能将osd都弄在home下了,但是ceph-deploy osd create osd1:/home/ceph/osd 和激活的时候,出现下面的错,求解决。

[ceph@admin my-cluster]# ceph-deploy osd activate mon3:/home/ceph/osd
[ceph_deploy.conf][DEBUG ] found configuration file at: /home/ceph/.cephdeploy.conf
[ceph_deploy.cli][INFO ] Invoked (1.5.38): /usr/bin/ceph-deploy osd activate mon3:/home/ceph/osd
[ceph_deploy.cli][INFO ] ceph-deploy options:
[ceph_deploy.cli][INFO ] username : None
[ceph_deploy.cli][INFO ] verbose : False
[ceph_deploy.cli][INFO ] overwrite_conf : False
[ceph_deploy.cli][INFO ] subcommand : activate
[ceph_deploy.cli][INFO ] quiet : False
[ceph_deploy.cli][INFO ] cd_conf :
[ceph_deploy.cli][INFO ] cluster : ceph
[ceph_deploy.cli][INFO ] func :
[ceph_deploy.cli][INFO ] ceph_conf : None
[ceph_deploy.cli][INFO ] default_release : False
[ceph_deploy.cli][INFO ] disk : [('mon3', '/home/ceph/osd', None)]
[ceph_deploy.osd][DEBUG ] Activating cluster ceph disks mon3:/home/ceph/osd:
[mon3][DEBUG ] connection detected need for sudo
[mon3][DEBUG ] connected to host: mon3
[mon3][DEBUG ] detect platform information from remote host
[mon3][DEBUG ] detect machine type
[mon3][DEBUG ] find the location of an executable
[ceph_deploy.osd][INFO ] Distro info: CentOS Linux 7.2.1511 Core
[ceph_deploy.osd][DEBUG ] activating host mon3 disk /home/ceph/osd
[ceph_deploy.osd][DEBUG ] will use init type: systemd
[mon3][DEBUG ] find the location of an executable
[mon3][INFO ] Running command: sudo /usr/sbin/ceph-disk -v activate --mark-init systemd --mount /home/ceph/osd
[mon3][WARNIN] main_activate: path = /home/ceph/osd
[mon3][WARNIN] activate: Cluster uuid is 20fa28ad-98e6-4d89-bc2a-771e94e0de43
[mon3][WARNIN] command: Running command: /usr/bin/ceph-osd --cluster=ceph --show-config-value=fsid
[mon3][WARNIN] activate: Cluster name is ceph
[mon3][WARNIN] activate: OSD uuid is f2243a79-0e54-475a-ab83-11a2c4811ddb
[mon3][WARNIN] allocate_osd_id: Allocating OSD id...
[mon3][WARNIN] command: Running command: /usr/bin/ceph --cluster ceph --name client.bootstrap-osd --keyring /var/lib/ceph/bootstrap-osd/ceph.keyring osd create --concise f2243a79-0e54-475a-ab83-11a2c4811ddb
[mon3][WARNIN] command: Running command: /sbin/restorecon -R /home/ceph/osd/whoami.4359.tmp
[mon3][WARNIN] command: Running command: /usr/bin/chown -R ceph:ceph /home/ceph/osd/whoami.4359.tmp
[mon3][WARNIN] activate: OSD id is 1
[mon3][WARNIN] activate: Initializing OSD...
[mon3][WARNIN] command_check_call: Running command: /usr/bin/ceph --cluster ceph --name client.bootstrap-osd --keyring /var/lib/ceph/bootstrap-osd/ceph.keyring mon getmap -o /home/ceph/osd/activate.monmap
[mon3][WARNIN] got monmap epoch 1
[mon3][WARNIN] command: Running command: /usr/bin/timeout 300 ceph-osd --cluster ceph --mkfs --mkkey -i 1 --monmap /home/ceph/osd/activate.monmap --osd-data /home/ceph/osd --osd-journal /home/ceph/osd/journal --osd-uuid f2243a79-0e54-475a-ab83-11a2c4811ddb --keyring /home/ceph/osd/keyring --setuser ceph --setgroup ceph
[mon3][WARNIN] activate: Marking with init system systemd
[mon3][WARNIN] command: Running command: /sbin/restorecon -R /home/ceph/osd/systemd
[mon3][WARNIN] command: Running command: /usr/bin/chown -R ceph:ceph /home/ceph/osd/systemd
[mon3][WARNIN] activate: Authorizing OSD key...
[mon3][WARNIN] command_check_call: Running command: /usr/bin/ceph --cluster ceph --name client.bootstrap-osd --keyring /var/lib/ceph/bootstrap-osd/ceph.keyring auth add osd.1 -i /home/ceph/osd/keyring osd allow * mon allow profile osd
[mon3][WARNIN] added key for osd.1
[mon3][WARNIN] command: Running command: /sbin/restorecon -R /home/ceph/osd/active.4359.tmp
[mon3][WARNIN] command: Running command: /usr/bin/chown -R ceph:ceph /home/ceph/osd/active.4359.tmp
[mon3][WARNIN] activate: ceph osd.1 data dir is ready at /home/ceph/osd
[mon3][WARNIN] activate_dir: Creating symlink /var/lib/ceph/osd/ceph-1 -> /home/ceph/osd
[mon3][WARNIN] start_daemon: Starting ceph osd.1...
[mon3][WARNIN] command_check_call: Running command: /usr/bin/systemctl disable ceph-osd@1
[mon3][WARNIN] command_check_call: Running command: /usr/bin/systemctl disable ceph-osd@1 --runtime
[mon3][WARNIN] command_check_call: Running command: /usr/bin/systemctl enable ceph-osd@1
[mon3][WARNIN] Created symlink from /etc/systemd/system/ceph-osd.target.wants/ceph-osd@1.service to /usr/lib/systemd/system/ceph-osd@.service.
[mon3][WARNIN] command_check_call: Running command: /usr/bin/systemctl start ceph-osd@1
[mon3][WARNIN] Job for ceph-osd@1.service failed because the control process exited with error code. See "systemctl status ceph-osd@1.service" and "journalctl -xe" for details.
[mon3][WARNIN] Traceback (most recent call last):
[mon3][WARNIN] File "/usr/sbin/ceph-disk", line 9, in
[mon3][WARNIN] load_entry_point('ceph-disk==1.0.0', 'console_scripts', 'ceph-disk')()
[mon3][WARNIN] File "/usr/lib/python2.7/site-packages/ceph_disk/main.py", line 5371, in run
[mon3][WARNIN] main(sys.argv[1:])
[mon3][WARNIN] File "/usr/lib/python2.7/site-packages/ceph_disk/main.py", line 5322, in main
[mon3][WARNIN] args.func(args)
[mon3][WARNIN] File "/usr/lib/python2.7/site-packages/ceph_disk/main.py", line 3483, in main_activate
[mon3][WARNIN] osd_id=osd_id,
[mon3][WARNIN] File "/usr/lib/python2.7/site-packages/ceph_disk/main.py", line 3060, in start_daemon
[mon3][WARNIN] raise Error('ceph osd start failed', e)
[mon3][WARNIN] ceph_disk.main.Error: Error: ceph osd start failed: Command '['/usr/bin/systemctl', 'start', 'ceph-osd@1']' returned non-zero exit status 1
[mon3][ERROR ] RuntimeError: command returned non-zero exit status: 1
[ceph_deploy][ERROR ] RuntimeError: Failed to execute command: /usr/sbin/ceph-disk -v activate --mark-init systemd --mount /home/ceph/osd
但是如果我重新挂载磁盘到/osd。然后 ceph-deploy osd create hostname:/osd/home/ceph/osd 这样就没问题,为什么?

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
ceph 手工部署osd
ceph 集群中如何手工部署osd,
Ceph添加OSD节点
1、首先需要在新的节点上安装ceph软件,当然这个需要做一系列的准备工作 比如安装ssh-keygen,配置ntp等 在管理节点上执行: [root@ceph-admin ~]#su -dgb $ceph-deploy install --no-adjust-repos ceph5 2、获取osd的ID  这个操作是在管理节点上执行 [root@ceph-admin ~]#c
ceph osd添加和移除
前段时间客户那边有台机器的的硬盘全部挂掉,导致上面的文件系统也全部挂掉,换上新硬盘后需要重新添加osd,下面是详细步骤 需要注意的是,操作尽量选在晚上10:30之后。 先将down掉的osd进程删掉 具体命令如下: service ceph stop osd.** ceph osd out osd.** ceph osd crush remove osd.** ceph rm os...
ceph运维—添加osd
假设现在有一个osd2主机需要加入到ceph集群里ceph osd create //获取osd的id号,假设输出的是2ssh osd2 //登录到要添加到集群的主机sudo mkdir /var/lib/ceph/osd/ceph-2 //创建新的osd目录sudo mkfs.btrfs /dev/sdb //如果文件系统用的不是btrfs,在终端输入mkfs.,然后table查找你要用的文件系统
Ceph删除一个OSD
CentOS7环境下的Ceph,删除一个OSD步骤: 1、把 OSD 踢出集群(管理节点上执行) [dgb@ceph-admin ~]$ceph osd out 6 删除 OSD 前,它通常是 up 且 in 的,要先把它踢出集群,以使 Ceph 启动重新均衡、把数据拷贝到其他 OSD 2、观察数据迁移(管理节点上查看) [dgb@ceph-admin ~]$ceph -w
【Ceph】添加/删除OSD
添加OSD# 准备磁盘 /dev/sdb# 擦净磁盘 ceph-deploy disk zap node1:sdb# 创建OSD ceph-deploy osd create node1:sdb删除OSD# 列出所有的OSD ceph osd tree# 删除OSD(这里删除osd.0) ceph osd out osd.0 service ceph stop osd.0 ceph osd crus
Ceph OSD操作 命令详解
Ceph OSD操作 命令详解 (一) ceph-deploy osd create ceph134:sdb     2018-01-10 12:30 2018-01-10 12:30 1 posted @ 2017-01-10 12:32 李华丽 阅读(...) 评论(...) 编...
ceph OSD 故障记录
 故障发生时间: 2015-11-05 20.30 故障解决时间: 2015-11-05 20:52:33 故障现象: 由于 hh-yun-ceph-cinder016-128056.vclound.com 硬盘故障, 导致 ceph 集群产生异常报警 故障处理: ceph 集群自动进行数据迁移, 没有产生数据丢失...
ceph osd 节点删除
1 将osd.0,osd.1从crush中删除,并删除对应的osd,和auth,host ceph osd crush rm osd.0 ceph osd crush rm osd.1 ceph osd rm 0 ceph osd rm 1 ceph auth del osd.0 ceph auth del osd.1 ceph osd crush rm osd2 将故障节点和osd从集...
CEPH OSD 的添加删除
  如果集群已经在运行,可以在运行时添加或删除 OSD 增加 OSD 要增加一个 OSD,要依次创建数据目录、把硬盘挂载到数据目录、把 OSD 加入集群、然后把它加入 CRUSH Map。 1、创建 OSD。如果未指定 UUID, OSD 启动时会自动生成一个。下列命令会输出 OSD 号,后续步骤你会用到。 ceph osd create [{uuid} [{id}]] 如果指定了可...
Ceph OSD日志分析
  翻译文章 简介 Ceph OSD日志也是一种事务日志,它是基于文件系统的OSD的关键组成部分,提供存储系统所需的一致性保证。 让我们从Ceph documentation中有关日志的描述开始: Ceph OSD使用日志有两个原因:速度及一致性。 速度: 日志使得Ceph OSD Daemon进程能够快速的提交小IO。Ceph将小的随机IO顺序的写入日志,让后端文件系统有更多时间来合并I...
ubuntu ceph OSD 删除命令操作
1. 重启osd# /etc/init.d/ceph restart osd.2 sudo start ceph-osd id={osd-num} sudo /etc/init.d/ceph start osd.{osd-num}2. OSD提出集群# ceph osd out osd.2 ceph osd out {osd-num}3. 停止OSD# /etc/init.d/ceph sto
Ceph修改OSD和Monitor的网络
修改Ceph的OSD和Monitor网络配置
OSD
我想做一个在电脑屏幕上面显示音量大小进度条rn就像显示器调节亮度的进度条一样。力求反映速度快rn当我电脑的音量变化时,显示出该进度条,又要位于最上层,显示速度快。rnrn我想用directdraw(overlay)来做 这样显示出来的图形又快 对其他的窗口都无干扰rn不知道这种想法合理不,如果不合理那请问还有什么更好的方式呢rnrn(用directdraw overlay 来做 load图片的时候 他对像素格式要求好像很严,动不动就说不支持,除了下面的这些格式 还有没有呢 )rnsizeof(DDPIXELFORMAT), DDPF_RGB, 0, 16, 0x7C00, 0x03e0, 0x001F, 0rnsizeof(DDPIXELFORMAT), DDPF_RGB, 0, 16, 0xF800, 0x07e0, 0x001F, 0rnsizeof(DDPIXELFORMAT), DDPF_FOURCC,MAKEFOURCC('U','Y','V','Y'),0,0,0,0,0rnsizeof(DDPIXELFORMAT), DDPF_FOURCC,MAKEFOURCC('Y','U','Y','2'),0,0,0,0,0rn
Ceph OSD为DOWN时修复
本文所使用Ceph版本为luminous(不同版本删除OSD基本操作相同),当出现Ceph OSD为down的情况时,可以通过以下方法解决(假设ceph-admin节点OSD.1 Down,该OSD对应磁盘为/dev/sdb): 1.首先尝试能否重启ceph-osd服务 近期在维护ceph集群时,发现一些新的情况: (1)ceph osd down掉之后(这里假设osd.1 down),去到...
【CEPH】修改osd journal的大小
环境 ceph版本:0.94.5 操作系统:Ubuntu 14.04 osd存放路径:/var/lib/ceph/osd/ceph-${i}/   背景     osd的journal大小由参数osd_journal_size控制,但是这个参数只能针对于新创建的OSD生效,对已经创建好的OSD的不生效,具体源码分析有空再补上。但是如果只想修改osd journal的大小,还得经过重做O...
ceph 添加/移除osd 设备
1 、删除osd设备 [root@ceph04 ~]# service ceph stop osd.3 //停止该设备 === osd.3 === Stopping ceph osd.3 on ceph04...kill 12012...done [root@ceph04 ~]# ceph osd crush remove osd.3 //从CRUSH中移除 removed item i
ceph分布式系统生产osd数据恢复
介绍分布式ceph自动化集群部署,以及企业生产环境中osd数据恢复案例,同时讲解了ceph自带的dashabord健康页面。
ceph 重启后osd报错
这里会遇到一个ERR,因为jewel版本的ceph要求journal需要是ceph:ceph权限,报错如下:journalctl -xeu ceph-osd@9.service 0月 31 09:54:05 k8s-master ceph-osd[2848]: starting osd.9 at :/0 osd_data /var/lib/ceph/osd/ceph-9 /var/lib/ceph/
ceph osd 更换硬盘记录
 1 确认故障磁盘 dmesg [6061566.878131] sd 0:2:2:0: [sdc] [6061566.878141] sd 0:2:2:0: [sdc] [6061566.878147] sd 0:2:2:0: [sdc] [6061566.878152] sd 0:2:2:0: [sdc] CDB: [6061566.8781...
Ceph 查看osd的储存引擎
ceph daemon osd.4 config show|grep osd_objectstore
部署完ceph出现 osd down情况时的解决方法
今天部署完ceph集群之后,使用ceph osd tree 查看osd的状态,发现有6个osd节点为down状态:我在各个OSD节点的主机,尝试手动启动各个OSD节点,命令如下:> ceph-disk activate-all出现以下错误: 里面包含entity osd.* exists but key does not match等关键字;然后在OSD主机或部署节点主机执行以下命令:ceph a
ceph 查看osd 物理存储位置
pools从快照中回滚对象数据testproject:在资源池testpool 中的对象数据testobject 的osd映射关系
OSD,
我想做一个在电脑屏幕上面显示音量大小进度条rn就像显示器调节亮度的进度条一样。力求反映速度快rn当我电脑的音量变化时,显示出该进度条,又要位于最上层,显示速度快。rnrn我想用directdraw(overlay)来做 这样显示出来的图形又快 对其他的窗口都无干扰rn不知道这种想法合理不,如果不合理那请问还有什么更好的方式呢rnrn(用directdraw overlay 来做 load图片的时候 他对像素格式要求好像很严,动不动就说不支持,除了下面的这些格式 还有没有呢 )rnsizeof(DDPIXELFORMAT), DDPF_RGB, 0, 16, 0x7C00, 0x03e0, 0x001F, 0rnsizeof(DDPIXELFORMAT), DDPF_RGB, 0, 16, 0xF800, 0x07e0, 0x001F, 0rnsizeof(DDPIXELFORMAT), DDPF_FOURCC,MAKEFOURCC('U','Y','V','Y'),0,0,0,0,0rnsizeof(DDPIXELFORMAT), DDPF_FOURCC,MAKEFOURCC('Y','U','Y','2'),0,0,0,0,0
SCCM OSD实验部署
微软SCCM桌面管理软件安装部署文件,详细介绍了系统分发、软件分发、补丁分发的配置,有图文介绍。
问题9--查看ceph出现osd out
问题描述:用ceph osd tree 查看有osd out出来,权重为0 解决方法: 1、做好监控观察,查看osd利用率和ceph -s watch "ceph osd df | grep 432 | sort -unr -k7 " 通常osd利用率达到90%,停止数据同步 watch "ceph -s " 2、添加osd,分配权限前设置好标志位 ceph osd set nodee...
ceph部署 关于osd磁盘选择以及激活问题
最近在做ceph一键部署,发现在osd这一块出现比较多的问题,主要有以下两个个方面:                                                  1, 关于数据盘和日志盘的选择,这个地方可以加一块盘符,由于在之前的配置文件中指定了日志盘的大小,那么这一步执行时会自动从指定盘符中分出对应大小的空间作为日志盘,剩下的作为数据盘,这种情况下执行之后,osd不需要
Ceph初始安装OSD时使用独立磁盘的问题1
在安装Ceph步骤往下执行时,创建OSD时,我执行的是: ceph-deploy osd prepare node1:/dev/sdb node2:/dev/sdb node3:/dev/sdb 这是可以执行的,并且是对的,不需要预先格式化,然而在激活时,就不能执行: ceph-deploy osd activate node1:/dev/sdb node2:/dev/sdb node3
ceph集群jewel版本部署osd激活权限报错-故障排查
ceph集群jewel版本部署,osd 激活报错:集群部署过程中执行osd激活操作如下:sudo ceph-deploy osd activate ceph21:/dev/sdc1:/dev/sdj3报错内容如下:[ceph21][WARNIN] got monmap epoch 1[ceph21][WARNIN] command_check_call: Running command: /usr...
Ceph OSD,日志和数据分别在哪里
The purpose is to verify where my data is stored on the Ceph cluster. For this, I have just create a minimal cluster with 3 osd : 1 $ ceph-deploy osd create ceph-01:/dev/sdb ceph-0
ceph分布式存储---集群osd节点下架操作
存储节点服务器下架操作 1、操作系统版本信息       系统:GNU/Linux 7.2       内核版本:3.18.16       Ceph版本:ceph 0.94.6 2、备份crush规则       # ceph osd getcrushmap -o `date +%F`-crushmap 3、查看及调整集群数据同步速度 # ceph --admin-daemon ...
ceph学习之路----OSD DNE状态处理
删除osd的时候,如果没有在crush中删除,osd可能会出现DNE的状态,具体解决方法: 1)过滤处于DNE状态的osd: ceph osd tree | grep DNE 2)osd DNE状态清楚方法: ceph osd crush remove osd.id ...
ceph如何确定文件存储的最终位置(OSD)
ceph同时提供对象存储、块存储、文件存储三种接口,但本质上其实是对象存储,也就是说一个rbd image实际上包含了多个对象(默认情况下是image_size/4M)。 此处以块存储(RBD)为例进行演示,因为三种接口最终存储文件的操作单元都是对象,所以其他接口的方法类似: 前提:在bloc接口下有一个池:pool1,创建另一个volume(rbd image):vol1。 因为这个vol...
ceph pg+down+peering 故障排查与osd误删恢复
PG又称放置组,是ceph中存放文件object的单位,相当于管理文件的分组。 down+peering 参考ceph pg状态表: Creating Ceph 仍在创建归置组。 Active Ceph 可处理到归置组的请求。 Clean Ceph 把归置组内的对象复制了规定次数。 Down 包含必备数据的副本挂了,所以归置组离线。 Replay 某 OSD 崩溃后,归置组在
ceph(版本10.2.10)添加OSD的步骤
ceph(版本10.2.10),在现有集群中,新添加OSD的步骤。。
Ceph OSD写操作失效如何处理
正常的写流程在OSD端正常的写操作流程中,在函数ReplicatedBackend::submit_transaction把请求加入到in_progress_ops 队列中map<ceph_tid_t, InProgressOp> in_progress_ops;该map保存了所有正在处理的请求。一个请求必须等到所有的up的osd的请求都返回才能返回给客户端。例如 pg 1.1(osd1
ceph——从osd恢复mon的方法
适用场景:所有mon都损坏,无法工作,可从osd重建mon。 ceph版本:ceph version 10.2.3 参见:http://docs.ceph.com/docs/hammer/rados/troubleshooting/troubleshooting-mon/#monitor-store-failures 实践注意点: 1、ceph-objectstore-tool中keyri...
ceph集群osd故障修复实例演示
集群安装方式:1: ceph-deploy 方式安装ceph集群,模拟osd磁盘损坏;分别采用如下两种方式修复:1:使用ceph-deploy 方式修复故障osd;2:手动修复故障osd;#######使用ceph-deploy方式修复过程演示########1:停止osd/etc/init.d/ceph stop osd.3 2:查看osd磁盘挂载情况;[root@no...
ceph中osd磁盘损坏的处理情况
例如我这里损坏的磁盘是osd.0 1.首先先把损坏的osd进程关闭 service ceph stop osd.0 2.然后把osd.0标记为out  ceph osd out osd.0 3.CRUSH中移除osd.0 ceph osd crush remove osd.0 4.删除osd.0 ceph osd rm osd.0 5.更新一下osd.0信息 ceph auth...
Ceph 学习——OSD读写流程与源码分析(一)
消息从客户端发送而来,之前几节介绍了 客户端下 对象存储、块存储库的实现以及他们在客户端下API请求的发送过程(Ceph学习——Librados与Osdc实现源码解析 、 Ceph学习——客户端读写操作分析 、 Ceph学习——Librbd块存储库与RBD读写流程源码分析)。当请求被封装后,通过消息发送模块(Ceph学习——Ceph网络通信机制与源码分析)将请求及其相关信息发送到服务端实现真正的
相关热词 c++和c#哪个就业率高 c# 批量动态创建控件 c# 模块和程序集的区别 c# gmap 截图 c# 验证码图片生成类 c# 再次尝试 连接失败 c#开发编写规范 c# 压缩图片好麻烦 c#计算数组中的平均值 c#获取路由参数