使用luci还是不行。尝试在物理机上写cluster.conf。
<?xml version="1.0"?>
<cluster name="mycluster" config_version="1">
<clusternodes>
<clusternode name="da42.cloud.com" nodeid="1">
</clusternode>
<clusternode name="da43.cloud.com" nodeid="2">
</clusternode>
</clusternodes>
</cluster>
Cluster Status for mycluster @ Sat Jan 26 08:52:51 2013
Member Status: Quorate
Member Name ID Status
------ ---- ----
------
da42.cloud.com 1
Online
da43.cloud.com 2
Online, Local
但创建卷时,
lvscan
ACTIVE '/dev/vg2/lv2' [4.00 GiB] inherit
在其他节点上却显示
lvscan
inactive '/dev/vg2/lv2' [4.00 GiB] inherit
并找到不到'/dev/vg2/lv2'
无法挂载,是什么原因啊?
在 2013年5月12日下午5:53,沂人 <jijunlx@gmail.com>写道:
> On 05/09/2013 10:33 PM, qin wu wrote:
> > 我在虚拟机上实验的,ricci和luci都在同一台机子上,尝试使用127.0.0.1这个ip,也不行,这有关系吗?
> 建议不要将ricci和luci安装在一台机器上,luci作为管理server单独安装,ricci
> 作为agent安装在存储集群节点上。按照 你的描述:你的环境应该是一台luci和2
> 台ricci节点。
> 并且luci的访问地址要使用主机的fqdn地址,可以在自己的机器的hosts文件中映
> 射。通过https://ricci-manage- address:8084/访问。
> 三台机器之间的hosts文件都要配置每个节点的fqdn地址。
> 其实使用luci+ricci只是便于集群的管理,也可以不用这种配置方式。我一般这样做:
>
> 直接使用手工配置/etc/cluster/cluster.conf。在每台节点上手动启动cman服
> 务,请保证两台机器之间的cman启动间 隔在很短的时间完成。
> 为了防止"脑裂",要在配置文件加上。<cman expected_votes="1" two_node="1"/>
>
> 另外需要加入fencedevice,目的是在节点出现故障时如何隔离这个节点。而且对于2台(不包括)以上的节点要配置一块shared磁盘作为仲裁盘。
>
> 一个完成的配置文件如下所示:
>
> <?xml version="1.0"?>
> <cluster config_version="36" name="KVM-Cluster">
>
> <cman expected_votes="1" two_node="1"/>
>
> <clusternodes>
> <clusternode name="node-01" nodeid="1">
> <fence>
> <method name="ipmilan">
> <device name="f1025"/>
> </method>
> </fence>
> </clusternode>
> <clusternode name="node-02" nodeid="2">
> <fence>
> <method name="ipmilan">
> <device name="f1026"/>
> </method>
> </fence>
> <totem token="48000"/>
> <fencedevices>
> <fencedevice agent="fence_ipmilan" auth="password" ipaddr="10.9.10.10"
> lanplus="on" login="admin" name="f10" passwd="password10"/>
> <fencedevice agent="fence_ipmilan" auth="password" ipaddr="10.9.10.11"
> lanplus="on" login="admin" name="f11" passwd="password11"/>
> </fencedevices>
> <fence_daemon post_join_delay="30"/>
> </cluster>
>
|