cloudstack-users-cn mailing list archives

Site index · List index
Message view « Date » · « Thread »
Top « Date » · « Thread »
From qin wu <wqxiaoaojian...@gmail.com>
Subject Re: KVM支持FC-SAN吗?
Date Mon, 20 May 2013 04:16:39 GMT
是不是三个节点或以上必须要仲裁盘?我现在有三个节点,创建虚拟机后,就有一个节点报错,重启后,启动cman正常,但启动clvmd服务时,说找不到共享盘,但其他两个节点都一切正常。我配置的是手动fence。是什么原因啊?


在 2013年5月14日下午12:23,qin wu <wqxiaoaojianghu@gmail.com>写道:

> 知道原因了,在每个节点上把卷激活一下就可以了。
>
>
> 在 2013年5月13日下午6:43,qin wu <wqxiaoaojianghu@gmail.com>写道:
>
> 使用luci还是不行。尝试在物理机上写cluster.conf。
>> <?xml version="1.0"?>
>> <cluster name="mycluster" config_version="1">
>>         <clusternodes>
>>                <clusternode name="da42.cloud.com" nodeid="1">
>>                    </clusternode>
>>                        <clusternode name="da43.cloud.com" nodeid="2">
>>                            </clusternode>
>>                        </clusternodes>
>>                  </cluster>
>>
>> Cluster Status for mycluster @ Sat Jan 26 08:52:51 2013
>> Member Status: Quorate
>>  Member Name                                                     ID
>> Status
>>   ------ ----                                                     ----
>> ------
>>    da42.cloud.com                                                      1
>> Online
>>     da43.cloud.com
>> 2 Online, Local
>>
>> 但创建卷时,
>> lvscan
>>      ACTIVE            '/dev/vg2/lv2' [4.00 GiB] inherit
>>
>> 在其他节点上却显示
>> lvscan
>>       inactive          '/dev/vg2/lv2' [4.00 GiB] inherit
>> 并找到不到'/dev/vg2/lv2'
>> 无法挂载,是什么原因啊?
>>
>>
>> 在 2013年5月12日下午5:53,沂人 <jijunlx@gmail.com>写道:
>>
>> On 05/09/2013 10:33 PM, qin wu wrote:
>>> > 我在虚拟机上实验的,ricci和luci都在同一台机子上,尝试使用127.0.0.1这个ip,也不行,这有关系吗?
>>> 建议不要将ricci和luci安装在一台机器上,luci作为管理server单独安装,ricci
>>> 作为agent安装在存储集群节点上。按照 你的描述:你的环境应该是一台luci和2
>>> 台ricci节点。
>>> 并且luci的访问地址要使用主机的fqdn地址,可以在自己的机器的hosts文件中映
>>> 射。通过https://ricci-manage- address:8084/访问。
>>> 三台机器之间的hosts文件都要配置每个节点的fqdn地址。
>>> 其实使用luci+ricci只是便于集群的管理,也可以不用这种配置方式。我一般这样做:
>>>
>>> 直接使用手工配置/etc/cluster/cluster.conf。在每台节点上手动启动cman服
>>> 务,请保证两台机器之间的cman启动间 隔在很短的时间完成。
>>> 为了防止"脑裂",要在配置文件加上。<cman expected_votes="1" two_node="1"/>
>>>
>>> 另外需要加入fencedevice,目的是在节点出现故障时如何隔离这个节点。而且对于2台(不包括)以上的节点要配置一块shared磁盘作为仲裁盘。
>>>
>>> 一个完成的配置文件如下所示:
>>>
>>> <?xml version="1.0"?>
>>> <cluster config_version="36" name="KVM-Cluster">
>>>
>>> <cman expected_votes="1" two_node="1"/>
>>>
>>> <clusternodes>
>>> <clusternode name="node-01" nodeid="1">
>>> <fence>
>>> <method name="ipmilan">
>>> <device name="f1025"/>
>>> </method>
>>> </fence>
>>> </clusternode>
>>> <clusternode name="node-02" nodeid="2">
>>> <fence>
>>> <method name="ipmilan">
>>> <device name="f1026"/>
>>> </method>
>>> </fence>
>>> <totem token="48000"/>
>>> <fencedevices>
>>> <fencedevice agent="fence_ipmilan" auth="password" ipaddr="10.9.10.10"
>>> lanplus="on" login="admin" name="f10" passwd="password10"/>
>>> <fencedevice agent="fence_ipmilan" auth="password" ipaddr="10.9.10.11"
>>> lanplus="on" login="admin" name="f11" passwd="password11"/>
>>> </fencedevices>
>>> <fence_daemon post_join_delay="30"/>
>>> </cluster>
>>>
>>
>>
>
Mime
  • Unnamed multipart/alternative (inline, None, 0 bytes)
View raw message