cloudstack-users-cn mailing list archives

Site index · List index
Message view « Date » · « Thread »
Top « Date » · « Thread »
From Jijun <jiju...@gmail.com>
Subject Re: KVM支持FC-SAN吗?
Date Mon, 20 May 2013 14:38:22 GMT
On 05/20/2013 12:16 PM, qin wu wrote:
> 是不是三个节点或以上必须要仲裁盘?我现在有三个节点,创建虚拟机后,就有一个节点报错,重启后,启动cman正常,但启动clvmd服务时,说找不到共享盘,但其他两个节点都一切正常。我配置的是手动fence。是什么原因啊?
对于二个节点以上的,都要使用仲裁盘。


>
> 在 2013年5月14日下午12:23,qin wu <wqxiaoaojianghu@gmail.com>写道:
>
>> 知道原因了,在每个节点上把卷激活一下就可以了。
>>
>>
>> 在 2013年5月13日下午6:43,qin wu <wqxiaoaojianghu@gmail.com>写道:
>>
>> 使用luci还是不行。尝试在物理机上写cluster.conf。
>>> <?xml version="1.0"?>
>>> <cluster name="mycluster" config_version="1">
>>>         <clusternodes>
>>>                <clusternode name="da42.cloud.com" nodeid="1">
>>>                    </clusternode>
>>>                        <clusternode name="da43.cloud.com" nodeid="2">
>>>                            </clusternode>
>>>                        </clusternodes>
>>>                  </cluster>
>>>
>>> Cluster Status for mycluster @ Sat Jan 26 08:52:51 2013
>>> Member Status: Quorate
>>>  Member Name                                                     ID
>>> Status
>>>   ------ ----                                                     ----
>>> ------
>>>    da42.cloud.com                                                      1
>>> Online
>>>     da43.cloud.com
>>> 2 Online, Local
>>>
>>> 但创建卷时,
>>> lvscan
>>>      ACTIVE            '/dev/vg2/lv2' [4.00 GiB] inherit
>>>
>>> 在其他节点上却显示
>>> lvscan
>>>       inactive          '/dev/vg2/lv2' [4.00 GiB] inherit
>>> 并找到不到'/dev/vg2/lv2'
>>> 无法挂载,是什么原因啊?
>>>
>>>
>>> 在 2013年5月12日下午5:53,沂人 <jijunlx@gmail.com>写道:
>>>
>>> On 05/09/2013 10:33 PM, qin wu wrote:
>>>>> 我在虚拟机上实验的,ricci和luci都在同一台机子上,尝试使用127.0.0.1这个ip,也不行,这有关系吗?
>>>> 建议不要将ricci和luci安装在一台机器上,luci作为管理server单独安装,ricci
>>>> 作为agent安装在存储集群节点上。按照 你的描述:你的环境应该是一台luci和2
>>>> 台ricci节点。
>>>> 并且luci的访问地址要使用主机的fqdn地址,可以在自己的机器的hosts文件中映
>>>> 射。通过https://ricci-manage- address:8084/访问。
>>>> 三台机器之间的hosts文件都要配置每个节点的fqdn地址。
>>>> 其实使用luci+ricci只是便于集群的管理,也可以不用这种配置方式。我一般这样做:
>>>>
>>>> 直接使用手工配置/etc/cluster/cluster.conf。在每台节点上手动启动cman服
>>>> 务,请保证两台机器之间的cman启动间 隔在很短的时间完成。
>>>> 为了防止"脑裂",要在配置文件加上。<cman expected_votes="1"
two_node="1"/>
>>>>
>>>> 另外需要加入fencedevice,目的是在节点出现故障时如何隔离这个节点。而且对于2台(不包括)以上的节点要配置一块shared磁盘作为仲裁盘。
>>>>
>>>> 一个完成的配置文件如下所示:
>>>>
>>>> <?xml version="1.0"?>
>>>> <cluster config_version="36" name="KVM-Cluster">
>>>>
>>>> <cman expected_votes="1" two_node="1"/>
>>>>
>>>> <clusternodes>
>>>> <clusternode name="node-01" nodeid="1">
>>>> <fence>
>>>> <method name="ipmilan">
>>>> <device name="f1025"/>
>>>> </method>
>>>> </fence>
>>>> </clusternode>
>>>> <clusternode name="node-02" nodeid="2">
>>>> <fence>
>>>> <method name="ipmilan">
>>>> <device name="f1026"/>
>>>> </method>
>>>> </fence>
>>>> <totem token="48000"/>
>>>> <fencedevices>
>>>> <fencedevice agent="fence_ipmilan" auth="password" ipaddr="10.9.10.10"
>>>> lanplus="on" login="admin" name="f10" passwd="password10"/>
>>>> <fencedevice agent="fence_ipmilan" auth="password" ipaddr="10.9.10.11"
>>>> lanplus="on" login="admin" name="f11" passwd="password11"/>
>>>> </fencedevices>
>>>> <fence_daemon post_join_delay="30"/>
>>>> </cluster>
>>>>
>>>


Mime
View raw message