Oct 242013
 

目前Havana的step by step的安装文档还没有推出,不过采用Redhat的部署工具RDO,你还是很方便可以搞定。

网络采用Neutron+openvswitch,租户网络是vlan模式。单节点和多节点的安装,基本是一样的,只是需要多添加一个计算节点就可以。默认控制节点,同时也是计算节点。

参考文档

www.monkey-code.com/blog/2013/10/04/building-a-multi-node-openstack-cloud/

我的RDO的网络设置和应答文件 GRE模式:http://t.cn/8DDql5W Vlan模式:http://t.cn/8DDql5O 完成后,自己手工创建ifcfg-br-ex http://t.cn/8DDql50

2013年11月22日:目前RDO在多节点部署有bug,在计算节点创建的虚拟机都会失败。http://openstack.redhat.com/forum/discussion/910/havanna-issues-with-multi-node#Item_14  解决办法就是装完后在控制节点,添加一条iptables的规则:

iptables -I INPUT -s 172.28.1.12/32 -p tcp –dport 9696 -j ACCEPT

并保存规则:service iptables save ,172,28,1,12是我计算节点的IP地址。

Continue reading »

Oct 162013
 

IaaS软件的安装和学习,最头痛的是对硬件条件的要求,很多时候因为对硬件的要求,导致你无法去测试。在Openstack的Grizzly版本里,要求3块网卡,有时候很难满足这样的条件。还有就是网络,很有可能你的网络条件无法满足要求,也是无法测试。

那么这种情况到了H版本,已经大大改善,单网卡,网络,你可能只需要一个网段的几个IP地址,就可以装好和测试。这也很好体现了Openstack的网络功能的强悍。目前Neutron网络设置和以前的Nova network 差异很大,全部都是web搞定,非常爽。

基本条件

  1. 1台物理服务器,单网卡,机器可联网
  2. 网卡IP:10.1.199.8/24, 网关10.1.199.1
  3. 10.1.199.210 到10.1.199.220 这段IP,作为Floating IP给虚拟机使用

 

Continue reading »

Sep 192013
 

Redhat的Openstack开源项目RDO,其实是一套Puppet的Openstack模块,不过Redhat做了很多的工作,甚至集成Foreman来管理Puppet。这个比较符合Redhat的风格,和上游合作,而不是自己造轮子。

以前的RDO,主要是针对Nova network,不过最新的版本,基于H版本,默认就是Neutron,已经全面支持Openstack的网络,Neutron,GRE,vxlan等高级功能。

本文档主要是参考 Openstack Havana + neutron setup on RHEL6.4 || CentOS + troubleshooting

不过现在应该已经有点变化,文章提到的问题已经搞定。网络的问题我还没测试,http://openstack.redhat.com/forum/discussion/577/howto-packstack-allinone-install-with-neutron-and-external-connectivity  应该可以解决所有的问题。

我是在双网卡的物理机器进行测试,用虚拟机,配置2块网卡,也是应该可以,老外都是在Virtualbox进行Openstack的测试。

登陆Dashboard,如何使用,可以参考http://www.chenshake.com/openstack-havana-dashboard-to-test-and-use/#Project 

 

Continue reading »

Apr 232013
 

从知道Gluster到现在,其实时间不短,当时单位用gluster对外提供网盘的服务,搜狗拼音,算是国内最大的Gluster用户,不过现在好像都在做迁移。

这次测试安装,其实遇到很多恶心的问题,估计都是软件的bug。Gluster的安装配置,倒是非常简单,简单到你基本没啥可做的,我就把安装和测试过程记录一下,没啥技术含量。

 

参考文档 原文

准备

我的实验环境是2个节点,一个客户端,gluster群集设置

  1. 关闭selinux
  2. 关闭iptables,避免各种端口访问的麻烦
  3. 网卡绑定,我使用mode=0,交换机不做任何设置
  4. 使用epel源,目前源里的gluster版本是3.2.7
  5. 采用FQDN 访问,你需要自己搞定,设置hosts文件,所有节点包括客户端
  6. 硬盘有一个单独的分区 /data 作为gluster数据存储空间

安装

在群集节点g132上

[root@g132 ~]# hostname
g132.chenshake.com
yum -y install glusterfs-server
chkconfig --levels 235 glusterd on
/etc/init.d/glusterd start 

在另外节点g132  也是相同操作

配置

Gluster的配置非常简单

添加节点,我是从g132节点进行添加其他节点

gluster peer probe g133

查看节点情况

# gluster peer status
Number of Peers: 1

Hostname: g133
Uuid: ad311d76-1d72-4950-b1e7-191291c0ab17
State: Peer in Cluster (Connected)

添加volume

为了方便测试,我们在两个节点的 /data 目录下,创建 data01目录

数据存放一份

gluster volume create testvol g132:/data/data01 g133:/data/data01

数据存放2份,这就需要你添加volume的时候是双数

gluster volume create testvol replica 2 g132:/data/data01 g133:/data/data01

条带化,看你希望条带化到几个节点,你自己调整 (我没测试)

gluster volume create testvol stripe 2 g132:/data/data01 g133:/data/data01

创建完volume后,会提示你启动volume,这个经常会忘记

gluster volume start testvol

查看gluster运行情况

netstat -tap | grep glusterfsd

查看volume情况

gluster volume info

查看节点

gluster peer status

客户端

其实服务器端,也可以当客户端,不过我还是专门找了一台机器作为客户端

yum -y install glusterfs-client

mount gluster目录

mkdir /test
mount.glusterfs g132:/testvol /test

你也可以用这个命令

mount -t glusterfs g132:/testvol /test

查看情况

[root@g140 ~]# mount
/dev/sda5 on / type ext4 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
tmpfs on /dev/shm type tmpfs (rw)
/dev/sda1 on /boot type ext4 (rw)
/dev/sda2 on /data type ext4 (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
g132:/testvol on /test type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072)

df查看

# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda5              93G  1.5G   87G   2% /
tmpfs                  16G     0   16G   0% /dev/shm
/dev/sda1             194M   33M  152M  18% /boot
/dev/sda2             394G  199M  374G   1% /data
g132:/testvol         788G   83G  666G  11% /test

测试

dd测试,不过不算是太准确.

cd /test
dd if=/dev/zero of=/mnt/glusterfs/test.img bs=1024k count=1000

iozone 进行压力测试

如果你直接使用DD,不见得可以测试出真实带宽,估计是和多线程有关。

安装

wget http://www.iozone.org/src/current/iozone3_414.tar
tar xvf iozone3_414.tar -C /usr/local/src/
cd /usr/local/src/iozone3_414/src/curren
make linux-AMD64
cp iozone /usr/bin/

测试

cd /test/
mkdir n140
cd n140
iozone -t 250 -i 0 -r 512k -s 500M -+n -w

 

附注

查看命令帮助,这个非常有用,gluster很多命令和别的软件有区别

gluster help
gluster peer help
gluster volume help

删除节点

gluster peer help
gluster peer datach g133

删除birck

gluster volume info
gluster volume remove-brick testvol g132:/data/data01

如果你要删除volume,那么你需要停止volume服务

gluster volume stop testvol
gluster volume delete testvol
Nov 212012
 

上周Redhat已经发布了Folsom的预览版本,现在算是搞明白,如果你是使用RHEL,他专门有一个源,可以让你安装Openstack。如果你使用的是CentOS,那么你就使用EPEL就可以。这两个基本是一样的。

Redhat版本的Openstack,还是有不少特色

  1. 提供Essex升级Folsom,这是很难得,升级也不算复杂
  2. 通过了一个工具,专门配置Openstack,可以省去到处改配置文件
  3. 文档比Ubuntu完善很多,目前为止,我还没看到过Ubuntu官方任何关于Openstack的安装方面的资料
  4. 目前Quantum,只能支持linux Bridge插件,还不支持Openvswith
  5. 使用qpid,替换RabbitMQ
  6. Folsom明确只能在Centos6.3版本安装

我的文档是参考http://d.hatena.ne.jp/enakai00/20121118/1353226066

结合redhat官方的文档

Continue reading »