Apr 232013
 

使用Cobbler差不多1年,慢慢就离不开cobbler,最近半年已经基本没手工安装过操作系统,Cobbler实在是太方便了。Cobbler2.4,对web做了很大的改进,易用性应该是比以前好很多,不过有些功能的添加,现在看来还是需要自己动手去解决,目前看来应该是可以搞定,目前还是基于cobbler的web做一下二次开发,时机成熟,再做一个自己的web管理,这样看起来应该更酷。不过动手前,一定要把cobbler的全部功能基本搞定,搞明白那些功能是自己需要的。

先整理一下需求,等开发有空就动手。

1:one time pxe boot

一般来说,机器都是从硬盘启动,当你需要重装系统的时候,就需要改成网卡pxe启动,装完系统再改成硬盘启动。这样操作实在是太累。如果你默认设置网卡先启动,那就会造成启动时间很长,也感觉很不爽,网络里大量dhcp请求。

其实是可以设置机器下次启动的时候pxe启动,只是1次,这样就方便多了。不过这个功能cobbler没提供。

ipmitool -I lan -H 10.1.199.212 -U ADMIN -P ADMIN chassis bootdev pxe

我是希望日后可以封装成

cobbler system pxe node53

这样机器重启的时候就会pxe启动.当然还可以考虑加上bios等,不过这都是锦上添花.

2: Cobbler web直接启动JViewer

现在其实访问JViewer,其实是很麻烦,需要输入地址,登陆,再去启动JViewer,能不能直接在cobbler就启动JViewer.这样就会方便很多.

同事基本已经实现, 超微的机器已经搞定,不过感觉不同厂商的机器,需要区别对待,不过这个倒是好办,剩下的就问厂商。

https://github.com/spotify/moob/tree/master/lib/moob

http://kaiyou.fr/2012/07/12/cette-horreur-de-jviewer/

3:SOL (Serial Over LAN)

这个功能,一直都没测试通过,希望可以搞定。对于那些不支持KVM-over-IP,可以使用这个功能。另外Facebook的Open computing里,就是使用这个来远程管理,而不是kvm。

Apr 232013
 

从知道Gluster到现在,其实时间不短,当时单位用gluster对外提供网盘的服务,搜狗拼音,算是国内最大的Gluster用户,不过现在好像都在做迁移。

这次测试安装,其实遇到很多恶心的问题,估计都是软件的bug。Gluster的安装配置,倒是非常简单,简单到你基本没啥可做的,我就把安装和测试过程记录一下,没啥技术含量。

 

参考文档 原文

准备

我的实验环境是2个节点,一个客户端,gluster群集设置

  1. 关闭selinux
  2. 关闭iptables,避免各种端口访问的麻烦
  3. 网卡绑定,我使用mode=0,交换机不做任何设置
  4. 使用epel源,目前源里的gluster版本是3.2.7
  5. 采用FQDN 访问,你需要自己搞定,设置hosts文件,所有节点包括客户端
  6. 硬盘有一个单独的分区 /data 作为gluster数据存储空间

安装

在群集节点g132上

[root@g132 ~]# hostname
g132.chenshake.com
yum -y install glusterfs-server
chkconfig --levels 235 glusterd on
/etc/init.d/glusterd start 

在另外节点g132  也是相同操作

配置

Gluster的配置非常简单

添加节点,我是从g132节点进行添加其他节点

gluster peer probe g133

查看节点情况

# gluster peer status
Number of Peers: 1

Hostname: g133
Uuid: ad311d76-1d72-4950-b1e7-191291c0ab17
State: Peer in Cluster (Connected)

添加volume

为了方便测试,我们在两个节点的 /data 目录下,创建 data01目录

数据存放一份

gluster volume create testvol g132:/data/data01 g133:/data/data01

数据存放2份,这就需要你添加volume的时候是双数

gluster volume create testvol replica 2 g132:/data/data01 g133:/data/data01

条带化,看你希望条带化到几个节点,你自己调整 (我没测试)

gluster volume create testvol stripe 2 g132:/data/data01 g133:/data/data01

创建完volume后,会提示你启动volume,这个经常会忘记

gluster volume start testvol

查看gluster运行情况

netstat -tap | grep glusterfsd

查看volume情况

gluster volume info

查看节点

gluster peer status

客户端

其实服务器端,也可以当客户端,不过我还是专门找了一台机器作为客户端

yum -y install glusterfs-client

mount gluster目录

mkdir /test
mount.glusterfs g132:/testvol /test

你也可以用这个命令

mount -t glusterfs g132:/testvol /test

查看情况

[root@g140 ~]# mount
/dev/sda5 on / type ext4 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
tmpfs on /dev/shm type tmpfs (rw)
/dev/sda1 on /boot type ext4 (rw)
/dev/sda2 on /data type ext4 (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
g132:/testvol on /test type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072)

df查看

# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda5              93G  1.5G   87G   2% /
tmpfs                  16G     0   16G   0% /dev/shm
/dev/sda1             194M   33M  152M  18% /boot
/dev/sda2             394G  199M  374G   1% /data
g132:/testvol         788G   83G  666G  11% /test

测试

dd测试,不过不算是太准确.

cd /test
dd if=/dev/zero of=/mnt/glusterfs/test.img bs=1024k count=1000

iozone 进行压力测试

如果你直接使用DD,不见得可以测试出真实带宽,估计是和多线程有关。

安装

wget http://www.iozone.org/src/current/iozone3_414.tar
tar xvf iozone3_414.tar -C /usr/local/src/
cd /usr/local/src/iozone3_414/src/curren
make linux-AMD64
cp iozone /usr/bin/

测试

cd /test/
mkdir n140
cd n140
iozone -t 250 -i 0 -r 512k -s 500M -+n -w

 

附注

查看命令帮助,这个非常有用,gluster很多命令和别的软件有区别

gluster help
gluster peer help
gluster volume help

删除节点

gluster peer help
gluster peer datach g133

删除birck

gluster volume info
gluster volume remove-brick testvol g132:/data/data01

如果你要删除volume,那么你需要停止volume服务

gluster volume stop testvol
gluster volume delete testvol
Apr 082013
 

2013年4月4日,已经正式发布了Grizzly版本,目前Ubuntu 12.04的Grizzly的deb包,也基本准备好了,这次Ubuntu的动作真的是很快。以前Folsom版本的时候,由于Quantum的复杂和很多问题,导致网络上有不少问题。Grizzly版本的Quantum,已经做了很大的改进。关于Quantum介绍,可以查看官方wiki

Qauntum 需要通过插件来实现网络管理,有各种的商业插件,目前开源的插件就2个,linux Bridge和Openvswith,这篇文档是针对Bridge,Bridge不支持GRE模式,只支持VLAN和Local两种模式,Local只能用于测试使用。如果是多节点,VLAN模式就需要交换机支持,对端口设置Trunk。

quantum

 

参考英文原文:https://github.com/mseknibilel/OpenStack-Grizzly-Install-Guide

Quantum linux-Bridge 插件介绍:https://wiki.openstack.org/wiki/Quantum-Linux-Bridge-Plugin

我会对原文进行一些调整

  • 我的网络环境eth0连接公网,eth1是内网
  • 组件需要的数据库,我统一创建
  • 通过设置环境变量的办法,使得文章适应不同的场景(例如不同的IP和密码)

文档修改历史

2013年4月10凌晨:Grizzly正式版本的Ubuntu 12.04的包刚刚发布,使用最新的包,已经基本完成安装过程,目前只剩下Dashboard的使用。由于quantum的网络设置比较复杂,需要设置好网络,才能进一步测试。

2013年4月17日:修正了文档几个错误,nova.conf 里quantum的账号设置错误,还有就是quantum没设置 /etc/quantum/dhcp_agent.ini:不过目前还是没法创建虚拟机,非常郁闷。目前看到的情况是:Dashboard里还无法完全管理网络,尤其是bridge模式。

组件和网络拓扑图

grizzly

Continue reading »

Mar 222013
 

这是我转载mirantis的文章,Mirantis对Openstack的贡献,其实真不比任何一家公司小。因为他的网站访问要拿梯子,所以我就转载过来方便大家。

我简单说一下我对文章的理解

在Nova network里,采用mutilhost的方式实现冗余,就是每个计算节点,都安装nova network,负责这个计算节点的vm访问互联网.在Folsom版本的quantum,其实没有实现网络节点的冗余,只能存在一个网络节。在Grizzly版本的Quantum里,你可以有多个网络节点,这几个网络节点实现同步,负责vm的访问,和以前的mutilhost是有区别的。你的网络节点不可能和计算节点的数量是一样的。

关于这个的中文解析,可以看 http://blog.csdn.net/lynn_kong/article/details/8709003

今天刚看到邮件列表关于如何在Quantum里实现mutilhost,估计是上游开发者认为还是有必要去实现这个功能,关键代码已经在Grizzly里,只是没宣布而已。http://l2.yunpan.cn/lk/QEy3TkutXnqZe

原文:http://www.mirantis.com/blog/a-new-agent-management-approach-in-quantum-for-openstack-grizzly/

Continue reading »

Mar 182013
 

现在的信用卡中心,基本都采用自动应答,你如果要找人工服务,按照提示,估计你会疯掉的。终于有人整理出一个完整版本,非常实用,我至少使用中信,华夏,浦发的电话。 (原文)下面800开头的电话,如果你是手机,就改成400就可以。

我自己使用记录

华夏银行:400 669 5577 ,输入身份证号码,选择0 人工服务,输入查询密码,就ok

浦发银行:400 820 8788 ,让我听广告,按1选择中文,输入身份证号码,选择你的卡片,输入1(你可能有多张卡),让我听我的账单信息,输入0人工服务。

 

Continue reading »

Mar 152013
 

这段时间学习监控,本来希望从Nagios开始,不过发现Nagios涉及的东西太多,并且很多地方都会提到Cacti。所以就专门去了解和学习一下Cacti。

Ubuntu下安装软件,其实是非常方便的,不过现在发现很多软件编译起来也很方便。编译的一个好处,其实就是可以使用最新的版本。目前最新版本是0.8.8a,官方预计第一个季度底推出1.0版本,会有重大更新。

Cacti的编译安装文档,基本都是在Centos下测试,包括Cacti官方文档,所以在Ubuntu源码安装Cacti的spine,遇到点麻烦,不过还是顺利解决。大家可以比较一下源和源码安装的不同,我基本实现了两种安装,获得相同的结果。采用源码安装,应该可以让你了解更多细节。

 

Continue reading »