频道栏目
首页 > 资讯 > 云计算 > 正文

Mesos&Marathon实现容器部署

17-09-21        来源:[db:作者]  
收藏   我要投稿

mesos&marathon架构说明

Mesos实现了两级调度架构,它可以管理多种类型的应用程序。第一级调度是Master的守护进程,管理Mesos集群中所有节点上运行的Slave守护进程。集群由物理服务器或虚拟服务器组成,用于运行应用程序的任务,比如Hadoop和MPI作业。第二级调度由被称作Framework的“组件”组成。Framework包括调度器(Scheduler)和执行器(Executor)进程,其中每个节点上都会运行执行器。Mesos能和不同类型的Framework通信,每种Framework由相应的应用集群管理。上图中只展示了Hadoop和MPI两种类型,其它类型的应用程序也有相应的Framework。

Mesos Master协调全部的Slave,并确定每个节点的可用资源, 聚合计算跨节点的所有可用资源的报告,然后向注册到Master的Framework(作为Master的客户端)发出资源邀约。Framework可以根据应用程序的需求,选择接受或拒绝来自master的资源邀约。一旦接受邀约,Master即协调Framework和Slave,调度参与节点上任务,并在容器中执行,以使多种类型的任务,比如Hadoop和Cassandra,可以在同一个节点上同时运行.

mesos的体系结构和工作流

Slave是运行在物理或虚拟服务器上的Mesos守护进程,是Mesos集群的一部分。

Framework由调度器(Scheduler)应用程序和任务执行器(Executor)组成,被注册到Mesos以使用Mesos集群中的资源。

Slave 1向Master汇报其空闲资源:4个CPU、4GB内存。然后,Master触发分配策略模块,得到的反馈是Framework 1要请求全部可用资源。 Master向Framework 1发送资源邀约,描述了Slave 1上的可用资源。 Framework的调度器(Scheduler)响应Master,需要在Slave上运行两个任务,第一个任务分配<2 CPUs, 1 GB RAM>资源,第二个任务分配<1 CPUs, 2 GB RAM>资源。 最后,Master向Slave下发任务,分配适当的资源给Framework的任务执行器(Executor),接下来由执行器启动这两个任 务(如图中虚线框所示)。 此时,还有1个CPU和1GB的RAM尚未分配,因此分配模块可以将这些资源供给Framework 2。

mesos工作流程

1.集群中的所有slave节点会和master定期进行通信,将自己的资源信息同步到master,master由此获知到整个集群的资源状况

2.mater会和已注册、受信任的Framework进行交互,定期将最新的资源情况发送给Framework,当Framework前端有工作需求时,将选择接收资源,否则拒绝

3.前端用户提交了一个工作需求给Framework

4.Framework接收slave master发过来的资源信息

5.Framework依据资源信息向slave发起任务启动命令,开始调度工作

Mesos是经典的二层架构,Master只负责管理资源,Framework负责任务调度,它们两者都可以直接给slave通信;Master保持着通用性,轻量性,它和Framework、Slave之间的的交互更多的是状态信息同步;在Slave上有两类进程:一类为Manager,用来与Master通信,交互状态信息,另一类则是由Framework实现的具体Executor,它负责任务的运行,对于Manager而言,他看到的所有Executor、Task都是一致的容器,而不管这些任务具体执行什么样的业务逻辑;

最大最小公平算法将最小的资源分配最大化,并将其提供给用户,确保每个用户都能获得公平的资源份额,以满足其需求所需的资源;

mesos&marathon安装说明如下:

服务器角色说明

master ——>192.168.229.128 ——> zookeeper,mesos-master,mesos-slave,marathon,docker

slave1 ——>192.168.229.132 ——> zookeeper,mesos-master,mesos-slave,marathon,docker

slave2 ——>192.168.229.133 ——> zookeeper,mesos-master,mesos-slave,marathon,docker

修改hostname和绑定hosts

echo "master" > /etc/hostname #192.168.229.128

echo "slave1" > /etc/hostname #192.168.229.132

echo "slave2" > /etc/hostname #192.168.229.133

cat /etc/hosts #三台机器都需要绑定

192.168.229.128 master

192.168.229.132 slave1

192.168.229.133 slave2

重启系统,使之生效

版本说明

mesos-1.0.1

marathon-1.1.1

zookeeper-3.4.6

docker-1.11.2

mesos安装

tar -zxvf mesos-1.0.1.tar.gzcd mesos-1.0.1mkdir buildcd build../configuremake -j8make checkmake install

编译过程中出现的问题:

1.找到libmesos.so文件所在目录,这里是拷贝到/usr/local/lib目录下

2.在/etc/ld.so.conf中加入include /usr/local/lib

3.执行/sbin/ldconfig –v 更行配置文件

find / -name libmesos-1.0.1.so

vim /etc/ld.so.conf

include /etc/ld.so.conf.d/*.conf #添加

include /usr/local/mesos-1.0.1/build/src/.libs/

/sbin/ldconfig -v

marathon安装

tar -zxvf marathon-1.1.1.tgz

cd marathon-1.1.1/bin

启动marathon,出现报错内容如下:

mesos-master marathon[3611]: Exception in thread "main" java.lang.UnsupportedClassVersionError: mesosphere/marathon/Main : Unsupported major.minor version 52.0

解决方法:It worked. Marathon needs jdk8.

zookeeper安装

zk的安装和启动不做说明,主要配置文件如下(zoo.cfg):

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/data/zookeeper/data

clientPort=2181

server.1=192.168.229.128:3888:4888

server.2=192.168.229.132:3888:4888

server.3=192.168.229.133:3888:4888

安装到此完成;

mesos master启动

192.168.229.128上:

mkdir -p /data1/mesos1/ && touch /data1/mesos1/log

cd /usr/local/mesos-1.0.1/build/bin &&./mesos-master.sh --ip=192.168.229.128 --zk=zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/mesos --quorum=2 --work_dir=/data1/mesos1/ --external_log_file=/data1/mesos1/log --cluster=paas

192.168.229.132上:

mkdir -p /data1/mesos1/ && touch /data1/mesos1/log

cd /usr/local/mesos-1.0.1/build/bin && ./mesos-master.sh --ip=192.168.229.132 --zk=zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/mesos --quorum=2 --work_dir=/data1/mesos1/ --external_log_file=/data1/mesos1/log --cluster=paas

192.168.229.133上:

mkdir -p /data1/mesos1/ && touch /data1/mesos1/log

cd /usr/local/mesos-1.0.1/build/bin && ./mesos-master.sh --ip=192.168.229.133 --zk=zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/mesos --quorum=2 --work_dir=/data1/mesos1/ --external_log_file=/data1/mesos1/log --cluster=paas

mesos slave启动

192.168.229.128上:

mkdir -p /data1/mesos_slave1/

cd /usr/local/mesos-1.0.1/build/bin && ./mesos-slave.sh --master=zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/mesos --containerizers=mesos,docker --hostname=master --ip=192.168.229.128 --work_dir=/data1/mesos_slave1/

192.168.229.132上:

mkdir -p /data1/mesos_slave1/

cd /usr/local/mesos-1.0.1/build/bin && ./mesos-slave.sh --master=zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/mesos --containerizers=mesos,docker --hostname=slave1 --ip=192.168.229.132 --work_dir=/data1/mesos_slave1/

192.168.229.133上:

mkdir -p /data1/mesos_slave1/

cd /usr/local/mesos-1.0.1/build/bin && ./mesos-slave.sh --master=zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/mesos --containerizers=mesos,docker --hostname=slave2 --ip=192.168.229.133 --work_dir=/data1/mesos_slave1/

marathon启动

192.168.229.128上:

cd /usr/local/marathon-1.1.1/bin && ./start --master zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/mesos --zk zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/marathon

192.168.229.132上:

cd /usr/local/marathon-1.1.1/bin && ./start --master zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/mesos --zk zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/marathon

192.168.229.133上:

cd /usr/local/marathon-1.1.1/bin && ./start --master zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/mesos --zk zk://192.168.229.128:2181,192.168.229.132:2181,192.168.229.133:2181/marathon

使用说明

1.打开http://192.168.229.132:5050/#/ 查看

这里可以看到我们定义cluster为我们定义的paas,master server地址:192.168.229.128:5050 ,无论我们进入master,slave1,slave2 这三台任意一台中master server的地址都为192.168.229.128,这里是通过zk选举的master,如果128 挂掉后,master server会被其他服务器取代

2.查看slave资源情况即Agents Tab

3.查看Frameworks页面,可以看到现在frameworks使用的是marathon slave1主机,同mesos master一样,这里无论marathon任何一个down掉,其他的marthon都会顶上,也是使用zk来做选举,点击slave1,即可跳转到marathon管理界面

4.访问marathon管理界面(slave01:8080/ui/#/apps)

5.创建一个docker应用,创建5个instances(前提:已将docker image存放在3台机器上,可以直接run)

点击Create Application 完成应用的创建,然后查看状态已为Runing

查看5个详细实例

点击slave1:31289,跳转到对应的应用中

From:http://ttxsgoto.blog.51cto.com/4943095/1854661/

另一篇文章用图和说明对mesos的原理作了比较好的阐述:http://www.jdon.com/artichect/managing-docker-clusters-using-mesos-and-marathon.html

附录及本地集群试验中存在的问题:

1. 安装mesos需要的依赖包

http://mesos.apache.org/gettingstarted/

2. local方式启动mesos-master, mesos-slave及test-xxx均正常

# Start mesos master (Ensure work directory exists and has proper permissions).

$ ./bin/mesos-master.sh --ip=127.0.0.1 --work_dir=/home/hadoop/bigdata/mesos/mesos_master &

# Start mesos slave.

$ ./bin/mesos-slave.sh --master=127.0.0.1:5050--work_dir=/home/hadoop/bigdata/mesos/mesos_slave &

# Visit the mesos web page.

$ http://127.0.0.1:5050

# Run C++ framework (Exits after successfully running some tasks.).

$ ./src/test-framework--master=127.0.0.1:5050

# Run Java framework (Exits after successfully running some tasks.).

$ ./src/examples/java/test-framework 127.0.0.1:5050 //没有--master选项

# Run Python framework (Exits after successfully running some tasks.).

$ ./src/examples/python/test-framework 127.0.0.1:5050 ////没有--master选项

3. 集群方式启动mesos-master时,报错 "Unable to finish the recover protocol in 10secs"

很多说是端口被firewall blocked或被其它应用占用,本地试验中没有firewall,端口也没被占用,还需要后续再研究。

相关TAG标签
上一篇:idea使用技巧_idea远程部署和远程调试
下一篇:Python中的numpy.meshgrid解析
相关文章
图文推荐

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 | Vip技术培训 | 举报中心

版权所有: 红黑联盟--致力于做实用的IT技术学习网站