Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1234763
  • 博文数量: 1096
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 11060
  • 用 户 组: 普通用户
  • 注册时间: 2018-03-07 15:17
个人简介

linux工程师,RHCE

文章分类

全部博文(1096)

文章存档

2023年(84)

2022年(314)

2021年(251)

2020年(244)

2019年(176)

2018年(27)

我的朋友

分类: 系统运维

2022-07-04 19:01:47

本文介绍了在云原生环境中运行虚拟机的四种开源解决方案,只需很少的重新配置或调整。


遗留工作负载是否阻止你走向云原生?这里有四种解决方案,可以在云原生环境中运行虚拟机。


许多IT专业人士想走向原生云。但是,你有传统的工作负载,比如单体,它只能在虚拟机上运行。

你可以为云原生工作负载和遗留工作负载维护单独的环境。但是,如果你能找到一种方法将虚拟机集成到你的云原生设置中,这样你就可以无缝地管理它们,不是更好吗?

幸运的是,有这样的方法。本文介绍了在云原生环境中运行虚拟机的四种开源解决方案,只需很少的重新配置或调整。

为什么在云原生环境中运行虚拟机?

在研究这些工具之前,让我们先看看为什么能够在由容器化、松散耦合、云原生工作负载组成的环境中运行虚拟机很重要。

主要原因很简单:承载遗留工作负载的虚拟机不会消失,但维护单独的托管环境以运行它们是一种负担。

同时,转换遗留工作负载以满足云原生标准可能是必须的。虽然理论上你会有时间和工程资源来重构遗留工作负载,以便它们可以在云原生环境中本机运行,但这在现实世界中并不总是可能的。

因此,你需要工具,比如下面描述的四种开源解决方案之一,让遗留虚拟机工作负载与云原生工作负载和平共处。

1. 使用KubeVirt运行虚拟机

在云原生环境中部署虚拟机的最流行解决方案可能是KubeVirt。

KubeVirt的工作原理是在Kubernetes pod内运行虚拟机。如果你想在容器旁边运行虚拟机,那么只需将KubeVirt安装到现有的Kubernetes集群中,其中包含:

复制
export RELEASE=v0.35.0 # Deploy the KubeVirt operator kubectl apply -f https://github.com/kubevirt/kubevirt/releases/download/${RELEASE}/kubevirt-operator.yaml # Create the KubeVirt CR (instance deployment request) which triggers the actual installation kubectl apply -f https://github.com/kubevirt/kubevirt/releases/download/${RELEASE}/kubevirt-cr.yaml # wait until all KubeVirt components are up kubectl -n kubevirt wait kv kubevirt --for condition=Available
							
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.

然后,创建并应用一个YAML文件,该文件描述了要运行的每个虚拟机。KubeVirt在一个容器中执行每台机器,因此从Kubernetes的角度来看,VM只是一个常规的pod(有一些限制,将在下一节中讨论)。然而,你仍然可以获得虚拟机镜像、持久存储以及固定的CPU和内存分配,就像使用传统虚拟机一样。

这意味着KubeVirt基本上不需要更改虚拟机。你所要做的就是安装KubeVirt并为虚拟机创建部署,使其作为pod运行。

2.Virtlet方法

如果你想真正致力于将虚拟机视为pod,你可能会喜欢Mirantis的开源工具Virtlet。

Virtlet与KubeVirt相似,因为Virtlet还允许你在Kubernetes pod内运行虚拟机。这两种工具之间的关键区别在于,Virtlet将虚拟机更深入地集成到Kubernetes pod规范中。这意味着你可以使用Virtlet进行操作,例如将虚拟机作为守护程序集或复制集的一部分进行管理,而这是使用原生KubeVirt无法完成的(KubeVirt具有相同的功能,但它们是附加组件,而不是Kubernetes的原生部分)。

Mirantis还说,Virtlet通常比KubeVirt提供更好的网络性能,不过这很难确切知道,因为网络配置中涉及到太多变量。

3. ISIO对虚拟机的支持

如果你不想将虚拟机当作容器来管理,该怎么办?如果你想把它们像虚拟机一样对待,同时仍然允许它们与微服务轻松集成,该怎么办?

最好的解决方案可能是将你的虚拟机连接到Istio,即开源服务网格。在这种方法下,你可以使用标准虚拟机工具部署和管理虚拟机,同时仍然可以通过Istio管理网络、均衡负载等。

不幸的是,将虚拟机连接到Istio的过程相对繁琐,目前很难实现自动化。它归结为在每个要连接的虚拟机上安装Istio,为它们配置命名空间,然后将每个虚拟机连接到Istio。

4. 容器和虚拟机与OpenStack并排

到目前为止,我们所研究的技术包括采用Kubernetes或Istio等云原生平台,并向其添加虚拟机支持。

另一种方法是采用非云原生平台,运行虚拟机,然后将云原生工具移植到该平台上。

如果在OpenStack上同时运行VM和容器,就会得到这样的结果。OpenStack最初设计用于部署虚拟机(以及其他类型的资源)以构建私有云。但是OpenStack现在也可以托管Kubernetes。

因此,你可以使用OpenStack部署和管理虚拟机,同时通过Kubernetes在OpenStack上运行云原生容器化工作负载。最终会有两个编排层——底层OpenStack安装和Kubernetes环境——因此从管理角度来看,这种方法更为复杂。

然而,它的主要好处是,你可以使虚拟机和容器彼此相对独立,因为虚拟机不是Kubernetes的一部分。你也不会局限于使用Kubernetes工具来管理虚拟机。您可以将虚拟机视为标准虚拟机,将容器视为标准容器。

结论

开源生态系统提供了许多方法来帮助虚拟机与云原生工作负载共存。对你来说,最佳解决方案取决于你是想采取以Kubernetes为中心的方法(在这种情况下,KubeVirt或Virtlet是最好的选择),还是想允许虚拟机与容器共存,而不与容器紧密集成(在这种情况下,OpenStack最有意义)。如果你只想在网络级别而不是编排级别进行集成,请考虑将虚拟机连接到Istio服务网格。

原文链接:《linux就该这么学》不错的linux自学书籍

阅读(286) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~