遗留工作负载是否阻止你走向云原生?这里有四种解决方案,可以在云原生环境中运行虚拟机。
许多IT专业人士想走向原生云。但是,你有传统的工作负载,比如单体,它只能在虚拟机上运行。
你可以为云原生工作负载和遗留工作负载维护单独的环境。但是,如果你能找到一种方法将虚拟机集成到你的云原生设置中,这样你就可以无缝地管理它们,不是更好吗?
幸运的是,有这样的方法。本文介绍了在云原生环境中运行虚拟机的四种开源解决方案,只需很少的重新配置或调整。
为什么在云原生环境中运行虚拟机?
在研究这些工具之前,让我们先看看为什么能够在由容器化、松散耦合、云原生工作负载组成的环境中运行虚拟机很重要。
主要原因很简单:承载遗留工作负载的虚拟机不会消失,但维护单独的托管环境以运行它们是一种负担。
同时,转换遗留工作负载以满足云原生标准可能是必须的。虽然理论上你会有时间和工程资源来重构遗留工作负载,以便它们可以在云原生环境中本机运行,但这在现实世界中并不总是可能的。
因此,你需要工具,比如下面描述的四种开源解决方案之一,让遗留虚拟机工作负载与云原生工作负载和平共处。
1. 使用KubeVirt运行虚拟机
在云原生环境中部署虚拟机的最流行解决方案可能是KubeVirt。
KubeVirt的工作原理是在Kubernetes pod内运行虚拟机。如果你想在容器旁边运行虚拟机,那么只需将KubeVirt安装到现有的Kubernetes集群中,其中包含:
export RELEASE=v0.35.0 # Deploy the KubeVirt operator kubectl apply -f https://github.com/kubevirt/kubevirt/releases/download/${RELEASE}/kubevirt-operator.yaml # Create the KubeVirt CR (instance deployment request) which triggers the actual installation kubectl apply -f https://github.com/kubevirt/kubevirt/releases/download/${RELEASE}/kubevirt-cr.yaml # wait until all KubeVirt components are up kubectl -n kubevirt wait kv kubevirt --for condition=Available
- 1.
- 2.
- 3.
- 4.
- 5.
- 6.
- 7.
然后,创建并应用一个YAML文件,该文件描述了要运行的每个虚拟机。KubeVirt在一个容器中执行每台机器,因此从Kubernetes的角度来看,VM只是一个常规的pod(有一些限制,将在下一节中讨论)。然而,你仍然可以获得虚拟机镜像、持久存储以及固定的CPU和内存分配,就像使用传统虚拟机一样。
这意味着KubeVirt基本上不需要更改虚拟机。你所要做的就是安装KubeVirt并为虚拟机创建部署,使其作为pod运行。
2.Virtlet方法
如果你想真正致力于将虚拟机视为pod,你可能会喜欢Mirantis的开源工具Virtlet。
Virtlet与KubeVirt相似,因为Virtlet还允许你在Kubernetes pod内运行虚拟机。这两种工具之间的关键区别在于,Virtlet将虚拟机更深入地集成到Kubernetes pod规范中。这意味着你可以使用Virtlet进行操作,例如将虚拟机作为守护程序集或复制集的一部分进行管理,而这是使用原生KubeVirt无法完成的(KubeVirt具有相同的功能,但它们是附加组件,而不是Kubernetes的原生部分)。
Mirantis还说,Virtlet通常比KubeVirt提供更好的网络性能,不过这很难确切知道,因为网络配置中涉及到太多变量。
3. ISIO对虚拟机的支持
如果你不想将虚拟机当作容器来管理,该怎么办?如果你想把它们像虚拟机一样对待,同时仍然允许它们与微服务轻松集成,该怎么办?
最好的解决方案可能是将你的虚拟机连接到Istio,即开源服务网格。在这种方法下,你可以使用标准虚拟机工具部署和管理虚拟机,同时仍然可以通过Istio管理网络、均衡负载等。
不幸的是,将虚拟机连接到Istio的过程相对繁琐,目前很难实现自动化。它归结为在每个要连接的虚拟机上安装Istio,为它们配置命名空间,然后将每个虚拟机连接到Istio。
4. 容器和虚拟机与OpenStack并排
到目前为止,我们所研究的技术包括采用Kubernetes或Istio等云原生平台,并向其添加虚拟机支持。
另一种方法是采用非云原生平台,运行虚拟机,然后将云原生工具移植到该平台上。
如果在OpenStack上同时运行VM和容器,就会得到这样的结果。OpenStack最初设计用于部署虚拟机(以及其他类型的资源)以构建私有云。但是OpenStack现在也可以托管Kubernetes。
因此,你可以使用OpenStack部署和管理虚拟机,同时通过Kubernetes在OpenStack上运行云原生容器化工作负载。最终会有两个编排层——底层OpenStack安装和Kubernetes环境——因此从管理角度来看,这种方法更为复杂。
然而,它的主要好处是,你可以使虚拟机和容器彼此相对独立,因为虚拟机不是Kubernetes的一部分。你也不会局限于使用Kubernetes工具来管理虚拟机。您可以将虚拟机视为标准虚拟机,将容器视为标准容器。
结论
开源生态系统提供了许多方法来帮助虚拟机与云原生工作负载共存。对你来说,最佳解决方案取决于你是想采取以Kubernetes为中心的方法(在这种情况下,KubeVirt或Virtlet是最好的选择),还是想允许虚拟机与容器共存,而不与容器紧密集成(在这种情况下,OpenStack最有意义)。如果你只想在网络级别而不是编排级别进行集成,请考虑将虚拟机连接到Istio服务网格。
原文链接:《linux就该这么学》不错的linux自学书籍