微服务服务器配置评估

微服务服务器配置评估
微服务服务器配置评估

一、引言

随着云计算和容器化技术的快速发展,微服务架构逐渐成为软件开发的热门趋势。

微服务架构将大型应用程序拆分为一系列小型服务,每个服务运行在其独立的进程中,并使用轻量级通信机制进行交互。

为了满足微服务的高性能、高可扩展性和高可用性需求,合理的服务器配置显得尤为重要。

本文将探讨微服务服务器配置评估的关键要素和步骤。

二、微服务服务器配置评估的关键要素

1. 处理器(CPU)配置

处理器是服务器性能的核心。

在评估微服务服务器配置时,需要考虑CPU的核心数、时钟速度、架构(如Intel的x86或ARM架构)以及是否支持超线程技术。

对于需要处理大量并发请求的微服务,选择高性能的CPU至关重要。

2. 内存(RAM)配置

内存是影响服务器响应速度和并发处理能力的关键因素。

评估内存配置时,需要考虑内存容量、类型和速度。

对于微服务架构,建议使用大容量、高速的内存,以提高数据访问速度。

3. 存储配置

存储性能直接影响微服务的响应时间和数据处理速度。

评估存储配置时,需要考虑存储类型(如固态硬盘、网络附加存储等)、存储容量、读写速度和I/O性能。

4. 网络配置

微服务架构依赖于高效的网络通信。

评估网络配置时,需要考虑网络带宽、延迟、丢包率以及是否支持加密通信。

还需要考虑网络拓扑结构,以确保微服务之间的通信畅通无阻。

5. 负载均衡与扩容能力

微服务架构需要具备良好的负载均衡和扩容能力,以应对高并发和突发流量。

评估服务器配置时,需要考虑是否支持自动负载均衡、是否具备水平扩展能力,以及是否支持容器化技术等。

三、微服务服务器配置评估步骤

1. 分析业务需求

在进行微服务服务器配置评估之前,需要深入分析业务需求,包括微服务的功能需求、性能需求、安全性需求和可扩展性需求等。

这有助于确定服务器的关键性能指标和配置要求。

2. 评估硬件资源

根据业务需求,评估所需的硬件资源,包括处理器、内存、存储和网络。

对于关键业务,可以考虑进行性能测试和负载测试,以确保服务器配置满足实际需求。

3. 选择合适的操作系统和中间件

根据业务需求和技术要求,选择合适的操作系统和中间件。

考虑操作系统的稳定性、安全性、性能以及是否支持容器化技术等。

同时,还需要考虑中间件的性能、可扩展性和集成能力。

4. 设计网络拓扑结构

根据微服务的业务需求和通信模式,设计合理的网络拓扑结构。

确保微服务之间的通信高效、安全、可靠。

5. 考虑负载均衡与扩容策略

根据业务需求和流量预测,考虑负载均衡与扩容策略。

选择支持自动负载均衡和水平扩展的服务器配置,以便在业务增长时轻松扩展资源。

同时,考虑采用容器化技术,如Docker和Kubernetes,以提高资源利用率和部署效率。

四、总结

微服务服务器配置评估是一个复杂的过程,需要综合考虑业务需求、硬件资源、操作系统、中间件、网络拓扑结构以及负载均衡与扩容策略等多方面因素。

合理的服务器配置对于确保微服务的高性能、高可扩展性和高可用性至关重要。

因此,在进行微服务服务器配置评估时,应遵循以上关键要素和步骤,以确保选择最适合的服务器配置方案。


如何选择合适的服务器?

选择合适的服务器需要考虑以下几个方面:

1. 确定需求:首先需要确定服务器需要满足哪些需求,如文件存储、数据库服务、Web服务、邮件服务器等。

根据需求选择合适的服务器配置和型号。

2. 考虑性能:服务器的性能对于网站的稳定性和运行速度至关重要。

在购买服务器时需要关注其CPU、内存、硬盘等硬件配置,以及操作系统的优化等,确保服务器能够满足性能要求。

3. 考虑扩展性:随着业务的发展,对服务器的需求也会发生变化。

因此在购买服务器时需要考虑到未来的扩展性,如升级CPU、内存、硬盘等硬件配置,以及未来可能需要的更多存储空间和更高的处理能力。

4. 考虑成本:服务器的价格因品牌、配置、型号等因素而异。

在购买服务器时需要根据预算进行选择,同时需要考虑未来的维护成本和使用成本。

5. 考虑安全性:服务器的安全性也是需要考虑的重要因素。

需要选择具有安全功能的服务器,如防火墙、入侵检测系统等,同时需要对数据进行备份和加密,确保数据的安全性。

6. 考虑售后服务:服务器的使用和维护包含一定的技术含量,因此选择具有良好售后服务的销售场所非常重要。

可以咨询专业人士或参考用户评价来选择合适的销售商。

选择合适的服务器需要考虑多方面的因素,包括需求、性能、扩展性、成本、安全性和售后服务等。

在购买服务器时需要充分了解这些因素,并进行综合评估和选择。

微服务 - Spring Cloud - Eureka Server单机和集群搭建、单机服务注册和集群服务注册

微服务 - Spring Cloud - Eureka Server的单机和集群搭建

Eureka是Netflix开发的服务发现框架,它作为服务注册中心,用于在AWS域中实现负载均衡和故障转移。

Spring Cloud将其集成到spring-cloud-netflix,以支持SpringCloud的服务发现功能。

在服务注册与发现过程中,Eureka采用了客户端-服务器架构(CS)。

服务提供者通过Eureka客户端将服务信息(如地址)注册到Eureka Server,而消费者则通过注册中心获取服务地址进行调用。

Eureka的核心在于管理服务依赖关系,确保服务治理的执行。

Eureka Server搭建

服务注册到Eureka

Eureka Server集群搭建

只需在应用配置中稍作调整,即可实现服务注册到集群服务中心。

微服务面临的挑战

作者 | Igor Perikov

译者 | 陆离

责编 | 徐威龙

出品 | CSDN云计算(ID:CSDNcloud)

在本文中,我将介绍微服务中的几种容错机制及其实现的方法。如果你在维基百科上查找“容错性”,你将会发现有如下的定义:

“容错性是一种特性,它使系统能够在某些组件发生错误时仍能继续正常地运行。”

对于我们来说,一个组件意味着很多:微服务、数据库(DB)、负载均衡器(LB),你可以给它命个名。

我在这里不讨论数据库和负载均衡器的容错机制,因为它们是特定于供应商的,并且如果使用它们的话,需要设置一些属性或者更改部署策略。

作为一个软件工程师,应用程序是我们展现自身力量和承担责任的地方。下面,我将从以下几个方面进行介绍容错性:

超时(Timeouts)重试(Retries)熔断机制(Circuit Breaker)截止时间(Deadlines)限流器(Rate limiters)

有些模式是广为人知的,你甚至可能都会觉得有些不值得一提,但也请紧跟本文的思路,我将要简要介绍这几个基本的容错方法,然后一一讨论它们的缺点以及应该如何避免。

超时

超时是指允许等待某个事件发生的指定时间范围。

如果使用SO_TIMEOUT(也称为socket timeout或read timeout)参数则会出现问题,它表示任何两个连续数据包之间的超时,而不是整个请求的响应时间,因此很难满足SLA(Service-Level Agreement,服务等级协议),特别是在应用服务响应负载很大的情况下。

通常来说,我们所说的超时,是覆盖了从建立请求连接到响应最后一个字节完成的整个交互过程。

不过,它们不适合使用SO_TIMEOUT参数。

想要在JVM中避免使用它,可以使用JDK11或是OkHttp客户端。

Go语言在std库中也有一个相关的机制。

重试

如果你的请求失败了,那么请稍等一会儿,然后再试一次。

重试的过程基本上就是这样的。

重试是有意义的,因为网络可能会降级服务一段时间,或者GC(废品回收)会命中请求所到达的特定实例。

现在,让我们来想象有如下所示的服务调用过程:

如果我们将每个服务的请求尝试次数上限设置为3,并且服务D突然发生完全中断的错误,那么会发生什么情况呢?这将导致一场请求重试风暴,当服务链中的每个服务开始重试它们的请求时,会由此大大增加了总负载量,所以服务B将面临担负是通常情况下3倍的请求负载,C是9倍,而D是27倍。

冗余是实现高可用性的关键原则之一,但我怀疑在这种情况下,集群C和D上是否还有足够的空闲资源。

将尝试次数上限设置为2也不会有多大帮助,而且它会使在较小blip上的用户体验会更糟。

解决方案:

区分可重试错误和不可重试错误。当用户没有权限或负载结构不正确时,重试请求是没有意义的。相反,重试请求超时或返回代码5xx是没有问题的;设置错误重试机制。当重试错误次数超过阈值时停止重试,例如,与服务D进行交互,如果20%的结果都是错误的,则停止重试并尝试降级服务。在过去的N秒内,可以使用滚动窗口跟踪错误量;熔断机制

熔断器可以作为一个更严格的错误率预置方案。

当错误率过高的时候,任务将不会继续执行,如果提供了回退结果,那么就会返回。

无论如何,首先应该选择先执行很少的一部分请求,以便了解目标服务是否已经恢复了。

在人工干预之前,我们应该给目标服务一个自己恢复的机会。

你可能不太赞同上述的方法,如果一个功能处于关键路径上,启用熔断器是没有意义的,但不要忘了,这种短暂的、可控的“自动断电”可能会阻止一次大的、不可控的服务中断。

尽管熔断机制和错误重试机制有着相似的想法,但是它们在实际应用的过程中是非常有意义的。

由于错误重试机制的破坏性较小,因此,其阈值尽量要设的低一些。

Hystrix是一个在JVM中的go-to模式熔断机制的实现。

到目前为止,它已经进入了维护模式,建议使用resilience4j来替代。

截止时间/分布式超时

我们已经在本文的第一部分讨论了超时模式,现在让我们看看如何实现它们的“分布式”。首先,再一次访问相互调用的一系列服务链:

服务A最长可以等待400毫秒,并且一个请求需要依次调用3个下游服务才能完成任务。

假设对服务B的请求和响应花了400毫秒,下一步就准备调用服务C。

那么,这种情况是不合理的,一旦服务超时,就不应该再等待任何结果。

如果继续下去只会浪费资源,增加请求重试风暴发生的风险。

为了实现这个过程,我们必须在请求中添加额外的元数据,这将有助于理解在什么时候进行中断处理是最合理的。

理想情况下,这应该得到所有服务的支持,并在整个调用流程中进行参数的传递。

在实际的过程中,上述元数据可以分为以下几种形式:

Timestamp(时间戳):是通过服务停止等待响应的时间点。首先,网关或者前端服务将截止时间设置为“当前时间戳 超时”。接下来,任何下游服务都应该检查当前时间戳是否超过了截止时间。如果超过了,那么要停止响应,否则,就开始处理。遗憾的是,服务器之间的时间可能是不同的,存在着时钟偏差的问题。如果存在这种情况,那么,请求将会被阻塞或者立即被拒绝,从而导致服务停止;Timeout(超时):传递允许服务等待的时间。这个问题有点棘手,和之前一样,你需要尽快设定截止时间。接下来,任何一个下游服务都应该对自身处理过程进行计时,并从设定的超时时间中减去这个时间,然后传递给下一个服务。重要的是不要忘记进入请求队列等待的时间。因此,如果服务A允许等待400毫秒,而调用服务B花费150毫秒,则在调用服务C时必须告知有250毫秒的超时时间限制。虽然它没有把传输时间也计算在内,但截止时间只能在之后而不是更早的时间触发,因此,这可能会消耗更多的资源,但不会影响结果。在GRPC(Google开发的高性能、通用的开源RPC框架)中的截止日期就是这样实现的。

最后我们要讨论的是,当超过了截止时间时,不去中断调用服务链是否有意义,答案是肯定的,如果你的服务有足够的处理资源,并且在完成请求之后会使其更活跃(缓存/JIT),那么让其继续处理就可以了。

限流器

前面讨论的模式主要解决了级联失效的问题,依赖服务在其依赖关系崩溃后也随之崩溃,最终导致整个服务完全宕掉的情况。

现在,让我们来讨论一下当你的服务出现过载的情况。

有很多技术方面的原因可能会导致服务过载,那么,现在我们就假设发生了这种情况。

每个应用程序都有其未知的处理极限。

这个值是动态的,取决于多个变量,例如近期的代码更新、正在运行的CPU的模式、主机的繁忙程度等等。

当负载超过极限时会发生什么呢?通常,这种恶性循环会出现在如下的情况里:

1. 响应时间增加,GC占用空间增加;

2. 客户端出现了越来越多的处理超时,甚至承担了更多的负载量;

3. 比1的情况更严重;

这里有个例子。

当然,如果客户端有错误重试机制或者熔断机制,第二种情况可能不会产生额外的负荷,从而会获得一个跳出的机会。

其它的情况可能会发生,从负载均衡的上游列表中删除实例可能会在加载和剔除相邻实例等方面导致更多的不平衡。

对于限流器,它们的做法是优雅地拒绝新的请求,这就是理想情况下应该如何处理过度负载:

1. 限流器将额外的负载量降到可承受的范围以内,从而使应用程序能够根据SLA进行服务请求;

2. 过多的负载被重新分配到其它的实例,或者进行集群的自动/被动缩放;

有两种类型的限流器:速率和并发。前者用来限制允许的请求数量,后者用来限制在任何时刻同时处理的最大请求数量;

为了简便起见,假设对服务的所有请求在计算资源的消耗上是一致的,并且具有相同的权重。

不同的用户会有不同数量的数据,例如喜欢的电视节目或者以前的订单等等。

通常,采用分页技术有助于实现请求在计算资源消耗上的相等。

限流器使用的更广泛,但并不像并发限制那样能提供强大的保证,所以如果你希望选择一个的话,建议坚持使用并发限制机制,原因如下。

在配置限流器的时候,我们认为会强制执行如下的操作:

服务可以在任何时间点进行每秒N个请求的处理。

但实际上,我们想要说的是:

假设响应时间相同,那么在任何时间点服务都可以进行每秒N个请求的处理。

为什么这句话这么重要?我会用直觉来“证明”。

而对于那些愿意用数学来证明的人,查一下什么是排队理论。

假设限流器设置为1000rps,响应时间为1000毫秒,SLA为1200毫秒。

在给定的SLA的条件下,我们很容易算出,在1秒钟内服务能同时处理1000个请求。

现在,响应时间增加了50毫秒(依赖的服务开始处理额外的工作)。

从现在起,由于请求数超过了处理能力,在每1秒服务都将面临同时需要处理越来越多的请求。

如果线程的数量不受限制的增长,那么就意味着你的资源将会被一点一点的耗尽,并直至系统崩溃,尤其是在应用程序的线程1:1地对应到操作系统线程的时候。

如何能处理1000个请求的并发限制呢?它可以服务于1000/1.05=~950个RPS,而不会违反SLA协议,然后放弃其余的请求。

另外,还不需要重新进行配置。

我们可以在每次服务的依赖关系发生变化时更新流量限制,但这是一个巨大的工作量,可能需要在每次变化时对整个生态系统进行重新配置。

根据阈值的设置方式,它可以分为静态的和动态的。

静态的限流

在这种情况下,限制范围是通过手动进行配置的。

阈值可以通过定期的性能测试来评估。

然而它不可能是100%准确的,另外,对于安全性来说,可能也会有一定的影响。

这种类型的限制要求围绕CI/CD(持续集成/持续交付)管道来进行工作,而且资源利用率也较低。

静态的限流器可以通过限制工作线程池的大小(仅限并发)、添加可以计算请求数量的请求过滤器、以及NGINX limiting functionality或envoy sidecar proxy来实现。

动态的限流

在这里,限制取决于度量,度量是在规则的基础上重新计算的。

很有可能的是服务过载与响应时间变长之间存在着相关性。

如果是的话,度量可以是响应时间的统计函数,例如百分比、中等或平均值。

还记得计算等式属性吗?这个属性是更精确计算的关键。

然后,定义一个术语用于表示度量是否正常。

例如,p99≥500ms被认为是服务不正常,因此应降低限制范围。

如何增大和减小限制范围应该由一个请求反馈控制算法来决定,如AIMD(Additive Increase Multiplicative Decrease,在TCP协议中使用)。

下面是它的伪代码:

如你所见,限制的范围增大缓慢,检测应用程序是否运行良好,如果发现错误行为则急剧减小。

Netflix开创了动态限制的思想,并且开源了解决方案,这里是代码库:。

它实现了几种反馈算法、静态限流器的实现、GRPC集成和Java servlet集成。

就说到这里吧,希望你从本文里学到一些有帮助的内容。

我想指出的是,上述所说的并不是尽善尽美的,你还应该具有良好的观察能力,因为在实际应用的过程中,可能会发生一些意想不到的问题,需要你能更好地了解当前应用程序的情况。

不管怎么样,实现上述这些方法,将有助于解决你当前出现的或者是潜在的一些问题。

原文链接:

© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容