Analisando alto consumo de CPU em um servidor linux no Google Cloud

Olá…

Eu tenho uma aplicação que está alocada no Google Cloud em um servidor de 2 vCPUs e 7,5 GB de memória. Nele está rodando o Docker com 6 Containers. E a aplicação foi desenvolvida em Java no Back e Angular no front. O banco de dados está separado, em outro servidor do Google Cloud.

O servidor antes era de 1 vCPUs mas o Google Cloud ficava alertando que o consumo da CPU estava alto e eu tinha que melhorar a máquina. Eu aumentei para 2 vCPUs (o que acabou dobrando o custo ;( ) e continua dando um aviso que tenho que melhorar…

Eu dei o comando ‘top’ no servidor e de fato apareceu que o Java está consumindo 190% da CPU (fica acima de 150% mesmo em horários aleatórios, tipo de madrugada, que não tem acesso nenhum).

O dev que cuida do back achou estranho pois o que deveria estar acusando como alto consumo era o docker e não o Java e ele não sabe dizer o que está causando isso. E eu não tenho nem ideia de como investigar. E aparentemente a aplicação está funcionando normal (pelo que parece isso não está impactando na velocidade da aplicação em si) e não sei o que esse consumo excessivo da máquina pode causar. Será que alguém consegue me ajudar a entender e investigar isso melhor? Obrigado