Questo articolo copre gli elementi essenziali della CPU e dell'utilizzo della memoria. C'è molto da discutere sul monitoraggio, ma dobbiamo essere certi che le metriche siano osservate e controllate. Esistono varie tecniche per monitorare le risorse e diversi metodi per avvicinarle. Pertanto, è importante garantire che l'applicazione utilizzi solo il numero proposto di risorse per evitare di esaurire lo spazio.
Tuttavia, è semplice stabilire la scala automatica in Kubernetes. Quindi, dobbiamo osservare le metriche mentre assicuriamo sempre che il cluster abbia nodi sufficienti per gestire il carico di lavoro. Un motivo in più per monitorare la CPU e gli indicatori di utilizzo della memoria significa essere consapevoli di improvvisi cambiamenti nell'attacco. Si verifica un improvviso aumento dell'utilizzo della memoria. Questo può indicare una fuga di memoria. Si verifica un impennata improvvisa nell'uso della CPU. Questo può essere un'indicazione di un ciclo illimitato. Queste metriche sono assolutamente utili. Questi sono i motivi per cui dobbiamo osservare le metriche. Abbiamo gestito i comandi sul sistema Linux e utilizzato il comando in alto. Una volta compresi i comandi, possiamo utilizzarli in modo efficiente in Kubernetes.
Per l'esecuzione dei comandi in Kubernetes, installiamo Ubuntu 20.04. Qui, utilizziamo il sistema operativo Linux per implementare i comandi Kubectl. Ora, installiamo il cluster Minikube per eseguire Kubernetes in Linux. Minikube offre una comprensione estremamente fluida in quanto fornisce una modalità efficiente per testare i comandi e le applicazioni.
Avvia minikube:
Dopo aver installato il cluster minikube, iniziamo Ubuntu 20.04. Ora, dobbiamo aprire un terminale per l'esecuzione dei comandi. A tale scopo, premi "Ctrl+Alt+T" sulla tastiera.
Nel terminale, scriviamo il comando "Avvia minikube", e dopo questo, aspettiamo un po 'fino a quando non inizia effettivamente. L'output di questo comando è fornito sotto:
Installa l'API delle metriche:
Il comando top kubectl non potrebbe accumulare le metriche da solo. Richiede le metriche all'API delle metriche e le rappresenta. I cluster, in particolare quello che viene fornito attraverso i servizi cloud, anche ora hanno l'API metrica montata. Ad esempio, un cluster consegnato da Docker Desktop. Possiamo verificare che l'API delle metriche sia incorporata eseguendo il comando successivo:
Dopo aver ottenuto risultati, l'API è ora montata e pronta per l'uso. In caso contrario, dobbiamo prima installarlo. La procedura è menzionata di seguito:
Usando la parte superiore Kubectl:
Quando abbiamo finito con l'installazione dell'API di Metrics, utilizziamo il comando top kubectl. Eseguiamo il comando "Kubectl top pod -namespace predefinito". Questo comando visualizza le metriche nello spazio dei nomi predefiniti. Ogni volta che dobbiamo ottenere la metrica da qualsiasi spazio dei nomi definito, dobbiamo identificare lo spazio dei nomi:
Osserviamo che i vari indicatori non si verificano in gran numero. Ottieni le metriche che possono essere ottenute semplicemente dal pod. Questo non sembra essere così abbondante nel framework di Kubernetes. Tuttavia, ciò può essere utilizzato per risolvere una diversità di problemi.
Se la pratica delle risorse inaspettatamente si batts nel cluster, possiamo trovare rapidamente il baccello che produce il problema. Questo è molto utile se abbiamo più pod. Questo perché il comando top kubectl può anche visualizzare metriche dai contenitori distinti.
Se abbiamo bisogno di ottenere metriche dallo spazio dei nomi delle app Web, utilizziamo il seguente comando:
In questo caso, prendiamo un'app Web che utilizza un contenitore per accumulare registri. Dall'output di questo esempio, è chiaro che l'accumulatore del registro sta avviando il problema di utilizzo della sorgente ma non l'applicazione Web. Questa è una cosa in cui molte persone trovano confuse. Ma sappiamo perfettamente dove iniziamo la risoluzione dei problemi.
Possiamo anche utilizzare i comandi per verificare qualsiasi cosa oltre ai pod. Qui, stiamo usando il comando "Kubectl Top Node" per osservare le metriche dal seguente nodo:
Conclusione:
Con questo articolo, abbiamo una comprensione dettagliata delle metriche di Kubernetes, come usarle nella situazione del monitoraggio della fonte e perché dobbiamo fare attenzione a. La CPU e l'uso della memoria possono essere semplici indicatori che possiamo monitorare. Questo non sembra essere necessario su piattaforme altamente estensibili, come Kubernetes. Tuttavia, può essere essenziale passare attraverso i fondamenti e utilizzare gli strumenti forniti. Abbiamo usato il comando top kubectl per monitorare i kubernetes. Speriamo che tu abbia trovato questo articolo utile. Dai un'occhiata al suggerimento di Linux per ulteriori suggerimenti e informazioni.