In questo articolo, discuteremo delle politiche di rete in Kubernetes. Le politiche di rete sono molto importanti in Kubernetes. Con l'aiuto delle politiche di rete, specifichiamo come i pod comunicano tra loro e come facciamo connessioni tra i baccelli. Se sei nuovo in questo concetto, questo articolo fa per te. Iniziamo l'articolo con una definizione dettagliata di politiche di rete in Kubernetes.
Quali sono le politiche di rete in Kubernetes?
Una politica di rete in Kubernetes descrive come i gruppi di pod sono autorizzati a comunicare tra loro e altri endpoint di rete. La risorsa della politica di rete, che specifica il modo in cui i pod sono autorizzati a comunicare, viene utilizzata per implementare le politiche di rete. Puoi proteggere il cluster e gestire il flusso di traffico all'interno e.
Prerequisiti:
Il sistema utilizzato dall'utente deve essere un sistema operativo a 64 bit. La RAM dell'utente deve essere 8 GB o superiore a 8 GB. L'ultima versione di Ubuntu è installata nel sistema utente. L'utente di Windows utilizza anche il sistema operativo Linux praticamente sul proprio sistema. L'utente deve avere un'idea di Kubernetes, dello strumento di riga di comando Kubectl, dei baccelli e del cluster che è stato eseguito nel nostro sistema nella sessione precedente.
Passaggio 1: avvia un pannello di controllo Kubernetes
In questo passaggio, eseguiamo i Kubernetes nel nostro sistema per avviare perfettamente il nostro funzionamento delle politiche di rete. Iniziamo Minikube nel nostro sistema semplicemente eseguendo il comando. Minikube è un cluster Kubernetes che funziona sulla macchina locale. Il comando per l'avvio di minikube è:
> Minikube Start
Quando viene eseguito il comando, Minikube inizia correttamente nel nostro sistema. Ora possiamo facilmente eseguire le nostre azioni relative alle politiche di rete in modo efficiente nel nostro sistema.
Passaggio 2: creare una distribuzione NGINX in Kubernetes
In questo passaggio, impariamo come creare una distribuzione di NGINX nel nostro sistema Kubernetes. Eseguiamo il comando dato nello strumento di comando kubectl. Il comando è:
> kubectl crea campione di distribuzione - - immagine = nginx
Durante l'esecuzione dei comandi, la distribuzione viene creata correttamente nella cartella dell'app nella nostra applicazione Kubernetes. L'immagine Nginx viene distribuita correttamente nel nostro sistema. La distribuzione garantirà che il numero specificato di repliche del pod sia sempre in esecuzione, creando o eliminando le repliche secondo necessità. Ci consentirà inoltre di aggiornare perfettamente le immagini del contenitore in un aggiornamento del nostro sistema Kubernetes.
Passaggio 3: distribuzione del campione su una porta specifica in Kubernetes
In questo passaggio, ora esporremo il campione che recentemente sta cercando di distribuire sul sistema su una porta specifica. Eseguimo il comando:
> Kubectl espone campione di distribuzione - - porta = 80
Quando il comando viene eseguito, il campione di distribuzione viene esposto correttamente sulla porta 80 nella nostra applicazione Kubernetes. Il server API Kubernetes riceverà una richiesta da questo comando per creare il servizio. Il server API creerà quindi il servizio nel cluster. Ha un indirizzo IP stabile e un nome DNS. Il servizio funge da bilanciamento del carico per i pod nella distribuzione, distribuendo uniformemente il traffico in arrivo tra loro. Questo comando ci fornisce un endpoint di rete stabile per i pod, consentendo loro di accedere anche se i loro indirizzi IP vengono sostituiti.
Passaggio 4: arruola il pod dei servizi in kubernetes
Dopo la distribuzione del campione nel sistema, otterremo l'elenco dei servizi in esecuzione in Kubernetes. Per recuperare informazioni su tutti i pod nel cluster, eseguiamo il comando:
> kubectl ottieni svc, pod
Quando abbiamo eseguito il comando, l'elenco dei servizi viene visualizzato sull'output. Il campione nei servizi è mostrato nell'elenco. Il nome, il tipo, il custer-IP, l'esterno-IP, le porte e l'età di pod e servizi sono visualizzati perfettamente tramite questo comando,. Il 'servizio/campione' ha il numero di porta '80', IP del cluster è '10.105.250.227 '.
Passaggio 5: creare criteri di rete NGNIX in Kubernetes
In questo passaggio, creeremo un file NGINX attraverso il quale creiamo una politica di rete nella nostra applicazione Kubernetes. Creeremo una politica di rete e quindi distribuiremo facilmente una politica di rete in Kubernetes con l'aiuto del comando kubectl. Il comando è:
> kubectl appliche -f https: // k8s.IO/Esempi/Service/Networking/NGNIX-Policy.Yaml
Nel comando, aggiungiamo un collegamento al file di rete delle politiche e forniamo il nome del file 'nginx-policy'. L'estensione del file del criterio di rete è "YAML". Quando questo comando viene eseguito, la cartella della politica di rete esiste già nel nostro sistema in cui il file Access-NGNix YAML viene creato correttamente. Il file di configurazione che viene applicato con questo comando è per l'oggetto di servizio Kubernetes, che espone un set di pod come servizi di rete.
Passaggio 6: creare ed eseguire un nuovo pod in Kubernetes
In questo passaggio, costruiremo un nuovo pod in un cluster di Kubernetes. Questo baccello eseguirà un contenitore in base alla scatola di impegno: 1.28 e avere un'immagine Docker. Eseguiremo il comando '/bin/sh' sullo strumento di riga di comando kubectl.
> kubectl run busybox - - rm - ti - - image = freneybox: 1 . 28 - - / bin / sh
Il comando "Kubectl run" crea una distribuzione nel cluster, responsabile della gestione di un insieme di repliche del pod. Un set di replica e un pod verranno automaticamente creati dalla distribuzione per il contenitore.
Conclusione
Con l'aiuto della politica di rete, possiamo facilmente stabilire connessioni tra diversi baccelli e contenitori. Puoi anche modificare questi comandi in base ai requisiti dell'applicazione di Kubernetes che ti aiuteranno per una migliore comprensione di questo argomento. Il networking di tutti i pod è molto importante e vantaggioso per i metadati dei pod.