Restructuración de los contenidos
Signed-off-by: Manuel Vergara <manuel@vergaracarmona.es>
This commit is contained in:
parent
8641fe3c6b
commit
de7a4de537
182
guias/01-kubectl.md
Normal file
182
guias/01-kubectl.md
Normal file
@ -0,0 +1,182 @@
|
||||
# Instalación kubectl
|
||||
|
||||
**Índice**
|
||||
- [Instalación kubectl](#instalación-kubectl)
|
||||
- [Ayuda de kubeclt](#ayuda-de-kubeclt)
|
||||
- [Resultados de kubectl con colores: kubecolors](#resultados-de-kubectl-con-colores-kubecolors)
|
||||
|
||||
---
|
||||
|
||||
*Documentación oficial: https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/*
|
||||
|
||||
Lo primero que debemos hacer para instalar kubectl es descargamos los paquetes.
|
||||
```shell
|
||||
curl -LO "https://dl.k8s.io/release/$(curl -L -s https://dl.k8s.io/release/stable.txt)/bin/linux/amd64/kubectl"
|
||||
```
|
||||
Descargamos validador kubectl checksum:
|
||||
```shell
|
||||
curl -LO "https://dl.k8s.io/$(curl -L -s https://dl.k8s.io/release/stable.txt)/bin/linux/amd64/kubectl.sha256"
|
||||
```
|
||||
Comprobamos
|
||||
```shell
|
||||
echo "$(cat kubectl.sha256) kubectl" | sha256sum --check
|
||||
```
|
||||
![](../img/kubernete-01.png)
|
||||
|
||||
Ahora ya podemos instalar
|
||||
```shell
|
||||
sudo install -o root -g root -m 0755 kubectl /usr/local/bin/kubectl
|
||||
```
|
||||
Para asegurarnos de que tenemos una versión actualizada.
|
||||
```shell
|
||||
kubectl version --client=true --output=yaml
|
||||
```
|
||||
Ponemos `--cliente=true` porque si no se intentaría conectar a un clúster kubernetes y trataría de descargar la versión kubernetes del clúster. Para un formato más legible controlamos la salida con `--output=yaml|json]`
|
||||
|
||||
## Ayuda de kubeclt
|
||||
|
||||
Podemos encontrar muy buena [documentación oficial](https://kubernetes.io/docs/reference/generated/kubectl/kubectl-commands), pero también se puede ver la ayuda del cliente con
|
||||
```shell
|
||||
kubectl --help
|
||||
```
|
||||
![](../img/ayuda.png)
|
||||
|
||||
> *Trascripción traducida de la ayuda de kubectl*
|
||||
```shell
|
||||
kubectl controla el gestor de clústeres de Kubernetes.
|
||||
|
||||
Encontrará más información en: https://kubernetes.io/docs/reference/kubectl/
|
||||
|
||||
Comandos básicos (principiante):
|
||||
create Crear un recurso desde un archivo o desde stdin
|
||||
expose Tomar un controlador de replicación, servicio, despliegue o pod y exponerlo como un nuevo servicio Kubernetes
|
||||
run Ejecutar una imagen particular en el cluster
|
||||
set Establecer características específicas en los objetos
|
||||
|
||||
Comandos básicos (Intermedio):
|
||||
explain Obtener la documentación de un recurso
|
||||
get Mostrar uno o varios recursos
|
||||
edit Editar un recurso en el servidor
|
||||
delete Eliminar recursos por nombres de archivo, stdin, recursos y nombres, o por recursos y selector de etiqueta
|
||||
|
||||
Comandos de despliegue:
|
||||
rollout Gestionar el despliegue de un recurso
|
||||
scale Establecer un nuevo tamaño para un despliegue, conjunto de réplicas o controlador de replicación
|
||||
autoscale Escala automáticamente un despliegue, un conjunto de réplicas, un conjunto con estado o un controlador de replicación
|
||||
|
||||
Comandos de gestión del clúster:
|
||||
certificate Modificar los recursos del certificado.
|
||||
cluster-info Mostrar información del cluster
|
||||
top Mostrar el uso de recursos (CPU/memoria)
|
||||
cordon Marcar un nodo como no programable
|
||||
uncordon Marcar el nodo como programable
|
||||
drain Drenar el nodo en preparación para el mantenimiento
|
||||
taint Actualizar los taints de uno o más nodos
|
||||
|
||||
Comandos de solución de problemas y depuración:
|
||||
describe Mostrar los detalles de un recurso específico o de un grupo de recursos
|
||||
logs Imprimir los registros de un contenedor en un pod
|
||||
attach Adjuntar a un contenedor en ejecución
|
||||
exec Ejecutar un comando en un contenedor
|
||||
port-forward Reenviar uno o más puertos locales a un pod
|
||||
proxy Ejecutar un proxy al servidor de la API de Kubernetes
|
||||
cp Copiar archivos y directorios hacia y desde los contenedores
|
||||
auth Inspeccionar la autorización
|
||||
debug Crear sesiones de depuración para la resolución de problemas de cargas de trabajo y nodos
|
||||
|
||||
Comandos avanzados:
|
||||
diff Comparar una versión en vivo contra una versión aplicada
|
||||
apply Aplicar una configuración a un recurso por nombre de archivo o stdin
|
||||
patch Actualizar los campos de un recurso
|
||||
replace Reemplazar un recurso por nombre de archivo o stdin
|
||||
wait Experimental: Esperar una condición específica en uno o varios recursos
|
||||
kustomize Construir un objetivo de kustomize a partir de un directorio o una URL.
|
||||
|
||||
Settings Commands:
|
||||
label Actualizar las etiquetas de un recurso
|
||||
annotate Actualiza las anotaciones de un recurso
|
||||
completion Imprimir el código de finalización del shell para el shell especificado (bash, zsh, fish o powershell)
|
||||
|
||||
Otros Comandos:
|
||||
alpha Comandos para funciones en alpha
|
||||
api-resources Imprime los recursos de la API soportados en el servidor
|
||||
api-versions Imprime las versiones de la API admitidas en el servidor, en forma de "grupo/versión"
|
||||
config Modifica los archivos kubeconfig
|
||||
plugin Proporciona utilidades para interactuar con los plugins
|
||||
version Imprime la información de la versión del cliente y del servidor
|
||||
|
||||
Uso:
|
||||
kubectl [flags] [options]
|
||||
|
||||
Utilice "kubectl <command> --help" para obtener más información sobre un determinado comando.
|
||||
Utilice "kubectl options" para obtener una lista de opciones globales de la línea de comandos (se aplica a todos los comandos).
|
||||
```
|
||||
|
||||
Una herramienta gráfica para kubectl es *[lens](https://k8slens.dev/)*., Muestra los contenedores de una manera clara y también tiene gráficas (memoria, CPU, etc).
|
||||
|
||||
Para mostrar los contextos que están en el fichero kubeconfig o el archivo de configuración de kubectl
|
||||
```shell
|
||||
kubectl config get-contexts
|
||||
```
|
||||
|
||||
Para mostrar los namespaces:
|
||||
```shell
|
||||
kubectl get ns
|
||||
```
|
||||
Con el clúster recien creado aparecerán los namespaces por defecto que vienen con cualquier clúster.
|
||||
|
||||
![](../img/get-ns.png)
|
||||
|
||||
Para ver los pods que están corriendo
|
||||
```shell
|
||||
kubectl -n kube-system get pods
|
||||
```
|
||||
![](../img/kube-system-n-get-pods.png)
|
||||
|
||||
`kube-system` es un namespace que utiliza kubernetes para correr los pods de sistema.
|
||||
|
||||
Tomando un ejemplo, `do-node-agent-9rt5c` es un agente que corre DigitalOcean en sus nodos para hacer algún tipo de recolección de datos o monitoreo. El final alfanumérico es porque ha sido generado por el template de pods *deployment*, todos los pods tendrá ese hash en el nombre.
|
||||
|
||||
La segunda columna indica el número de pods activos y los que existen. El estado, está claro, después están las columnas de los reinicios efectuados y la de el tiempo que lleva arrancado.
|
||||
|
||||
Con la opción `-o wide` mostrará un poco más de información.
|
||||
|
||||
![](../img/kube-system-n-get-pods-o-wide.png)
|
||||
|
||||
Vamos a probar lo que dicen de kubernetes de que si se borra un pod se creará uno nuevo.
|
||||
```shell
|
||||
kubectl -n kube-system delete pod do-node-agent-9rt5c
|
||||
```
|
||||
Inmediatamente muestro los pods y se puede ver como lo está creando de nuevo.
|
||||
![](../img/delete-pod-agent.png)
|
||||
|
||||
El pod es nuevo, tiene otro hash. Así que esto asegura que siempre estén el mismo número de pods.
|
||||
|
||||
## Resultados de kubectl con colores: kubecolors
|
||||
Para verlo con colores se puede instalar el plugin de kubectl que se llama *[kubecolors](https://github.com/hidetatz/kubecolor)*
|
||||
|
||||
*En ubuntu:*
|
||||
```shell
|
||||
wget http://archive.ubuntu.com/ubuntu/pool/universe/k/kubecolor/kubecolor_0.0.20-1_amd64.deb
|
||||
```
|
||||
```shell
|
||||
sudo dpkg -i kubecolor_0.0.20-1_amd64.deb
|
||||
```
|
||||
```shell
|
||||
sudo apt update && sudo apt install kubecolor -y
|
||||
|
||||
```
|
||||
```shell
|
||||
kubecolor --context=[tu_contexto] get pods -o json
|
||||
```
|
||||
```shell
|
||||
kubecolor --context=do-ams3-k8s-1-24-4-do-0-ams3-..... get pods -o json
|
||||
```
|
||||
```shell
|
||||
alias kubectl="kubecolor"
|
||||
```
|
||||
![](../img/get-nodes-color.png)
|
||||
|
||||
---
|
||||
|
||||
[01 Instalación kubctl](guias/01-kubectl.md) --> [02 Clústers](guias/02-clusters.md) --> [03 manifiestos](guias/03-manifiestos.md) --> [04 Cheatsheet kubernetes](guias/04-cheatsheet.md) --> [05 Helm: Control de despliegues en Kubernetes](guias/05-helm.md)
|
203
guias/02-clusters.md
Normal file
203
guias/02-clusters.md
Normal file
@ -0,0 +1,203 @@
|
||||
# Clústers
|
||||
|
||||
**Índice**
|
||||
|
||||
- [Clústers en local](#clústers-en-local)
|
||||
- [kind](#kind)
|
||||
- [minikube](#minikube)
|
||||
- [MicroK8s](#microk8s)
|
||||
- [Instalación MicroK8s](#instalación-microk8s)
|
||||
- [Unirse al grupo](#unirse-al-grupo)
|
||||
- [Comprobar estado](#comprobar-estado)
|
||||
- [Acceso a Kubernetes](#acceso-a-kubernetes)
|
||||
- [Desplegar una aplicación](#desplegar-una-aplicación)
|
||||
- [Utilizar complementos](#utilizar-complementos)
|
||||
- [Iniciando y deteniendo MicroK8s](#iniciando-y-deteniendo-microk8s)
|
||||
- [Clúster remoto](#clúster-remoto)
|
||||
- [Digital Ocean](#digital-ocean)
|
||||
- [Resumen conexión de cluster Digital Ocean](#resumen-conexión-de-cluster-digital-ocean)
|
||||
|
||||
|
||||
## Clústers en local
|
||||
|
||||
### kind
|
||||
|
||||
En **Linux**, podemos instalar [kind](https://kind.sigs.k8s.io/)
|
||||
|
||||
![](../img/kind.png)
|
||||
|
||||
[Guía de instalación de Kind](https://kind.sigs.k8s.io/docs/user/quick-start)
|
||||
|
||||
En Linux tan solo hay que usar los siguientes comandos:
|
||||
|
||||
```shell
|
||||
curl -Lo ./kind https://kind.sigs.k8s.io/dl/v0.16.0/kind-linux-amd64
|
||||
chmod +x ./kind
|
||||
sudo mv ./kind /usr/local/bin/kind
|
||||
```
|
||||
|
||||
Una vez instalado, la creación de un clúster es tan sencillo como este comando:
|
||||
|
||||
```shell
|
||||
kind create cluster
|
||||
```
|
||||
|
||||
Para listar los clústeres:
|
||||
|
||||
```shell
|
||||
kind get clusters
|
||||
```
|
||||
|
||||
Para eliminarlo:
|
||||
|
||||
```shell
|
||||
kind delete cluster
|
||||
```
|
||||
|
||||
En este punto puede interesar crear un cluster con varios nodos y con un controlador de ingress con nginx. Este script lo hará todo por ti: [config_kind_with_ingress.sh](files/config_kind_with_ingress.sh)
|
||||
|
||||
Se le debe dar los permisos adecuados al script.
|
||||
|
||||
```shell
|
||||
chmod +x config_kind_with_ingress.sh
|
||||
```
|
||||
|
||||
### minikube
|
||||
También podemos instalar minikube https://minikube.sigs.k8s.io/docs/ que instala todos los componentes de kubernetes en una MV y además tiene una serie de plugins para darle funcionalidades con una serie de paquetes precinfigurados.
|
||||
|
||||
![](../img/minikube.png)
|
||||
|
||||
### MicroK8s
|
||||
|
||||
MicroK8s instalará un Kubernetes mínimo y ligero que puede ejecutar y utilizar en prácticamente cualquier máquina.
|
||||
|
||||
[*Instalación microk8s*](https://microk8s.io/docs/getting-started)
|
||||
#### Instalación MicroK8s
|
||||
Se puede instalar con un snap:
|
||||
```shell
|
||||
sudo snap install microk8s --classic --channel=1.25
|
||||
```
|
||||
|
||||
#### Unirse al grupo
|
||||
|
||||
MicroK8s crea un grupo para permitir el uso sin problemas de los comandos que requieren privilegios de administrador. Para añadir su usuario actual al grupo y obtener acceso al directorio de caché .kube, ejecute los siguientes dos comandos:
|
||||
```shell
|
||||
sudo usermod -a -G microk8s $USER
|
||||
```
|
||||
```shell
|
||||
sudo chown -f -R $USER ~/.kube
|
||||
```
|
||||
También tendrá que volver a entrar en la sesión para que la actualización del grupo se lleve a cabo:
|
||||
```shell
|
||||
su - $USER
|
||||
```
|
||||
Y se comprueba examinando los grupos de pertenencia del usuario:
|
||||
```shell
|
||||
id -nG
|
||||
```
|
||||
|
||||
#### Comprobar estado
|
||||
|
||||
MicroK8s tiene un comando incorporado para mostrar su estado. Durante la instalación puede utilizar el indicador --wait-ready para esperar a que los servicios de Kubernetes se inicialicen:
|
||||
```shell
|
||||
microk8s status --wait-ready
|
||||
```
|
||||
|
||||
#### Acceso a Kubernetes
|
||||
|
||||
MicroK8s incluye su propia versión de kubectl para acceder a Kubernetes. Utilícelo para ejecutar comandos para monitorear y controlar su Kubernetes. Por ejemplo, para ver su nodo:
|
||||
```shell
|
||||
microk8s kubectl get nodes
|
||||
```
|
||||
...o para ver los servicios en ejecución:
|
||||
```shell
|
||||
microk8s kubectl get services
|
||||
```
|
||||
MicroK8s utiliza un comando kubectl con espacio de nombre para evitar conflictos con cualquier instalación existente de kubectl. Si usted no tiene una instalación existente, es más fácil añadir un alias (añadir a ~/.bash_aliases) como este:
|
||||
```shell
|
||||
alias kubectl='microk8s kubectl'
|
||||
```
|
||||
#### Desplegar una aplicación
|
||||
|
||||
Por supuesto, Kubernetes está pensado para desplegar aplicaciones y servicios. Puedes usar el comando kubectl para hacerlo como con cualquier Kuberenetes. Prueba a instalar una app de demostración:
|
||||
```shell
|
||||
microk8s kubectl create deployment nginx --image=nginx
|
||||
```
|
||||
Puede tardar uno o dos minutos en instalarse, pero puedes comprobar el estado:
|
||||
```shell
|
||||
microk8s kubectl get pods
|
||||
```
|
||||
#### Utilizar complementos
|
||||
|
||||
MicroK8s utiliza el mínimo de componentes para un Kubernetes puro y ligero. ¡Sin embargo, hay un montón de características adicionales disponibles con unas pocas pulsaciones de teclas utilizando "add-ons" - componentes pre-empaquetados que proporcionarán capacidades adicionales para su Kubernetes, desde la simple gestión de DNS hasta el aprendizaje automático con Kubeflow!
|
||||
|
||||
Para empezar se recomienda añadir la gestión de DNS para facilitar la comunicación entre servicios. Para las aplicaciones que necesitan almacenamiento, el complemento "storage" proporciona espacio de directorio en el host. Esto es fácil de configurar:
|
||||
```shell
|
||||
microk8s enable dns storage
|
||||
```
|
||||
[Lista completa de complementos](https://microk8s.io/docs/addons#heading--list)
|
||||
|
||||
#### Iniciando y deteniendo MicroK8s
|
||||
|
||||
MicroK8s continuará funcionando hasta que usted decida detenerlo. Puede detener e iniciar MicroK8s con estos simples comandos:
|
||||
```shell
|
||||
microk8s stop
|
||||
```
|
||||
... detendrá MicroK8s y sus servicios. Puede iniciar de nuevo en cualquier momento ejecutando
|
||||
```shell
|
||||
microk8s start
|
||||
```
|
||||
Tenga en cuenta que **si deja MicroK8s funcionando, se reiniciará automáticamente después de un reinicio.** Si no quiere que esto ocurra, simplemente recuerde ejecutar microk8s stop antes de apagar.
|
||||
|
||||
## Clúster remoto
|
||||
|
||||
### Digital Ocean
|
||||
En esta guía utilizaré [DigitalOcean](https://m.do.co/c/98c9ca613f37), con 3 nodos kubernetes de los baratitos.
|
||||
|
||||
![](../img/DigitalOcean.png)
|
||||
|
||||
Para conectar kubectl con el cluster de kubernetes se debe desarcargar el fichero *kubeconfig* que es donde están declarados los contextos de kubernetes. Es una combinación de la url del servidor con las credenciales de lo que se haya instalado.
|
||||
|
||||
![](../img/kubeconfig.png)
|
||||
|
||||
*Con minikube no tendríamos que hacer nada porque se configura automáticamente.*
|
||||
|
||||
Se exporta en una variable de entorno
|
||||
```shell
|
||||
kubectl --kubeconfig=/<pathtodirectory>/k8s-1-24-4-do-0...........yaml get nodes
|
||||
```
|
||||
Y podremos comprobar los nodos con
|
||||
```shell
|
||||
kubectl get nodes
|
||||
```
|
||||
|
||||
![](../img/get-nodes.png)
|
||||
|
||||
#### Resumen conexión de cluster Digital Ocean
|
||||
Para que tenga el color y todo
|
||||
```shell
|
||||
export KUBECONFIG=~/Downloads/k8s-1-20.... get nodes
|
||||
```
|
||||
Comprobamos
|
||||
```shell
|
||||
kubectl get nodes
|
||||
```
|
||||
Vemos el contexto
|
||||
```shell
|
||||
kubectl config get-contexts
|
||||
```
|
||||
Añadimos el contexto en el plugin del color
|
||||
```shell
|
||||
kubecolor --context=do-ams3-k8s-1-24-4-do-...... get pods -o json
|
||||
```
|
||||
Nos aseguramos del alias y volvemos a comprobar
|
||||
```shell
|
||||
alias kubectl="kubecolor"
|
||||
```
|
||||
```shell
|
||||
kubectl get nodes
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
[01 Instalación kubctl](guias/01-kubectl.md) --> [02 Clústers](guias/02-clusters.md) --> [03 manifiestos](guias/03-manifiestos.md) --> [04 Cheatsheet kubernetes](guias/04-cheatsheet.md) --> [05 Helm: Control de despliegues en Kubernetes](guias/05-helm.md)
|
945
guias/03-manifiestos.md
Normal file
945
guias/03-manifiestos.md
Normal file
@ -0,0 +1,945 @@
|
||||
|
||||
# Manifiestos de Pelado Nerd
|
||||
**Índice**
|
||||
- [Manifiestos de Pelado Nerd](#manifiestos-de-pelado-nerd)
|
||||
- [Manifiesto de POD](#manifiesto-de-pod)
|
||||
- [Otro Manifiesto de POD](#otro-manifiesto-de-pod)
|
||||
- [Manifiesto de Deployment](#manifiesto-de-deployment)
|
||||
- [Manifiesto de daemonset](#manifiesto-de-daemonset)
|
||||
- [Manifiesto de statefulset](#manifiesto-de-statefulset)
|
||||
- [Manifiesto cluster ip](#manifiesto-cluster-ip)
|
||||
- [Pod Networking](#pod-networking)
|
||||
- [Kube-proxy](#kube-proxy)
|
||||
- [Manifiesto nodeport](#manifiesto-nodeport)
|
||||
- [Manifiesto load balancer](#manifiesto-load-balancer)
|
||||
- [Manifiesto versiones e ingress](#manifiesto-versiones-e-ingress)
|
||||
- [Manifiesto configmap](#manifiesto-configmap)
|
||||
- [Manifiesto secret](#manifiesto-secret)
|
||||
- [Manifiesto kustomization](#manifiesto-kustomization)
|
||||
- [stern](#stern)
|
||||
|
||||
## Manifiesto de POD
|
||||
Ahora utilizaremos un manifiesto de un pod del [pelado Nerd](https://github.com/pablokbs/peladonerd/tree/master/kubernetes/35) llamado [01-pod.ymal](../file/yaml-del-pelado/01-pod.yaml)
|
||||
|
||||
```yaml
|
||||
apiVersion: v1
|
||||
kind: Pod
|
||||
metadata:
|
||||
name: nginx
|
||||
spec:
|
||||
containers:
|
||||
- name: nginx
|
||||
image: nginx:alpine
|
||||
|
||||
```
|
||||
Tendremos:
|
||||
- La *versión de la API* de este recurso de kubernetes. Se debe extraer de la documentación de kubernetes.
|
||||
- El *recurso*
|
||||
- En *metadata* podemos poner algunos valores que identifiquen nuestro pod. Siempre tiene que tener un `name`.
|
||||
- En las *especificaciones* declaramos los contenedores que corren. En este caso ponemos el nombre y la imagén en concreto.
|
||||
|
||||
Para aplicar este manifiesto
|
||||
```shell
|
||||
kubectl apply -f 01-pod.yaml
|
||||
```
|
||||
Si no especificamos un namespaces lo aplica en el que tenemos por defecto. Podremos mostrar que ya está corriendo.
|
||||
|
||||
![](../img/apply-nginx.png)
|
||||
|
||||
Ahora, para correr un comando dentro del pod usaremos este comando
|
||||
```shell
|
||||
kubectl exec -it nginx -- sh
|
||||
```
|
||||
Con la misma opción de docker, `-it` nos permite que sea interactivo.
|
||||
|
||||
![](../img/exec-it-sh.png)
|
||||
|
||||
Para salir es con `CTRL+d`.
|
||||
|
||||
Borrar un pod
|
||||
```shell
|
||||
kubectl delete pod nginx
|
||||
```
|
||||
Como no se creo la orden para mantener siempre un pod, el pod desapareció.
|
||||
|
||||
## Otro Manifiesto de POD
|
||||
|
||||
Otro manifiesto de un pod del [pelado Nerd](https://github.com/pablokbs/peladonerd/tree/master/kubernetes/35) llamado [02-pod.ymal](../file/yaml-del-pelado/02-pod.yaml) es lo mismo pero con más opciones.
|
||||
|
||||
```yaml
|
||||
apiVersion: v1
|
||||
kind: Pod
|
||||
metadata:
|
||||
name: nginx
|
||||
spec:
|
||||
containers:
|
||||
- name: nginx
|
||||
image: nginx:alpine
|
||||
env:
|
||||
- name: MI_VARIABLE
|
||||
value: "pelado"
|
||||
- name: MI_OTRA_VARIABLE
|
||||
value: "pelade"
|
||||
- name: DD_AGENT_HOST
|
||||
valueFrom:
|
||||
fieldRef:
|
||||
fieldPath: status.hostIP
|
||||
resources:
|
||||
requests:
|
||||
memory: "64Mi"
|
||||
cpu: "200m" # son milicores, cada core tiene 1000 milicores
|
||||
limits:
|
||||
memory: "128Mi"
|
||||
cpu: "500m"
|
||||
readinessProbe:
|
||||
httpGet:
|
||||
path: /
|
||||
port: 80
|
||||
initialDelaySeconds: 5
|
||||
periodSeconds: 10
|
||||
livenessProbe:
|
||||
tcpSocket:
|
||||
port: 80
|
||||
initialDelaySeconds: 15
|
||||
periodSeconds: 20
|
||||
ports:
|
||||
- containerPort: 80
|
||||
```
|
||||
|
||||
En este tenemos más especificaciones:
|
||||
- *Variables de entorno* como clave-valor. Con `DD_AGENT_HOST` podemos pasar el valor de otro sitio gracias a *[Downward](https://kubernetes.io/docs/concepts/workloads/pods/downward-api/)* de kubernetes, que son valores que se pueden heredar, en este caso indicamos la ip del host donde va a correr este pod: `status.hostIP`.
|
||||
- Se indican los recursos que se garantizan por contenedor con `requests` y los limites con `limits`. Los límites provocan que el kernel de Linux haga CPU Throttling, es decir, ahorcará el proceso hasta que use la velocidad límite y si no lo matará y esto hará que se cree otro pod.
|
||||
- *ReadinessProbe* es una forma de explicarle a kubernetes de que el pod está preparado para recibir tráfico. Kubernetes comprueba la raíz esperando un status code 200.
|
||||
- *livenessProbe* es una forma de explicarle a kubernetes de que el pod está vivo y no quieres que lo mate. Kubernetes comprueba el socker del puerto 80 de que está vivo.
|
||||
- Por último tenemos el *puerto* que queremos poner.
|
||||
|
||||
Vamos a correrlo
|
||||
```shell
|
||||
kubectl apply -f pelado_nerd_pruebas/kubernetes/35/02-pod.yaml
|
||||
```
|
||||
Podemos ver el estado del pod con
|
||||
```shell
|
||||
kubectl get pod nginx
|
||||
```
|
||||
Y además veremos el yaml si le añadimos la opción `-o yaml` con todas las variables y parámetros por defecto que le ha añadido kubernetes.
|
||||
```shell
|
||||
kubectl get pod nginx -o yaml
|
||||
```
|
||||
## Manifiesto de Deployment
|
||||
Pero para trabajar con kubernetes, no deberíamos levantar el recurso mínimo como son los pods, es mejor aprocechar la capacidad de orquestación de la herramienta y levantar deployment. Lo encontraremos en otro manifiesto de un deployment del [pelado Nerd](https://github.com/pablokbs/peladonerd/tree/master/kubernetes/35) llamado [04-deployment.yaml](../file/yaml-del-pelado/04-deployment.yaml).
|
||||
```yaml
|
||||
apiVersion: apps/v1
|
||||
kind: Deployment
|
||||
metadata:
|
||||
name: nginx-deployment
|
||||
spec:
|
||||
selector:
|
||||
matchLabels:
|
||||
app: nginx
|
||||
replicas: 2
|
||||
template:
|
||||
metadata:
|
||||
labels:
|
||||
app: nginx
|
||||
spec:
|
||||
containers:
|
||||
- name: nginx
|
||||
image: nginx:alpine
|
||||
env:
|
||||
- name: MI_VARIABLE
|
||||
value: "pelado"
|
||||
- name: MI_OTRA_VARIABLE
|
||||
value: "pelade"
|
||||
- name: DD_AGENT_HOST
|
||||
valueFrom:
|
||||
fieldRef:
|
||||
fieldPath: status.hostIP
|
||||
resources:
|
||||
requests:
|
||||
memory: "64Mi"
|
||||
cpu: "200m"
|
||||
limits:
|
||||
memory: "128Mi"
|
||||
cpu: "500m"
|
||||
readinessProbe:
|
||||
httpGet:
|
||||
path: /
|
||||
port: 80
|
||||
initialDelaySeconds: 5
|
||||
periodSeconds: 10
|
||||
livenessProbe:
|
||||
tcpSocket:
|
||||
port: 80
|
||||
initialDelaySeconds: 15
|
||||
periodSeconds: 20
|
||||
ports:
|
||||
- containerPort: 80
|
||||
```
|
||||
|
||||
Es muy parecido al yaml de los pods pero especificando como una plantilla de pods en el `spec` dentro del `spec`.
|
||||
|
||||
Las réplicas son el número de pods que queremos dentro del deployment.
|
||||
|
||||
Aplicamos el manifiesto
|
||||
```shell
|
||||
kubectl apply -f 04-deployment.yaml
|
||||
```
|
||||
Y veremos como ha desplegado las 2 réplicas que se indica en el manifiesto.
|
||||
|
||||
![](../img/apply-deployment.png)
|
||||
|
||||
Ahora sí que si borramos uno de los pods, como en el manifiesto indicamos 2 réplicas, kubernetes lo creará de nuevo.
|
||||
|
||||
![](../img/delete-pod-nginx.png)
|
||||
|
||||
Para borrar el deployment utilizaremos el mismo yaml con el que lo corrimos.
|
||||
```shell
|
||||
kubectl delete -f 04-deployment.yaml
|
||||
```
|
||||
## Manifiesto de daemonset
|
||||
`daemonset` es otra forma de deployment un pod pero en este caso será un pod en cada uno de los nodos existente. No indicas las réplicas por eso. Sirve, por ejemplo, para despliegues de servicios de monitoreo. De nuevo, vamos a un manifiesto de un daemonset del [pelado Nerd](https://github.com/pablokbs/peladonerd/tree/master/kubernetes/35) llamado [03-daemonset.yaml](../file/yaml-del-pelado/03-daemonset.yaml).
|
||||
```yaml
|
||||
apiVersion: apps/v1
|
||||
kind: DaemonSet
|
||||
metadata:
|
||||
name: nginx-deployment
|
||||
spec:
|
||||
selector:
|
||||
matchLabels:
|
||||
app: nginx
|
||||
template:
|
||||
metadata:
|
||||
labels:
|
||||
app: nginx
|
||||
spec:
|
||||
containers:
|
||||
- name: nginx
|
||||
image: nginx:alpine
|
||||
env:
|
||||
- name: MI_VARIABLE
|
||||
value: "pelado"
|
||||
- name: MI_OTRA_VARIABLE
|
||||
value: "pelade"
|
||||
- name: DD_AGENT_HOST
|
||||
valueFrom:
|
||||
fieldRef:
|
||||
fieldPath: status.hostIP
|
||||
resources:
|
||||
requests:
|
||||
memory: "64Mi"
|
||||
cpu: "200m"
|
||||
limits:
|
||||
memory: "128Mi"
|
||||
cpu: "500m"
|
||||
readinessProbe:
|
||||
httpGet:
|
||||
path: /
|
||||
port: 80
|
||||
initialDelaySeconds: 5
|
||||
periodSeconds: 10
|
||||
livenessProbe:
|
||||
tcpSocket:
|
||||
port: 80
|
||||
initialDelaySeconds: 15
|
||||
periodSeconds: 20
|
||||
ports:
|
||||
- containerPort: 80
|
||||
```
|
||||
Veremos como se han desplegado 3 pods, uno por nodo.
|
||||
|
||||
![](../img/apply-daemonset.png)
|
||||
|
||||
Borramos de nuevo con el fichero
|
||||
```shell
|
||||
kubectl delete -f pelado_nerd_pruebas/kubernetes/35/03-daemonset.yaml
|
||||
```
|
||||
|
||||
## Manifiesto de statefulset
|
||||
`statefulset` podemos crear pods con volumenes que estarán atados. Es la manera de que los datos sean persistentes, como en Docker. Sirve, por ejemplo, para las BBDD. El manifiesto de statefulset del [pelado Nerd](https://github.com/pablokbs/peladonerd/tree/master/kubernetes/35) llamado [05-statefulset.yaml](../file/yaml-del-pelado/05-statefulset.yaml).
|
||||
|
||||
```yaml
|
||||
apiVersion: apps/v1
|
||||
kind: StatefulSet
|
||||
metadata:
|
||||
name: my-csi-app-set
|
||||
spec:
|
||||
selector:
|
||||
matchLabels:
|
||||
app: mypod
|
||||
serviceName: "my-frontend"
|
||||
replicas: 1
|
||||
template:
|
||||
metadata:
|
||||
labels:
|
||||
app: mypod
|
||||
spec:
|
||||
containers:
|
||||
- name: my-frontend
|
||||
image: busybox
|
||||
args:
|
||||
- sleep
|
||||
- infinity
|
||||
volumeMounts:
|
||||
- mountPath: "/data"
|
||||
name: csi-pvc
|
||||
volumeClaimTemplates:
|
||||
- metadata:
|
||||
name: csi-pvc
|
||||
spec:
|
||||
accessModes:
|
||||
- ReadWriteOnce
|
||||
resources:
|
||||
requests:
|
||||
storage: 5Gi
|
||||
storageClassName: do-block-storage
|
||||
```
|
||||
Dentro de `volumeClaimTemplates` se le dan las especificaciones al volumen y, en concreto, `storageClassName: do-block-storage` es un driver que permite construir un volumen digital en DigitalOcean. Cuando se aplique este manifiesto se creará automáticamente el volumen de 5 Gb y se conectará al clúster de kubernetes.
|
||||
```shell
|
||||
kubectl apply -f kubernetes/35/05-statefulset.yaml
|
||||
```
|
||||
Ahora vamos a ver los detalles de un pod
|
||||
```shell
|
||||
kubectl describe pod my-csi-app-set-0
|
||||
```
|
||||
|
||||
![](../img/describe-pod.png)
|
||||
|
||||
En la parte superior salen todas las descripciones habituales. Más abajo aparecen los eventos del pod.
|
||||
|
||||
![](../img/eventos-pod.png)
|
||||
|
||||
En los eventos se puede ver como intentó crear un pvc (PersistentVolumeClaims). Es un pedido desde kubernetes al proveedor. Se pueden ver con el siguiente comando.
|
||||
```shell
|
||||
kubectl get pvc
|
||||
```
|
||||
![](../img/get-pvc.png)
|
||||
|
||||
Podemos pedir el `describe` del pvc
|
||||
```shell
|
||||
kubectl describe pvc csi-pvc-my-csi-app-set-0
|
||||
```
|
||||
Vewremos sus descripción y los eventos.
|
||||
![](../img/describe-pvc.png)
|
||||
|
||||
Si vamos al dashboard de DigitalOCean podremos ver en volumenes el recien creado.
|
||||
![](../img/volumen-digitalocean.png)
|
||||
|
||||
|
||||
Ahora si miramos los statefilsets y borramos por su nombre, el volumen quedará.
|
||||
```shell
|
||||
kubectl get statefulsets
|
||||
```
|
||||
```shell
|
||||
kubectl delete sts [nombre-del-statefulsets]
|
||||
```
|
||||
|
||||
![](../img/delete-sts.png)
|
||||
|
||||
Tendremos que borrar expresamente el volumen si nos queremos deshacer de él.
|
||||
|
||||
```shell
|
||||
kubectl delete pvc csi-pvc-my-csi-app-set-0
|
||||
```
|
||||
|
||||
## Manifiesto cluster ip
|
||||
|
||||
Antes de aplicar el manifiesto, unas explicaciones aclaratorias.
|
||||
### Pod Networking
|
||||
|
||||
![](../img/pod-networking.png)
|
||||
|
||||
**calico** es un agente que corre en cada nodo que crea rutas IPs para enrutar entre cada uno de los nodos.
|
||||
|
||||
**etcd** es la BBDD de kubernetes donde se guardan los estados.
|
||||
|
||||
### Kube-proxy
|
||||
|
||||
![](../img/kube-proxy.png)
|
||||
|
||||
Los servicios en Kubernetes son una forma de poder contactar entre aaplicaciones, ya sea desde dentro del clúster entre pods o desde fuera. Hay 3 tipos:
|
||||
- **Clúster IP** - Una especie de load balancer entre pods
|
||||
- **Node Port** - crea un puerto en cada nodo que crea el servicio entre los pods que se configuren. Lo encontrarán `kube-proxy`.
|
||||
- **Load Balancer** - Crea un balancedor de carga en el proveedor de cloud para redireccionar el tráfico a los pods.
|
||||
|
||||
Ahora vamos a aplicar el fichero yaml [06-randompod.yaml](../file/yaml-del-pelado/06-randompod.yaml) que lo que hará es levantar un ubuntu sleep. Podremos entrar a este pod para acceder al resto.
|
||||
```yaml
|
||||
apiVersion: v1
|
||||
kind: Pod
|
||||
metadata:
|
||||
name: ubuntu
|
||||
spec:
|
||||
containers:
|
||||
- name: ubuntu
|
||||
image: ubuntu
|
||||
args:
|
||||
- sleep
|
||||
- infinity
|
||||
```
|
||||
|
||||
```shell
|
||||
kubectl apply -f kubernetes/35/06-randompod.yaml
|
||||
```
|
||||
|
||||
El resto será el fichero yaml [07-hello-deployment-svc-clusterIP.yaml](../file/yaml-del-pelado/07-hello-deployment-svc-clusterIP.yaml)
|
||||
```yaml
|
||||
apiVersion: apps/v1
|
||||
kind: Deployment
|
||||
metadata:
|
||||
name: hello
|
||||
spec:
|
||||
replicas: 3
|
||||
selector:
|
||||
matchLabels:
|
||||
role: hello
|
||||
template:
|
||||
metadata:
|
||||
labels:
|
||||
role: hello
|
||||
spec:
|
||||
containers:
|
||||
- name: hello
|
||||
image: gcr.io/google-samples/hello-app:1.0
|
||||
ports:
|
||||
- containerPort: 8080
|
||||
|
||||
---
|
||||
apiVersion: v1
|
||||
kind: Service
|
||||
metadata:
|
||||
name: hello
|
||||
spec:
|
||||
ports:
|
||||
- port: 8080
|
||||
targetPort: 8080
|
||||
selector:
|
||||
role: hello
|
||||
```
|
||||
Para verlo todo solicitaremos que lo muestre con el siguiente comando
|
||||
```shell
|
||||
kubectl get all
|
||||
```
|
||||
![](../img/get-all.png)
|
||||
|
||||
Podemos ver las IPs de los clústers pero no las de los pods. Pero podemos pedir un describe del servicio para más detalles.
|
||||
```shell
|
||||
kubectl describe svc hello
|
||||
```
|
||||
![](../img/describe-svc.png)
|
||||
|
||||
Los `Endpoints` son las IPs de cada uno de los pods.
|
||||
|
||||
Tamnbién se pueden ver con un get pods detallado.
|
||||
```shell
|
||||
kubectl get pods -o wide
|
||||
```
|
||||
![](../img/get-pod-wide-ip.png)
|
||||
|
||||
Si matamos un pod, automáticamente se volverá a crear y será balanceado por el servicio.
|
||||
|
||||
![](../img/balanceo-ip.png)
|
||||
|
||||
Para poder hacer ping tengo que instalar un ubuntu con iputils: https://hub.docker.com/r/mmoy/ubuntu-netutils/
|
||||
|
||||
Lo cambio en el manifiesto quedando así
|
||||
```yaml
|
||||
apiVersion: v1
|
||||
kind: Pod
|
||||
metadata:
|
||||
name: ubuntu
|
||||
spec:
|
||||
containers:
|
||||
- name: ubuntu
|
||||
image: mmoy/ubuntu-netutils
|
||||
args:
|
||||
- sleep
|
||||
- infinity
|
||||
```
|
||||
|
||||
Ahora ya puedo hacer las comprobaciones desde el pod ubuntu con ping y curl para ver como balancea la carga.
|
||||
|
||||
![](../img/ping-curl-hello.png)
|
||||
|
||||
## Manifiesto nodeport
|
||||
|
||||
Borramos el anterior `hello` y vamos a aplicar el manifiesto [08-hello-deployment-svc-nodePort.yaml](../file/yaml-del-pelado/08-hello-deployment-svc-nodePort.yaml) del Pelado.
|
||||
|
||||
![](../img/delete-apply-nodeport.png)
|
||||
|
||||
El manifiesto es el siguiente
|
||||
```yaml
|
||||
apiVersion: apps/v1
|
||||
kind: Deployment
|
||||
metadata:
|
||||
name: hello
|
||||
spec:
|
||||
replicas: 3
|
||||
selector:
|
||||
matchLabels:
|
||||
role: hello
|
||||
template:
|
||||
metadata:
|
||||
labels:
|
||||
role: hello
|
||||
spec:
|
||||
containers:
|
||||
- name: hello
|
||||
image: gcr.io/google-samples/hello-app:1.0
|
||||
ports:
|
||||
- containerPort: 8080
|
||||
|
||||
---
|
||||
apiVersion: v1
|
||||
kind: Service
|
||||
metadata:
|
||||
name: hello
|
||||
spec:
|
||||
type: NodePort
|
||||
ports:
|
||||
- port: 8080
|
||||
targetPort: 8080
|
||||
nodePort: 30000
|
||||
selector:
|
||||
role: hello
|
||||
|
||||
```
|
||||
|
||||
En el anterior manifiesto no se especifico el tipo porque por defecto es de cluster ip. En cambio, en este se puede ver `type: NodePort`. Le podemos especificar el puerto de cada nodo para llegar al servicio: `nodePort: 30000`.
|
||||
|
||||
|
||||
Si mostramos los nodos detalladamente podremos ver las IPs de los nodos, si hacemos curl a la IP con el puerto especificado podremos ver el balanceo de carga.
|
||||
|
||||
![](../img/balaceador-nodeport.png)
|
||||
|
||||
Hace lo mismo que el cluster ip pero desde fuera, exponiendo el puerto al mundo.
|
||||
|
||||
## Manifiesto load balancer
|
||||
|
||||
En esta ocasión utilizaremos el documento [09-hello-deployment-svc-loadBalancer.yaml](../file/yaml-del-pelado/09-hello-deployment-svc-loadBalancer.yaml) del querido Pelado.
|
||||
|
||||
Es el siguiente
|
||||
```yaml
|
||||
apiVersion: apps/v1
|
||||
kind: Deployment
|
||||
metadata:
|
||||
name: hello
|
||||
spec:
|
||||
replicas: 3
|
||||
selector:
|
||||
matchLabels:
|
||||
role: hello
|
||||
template:
|
||||
metadata:
|
||||
labels:
|
||||
role: hello
|
||||
spec:
|
||||
containers:
|
||||
- name: hello
|
||||
image: gcr.io/google-samples/hello-app:1.0
|
||||
ports:
|
||||
- containerPort: 8080
|
||||
|
||||
---
|
||||
apiVersion: v1
|
||||
kind: Service
|
||||
metadata:
|
||||
name: hello
|
||||
spec:
|
||||
type: LoadBalancer
|
||||
ports:
|
||||
- port: 8080
|
||||
targetPort: 8080
|
||||
selector:
|
||||
role: hello
|
||||
```
|
||||
En este enseguida hemos visto que el tipo de servicio es `LoadBalancer`.
|
||||
|
||||
Nos aseguramos que borramos el anterior nodeport y aplicamos este
|
||||
|
||||
En esta ocasión, el servicio está `<pending>` ya que lo tiene que desplegar DigitalOcean y suele tardar un ratito.
|
||||
|
||||
![](../img/loadbalancer.png)
|
||||
|
||||
Es mejor hacer este tipo que nodeport, ya que nodeport está atado en cada nodo. En cambio, con loadbalancer siempre es la misma IP.
|
||||
|
||||
Si vamos al dashboard de DigitalOcean podremos ver el balanceador.
|
||||
|
||||
![](../img/balanceador-digitalocean.png)
|
||||
|
||||
Una vez desplegado ya tendremos nuestra ip y podremos comprobarla como balancea con curl.
|
||||
|
||||
![](../img/balanceador-curl.png)
|
||||
|
||||
|
||||
## Manifiesto versiones e ingress
|
||||
|
||||
Utilizaremos el fichero yaml [10-hello-v1-v2-deployment-svc.yaml](../file/yaml-del-pelado/10-hello-v1-v2-deployment-svc.yaml) del Pelado.
|
||||
|
||||
```yaml
|
||||
apiVersion: apps/v1
|
||||
kind: Deployment
|
||||
metadata:
|
||||
name: hello-v1
|
||||
spec:
|
||||
replicas: 3
|
||||
selector:
|
||||
matchLabels:
|
||||
role: hello-v1
|
||||
template:
|
||||
metadata:
|
||||
labels:
|
||||
role: hello-v1
|
||||
spec:
|
||||
containers:
|
||||
- name: hello-v1
|
||||
image: gcr.io/google-samples/hello-app:1.0
|
||||
ports:
|
||||
- containerPort: 8080
|
||||
|
||||
---
|
||||
|
||||
apiVersion: apps/v1
|
||||
kind: Deployment
|
||||
metadata:
|
||||
name: hello-v2
|
||||
spec:
|
||||
replicas: 3
|
||||
selector:
|
||||
matchLabels:
|
||||
role: hello-v2
|
||||
template:
|
||||
metadata:
|
||||
labels:
|
||||
role: hello-v2
|
||||
spec:
|
||||
containers:
|
||||
- name: hello-v2
|
||||
image: gcr.io/google-samples/hello-app:2.0
|
||||
ports:
|
||||
- containerPort: 8080
|
||||
|
||||
---
|
||||
apiVersion: v1
|
||||
kind: Service
|
||||
metadata:
|
||||
name: hello-v1
|
||||
spec:
|
||||
ports:
|
||||
- port: 8080
|
||||
targetPort: 8080
|
||||
selector:
|
||||
role: hello-v1
|
||||
|
||||
---
|
||||
apiVersion: v1
|
||||
kind: Service
|
||||
metadata:
|
||||
name: hello-v2
|
||||
spec:
|
||||
ports:
|
||||
- port: 8080
|
||||
targetPort: 8080
|
||||
selector:
|
||||
role: hello-v2
|
||||
|
||||
```
|
||||
|
||||
Tendremos 2 versiones de la aplicación y un servicio por cada uno. Se puede ver cuando aplicamos.
|
||||
|
||||
![](../img/v1-v2.png)
|
||||
|
||||
Con un `get all` podemos ver que tenemos 6 pods, 3 por cada versión, y un servicio por versión.
|
||||
|
||||
![](../img/get-all-v1-v2.png)
|
||||
|
||||
`Ingress` es un tipo de recurso que nos permite crear accesos a nuestro servicio basados en el path. Kubernetes hace un deploy de un controlador nginx que va a leer las configuraciones de Ingress y se va a autoconfigurar para enviar el tráfico a donde tenga que hacerlo.
|
||||
|
||||
No todos los proveedores de cloud tienen instalado nginx, con lo que en algunos hay que instalarlo. Una opción para instalarlo es utilizar la herramienta [helm](https://helm.sh/)
|
||||
|
||||
En DigitalOcean, en la pestaña de marketplace del dashboard del clúster podremos ver aplicaciones a instalar, entre la que está nginx.
|
||||
|
||||
![](../img/nginx-digitalocean.png)
|
||||
|
||||
Para instalarlo simplemente tenemos que darle al botón.
|
||||
|
||||
![](https://media.tenor.com/images/5bcb5056e6dfe7f757018ecaa8a4b868/tenor.gif)
|
||||
|
||||
Tardará un rato...
|
||||
|
||||
El controlador de nginx ingress creará un namespace, podremos verlo con `get ns` y si mostramos los pods filtrando por este namespaces veremos los que corren bajo nginx.
|
||||
|
||||
![](../img/namespace-ingress-nginx.png)
|
||||
|
||||
Ingress tiene muchas posibilidades, es importante darle un vistazo a su documentación: https://kubernetes.io/docs/concepts/services-networking/ingress/
|
||||
|
||||
|
||||
Ahora aplicamos el fichero yaml [11-hello-ingress.yaml](../file/yaml-del-pelado/11-hello-ingress.yaml) de Mr. Pelado.
|
||||
|
||||
```yaml
|
||||
apiVersion: networking.k8s.io/v1
|
||||
kind: Ingress
|
||||
metadata:
|
||||
name: hello-app
|
||||
spec:
|
||||
rules:
|
||||
- http:
|
||||
paths:
|
||||
- path: /v1
|
||||
pathType: Prefix
|
||||
backend:
|
||||
service:
|
||||
name: hello-v1
|
||||
port:
|
||||
number: 8080
|
||||
- path: /v2
|
||||
pathType: Prefix
|
||||
backend:
|
||||
service:
|
||||
name: hello-v2
|
||||
port:
|
||||
number: 8080
|
||||
```
|
||||
Podemos mostrar los recursos ingress con el siguiente comando
|
||||
```shell
|
||||
kubectl get ing
|
||||
```
|
||||
Para hacernos una idea podemos ver este diagrama de ejemplo de la documentación de Digital Ocean, buenísimos documentando.
|
||||
|
||||
![](https://raw.githubusercontent.com/digitalocean/marketplace-kubernetes/master/stacks/ingress-nginx/assets/images/arch_nginx.png)
|
||||
|
||||
Se puede ver que también se crea un load balancer que es el que recibirá todo el tráfico externo.
|
||||
|
||||
Crear este balanceador con ingress es lo más común y lo más ágil. Hay otras alternativas como [Traefik](https://traefik.io/)
|
||||
|
||||
|
||||
## Manifiesto configmap
|
||||
|
||||
`ConfigMap`es un fichero que lo hostear en kubernetes y se puede acceder desde los pods. Sirve para poder introduccir variables,
|
||||
|
||||
Utilizaremos el fichero yaml [12-configmap.yaml](../file/yaml-del-pelado/12-configmap.yaml) como el Pelado manda.
|
||||
```yaml
|
||||
apiVersion: v1
|
||||
kind: ConfigMap
|
||||
metadata:
|
||||
name: game-demo
|
||||
data:
|
||||
# property-like keys; each key maps to a simple value
|
||||
player_initial_lives: "3"
|
||||
ui_properties_file_name: "user-interface.properties"
|
||||
#
|
||||
# file-like keys
|
||||
game.properties: |
|
||||
enemy.types=aliens,monsters
|
||||
player.maximum-lives=5
|
||||
user-interface.properties: |
|
||||
color.good=purple
|
||||
color.bad=yellow
|
||||
allow.textmode=true
|
||||
|
||||
```
|
||||
Y también levantaremos un pod de nginx con el fichero yaml [13-pod-configmap.yaml](../file/yaml-del-pelado/13-pod-configmap.yaml)
|
||||
|
||||
```yaml
|
||||
apiVersion: v1
|
||||
kind: Pod
|
||||
metadata:
|
||||
name: nginx
|
||||
spec:
|
||||
containers:
|
||||
- name: nginx
|
||||
image: nginx:alpine
|
||||
env:
|
||||
# Define the environment variable
|
||||
- name: PLAYER_INITIAL_LIVES # Nombre de la variable
|
||||
valueFrom:
|
||||
configMapKeyRef:
|
||||
name: game-demo # El confimap desde donde vienen los valores
|
||||
key: player_initial_lives # La key que vamos a usar
|
||||
- name: UI_PROPERTIES_FILE_NAME
|
||||
valueFrom:
|
||||
configMapKeyRef:
|
||||
name: game-demo
|
||||
key: ui_properties_file_name
|
||||
volumeMounts:
|
||||
- name: config
|
||||
mountPath: "/config"
|
||||
readOnly: true
|
||||
volumes:
|
||||
- name: config
|
||||
configMap:
|
||||
name: game-demo # el nombre del configmap que queremos montar
|
||||
items: # Un arreglo de keys del configmap para crear como archivos
|
||||
- key: "game.properties"
|
||||
path: "game.properties"
|
||||
- key: "user-interface.properties"
|
||||
path: "user-interface.properties"
|
||||
|
||||
```
|
||||
En este archivo se puede ver como se define la variable de entorno `PLAYER_INITIAL_LIVES` pero el valor se lo asignaremos con el fichero `configmap` con la especificación `valueFrom`. En `configMapKeyRef` tendremos el `name` de la configmap de donde vienen los valores y la `key`que vamos a utilizar.
|
||||
|
||||
Además, se va a montar un volumen con `volumeMounts` donde se generarán archivos basados en el `configmap`, indicando el `name`, el path donde se ubicará con `mountPath` y le decimos que sea de solo lectura con `readOnly: true`, es decir, que desde el pod no lo podré modificar. Más abajo se define el volumen para poderlo crear y se indican los `items` para indicar los nombres de los ficheros (`key`) y su ubicación (`path`).
|
||||
|
||||
Primero aplicamos el configmap y luego el pod.
|
||||
|
||||
![](../img/apply-configmap-pod.png)
|
||||
|
||||
Si entramos en el pod ngnix y mostramos las variables de entorno encontraremos las que hemos definido con configmap.
|
||||
|
||||
![](../img/variables-configmap.png)
|
||||
|
||||
Y también tendremos los ficheros con los valores definidos en el configmap.
|
||||
|
||||
![](../img/valores-ficheros-configmap.png)
|
||||
|
||||
Esto nos servirá para guardar configuraciones de las aplicaciones que podremos personalizar para cada pod.
|
||||
|
||||
## Manifiesto secret
|
||||
|
||||
Los `secret` son muy parecidos a los configmap, la diferencia es que el contenido estaŕa codificado en base64. No es seguro, no es un cifrado es una codificación. A simple vista no se puede leer pero los pods si que pueden hacerlo.
|
||||
|
||||
Usaremos el fichero yaml bien peladito [14-secret.yaml](../file/yaml-del-pelado/14-secret.yaml).
|
||||
```yaml
|
||||
apiVersion: v1
|
||||
kind: Secret
|
||||
metadata:
|
||||
name: db-credentials
|
||||
type: Opaque
|
||||
data:
|
||||
username: YWRtaW4=
|
||||
password: c3VwM3JwYXNzdzByZAo=
|
||||
|
||||
# Esto se puede crear a mano:
|
||||
# kubectl create secret generic db-credentials --from-literal=username=admin --from-literal=password=sup3rpassw0rd
|
||||
# Docs: https://kubernetes.io/es/docs/concepts/configuration/secret/
|
||||
|
||||
```
|
||||
|
||||
Para codificar en base64
|
||||
```shell
|
||||
echo -n "admin" | base64
|
||||
```
|
||||
```shell
|
||||
echo -n "sup3rpassw0rd" | base64
|
||||
```
|
||||
Y para descodificar
|
||||
```shell
|
||||
echo -n "YWRtaW4=" | base64 -d
|
||||
```
|
||||
```shell
|
||||
echo -n "c3VwM3JwYXNzdzByZA==" | base64 -d
|
||||
```
|
||||
|
||||
![](../img/base64.png)
|
||||
|
||||
|
||||
*Recomendación*: Revisar la documentación: https://kubernetes.io/es/docs/concepts/configuration/secret/
|
||||
|
||||
También se puede crear el `secret` a mano:
|
||||
```shell
|
||||
kubectl create secret generic db-credentials --from-literal=username=admin
|
||||
```
|
||||
|
||||
Para probarlo utilizaremos otro pod nginx, también del Pelado Nerd, llamado [15-pod-secret.yaml](../file/yaml-del-pelado/15-pod-secret.yaml)
|
||||
|
||||
```yaml
|
||||
apiVersion: v1
|
||||
kind: Pod
|
||||
metadata:
|
||||
name: nginx
|
||||
spec:
|
||||
containers:
|
||||
- name: nginx
|
||||
image: nginx:alpine
|
||||
env:
|
||||
- name: MI_VARIABLE
|
||||
value: "pelado"
|
||||
- name: MYSQL_USER
|
||||
valueFrom:
|
||||
secretKeyRef:
|
||||
name: db-credentials
|
||||
key: username
|
||||
- name: MYSQL_PASSWORD
|
||||
valueFrom:
|
||||
secretKeyRef:
|
||||
name: db-credentials
|
||||
key: password
|
||||
ports:
|
||||
- containerPort: 80
|
||||
```
|
||||
|
||||
En las variables `env` tendremos el usuario y el password de mysql con los `name` MYSQL_USER y MYSQL_PASSWORD que cogerán el valor con `secretKeyRef` de db-credentials, que es el nombre del secret del manifiesto anterior.
|
||||
|
||||
Así que aplicamos los manifiestos y comprobamos
|
||||
|
||||
![](../img/apply-secret-env.png)
|
||||
|
||||
<span style="color:red;font-size:2em;font-weight:bold;">
|
||||
Esta no es una buena práctica para gestionar secrets.
|
||||
</span>
|
||||
|
||||
|
||||
[KubeSealed](https://github.com/bitnami-labs/sealed-secrets) es un controlador de kubernetes que cifra las credenciales utilizando un certificado.
|
||||
|
||||
## Manifiesto kustomization
|
||||
|
||||
`kustomization` es una forma de manejar manifiestos más fácilmente. Nos permite con un cliente embebido a kubectl generar manifiestos.
|
||||
|
||||
Utilizaremos el fichero del Pelado Nerd [kustomization.yaml](../file/yaml-del-pelado/kustomization.yaml)
|
||||
|
||||
```yaml
|
||||
apiVersion: kustomize.config.k8s.io/v1beta1
|
||||
kind: Kustomization
|
||||
|
||||
commonLabels:
|
||||
app: ejemplo
|
||||
|
||||
resources:
|
||||
- 15-pod-secret.yaml
|
||||
|
||||
secretGenerator:
|
||||
- name: db-credentials
|
||||
literals:
|
||||
- username=admin
|
||||
- password=secr3tpassw0rd!
|
||||
|
||||
images:
|
||||
- name: nginx
|
||||
newTag: latest
|
||||
|
||||
```
|
||||
Con una especie de plugins podremos, por ejemplo:
|
||||
- Taguear todos los manifiestos. (`commonLabels`).
|
||||
- Generar un secret (En el yaml no se siguen buenas prácticas para los secret) (`secretGenerator`).
|
||||
- Cambiar una imagen (`images`)
|
||||
|
||||
Primero instalaremos los paquetes necesarios para que funcione.
|
||||
```shell
|
||||
sudo apt update && sudo snap install kustomize
|
||||
```
|
||||
Luego tendremos que construir el archivo con el comando, que leerá el archivo `kustomization.yaml` y hará lo que tenga que hacer.
|
||||
```shell
|
||||
kustomize build .
|
||||
```
|
||||
En concreto, creará el secreto basado en el literal del fichero yaml y creo el pod que se indico en `resource`. Además metió la label en la metadata y cambio la imagen por `nginx:latest`.
|
||||
|
||||
![](../img/kustomizame-esta.png)
|
||||
|
||||
Podemos borrar el pod y volver a correr el mismo comando kustomize con una tubería.
|
||||
```shell
|
||||
kustomize build . | kubectl apply -f -
|
||||
|
||||
```
|
||||
Se puede ver que ha cambiado el hash de los `name`
|
||||
|
||||
![](../img/re-kustomize.png)
|
||||
|
||||
Si cambiamos algo del fichero yaml y volvemos a correr el comando kustomize, volverá a cambiar el hash. Guarda versiones.
|
||||
|
||||
## stern
|
||||
|
||||
`stern` es una utilidad súper simple que permite especificar tanto el id del pod como el id del contenedor como expresiones regulares. Cualquier coincidencia será seguida y la salida es multiplexada, prefijada con el id del pod y el id del contenedor, y codificada por colores para el consumo humano
|
||||
|
||||
![](../img/Captura-del-Pelado-stern.png)
|
||||
|
||||
---
|
||||
|
||||
[01 Instalación kubctl](guias/01-kubectl.md) --> [02 Clústers](guias/02-clusters.md) --> [03 manifiestos](guias/03-manifiestos.md) --> [04 Cheatsheet kubernetes](guias/04-cheatsheet.md) --> [05 Helm: Control de despliegues en Kubernetes](guias/05-helm.md)
|
434
guias/04-cheatsheet.md
Normal file
434
guias/04-cheatsheet.md
Normal file
@ -0,0 +1,434 @@
|
||||
# Cheatsheet kubernetes
|
||||
|
||||
**Índice**
|
||||
- [Cheatsheet kubernetes](#cheatsheet-kubernetes)
|
||||
- [Resumen en una imagen](#resumen-en-una-imagen)
|
||||
- [Visualizar información de los recursos](#visualizar-información-de-los-recursos)
|
||||
- [Nodes](#nodes)
|
||||
- [ods](#ods)
|
||||
- [Namespaces](#namespaces)
|
||||
- [Deployments](#deployments)
|
||||
- [Services](#services)
|
||||
- [DaemonSets](#daemonsets)
|
||||
- [Events](#events)
|
||||
- [Logs](#logs)
|
||||
- [Service Accounts](#service-accounts)
|
||||
- [ReplicaSets](#replicasets)
|
||||
- [Roles](#roles)
|
||||
- [Secrets](#secrets)
|
||||
- [ConfigMaps](#configmaps)
|
||||
- [Ingress](#ingress)
|
||||
- [PersistentVolume](#persistentvolume)
|
||||
- [PersistentVolumeClaim](#persistentvolumeclaim)
|
||||
- [StorageClass](#storageclass)
|
||||
- [MultipleResources](#multipleresources)
|
||||
- [Modificar atributos de los recursos](#modificar-atributos-de-los-recursos)
|
||||
- [Taint](#taint)
|
||||
- [Labels](#labels)
|
||||
- [Cordon/Uncordon](#cordonuncordon)
|
||||
- [Drain](#drain)
|
||||
- [Nodes/Pods](#nodespods)
|
||||
- [Deployments/Namespaces](#deploymentsnamespaces)
|
||||
- [Services](#services-1)
|
||||
- [DaemonSets](#daemonsets-1)
|
||||
- [ServiceAccounts](#serviceaccounts)
|
||||
- [Annotate](#annotate)
|
||||
- [Añadir recursos](#añadir-recursos)
|
||||
- [Crear Pod](#crear-pod)
|
||||
- [Crear un Service](#crear-un-service)
|
||||
- [Crear Deployment](#crear-deployment)
|
||||
- [Interactive Pod](#interactive-pod)
|
||||
- [Salida de YAMLto en un fichero](#salida-de-yamlto-en-un-fichero)
|
||||
- [Ayuda](#ayuda)
|
||||
- [Solicitaciones](#solicitaciones)
|
||||
- [Llamar a la API](#llamar-a-la-api)
|
||||
- [Información del Cluster](#información-del-cluster)
|
||||
|
||||
|
||||
|
||||
|
||||
## Resumen en una imagen
|
||||
![](../img/kubernetes-cheat-sheet.png)
|
||||
|
||||
[Descarga PNG](../img/kubernetes-cheat-sheet.png)
|
||||
|
||||
## Visualizar información de los recursos
|
||||
### Nodes
|
||||
```shell
|
||||
kubectl get no
|
||||
```
|
||||
```shell
|
||||
kubectl get no -o wide
|
||||
```
|
||||
```shell
|
||||
kubectl describe no
|
||||
```
|
||||
```shell
|
||||
kubectl get no -o yaml
|
||||
```
|
||||
```shell
|
||||
kubectl get node –select or =[ label _name]
|
||||
```
|
||||
```shell
|
||||
kubectl get nodes -o jsonpath='{.items[*].status.addresses[?(@.type==”ExternalIP”)].address}’
|
||||
```
|
||||
```shell
|
||||
kubectl top node [node_name]
|
||||
```
|
||||
### ods
|
||||
```shell
|
||||
kubectl get po
|
||||
```
|
||||
```shell
|
||||
kubectl get po -o wide
|
||||
```
|
||||
```shell
|
||||
kubectl describe po
|
||||
```
|
||||
```shell
|
||||
kubectl get po –show-labels
|
||||
```
|
||||
```shell
|
||||
kubectl get po -l app=nginx
|
||||
```
|
||||
```shell
|
||||
kubectl get po -o yaml
|
||||
```
|
||||
```shell
|
||||
kubect l get pod [ pod_name] -o yaml –export
|
||||
```
|
||||
```shell
|
||||
kubect l get pod [pod_name] -o yaml –export > nameoffile.yaml
|
||||
```
|
||||
```shell
|
||||
kubectl get pods –field-selector status.phase=Running
|
||||
```
|
||||
### Namespaces
|
||||
```shell
|
||||
kubectl get ns
|
||||
```
|
||||
```shell
|
||||
kubectl get ns -o yaml
|
||||
```
|
||||
```shell
|
||||
kubectl describe ns
|
||||
```
|
||||
### Deployments
|
||||
```shell
|
||||
kubectl get deploy
|
||||
```
|
||||
```shell
|
||||
kubectl describe deploy
|
||||
```
|
||||
```shell
|
||||
kubectl get deploy -o wide
|
||||
```
|
||||
```shell
|
||||
kubectl get deploy -o yam
|
||||
```
|
||||
### Services
|
||||
```shell
|
||||
kubectl get svc
|
||||
```
|
||||
```shell
|
||||
kubectl describe svc
|
||||
```
|
||||
```shell
|
||||
kubectl get svc -o wide
|
||||
```
|
||||
```shell
|
||||
kubectl get svc -o yaml
|
||||
```
|
||||
```shell
|
||||
kubectl get svc –show-labels
|
||||
```
|
||||
### DaemonSets
|
||||
```shell
|
||||
kubectl get ds
|
||||
```
|
||||
```shell
|
||||
kubectl get ds –all-namespaces
|
||||
```
|
||||
```shell
|
||||
kubectl describe ds [daemonset _name] -n [namespace_name]
|
||||
```
|
||||
```shell
|
||||
kubectl get ds [ds_name] -n [ns_name] -o yaml
|
||||
```
|
||||
### Events
|
||||
```shell
|
||||
kubectl get events
|
||||
```
|
||||
```shell
|
||||
kubectl get events -n kube-system
|
||||
```
|
||||
```shell
|
||||
kubectl get events -w
|
||||
```
|
||||
### Logs
|
||||
```shell
|
||||
kubectl logs [pod_name]
|
||||
```
|
||||
```shell
|
||||
kubectl logs –since=1h [pod_name]
|
||||
```
|
||||
```shell
|
||||
kubectl logs –tail =20 [pod_name]
|
||||
```
|
||||
```shell
|
||||
kubectl logs -f -c [container_name] [pod_name]
|
||||
```
|
||||
```shell
|
||||
kubectl logs [pod_name] > pod.log
|
||||
```
|
||||
### Service Accounts
|
||||
```shell
|
||||
kubectl get sa
|
||||
```
|
||||
```shell
|
||||
kubectl get sa -o yaml
|
||||
```
|
||||
```shell
|
||||
kubectl get serviceaccounts default -o yaml > ./sa.yaml
|
||||
```
|
||||
```shell
|
||||
kubectl replace serviceaccount default -f. /sa.yaml
|
||||
```
|
||||
### ReplicaSets
|
||||
```shell
|
||||
kubectl get rs
|
||||
```
|
||||
```shell
|
||||
kubectl describe rs
|
||||
```
|
||||
```shell
|
||||
kubectl get rs -o wide
|
||||
```
|
||||
```shell
|
||||
kubectl get rs -o yaml
|
||||
```
|
||||
### Roles
|
||||
```shell
|
||||
kubectl get roles –all-namespaces
|
||||
```
|
||||
```shell
|
||||
kubectl get roles –all-namespaces -o yaml
|
||||
```
|
||||
### Secrets
|
||||
```shell
|
||||
kubectl get secrets
|
||||
```
|
||||
```shell
|
||||
kubectl get secrets –all-namespaces
|
||||
```
|
||||
```shell
|
||||
kubectl get secrets -o yaml
|
||||
```
|
||||
### ConfigMaps
|
||||
```shell
|
||||
kubectl get cm
|
||||
```
|
||||
```shell
|
||||
kubectl get cm –all-namespaces
|
||||
```
|
||||
```shell
|
||||
kubectl get cm –all-namespaces -o yaml
|
||||
```
|
||||
### Ingress
|
||||
```shell
|
||||
kubectl get ing
|
||||
```
|
||||
```shell
|
||||
kubectl get ing –all-namespaces
|
||||
```
|
||||
### PersistentVolume
|
||||
```shell
|
||||
kubectl get pv
|
||||
```
|
||||
```shell
|
||||
kubectl describe pv
|
||||
```
|
||||
### PersistentVolumeClaim
|
||||
```shell
|
||||
kubectl get pvc
|
||||
```
|
||||
```shell
|
||||
kubectl describe pvc
|
||||
```
|
||||
### StorageClass
|
||||
```shell
|
||||
kubectl get sc
|
||||
```
|
||||
```shell
|
||||
kubectl get sc -o yaml
|
||||
```
|
||||
### MultipleResources
|
||||
```shell
|
||||
kubectl get svc, po
|
||||
```
|
||||
```shell
|
||||
kubectl get deploy, no
|
||||
```
|
||||
```shell
|
||||
kubectl get all
|
||||
```
|
||||
```shell
|
||||
kubectl get all –all-namespaces
|
||||
```
|
||||
## Modificar atributos de los recursos
|
||||
### Taint
|
||||
```shell
|
||||
kubectl taint [node_name] [taint _name]
|
||||
```
|
||||
### Labels
|
||||
```shell
|
||||
kubectl label [node_name] disktype=ssd
|
||||
```
|
||||
```shell
|
||||
kubrectl label [pod_name] env=prod
|
||||
```
|
||||
### Cordon/Uncordon
|
||||
```shell
|
||||
kubectl cordon [node_name]
|
||||
```
|
||||
```shell
|
||||
kubectl uncordon [node_name]
|
||||
```
|
||||
### Drain
|
||||
```shell
|
||||
kubectl drain [node_name]
|
||||
```
|
||||
### Nodes/Pods
|
||||
```shell
|
||||
kubectl delete node [node_name]
|
||||
```
|
||||
```shell
|
||||
kubectl delete pod [pod_name]
|
||||
```
|
||||
```shell
|
||||
kubectl edit node [node_name]
|
||||
```
|
||||
```shell
|
||||
kubectl edit pod [pod_name]
|
||||
```
|
||||
### Deployments/Namespaces
|
||||
```shell
|
||||
kubectl edit deploy [deploy_name]
|
||||
```
|
||||
```shell
|
||||
kubectl delete deploy [deploy_name]
|
||||
```
|
||||
```shell
|
||||
kubectl expose deploy [depl oy_name] –port=80 –type=NodePort
|
||||
```
|
||||
```shell
|
||||
kubectl scale deploy [deploy_name] –replicas=5
|
||||
```
|
||||
```shell
|
||||
kubectl delete ns
|
||||
```
|
||||
```shell
|
||||
kubectl edit ns [ns_name]
|
||||
```
|
||||
### Services
|
||||
```shell
|
||||
kubectl edit svc [svc_name]
|
||||
```
|
||||
```shell
|
||||
kubectl delete svc [svc_name]
|
||||
```
|
||||
### DaemonSets
|
||||
```shell
|
||||
kubectl edit ds [ds_name] -n kube-system
|
||||
```
|
||||
```shell
|
||||
kubectl delete ds [ds_name]
|
||||
```
|
||||
### ServiceAccounts
|
||||
```shell
|
||||
kubectl edit sa [sa_name]
|
||||
```
|
||||
```shell
|
||||
kubectl delete sa [sa_name]
|
||||
```
|
||||
### Annotate
|
||||
```shell
|
||||
kubectl annotate po [pod_name] [annotation]
|
||||
```
|
||||
```shell
|
||||
kubectl annotate no [node_name]
|
||||
```
|
||||
## Añadir recursos
|
||||
### Crear Pod
|
||||
```shell
|
||||
kubectl create -f [name_of _file]
|
||||
```
|
||||
```shell
|
||||
kubectl apply -f [name_of _file]
|
||||
```
|
||||
```shell
|
||||
kubectl run [pod_name] –image=ngi nx –restart=Never
|
||||
```
|
||||
```shell
|
||||
kubectl run [ pod_name] –generator =run-pod/v1 –image=nginx
|
||||
```
|
||||
```shell
|
||||
kubectl run [ pod_name] –image=nginx –restart=Never
|
||||
```
|
||||
### Crear un Service
|
||||
```shell
|
||||
kubectl create svc nodeport [svc_name] –tcp=8080:80
|
||||
```
|
||||
### Crear Deployment
|
||||
```shell
|
||||
kubectl create -f [name_of _file]
|
||||
```
|
||||
```shell
|
||||
kubectl apply -f [name_of _file]
|
||||
```
|
||||
```shell
|
||||
kubectl create deploy [deploy_name] –image=ngi nx
|
||||
```
|
||||
### Interactive Pod
|
||||
```shell
|
||||
kubectl run [pod_name] –image=busybox –rm -it –restart=Never — sh
|
||||
```
|
||||
### Salida de YAMLto en un fichero
|
||||
```shell
|
||||
kubectl create deploy [deploy_name] –image=ngi nx –dry-run -o yaml > deploy.yaml
|
||||
```
|
||||
```shell
|
||||
kubectl get po [pod_name] -o yaml –export > pod. yaml
|
||||
```
|
||||
### Ayuda
|
||||
```shell
|
||||
kubectl -h
|
||||
```
|
||||
```shell
|
||||
kubectl create -h
|
||||
```
|
||||
```shell
|
||||
kubectl run -h
|
||||
```
|
||||
```shell
|
||||
kubectl explain deploy.spec
|
||||
```
|
||||
## Solicitaciones
|
||||
### Llamar a la API
|
||||
```shell
|
||||
kubectl get –raw /apis/metrics.k8s.io/
|
||||
```
|
||||
### Información del Cluster
|
||||
```shell
|
||||
kubectl config
|
||||
```
|
||||
```shell
|
||||
kubectl cluster -info
|
||||
```
|
||||
```shell
|
||||
kubectl get componentstatuses
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
[01 Instalación kubctl](guias/01-kubectl.md) --> [02 Clústers](guias/02-clusters.md) --> [03 manifiestos](guias/03-manifiestos.md) --> [04 Cheatsheet kubernetes](guias/04-cheatsheet.md) --> [05 Helm: Control de despliegues en Kubernetes](guias/05-helm.md)
|
180
guias/05-helm.md
Normal file
180
guias/05-helm.md
Normal file
@ -0,0 +1,180 @@
|
||||
# Helm: Control de despliegues en Kubernetes
|
||||
|
||||
**Índice**
|
||||
- [Helm: Control de despliegues en Kubernetes](#helm-control-de-despliegues-en-kubernetes)
|
||||
- [¿Qué es Helm?](#qué-es-helm)
|
||||
- [Instalación de Helm](#instalación-de-helm)
|
||||
- [Opciones del comando helm](#opciones-del-comando-helm)
|
||||
- [Crear una release](#crear-una-release)
|
||||
|
||||
## ¿Qué es Helm?
|
||||
|
||||
[Helm](https://helm.sh/) es uno de los proyectos más interesantes dentro de la comunidad de Kubernetes.
|
||||
|
||||
La idea de Helm es controlar un **despliegue** (lo llaman release) de tal forma que:
|
||||
|
||||
- Usando un solo conjunto de valores (generalmente expresado en YAML):
|
||||
- Todos los artefactos que lo componen (deploys, pods, configmaps, services...) tienen reflejados los valores de configuración correctos.
|
||||
- Están declarados correctamente en el clúster K8s.
|
||||
- Ante un cambio de valores, se reconfiguran los artefactos correspondientes.
|
||||
- El release, con un solo comando, puede:
|
||||
- Listarse
|
||||
- Detenerse
|
||||
- Actualizarse
|
||||
- Reconfigurarse
|
||||
- Los releases parten de planes o [charts](https://github.com/helm/charts), es decir, repositorios con el código necesario para lanzar una aplicación en Kubernetes:
|
||||
- Se encuentran en repositorios públicos.
|
||||
- Los hay de todos los tipos (mysql, mongo, Wordpress...).
|
||||
- Se pueden descargar y utilizar o ampliar como queramos.
|
||||
|
||||
## Instalación de Helm
|
||||
|
||||
En nuestro ubuntu es muy sencillo.
|
||||
|
||||
- Con snap:
|
||||
|
||||
```shell
|
||||
snap install helm --classic
|
||||
```
|
||||
|
||||
- Con apt:
|
||||
|
||||
```shell
|
||||
curl https://baltocdn.com/helm/signing.asc | gpg --dearmor | sudo tee /usr/share/keyrings/helm.gpg > /dev/null
|
||||
|
||||
sudo apt-get install apt-transport-https --yes
|
||||
|
||||
echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/helm.gpg] https://baltocdn.com/helm/stable/debian/ all main" | sudo tee /etc/apt/sources.list.d/helm-stable-debian.list
|
||||
|
||||
sudo apt-get update
|
||||
|
||||
sudo apt-get install helm
|
||||
```
|
||||
|
||||
**¡Nota! El binario está en /snap/bin/helm, si no está en la ruta, puede incluirlo o crear un enlace simbólico, por ejemplo, a /usr/sbin/helm.*
|
||||
|
||||
En versiones anteriores era necesario inicializar helm para empezar a trabajar con él, pero en la versión 3 ya no es así. Si estamos usando una versión anterior, tendremos que lanzar el siguiente comando:
|
||||
|
||||
```shell
|
||||
helm init
|
||||
```
|
||||
|
||||
**¡Nota! Si dice que las versiones son incompatibles, haga `helm init --upgrade`.*
|
||||
|
||||
**¡Nota 2! helm puede tardar un minuto en ponerse en marcha. Espere hasta que pueda interactuar con él.*
|
||||
|
||||
Ahora, podemos crear un release.
|
||||
|
||||
## Opciones del comando helm
|
||||
|
||||
helm [comando]
|
||||
|
||||
comando | Descripción
|
||||
:---------:|---
|
||||
completion | Generar scripts de autocompletado para el shell especificado
|
||||
create | Crear un nuevo chart con el nombre indicado
|
||||
dependency | Gestionar las dependencias de un chart
|
||||
env | Información del entorno de cliente
|
||||
get | Descargar información ampliada de la release nombrada
|
||||
help | Ayuda sobre cualquier comando
|
||||
history | Obtener el historial de release
|
||||
install | Instalar una chart
|
||||
lint | Examinar posibles incidencias de una chart
|
||||
list | listar releases
|
||||
package | Empaquetar un directorio chart en un fichero chart
|
||||
plugin | Instalar (install), listar (list) o desinstalar (uninstall) plugins Helm
|
||||
pull | Descargar una chart de un repositorio y (opcional) desempaquetarlo en directorio local
|
||||
repo | Añadir (add), listar (list), borrar (remove), actualizar (update), e indexar (index) repositorios chart
|
||||
rollback | roll back un release a la revisión anterior
|
||||
search | Buscar keyword en las charts
|
||||
show | Mostrar información de una chart
|
||||
status | Mostrar el estado de una release nombrada
|
||||
template | Representar localmente templates
|
||||
test | Ejecutar pruebas a una release
|
||||
uninstall | desinstalar una release
|
||||
upgrade | Actualizar una release
|
||||
verify | verificar si una chart en una path ha sido firmada y validada
|
||||
version | Mostrar información de la version del cliente helm
|
||||
|
||||
|
||||
## Crear una release
|
||||
|
||||
Para crear un release, descargue el **chart** o el plano o pídale a helm que lo descargue él mismo.
|
||||
|
||||
Los charts están en repositorios.
|
||||
|
||||
```shell
|
||||
# listamos os repos
|
||||
helm repo list
|
||||
|
||||
NAME URL
|
||||
local http://127.0.0.1:8879/charts
|
||||
|
||||
# Engadimos o repo de bitnami, un dos máis utilizados
|
||||
helm repo add bitnami https://charts.bitnami.com
|
||||
|
||||
"bitnami" has been added to your repositories
|
||||
|
||||
# Listamos os charts dispoñibles
|
||||
helm search repo bitnami
|
||||
NAME CHART VERSION APP VERSION
|
||||
bitnami/airflow 13.0.4 2.3.3 Apache Airflow is a tool to express and execute...
|
||||
bitnami/apache 9.1.18 2.4.54 Apache HTTP Server is an open-source HTTP serve...
|
||||
bitnami/argo-cd 4.0.6 2.4.8 Argo CD is a continuous delivery tool for Kuber...
|
||||
```
|
||||
|
||||
Podemos, por ejemplo, instalar un mariadb:
|
||||
|
||||
```shell
|
||||
helm install bbdd bitnami/mariadb
|
||||
```
|
||||
Para ver el release
|
||||
|
||||
```shell
|
||||
helm list
|
||||
|
||||
NAME NAMESPACE REVISION UPDATED STATUS CHART APP VERSION
|
||||
bbdd default 1 2022-08-11 10:12:54.717064554 -0400 EDT deployed mariadb-11.1.7 10.6.8
|
||||
```
|
||||
|
||||
Si exploramos nuestro clúster:
|
||||
|
||||
```shell
|
||||
kubectl get pods
|
||||
|
||||
NAME READY STATUS RESTARTS AGE
|
||||
bbdd-mariadb-0 1/1 Running 0 98s
|
||||
|
||||
```
|
||||
|
||||
También creó el servicio vinculado al pod, un secreto para password y un configmap.
|
||||
|
||||
Es decir, ¡tenemos un MariaDB instalado con las mejores prácticas de la industria para Kubernetes!
|
||||
|
||||
Para configurarlo hay que ir a [artifacthub](https://artifacthub.io/packages/helm/bitnami/mariadb), donde nos indican los valores a modificar para gestionar nuestra instalación.
|
||||
|
||||
Ponga esos valores en un archivo yaml:
|
||||
|
||||
```yaml
|
||||
# values.yaml
|
||||
db:
|
||||
username: paco
|
||||
password: segredo
|
||||
database: test
|
||||
```
|
||||
|
||||
Ahora estamos relanzando nuestro release:
|
||||
|
||||
```shell
|
||||
# borramos a release
|
||||
helm uninstall bbdd
|
||||
|
||||
# relanzamos cos values
|
||||
helm install maria -f values.yaml bitnami/mariadb
|
||||
```
|
||||
|
||||
Y tendríamos el deployment con una base de datos creada y un usuario vinculado a ella.
|
||||
|
||||
---
|
||||
|
||||
[01 Instalación kubctl](guias/01-kubectl.md) --> [02 Clústers](guias/02-clusters.md) --> [03 manifiestos](guias/03-manifiestos.md) --> [04 Cheatsheet kubernetes](guias/04-cheatsheet.md) --> [05 Helm: Control de despliegues en Kubernetes](guias/05-helm.md)
|
79
guias/06-k9s.md
Normal file
79
guias/06-k9s.md
Normal file
@ -0,0 +1,79 @@
|
||||
# K9s: Otro estilo de CLI para k8s
|
||||
K9s es una interfaz de usuario basada en un terminal para interactuar con sus clústeres Kubernetes. El objetivo de este proyecto es facilitar la navegación, la observación y la gestión de sus aplicaciones desplegadas en la naturaleza. K9s observa continuamente a Kubernetes en busca de cambios y ofrece comandos posteriores para interactuar con sus recursos observados.
|
||||
|
||||
|
||||
**Índice**
|
||||
- [K9s: Otro estilo de CLI para k8s](#k9s-otro-estilo-de-cli-para-k8s)
|
||||
- [Instalar k9s con el código](#instalar-k9s-con-el-código)
|
||||
- [Argumentos CLI](#argumentos-cli)
|
||||
- [Key Bindings](#key-bindings)
|
||||
|
||||
## Instalar k9s con el código
|
||||
|
||||
Para estar seguro de como se instala lo mejor es mirar la [documentación oficial](https://k9scli.io/topics/install/) o el [repositorio git](https://github.com/derailed/k9s), teniendo en cuenta que actualizan más el repo. Yo lo he instalado así:
|
||||
|
||||
```shell
|
||||
# Primero instalando go si no lo tienes
|
||||
rm -rf /usr/local/go && tar -C /usr/local -xzf go1.19.3.linux-amd64.tar.gz
|
||||
export PATH=$PATH:/usr/local/go/bin
|
||||
## Compruebas
|
||||
go version
|
||||
|
||||
#
|
||||
git clone https://github.com/derailed/k9s.git && cd k9s
|
||||
make build && ./execs/k9s
|
||||
```
|
||||
|
||||
## Argumentos CLI
|
||||
|
||||
K9s CLI viene con una vista de argumentos que puede utilizar para lanzar la herramienta con diferente configuración.
|
||||
```shell
|
||||
# Lista de todas las opciones de la CLI disponibles
|
||||
k9s help
|
||||
|
||||
# Obtener información sobre el tiempo de ejecución de K9s (registros, configuraciones, etc.)
|
||||
k9s info
|
||||
|
||||
# Ejecutar K9s en un espacio de nombres determinado.
|
||||
k9s -n mycoolns
|
||||
|
||||
# Ejecutar K9s y lanzarlo en la vista de pod a través del comando pod.
|
||||
k9s -c pod
|
||||
|
||||
# Inicie K9s en un contexto KubeConfig no predeterminado
|
||||
k9s --context coolCtx
|
||||
|
||||
# Inicie K9s en modo de sólo lectura - con todos los comandos de modificación deshabilitados
|
||||
k9s --readonly
|
||||
```
|
||||
|
||||
## Key Bindings
|
||||
|
||||
Acción | Comando | Comentario
|
||||
---|---|---
|
||||
Mostrar los mnemónicos de teclado activos y la ayuda | `?`
|
||||
Mostrar todos los alias y recursos disponibles en el clúster | `ctrl-a` o `:alias`
|
||||
Salir de K9s | `:q`, `ctrl-c`
|
||||
Ver un recurso de Kubernetes utilizando el singular/plural o el nombre corto | `:po`⏎ | acepta el singular, el plural, el nombre corto o el alias, es decir, pod o pods
|
||||
Ver un recurso de Kubernetes en un espacio de nombres dado | `:alias namespace`⏎
|
||||
Filtrar una vista de recursos dado un filtro | `/filter`⏎ | Regex2 soportado ie `fred\|blee` para filtrar recursos llamados fred o blee
|
||||
Filtro regex inverso | `/ ! filter`⏎ | Guarda todo lo que no coincide. No se ha implementado para los registros.
|
||||
Filtrar la vista de recursos por etiquetas | `/-l label-selector`⏎
|
||||
Buscar difusamente un recurso dado un filtro | `/-f filter`⏎
|
||||
Sale del modo de vista/comando/filtro | `<esc>`
|
||||
Mapeo de teclas para describir, ver, editar, ver registros,... | `d`,`v`, `e`, `l`,...
|
||||
Para ver y cambiar a otro contexto de Kubernetes | `:ctx`⏎
|
||||
Para ver y cambiar a otro contexto de Kubernetes | `:ctx context-name`⏎
|
||||
Para ver y cambiar a otro espacio de nombres de Kubernetes | `:ns`⏎
|
||||
Para ver todos los recursos guardados | `:screendump o sd`⏎
|
||||
Para eliminar un recurso (TAB y ENTER para confirmar) | `ctrl-d`
|
||||
Para eliminar un recurso (¡no hay diálogo de confirmación!) | `ctrl-k`
|
||||
Alternar columnas anchas | `ctrl-w` | Equivalente a kubectl ... -o wide
|
||||
Alternar el estado de error | `ctrl-z` | Ver los recursos en estado de error
|
||||
Lanzar la vista de pulsos | `:pulsos o pu`⏎
|
||||
Lanzar vista XRay | `:xray RECURSO [NAMESPACE]`⏎ | RECURSO puede ser uno de po, svc, dp, rs, sts, ds, NAMESPACE es opcional
|
||||
Lanzar la vista de Popeye | `:popeye o pop`⏎ | Ver https://popeyecli.io
|
||||
|
||||
---
|
||||
|
||||
[01 Instalación kubctl](guias/01-kubectl.md) --> [02 Clústers](guias/02-clusters.md) --> [03 manifiestos](guias/03-manifiestos.md) --> [04 Cheatsheet kubernetes](guias/04-cheatsheet.md) --> [05 Helm: Control de despliegues en Kubernetes](guias/05-helm.md)
|
Loading…
Reference in New Issue
Block a user