No description
Find a file
2025-09-23 12:57:16 +02:00
rook Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
.gitignore Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
01-preparacion.sh Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
02-anadir-a-bashrc.sh Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
03-instalar-agente.sh Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
03-instalar-server.sh Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
04-comprueba-cluster.sh Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
05-instala-helm.sh Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
06-instala-cert-manager.sh Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
07-instala-rancher.sh Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
08-longhorn-install.sh Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
95proxy.conf Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
login-background-2.jpg Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
rancher-ouput.txt Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
README.md Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
siemenslogo-dark.png Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
siemenslogo-light.png Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00
tgtmapp.xlsx Copiado de code.siemens.com 2025-09-23 12:57:16 +02:00

Instalación de cluster RKE2 con Rancher y Longhorn

Se han añadido instrucciones precisas sustituir longhorn por rook-ceph

Las instrucciones salieron de:

Simple RKE2, Longhorn and Rancher Install

Nombre de host y direcciones del cluster de producción

PRODUCCIÓN

Nombre IP Cores Memoria Disco
sramadrke01v 10.34.7.112 4 8192 200
sramadrke02v 10.34.7.113 4 8192 200
sramadrke03v 10.34.7.114 4 8192 200

Nombre de host y direcciones del cluster de desarrollo

Se añade un disco adicional a cada nodo para ser usado por rook-ceph

DEVELOPMENT

Nombre IP Cores Memoria Disco Disco adicional
sramadrke01v 10.34.7.118 4 8192 200 200
sramadrke02v 10.34.7.119 4 8192 200 200
sramadrke03v 10.34.7.120 4 8192 200 200

Configuración de red

Subred: 10.34.7.0/24
Gateway 10.34.7.126 
Máscara: 255.255.255.128
dns1: 10.34.7.42
dns2: 10.34.7.88
search domain: smoes.int
vlan 3: 10.34.7.x (servidores)
vlan 2: dhcp
Proxy http://139.16.225.135:81

Máquina de trabajo.

Instalar Ubuntu Desktop.

NOTA: A partir de aquí hay que ejecutar los comandos como root, hasta que se diga lo contrario.

Proxy para apt (para actualizar sistema e instalar cosas)

Crear el fichero

/etc/apt/apt.conf.d/95proxy.conf

y añadir la siguiente línea:

Acquire::http::Proxy "http://139.16.225.135:81/";
Acquire::https::Proxy "http://139.16.225.135:81/";

Desactivar firewall

# Ubuntu instructions
# stop the software firewall
systemctl stop ufw
systemctl disable ufw

# get updates, install nfs, and apply
apt update
apt install nfs-common -y
apt upgrade -y

# clean up
apt autoremove -y

Instalación de ubuntu server

Instalar un ubuntu-server en 3 de las máquinas.

Proxies:

HTTP_PROXY=http://139.16.225.135:81/
HTTPS_PROXY=http://139.16.225.135:81/
http_proxy=http://139.16.225.135:81/
https_proxy=http://139.16.225.135:81/
no_proxy=localhost,127.0.0.0/8,::1,<direcciones de los nodos>
NO_PROXY=localhost,127.0.0.0/8,::1,<direcciones de los nodos>

Hay que sustituir <direcciones de los nodos> por las direcciones descritas en la tabla de arriba.

Esto hay que ponerlo en el fichero (para curl las que valen son las mayúsculas)

/etc/environment

Instalar RKE2

Proxy

las variables de entorno de los Proxy tienen que estar puestas en la shell, en concreto:

HTTP_PROXY=http://139.16.225.135:81/
HTTPS_PROXY=http://139.16.225.135:81/
NO_PROXY=localhost,127.0.0.0/8,::1

de lo contrario el

systemctl start rke2-server.service

da error

RKE2 Server

curl -sfL https://get.rke2.io | INSTALL_RKE2_TYPE=server sh -
Proxy para que arranque.

en el fichero

/etc/default/rke2-server 

o, para el agente en

/etc/default/rke2-agent

añadir

HTTP_PROXY=http://139.16.225.135:81/
HTTPS_PROXY=http://139.16.225.135:81/
NO_PROXY=localhost,127.0.0.1,<direcciones del master y de los workers>

si se usa el private.rancher.lab registry, hay que añadir a NO_PROXY la dirección del servidor donde esté corriendo. En el caso que nos ocupa, está en sramadrke01v (10.34.7.112). También creo que vale poner *.rancher.lab.

Lanzar rke2
# start and enable for restarts -
systemctl enable rke2-server.service
systemctl start rke2-server.service

Post instalación.

# simlink all the things - kubectl
ln -s $(find /var/lib/rancher/rke2/data/ -name kubectl) /usr/local/bin/kubectl

A partir de aquí, cambiar a usuario normal (no root)

# add kubectl conf
export KUBECONFIG=/etc/rancher/rke2/rke2.yaml

# check node status
kubectl  get node

¡ojo! el fichero rke2.yaml tiene permisos solo para root. Yo lo he copiado al fichero

$HOME/.kube/config

y le he puesto como propietario al usuario con el que trabajo.

Este fichero se puede copiar en la máquia de gestión también y así ejecutar los comandos kubectl desde allí. En este caso, hay que modificar el fichero para cambiar la ip del control-plane.

Además, es necesario copiar el fichero

/var/lib/rancher/rke2/server/node-token

que necesitaremos para que se conecten los agentes, una vez instalados.

RKE2 agent

Todo lo relativo al proxy es aplicable aquí.

We add INSTALL_RKE2_TYPE=agent

curl -sfL https://get.rke2.io | INSTALL_RKE2_TYPE=agent sh -

Create config file

mkdir -p /etc/rancher/rke2/

Change the ip to reflect your rancher1 ip

vi /etc/rancher/rke2/config.yaml

añadir

server: https://$RANCHER1_IP:9345

al final del fichero.

change the Token to the one from rancher1

/var/lib/rancher/rke2/server/node-token

añadir

token: $TOKEN

al final del fichero

nable and start

systemctl enable rke2-agent.service
systemctl start rke2-agent.service

RANCHER via Helm

Los comandos helm de instalación y repositorios de los charts hay que hacerlo con cuenta de usuario, no como root

# on the server rancher1
# add helm
curl -#L https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash

# add needed helm charts
helm repo add rancher-latest https://releases.rancher.com/server-charts/latest
helm repo add jetstack https://charts.jetstack.io

still on rancher1

add the cert-manager CRD

kubectl apply -f https://github.com/jetstack/cert-manager/releases/download/v1.6.1/cert-manager.crds.yaml

helm install jetstack

helm upgrade -i cert-manager jetstack/cert-manager --namespace cert-manager --create-namespace

helm install rancher

helm upgrade -i rancher rancher-latest/rancher --create-namespace --namespace cattle-system --set hostname= --set bootstrapPassword=bootStrapAllTheThings --set replicas=1

OPCIÓN: Longhorn

# get charts
helm repo add longhorn https://charts.longhorn.io

# update
helm repo update

# install
helm upgrade -i longhorn longhorn/longhorn --namespace longhorn-system --create-namespace

OPCIÓN: rook-ceph

Desplegar el operador

Desde el directorio rook

kubectl create -f crds.yaml -f common.yaml -f operator.yaml

Crear el clúster

kubectl create -f cluster.yaml

Comprobar funcionamiento

la salida del comando:

kubectl -n rook-ceph get pods

tiene que ser así:

NAME                                                         READY   STATUS      RESTARTS   AGE
csi-cephfsplugin-4qmbt                                       3/3     Running     0          21h
csi-cephfsplugin-hvg5l                                       3/3     Running     0          21h
csi-cephfsplugin-provisioner-7c7c6bf59-ffhdt                 6/6     Running     0          21h
csi-cephfsplugin-provisioner-7c7c6bf59-hnt9h                 6/6     Running     0          21h
csi-cephfsplugin-qp2xg                                       3/3     Running     0          21h
csi-rbdplugin-d7bjx                                          3/3     Running     0          21h
csi-rbdplugin-mxw52                                          3/3     Running     0          21h
csi-rbdplugin-provisioner-654995cf9-ftjr9                    6/6     Running     0          21h
csi-rbdplugin-provisioner-654995cf9-txd2n                    6/6     Running     0          21h
csi-rbdplugin-xjq72                                          3/3     Running     0          21h
rook-ceph-crashcollector-sramadrke01v-dev-54479f7864-8jp7r   1/1     Running     0          21h
rook-ceph-crashcollector-sramadrke02v-dev-58db65444c-9z6tc   1/1     Running     0          21h
rook-ceph-crashcollector-sramadrke03v-dev-7658cb4c8b-qf2xn   1/1     Running     0          21h
rook-ceph-exporter-sramadrke01v-dev-67dd8675f-2f5b6          1/1     Running     0          21h
rook-ceph-exporter-sramadrke02v-dev-758555d548-57d9s         1/1     Running     0          21h
rook-ceph-exporter-sramadrke03v-dev-7fb4f57c4f-b6qnh         1/1     Running     0          21h
rook-ceph-mgr-a-7b88459667-5s55f                             3/3     Running     0          21h
rook-ceph-mgr-b-b99c7cd76-bbgnv                              3/3     Running     0          21h
rook-ceph-mon-a-7d7cc9b64f-bcm7s                             2/2     Running     0          21h
rook-ceph-mon-b-794ddfb8c9-jfgvv                             2/2     Running     0          21h
rook-ceph-mon-c-57648c8d95-pd7dv                             2/2     Running     0          21h
rook-ceph-operator-84c99b765c-rw7tt                          1/1     Running     0          21h
rook-ceph-osd-0-564f9fbb76-nnvpr                             2/2     Running     0          21h
rook-ceph-osd-1-84cd94d6cf-wjsvj                             2/2     Running     0          21h
rook-ceph-osd-2-7d6676974d-9n6c7                             2/2     Running     0          20h
rook-ceph-osd-prepare-sramadrke01v-dev-w884k                 0/1     Completed   0          21h
rook-ceph-osd-prepare-sramadrke02v-dev-n2znr                 0/1     Completed   0          21h
rook-ceph-osd-prepare-sramadrke03v-dev-fdcfc                 0/1     Completed   0          21h
rook-ceph-tools-9dfb9b69d-rz7pr                              1/1     Running     0          6h18m

Tardará un poco. Bastante si está detrás del proxy.

Ceph toolbox

La rook toolbox se instala con

kubectl create -f toolbox.yaml

una vez que el estado del deployment sea running se puede entrar para comprobar si está funcionando

kubectl -n rook-ceph exec -it deploy/rook-ceph-tools -- bash

con

ceph status

se puede ver el estado.

Crear la storageclass

kubectl create -f storageclass.yaml

Desde el interfaz de Rancher, se puede poner esta storageclass como por defecto para que las pvc se creen directamente ahí (en el caso de no especificar ninguna)

Registry privado

Hay que montar un registro privado para nuestras imágenes.

Las instrucciones están aquí