-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathhistory-2
165 lines (165 loc) · 6.58 KB
/
history-2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
[root@portal ~]# history
1 ## selinux
2 vi /etc/sysconfig/selinux
3 ## reboot wegens selinux
4 reboot
5 getenforce
6 yum install -y docker
7 systemctl enable docker
8 systemctl start docker
9 systemctl status docker
10 # repository für kubelet machine, adm udn client
11 cat <<EOF > /etc/yum.repos.d/kubernetes.repo
12 [kubernetes]
13 name=Kubernetes
14 baseurl=https://packages.cloud.google.com/yum/repos/kubernetes-el7-\$basearch
15 enabled=1
16 gpgcheck=1
17 repo_gpgcheck=1
18 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
19 EOF
20 yum install -y kubelet kubeadm kubectl
21 yum -y upgrade
22 #netzwerk anpasen centos
23 cat <<EOF > /etc/sysctl.d/k8s.conf
24 net.bridge.bridge-nf-call-ip6tables = 1
25 net.bridge.bridge-nf-call-iptables = 1
26 EOF
27 sysctl --system
28 sysctl --system < grep bridges
29 sysctl --system | grep bridges
30 sysctl --system | grep brid
31 vi /etc/sysctl.conf
32 sysctl --system
33 sysctl --system | more
34 #prüfen cgroup dockler und k8s
35 docker info | grep -i cgroup
36 systemctl status docker
37 docker info | grep -i cgroup
38 docker info
39 docker info| grep cgroup
40 cat /etc/systemd/system/kubelet.service.d/10-kubeadm.conf| grep cgroup
41 systemctl daemon-reload
42 systemctl restart kubelet
43 yum install -y kubelet kubeadm kubectl
44 systemctl enable kubelet
45 systemctl start kubelet
46 systemctl status kubelet
47 # scheint normal:Unit kubelet.service entered failed state.
48 # weil zertifikat später mit kubeadm generiert wird
49 systemctl daemon-reload
50 systemctl restart kubelet
51 kubeadm init
52 # das clusternode hinzufügekommando merken: kubeadm join 10.0.0.231:6443 --token nfyili.9gy4u27jr5zbe4xy --discovery-token-ca-cert-hash sha256:d33152bb1c24804775e34a263f3af87326c1aae562836b8a9ed3520d655bdb1f
53 #kubectl confiog übertragen
54 mkdir -p $HOME/.kube
55 sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
56 sudo chown $(id -u):$(id -g) $HOME/.kube/config
57 #prüfung netzwerk /proc/sys/net/bridge/bridge-nf-call-iptables
58 cat /proc/sys/net/bridge/bridge-nf-call-iptables
59 export kubever=$(kubectl version | base64 | tr -d '\n')
60 kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$kubever"
61 # netzwek erweiterung weave installiert und nun schauen
62 kubectl get pods --all-namespaces
63 # bei singel node muss der master auch normale pods aufgnehmen kömnnen statt nur systempods
64 kubectl taint nodes --all node-role.kubernetes.io/master-
65 # wenn kubectl nicht local genutzt wird dan brauch man die konfig
66 /etc/kubernetes/admin.conf
67 cat /etc/kubernetes/admin.conf
68 # mit scp auf client holen
69 cp /etc/kubernetes/admin.conf /home/linux/.
70 chmod 755 /home/linux/admin.conf
71 chmod 644 /home/linux/admin.conf
72 iptables -l
73 iptables -L
74 iptables -L| grep 8443
75 iptables -L|more
76 ifconfig
77 telnet 10.0.0.231 8443
78 telnet localhost 8443
79 kubectl get pods --all-namespaces
80 kubectl --kubeconfig /etc/kubernetes/admin.conf get nodes
81 curl https://10.0.0.231:8443
82 curl https://10.0.0.231:6443
83 telnet 10.0.0.231 6443
84 iptables -L | grep 443
85 iptables -L |more
86 systemctl status iptaples
87 systemctl status iptables
88 systemctl status firewall
89 iptables -F
90 ls /etc/systemd/system/default.target/
91 ls /etc/systemd/system/default.target.wants/
92 uname .a
93 uname -aa
94 # achtung bei kubectl von extern -> ip ggf. von 10.xxx auf internet ip in admin.conf ändern
95 # ggf. auf client die internetip auf den lokalen namen legen, da die zertiufikate für die lokalen namen gemacht wurden
96 history -a
97 systemctl status firewalld
98 systemctl restart firewalld
99 firewall-cmd --zone=public --list-all
100 firewall-cmd --zone=public --add-port=6443/tcp --permanent
101 # firewall / iptable smuss auf port 6883 erweitetr werden
102 firewall-cmd --reload
103 # jetzt gehts mit firewall und kubecetlk clientr
104 # kube dashboard...
105 kubectl create -f https://raw.githubusercontent.com/kubernetes/dashboard/master/src/deploy/recommended/kubernetes-dashboard.yaml
106 # firewall / iptable smuss auf port 443 erweitetr werden
107 firewall-cmd --zone=public --add-port=443/tcp --permanent
108 firewall-cmd --reload
109 telnet localhost:443
110 telnet localhost 443
111 curl https://10.0.0.231:443
112 kubectl get pods
113 kubectl get pod
114 kubectl get pods --all-namespaces
115 iptables -F
116 curl https://10.0.0.231:443
117 firewall-cmd --reload
118 curl https://10.0.0.231:443
119 kubectl -n kube-system get service kubernetes-dashboard
120 curl https://10.0.0.231:443
121 iptables -F
122 curl https://10.0.0.231:443
123 firewall-cmd --reload
124 kubectl -n kube-system get secret
125 kubectl -n kube-system describe secret replicaset-controller-token-cct72
126 # token herausbekomen für dashboad
127 kubectl -n kube-system get secret
128 kubectl -n kube-system describe secret default-token-q4zcd
129 kubectl -n kube-system get secret
130 kubectl -n kube-system describe secret kubernetes-dashboard-token-jpkhs
131 kubectl -n defaukt get secret
132 kubectl -n default get secret
133 kubectl -n kube-system describe secret
134 kubectl -n default describe secret default-token-cdz4n
135 kubectl discribe secret kubernetes-admin
136 kubectl describe secret kubernetes-admin
137 kubectl cluster-info
138 cat <<EOF > dashboard-admin.yaml
139 apiVersion: rbac.authorization.k8s.io/v1beta1
140 kind: ClusterRoleBinding
141 metadata:
142 name: kubernetes-dashboard
143 labels:
144 k8s-app: kubernetes-dashboard
145 roleRef:
146 apiGroup: rbac.authorization.k8s.io
147 kind: ClusterRole
148 name: cluster-admin
149 subjects:
150 - kind: ServiceAccount
151 name: kubernetes-dashboard
152 namespace: kube-system
153 EOF
154 kubectl create -f dashboard-admin.yaml
155 kubectl -n default get secret
156 kubectl -n kube-system get secret
157 kubectl -n kube-system get secret| grep kubernetes-dashboard
158 kubectl describe secret kubernetes-dashboard-token-jpkhs
159 kubectl -n kube-system describe secret kubernetes-dashboard-token-jpkhs
160 history -a
161 top
162 df -h
163 top
164 history