Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

DF 배포 환경 설정 변수 추가(Config) & k8s 배포를 위한 Helm 추가 #118

Merged
merged 2 commits into from
Sep 13, 2021

Conversation

inno-cloudbarista
Copy link
Contributor

No description provided.

 - 기존 DF 배포 옵션: compose, helm
 - 업데이트 DF 배포 옵션: compose, helm, local
Copy link
Member

@jihoon-seo jihoon-seo left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

@inno-cloudbarista 한번 확인 부탁드립니다~~ 😊

kapacitor:
enabled: true
# nameOverride: "dragonfly-kapacitor"
fullnameOverride: "cb-dragonfly-kapacitor"
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

[kapacitor 차트의 origin]

- name: kapacitor
    repository: "https://helm.influxdata.com/"
    version: 1.3.1

[Artifact Hub 에서의 해당 차트]
https://artifacthub.io/packages/helm/influxdata/kapacitor
여기를 보면 fullnameOverride 항목이 보이지 않고,
제가 fullnameOverride 항목을 넣어 봤는데 적용이 되지 않았던 것으로 기억합니다.

제안: 이 Helm chart를 install 했을 때,
kapacitor Service & Pod 등의 fullname이 "cb-dragonfly-kapacitor" 로 override 되는지
확인이 필요합니다~~

Copy link
Contributor Author

@inno-cloudbarista inno-cloudbarista Sep 9, 2021

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

@jihoon-seo 안녕하세요 이노그리드 박재호입니다.
kapacitor의 경우 기존(nameOverride) 문법으로 동작 테스트를 하였을 때
image
service fullname 앞에 helm의 이름이 prefix 되어 들어가고, DF가 kapacitor service를(domain) 찾지못하여 동작하지 않았습니다.

하지만 fullnameOverride를 적용하여 동작 테스트를 하였을 경우
image
service fullname이 정상적으로 override되어 DF도 정상 동작하여서 수정하였습니다.

Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

[cb-operator As-is]

❯ kubectl get pods -A | grep kapacitor                                   
cloud-barista   cloud-barista-dragonfly-kapacitor-5cb786f778-mcsn8       1/1     Running            0          3h1m

❯ kubectl get svc -A | grep kapacitor
cloud-barista   cloud-barista-dragonfly-kapacitor        ClusterIP   10.103.125.91    <none>        9092/TCP                                        3h2m

[fullnameOverride: "cb-dragonfly-kapacitor" 적용]

❯ kubectl get pods -A | grep kapacitor
cloud-barista   cloud-barista-kapacitor-596bb876cb-z6sm8                 1/1     Running            0          102s

❯ kubectl get svc -A | grep kapacitor
cloud-barista   cloud-barista-kapacitor                  ClusterIP   10.110.34.87     <none>        9092/TCP                                        14s

@inno-cloudbarista 혹시, 이 PR의 Helm chart를 install 하실 때,
K8s namespace를 "cb-dragonfly" 로 만드셨나요? 😊

Comment on lines +15 to +16
internal_port: 9092
external_port: 29092
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Copy link
Contributor Author

@inno-cloudbarista inno-cloudbarista Sep 9, 2021

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

@jihoon-seo CB-operator 중 DF config 업데이트는 반영하도록하겠습니다.

추가적으로 연구원님 DF의 helm 배포 코드 운영 관련해서 문의드릴 사항이 있습니다.

DF의 helm chart 관련 내용을 DF Repo에 반영하여 업데이트를 진행하는게 좋을까요?

(1-1) DF Repo에 helm Chart 관련 내용을 반영하는게 좋다면 [Deployment.yaml에 init-container 코드, values.yaml에 pvc 관련 코드]를 수정하여 배포 & 운영 테스트 가능한 helm Chart를 DF Repo에 반영도록 하겠습니다.
=> CB-Operator 내의 DF helm은 [Deployment.yaml에 init-container 코드, values.yaml에 pvc 관련 코드]가 반영되어 있습니다. DF 만 별도로 helm chart 배포 및 운영 테스트를 하려면 해당 코드를 수정해야지만 동작합니다.

(1-2) DF Repo에 helm Chart 내용 반영보단 바로 CB-Operator Repo에 바로 반영하는게 좋다면 CB-Operator 환경 상에서 DF 배포 및 운영 테스트 후 반영도록 하겠습니다. 다만 현재 CB-Operator를 k8s 환경에서 구동하고자 하는데 문제사항(cloud-barista/cb-operator#155) 이 있어 CB-Operator 환경에서 DF 배포&운영 테스트는 못해봤습니다.

Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

@inno-cloudbarista
DF 에서 자체적으로 Helm chart를 만들고 유지하고 사용하셔야 하는 필요성이 있다면 (1-1) 로 하시면 될 것 같습니다.
다만 DF conf 파일이나 DF docker-compose.yaml 파일, DF Helm chart 등이 업데이트되면
cb-operator 쪽에도 반영을 해 주시면 좋을 것 같아서 커멘트를 남겨 보았습니다. 😊

Copy link
Contributor Author

@inno-cloudbarista inno-cloudbarista Sep 9, 2021

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

@jihoon-seo
DF 의 경우 올 하반기 구동 환경에 k8s 이다 보니 helm chart가 필요할 것 같습니다. (DF 단일 테스트 또는 구동을 위하여)
CB-Operator의 DF helm의 경우, 현재 Repo의 DF Helm chart가 업데이트 될 때마다 동시에 반영도록 하겠습니다.
(향 후 CB-Operator를 통한 DF 구동 상에 문의가 있다면 위와 같이 별도 문의드리도록 하겠습니다.)

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

4 participants