Vậy Auto Scaling trong Kubernetes liệu sẽ mang lại những lợi ích gì cho việc vận hành và cách thức tích hợp với Pod Autoscaling ra sao?
Trong quá trình sử dụng, việc đảm bảo số lượng instance (phiên bản) trong cụm K8s sẽ tăng lên kịp thời khi nhu cầu của các dịch vụ chạy trên đó thay đổi là một nhiệm vụ cần phải tính toán. Không phải lúc nào chúng ta cũng có thể kịp thời xử lý việc mở rộng quy mô khi cần, thêm vào đó, việc mở rộng quy mô có thể ảnh hưởng đến tính khả dụng nếu không được xử lý cẩn thận.
Để xử lý vấn đề này chúng ta có một phương pháp gọi là Auto scaling, một trong những ưu điểm vượt trội giúp Kubernetes có thể đáp ứng mọi quy mô phát triển và tốc độ ra mắt kỳ vọng. Với Auto Scaling - tự động công việc tăng giảm các cụm Kubernetes giúp giảm thiểu đến 80% công sức vận hành cho nhà phát triển, tiết kiệm tối ưu chi phí tài nguyên, thời gian triển khai…
Rõ ràng là chúng ta không thể chạy hàng nghìn node chỉ để đề phòng một ngày nào đó cần đến; ví dụ như khi ứng dụng đột ngột nhận được sự quan tâm mạnh mẽ hoặc dịch vụ triển khai chiến dịch thành công ngoài mong đợi khiến lượng truy cập tăng lên gấp nhiều lần chẳng hạn. Đây là tình huống thường gặp với các ứng dụng mới ra mắt, tính năng mới ra mắt, hoặc sản phẩm được marketing tốt. Và đây cũng là chính là lúc Auto scaling tham gia vào câu chuyện.
Trong kubernetes có tính năng lập lịch/scheduler cho các công việc được yêu cầu thì việc schedule sẽ cần dựa vào tài nguyên. Điều quan trọng là các cluster có đủ tài nguyên để chạy các công việc đó. Khi thực hiện auto scaling cho cluster sẽ giúp theo dõi khi nào các Pod không thể lên lịch do tài nguyên không khả dụng và thực hiện auto scale các cluster node để các tài nguyên đó trở nên khả dụng. Nó cũng có thể lên lịch lại cho các công việc trên các node ít được sử dụng để giảm quy mô cluster xuống kích thước nhỏ hơn, do đó tiết kiệm chi phí tối ưu hơn. Bên cạnh đó, các công việc tính toán tài nguyên ước lượng quy mô từ phía con người có thể gặp sai sót, không chính xác gây ảnh hưởng đến tính liên tục hay hiệu quả chi phí.
Để đào sâu về auto scaling cho kubernetes thì có một số nguyên lý và phương pháp áp dụng để đạt hiệu quả tối ưu. Cụ thể là chúng ta cũng cần xác định mức sử dụng của các tài nguyên trong cụm để có sở đặt các ngưỡng hoặc các điều kiện cho auto scaling.
Ví dụ với Bizfly Kubernetes Engine với cluster autoscaler thì sẽ tự động scale node khi pod bị stuck ở trạng thái pending do pod request quá tài nguyên của node có thể cấp phát cho.
Thì từ đó chúng ta sẽ tìm hiểu cách quản lý và tính toán tài nguyên sử dụng cho Pod, tích hợp nó một cách hiệu quả nhất nhằm giảm chi phí cơ sở hạ tầng hàng tháng của doanh nghiệp. Tất cả những vấn đề này sẽ được giải đáp tại tại Bizfly Expert Talk #83: Kubernetes Auto Scaling Deep Dive diễn ra vào ngày 26/4 tới đây do Bizfly Cloud tổ chức.
.
Sự kiện có sự tham gia của chuyên gia đầu ngành sẽ chia sẻ những thông tin và kinh nghiệm thực tế về:
1. Tổng quan về quản lý cpu/ram trong kubernetes
2. Pod Autoscaling trong kubernetes
3. Cluster Autoscaler và cách tích hợp với Pod Autoscaling và demo chi tiết
4. Q&A
Thông tin sự kiện:
Thời gian: 14h30 - 15h30 ngày 26/4/2023
Hình thức tổ chức: Livestream trực tiếp tại Zoom, Fanpage Bizfly Cloud
Tham gia miễn phí tại: https://bit.ly/3N1Xdp2
Đăng ký ngay để có cơ hội nhận e-Voucher trị giá 500K khi đăng ký tham gia ngày 26/4/2023.
Bizfly Cloud - Đơn vị hàng đầu cung cấp giải pháp hạ tầng IT/Cloud phục vụ Chuyển đổi số cho doanh nghiệp tại Việt Nam, tiền thân là VCCloud trực thuộc Công ty Cổ phần VCCorp.
Hotline: (024) 7302 8888 / (028) 7302 8888