این حالت نمایش چند صفحه ای قابل پرینت این قسمت میباشد. برای پرینت کلیک کنید..
مستندات
- 1: نصب kubeadm
- 2: عیبیابی kubeadm
- 3: (cluster)مدیریت خوشه
- 4: راهاندازی خوشه etcd با قابلیت دسترسی بالا با kubeadm
- 5: مرجع
- 5.1: واژهنامه
- 6: پیکربندی هر kubelet در خوشه(cluster) شما با استفاده از kubeadm
- 7: مشارکت در کوبرنتیز
1 - نصب kubeadm
این صفحه نحوه نصب جعبه ابزار
kubeadm
را نشان میدهد.
برای کسب اطلاعات در مورد نحوه ایجاد یک خوشه(cluster) با kubeadm پس از انجام این فرآیند نصب، به صفحه ایجاد یک خوشه با kubeadm مراجعه کنید.
This راهنمای نصب is for Kubernetes v1.33. If you want to use a different Kubernetes version, please refer to the following pages instead:
Before you begin
- یک میزبان لینوکس سازگار. پروژه کوبرنتیز دستورالعملهای عمومی برای توزیعهای لینوکس مبتنی بر Debian و Red Hat و توزیعهای بدون مدیر بسته ارائه میدهد.
- ۲ گیگابایت یا بیشتر رم برای هر دستگاه (هر چه کمتر باشد، فضای کمی برای برنامههای شما باقی میماند).
- ۲ پردازنده مرکزی یا بیشتر برای ماشینهای کنترلی.
- اتصال کامل شبکه بین تمام ماشینهای موجود در خوشه (شبکه عمومی یا خصوصی اشکالی ندارد).
- نام میزبان، نشانی(آدرس) MAC و شناسه محصول منحصر به فرد برای هر گره(node). برای جزئیات بیشتر به اینجا مراجعه کنید.
- پورتهای خاصی روی دستگاههای شما باز هستند. برای جزئیات بیشتر به اینجا مراجعه کنید.
Note:
نصبkubeadm
از طریق پرونده(فایل) های دودویی(باینری) انجام میشود که از پیوند(لینک) پویا استفاده میکنند و فرض میکنند که سیستم هدف شما glibc
را ارائه میدهد.
این یک فرض منطقی در بسیاری از توزیعهای لینوکس (از جمله دبیان، اوبونتو، فدورا، CentOS و غیره) است.
اما همیشه در مورد توزیعهای سفارشی و سبک که به طور پیشفرض glibc
را شامل نمیشوند، مانند Alpine Linux، صدق نمیکند.
انتظار میرود که توزیع یا شامل glibc
یا یک لایه سازگاری باشد که نمادهای مورد انتظار را ارائه میدهد.نسخه سیستم عامل خود را بررسی کنید
- پروژه kubeadm از هستههای LTS پشتیبانی میکند. برای مشاهده به لیست هسته(kernel)های LTS مراجعه کنید.
- شما میتوانید با استفاده از دستور
uname -r
نسخه هسته(kernel) را دریافت کنید.
برای اطلاعات بیشتر، به الزامات هسته(kernel) لینوکس مراجعه کنید.
- پروژه kubeadm از نسخههای اخیر هسته(kernel) پشتیبانی میکند. برای مشاهده فهرستی از هسته(kernel) های اخیر، به اطلاعات انتشار ویندوز سرور مراجعه کنید.
- شما میتوانید نسخه هسته(kernel) (که به آن نسخه سیستم عامل نیز گفته میشود) را با استفاده از دستور
systeminfo
مشاهده کنید.
برای اطلاعات بیشتر، به سازگاری نسخه سیستم عامل ویندوز مراجعه کنید.
یک خوشه کوبرنتیز که توسط kubeadm ایجاد میشود، به نرمافزاری بستگی دارد که از ویژگیهای هسته(kernel) استفاده میکند. این نرمافزار شامل، اما نه محدود به container runtime، kubelet، و یک افزونه Container Network Interface میشود.
برای کمک به شما در جلوگیری از خطاهای غیرمنتظره ناشی از عدم پشتیبانی از نسخه هسته، kubeadm بررسی پیش از اجرای SystemVerification
را اجرا میکند. اگر نسخه هسته(kernel) پشتیبانی نشود، این بررسی با شکست مواجه میشود.
اگر میدانید که هسته(kernel) شما ویژگیهای مورد نیاز را ارائه میدهد، حتی اگر kubeadm از نسخه آن پشتیبانی نکند، میتوانید از بررسی صرف نظر کنید.
بررسی کنید که نشانی(آدرس) MAC و product_uuid برای هر گره(node) منحصر به فرد باشند
- شما میتوانید نشانی(آدرس) MAC رابطهای شبکه را با استفاده از دستور
ip link
یاifconfig -a
دریافت کنید. - شناسه محصول (product_uuid) را میتوان با استفاده از دستور
sudo cat /sys/class/dmi/id/product_uuid
بررسی کرد.
بسیار محتمل است که دستگاههای سختافزاری نشانی(آدرس) های منحصر به فردی داشته باشند، اگرچه برخی از ماشینهای مجازی ممکن است مقادیر یکسانی داشته باشند. کوبرنتیز از این مقادیر برای شناسایی منحصر به فرد گرهها در خوشه استفاده میکند. اگر این مقادیر برای هر گره(node) منحصر به فرد نباشند، فرآیند نصب ممکن است با شکست مواجه شود.
بررسی آداپتورهای شبکه
اگر بیش از یک adapters شبکه دارید و اجزای کوبرنتیز شما از طریق مسیر پیشفرض قابل دسترسی نیستند، توصیه میکنیم مسیر(های) IP را اضافه کنید تا نشانی(آدرس) های خوشه کوبرنتیز از طریق adapters مناسب عبور کنند.
بررسی پورتهای مورد نیاز
این پورتهای مورد نیاز برای اینکه اجزای Kubernetes بتوانند با یکدیگر ارتباط برقرار کنند، باید باز باشند. میتوانید از ابزارهایی مانند netcat برای بررسی باز بودن یک پورت استفاده کنید. به عنوان مثال:
nc 127.0.0.1 6443 -zv -w 2
افزونه شبکه پاد که استفاده میکنید ممکن است نیاز به باز بودن پورتهای خاصی داشته باشد. از آنجایی که این موضوع در هر افزونه شبکه پاد متفاوت است، لطفاً برای اطلاع از پورت(های) مورد نیاز افزونهها، به مستندات آنها مراجعه کنید.
پیکربندی Swap
رفتار پیشفرض یک kubelet این است که در صورت شناسایی حافظه swap در یک گره، شروع به کار نکند. این بدان معناست که swap باید یا غیرفعال شود یا توسط kubelet تحمل شود.
- برای تحمل swap،
failSwapOn: false
را به پیکربندی kubelet یا به عنوان یک آرگومان خط فرمان اضافه کنید. توجه: حتی اگرfailSwapOn: false
ارائه شود، بارهای کاری به طور پیشفرض به swap دسترسی نخواهند داشت. این را میتوان با تنظیمswapBehavior
، دوباره در پرونده(فایل) پیکربندی kubelet، تغییر داد. برای استفاده از swap،swapBehavior
را به غیر از تنظیم پیشفرضNoSwap
تنظیم کنید. برای جزئیات بیشتر به مدیریت حافظه swap مراجعه کنید. - برای غیرفعال کردن swap، میتوان از دستور
sudo swapoff -a
برای غیرفعال کردن موقت swap استفاده کرد.
برای اینکه این تغییر در راهاندازیهای مجدد پایدار بماند، مطمئن شوید که swap در پروندههای پیکربندی مانند /etc/fstab
، systemd.swap
غیرفعال شده است، بسته به اینکه چگونه روی سیستم شما پیکربندی شده است.
نصب یک مجری کانتینر
برای اجرای کانتینرها در پادها، کوبرنتیز از یک container runtime استفاده میکند.
به طور پیشفرض، کوبرنتیز از Container Runtime Interface (CRI) برای ارتباط با مجری کانتینر انتخابی شما استفاده میکند.
اگر مجری کانتینر را مشخص نکنید، kubeadm به طور خودکار سعی میکند با اسکن لیستی از نقاط پایانی شناخته شده، مجری کانتینر نصب شده را تشخیص دهد. اگر چندین مجری کانتینر شناسایی شود یا هیچ مجری کانتینری شناسایی نشود، kubeadm خطایی ایجاد میکند و از شما میخواهد که مشخص کنید میخواهید از کدام یک استفاده کنید.
برای اطلاعات بیشتر به مجری های کانتینر مراجعه کنید.
Note:
موتور Docker، CRI را پیادهسازی نمیکند که برای مجری کانتینر جهت کار با کوبرنتیز الزامی است. به همین دلیل، یک سرویس اضافی cri-dockerd باید نصب شود. cri-dockerd پروژهای مبتنی بر پشتیبانی داخلی قدیمی موتور داکر است که در نسخه ۱.۲۴ از kubelet حذف شد.جداول زیر شامل نقاط پایانی شناخته شده برای سیستم عاملهای پشتیبانی شده است:
Runtime | Path to Unix domain socket |
---|---|
containerd | unix:///var/run/containerd/containerd.sock |
CRI-O | unix:///var/run/crio/crio.sock |
Docker Engine (using cri-dockerd) | unix:///var/run/cri-dockerd.sock |
Runtime | Path to Windows named pipe |
---|---|
containerd | npipe:////./pipe/containerd-containerd |
Docker Engine (using cri-dockerd) | npipe:////./pipe/cri-dockerd |
نصب kubeadm، kubelet و kubectl
شما این بستهها را روی تمام دستگاههای خود نصب خواهید کرد:
-
kubeadm
: دستور راه اندازی خوشه. -
kubelet
: مؤلفهای که روی تمام ماشینهای موجود در خوشه شما اجرا میشود و کارهایی مانند راهاندازی پادها و کانتینرها را انجام میدهد. -
kubectl
: ابزار خط فرمان برای ارتباط با خوشه شما.
‘kubelet’ , kubeadm یا kubectl
را برای شما نصب یا مدیریت نخواهد کرد، بنابراین باید مطمئن شوید که آنها با نسخه control plane کوبرنتیز که میخواهید kubeadm برای شما نصب کند، مطابقت دارند. اگر این کار را نکنید، خطر بروز انحراف نسخه وجود دارد که میتواند منجر به رفتار غیرمنتظره و باگدار شود. با این حال، انحراف یک نسخه جزئی بین kubelet و control plane پشتیبانی میشود، اما نسخه kubelet هرگز نمیتواند از نسخه سرور API فراتر رود. به عنوان مثال، kubelet که نسخه ۱.۷.۰ را اجرا میکند باید کاملاً با یک سرور API نسخه ۱.۸.۰ سازگار باشد، اما برعکس آن امکانپذیر نیست.
برای اطلاعات بیشتر در مورد نصب kubectl
، به نصب و راهاندازی kubectl مراجعه کنید.
Warning:
این دستورالعملها تمام بستههای کوبرنتیز را از هرگونه ارتقاء سیستم مستثنی میکنند. دلیل این امر این است که kubeadm و کوبرنتیز نیاز به فرایند ویژه ارتقاء دارند.برای اطلاعات بیشتر در مورد انحراف نسخه، به موارد زیر مراجعه کنید:
- کوبرنتیز نسخه و سیاست انحراف نسخه
- ابزار Kubeadm-specific سیاست انحراف نسخه
apt.kubernetes.io
and yum.kubernetes.io
) have been
deprecated and frozen starting from September 13, 2023.
Using the new package repositories hosted at pkgs.k8s.io
is strongly recommended and required in order to install Kubernetes versions released after September 13, 2023.
The deprecated legacy repositories, and their contents, might be removed at any time in the future and without
a further notice period. The new package repositories provide downloads for Kubernetes versions starting with v1.24.0.
Note:
برای هر نسخه فرعی کوبرنتیز یک مخزن بسته اختصاصی وجود دارد. اگر میخواهید نسخه فرعی دیگری غیر از v1.33 نصب کنید، لطفاً به راهنمای نصب نسخه فرعی مورد نظر خود مراجعه کنید.این دستورالعملها برای کوبرنتیز v1.33 هستند.
-
فهرست بستههای
apt
را بهروزرسانی کنید و بستههای مورد نیاز برای استفاده از مخزن کوبرنتیزapt
را نصب کنید:sudo apt-get update # apt-transport-https may be a dummy package; if so, you can skip that package sudo apt-get install -y apt-transport-https ca-certificates curl gpg
-
کلید امضای عمومی مخازن بسته کوبرنتیز را دانلود کنید. کلید امضای یکسانی برای همه مخازن استفاده میشود، بنابراین میتوانید نسخه موجود در URL را نادیده بگیرید:
# اگر پوشه(folder) `/etc/apt/keyrings` وجود ندارد، باید قبل از دستور curl ایجاد شود، نکته زیر را بخوانید. # sudo mkdir -p -m 755 /etc/apt/keyrings curl -fsSL https://pkgs.k8s.io/core:/stable:/v1.33/deb/Release.key | sudo gpg --dearmor -o /etc/apt/keyrings/kubernetes-apt-keyring.gpg
Note:
در نسخههای قدیمیتر از دبیان ۱۲ و اوبونتو ۲۲.۰۴، پوشه/etc/apt/keyrings
به طور پیشفرض وجود ندارد و باید قبل از دستور curl ایجاد شود.-
مخزن کوبرنتیز
apt
مناسب را اضافه کنید. لطفاً توجه داشته باشید که این مخزن فقط بستههایی برای کوبرنتیز 1.33 دارد؛ برای سایر نسخههای فرعی کوبرنتیز، باید نسخه فرعی کوبرنتیز را در URL تغییر دهید تا با نسخه فرعی مورد نظر شما مطابقت داشته باشد. (همچنین باید بررسی کنید که مستندات مربوط به نسخه کوبرنتیز که قصد نصب آن را دارید، مطالعه میکنید.)# This overwrites any existing configuration in /etc/apt/sources.list.d/kubernetes.list echo 'deb [signed-by=/etc/apt/keyrings/kubernetes-apt-keyring.gpg] https://pkgs.k8s.io/core:/stable:/v1.33/deb/ /' | sudo tee /etc/apt/sources.list.d/kubernetes.list
-
فهرست بستههای
apt
را بهروزرسانی کنید، kubelet، kubeadm و kubectl را نصب کنید و نسخه آنها را پین کنید:sudo apt-get update sudo apt-get install -y kubelet kubeadm kubectl sudo apt-mark hold kubelet kubeadm kubectl
-
(اختیاری) سرویس kubelet را قبل از اجرای kubeadm فعال کنید:
sudo systemctl enable --now kubelet
-
SELinux را روی حالت «مجاز» تنظیم کنید:
این دستورالعملها برای کوبرنتیز 1.33 هستند.
# Set SELinux in permissive mode (effectively disabling it) sudo setenforce 0 sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
Caution:
- تنظیم SELinux در حالت مجاز با اجرای
setenforce 0
وsed ...
عملاً آن را غیرفعال میکند. این کار برای دسترسی کانتینرها به فایل سیستم میزبان لازم است؛ برای مثال، برخی از افزونههای شبکه خوشهای به آن نیاز دارند. شما باید این کار را تا زمانی که پشتیبانی SELinux در kubelet بهبود یابد، انجام دهید. - اگر نحوه پیکربندی SELinux را میدانید، میتوانید آن را فعال نگه دارید، اما ممکن است به تنظیماتی نیاز داشته باشد که توسط kubeadm پشتیبانی نمیشوند.
-
مخزن کوبرنتیز
yum
را اضافه کنید. پارامترexclude
در تعریف مخزن تضمین میکند که بستههای مربوط به کوبرنتیز با اجرایyum update
ارتقا پیدا نکنند، زیرا برای ارتقاء کوبرنتیز باید رویه خاصی دنبال شود. لطفاً توجه داشته باشید که این مخزن فقط بستههایی برای کوبرنتیز دارد 1.33؛ برای سایر نسخههای فرعی کوبرنتیز، باید نسخه فرعی کوبرنتیز را در URL تغییر دهید تا با نسخه فرعی مورد نظر شما مطابقت داشته باشد (همچنین باید بررسی کنید که مستندات مربوط به نسخه کوبرنتیز که قصد نصب آن را دارید، مطالعه میکنید).# This overwrites any existing configuration in /etc/yum.repos.d/kubernetes.repo cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=https://pkgs.k8s.io/core:/stable:/v1.33/rpm/ enabled=1 gpgcheck=1 gpgkey=https://pkgs.k8s.io/core:/stable:/v1.33/rpm/repodata/repomd.xml.key exclude=kubelet kubeadm kubectl cri-tools kubernetes-cni EOF
-
kubelet، kubeadm و kubectl را نصب کنید:
sudo yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes
-
(اختیاری) سرویس kubelet را قبل از اجرای kubeadm فعال کنید:
sudo systemctl enable --now kubelet
افزونههای CNI را نصب کنید (برای اکثر شبکههای پاد مورد نیاز است):
CNI_PLUGINS_VERSION="v1.3.0"
ARCH="amd64"
DEST="/opt/cni/bin"
sudo mkdir -p "$DEST"
curl -L "https://github.com/containernetworking/plugins/releases/download/${CNI_PLUGINS_VERSION}/cni-plugins-linux-${ARCH}-${CNI_PLUGINS_VERSION}.tgz" | sudo tar -C "$DEST" -xz
پوشه را برای دانلود پروندههای دستور(command) ایجاد کنید:
Note:
متغیر DOWNLOAD_DIR
باید روی یک پوشه قابل نوشتن تنظیم شود.
اگر از Flatcar کانتینر لینوکس استفاده میکنید، DOWNLOAD_DIR="/opt/bin"
را تنظیم کنید.
DOWNLOAD_DIR="/usr/local/bin"
sudo mkdir -p "$DOWNLOAD_DIR"
در صورت تمایل، crictl را نصب کنید (برای تعامل با رابط مجری کانتینر (CRI) مورد نیاز است، و برای kubeadm اختیاری است):
CRICTL_VERSION="v1.31.0"
ARCH="amd64"
curl -L "https://github.com/kubernetes-sigs/cri-tools/releases/download/${CRICTL_VERSION}/crictl-${CRICTL_VERSION}-linux-${ARCH}.tar.gz" | sudo tar -C $DOWNLOAD_DIR -xz
kubeadm
، kubelet
را نصب کنید و یک سرویس systemd kubelet
اضافه کنید:
RELEASE="$(curl -sSL https://dl.k8s.io/release/stable.txt)"
ARCH="amd64"
cd $DOWNLOAD_DIR
sudo curl -L --remote-name-all https://dl.k8s.io/release/${RELEASE}/bin/linux/${ARCH}/{kubeadm,kubelet}
sudo chmod +x {kubeadm,kubelet}
RELEASE_VERSION="v0.16.2"
curl -sSL "https://raw.githubusercontent.com/kubernetes/release/${RELEASE_VERSION}/cmd/krel/templates/latest/kubelet/kubelet.service" | sed "s:/usr/bin:${DOWNLOAD_DIR}:g" | sudo tee /usr/lib/systemd/system/kubelet.service
sudo mkdir -p /usr/lib/systemd/system/kubelet.service.d
curl -sSL "https://raw.githubusercontent.com/kubernetes/release/${RELEASE_VERSION}/cmd/krel/templates/latest/kubeadm/10-kubeadm.conf" | sed "s:/usr/bin:${DOWNLOAD_DIR}:g" | sudo tee /usr/lib/systemd/system/kubelet.service.d/10-kubeadm.conf
Note:
لطفاً برای توزیعهای لینوکس که به طور پیشفرض شاملglibc
نیستند، به یادداشت موجود در بخش پیش نیازها مراجعه کنید.با دنبال کردن دستورالعملهای موجود در صفحه نصب ابزارها، kubectl
را نصب کنید.
در صورت تمایل، قبل از اجرای kubeadm، سرویس kubelet را فعال کنید:
sudo systemctl enable --now kubelet
Note:
توزیع لینوکس Flatcar Container پوشه/usr
را به عنوان یک پرونده سیستم فقط خواندنی mount میکند.
قبل از راه اندازی خوشه خود، باید مراحل بیشتری را برای پیکربندی یک پوشه قابل نوشتن انجام دهید.
برای یادگیری نحوه راهاندازی یک پوشه قابل نوشتن، به راهنمای عیبیابی Kubeadm مراجعه کنید.Kubelet حالا هر چند ثانیه یک بار ریاستارت میشود، چون در یک حلقهی توقف منتظر میماند تا kubeadm به آن بگوید چه کاری انجام دهد.
پیکربندی درایور cgroup
پیکربندی درایور cgroup هم مجری کانتینر و هم kubelet دارای یک ویژگی به نام "cgroup driver" هستند که برای مدیریت cgroupها در دستگاههای لینوکس مهم است.
Warning:
تطبیق مجری کانتینر و درایورهای cgroup kubelet مورد نیاز است یا در غیر این صورت فرآیند kubelet با شکست مواجه خواهد شد.
برای جزئیات بیشتر به پیکربندی درایور cgroup مراجعه کنید.
عیبیابی
اگر با kubeadm به مشکل برخوردید، لطفاً به مستندات عیبیابی ما مراجعه کنید.
What's next
2 - عیبیابی kubeadm
مانند هر برنامه دیگری، ممکن است در نصب یا اجرای kubeadm با خطایی مواجه شوید. این صفحه برخی از سناریوهای رایج خرابی را فهرست کرده و مراحلی را ارائه داده است که میتواند به شما در درک و رفع مشکل کمک کند.
اگر مشکل شما در لیست زیر نیست، لطفاً مراحل زیر را دنبال کنید:
-
اگر فکر میکنید مشکل شما یک باگ در kubeadm است:
- به github.com/kubernetes/kubeadm بروید و مشکلات موجود را جستجو کنید.
- اگر مشکلی وجود ندارد، لطفاً یکی را باز کنید و الگوی مشکل را دنبال کنید.
-
اگر در مورد نحوهی کار kubeadm مطمئن نیستید، میتوانید در Slack در
#kubeadm
سوال خود را بپرسید، یا در StackOverflow سوالی مطرح کنید. لطفاً برچسبهای مرتبط مانند#kubernetes
و#kubeadm
را وارد کنید تا دیگران بتوانند به شما کمک کنند.
به دلیل عدم وجود RBAC، امکان اتصال یک گره(node) نسخه ۱.۱۸ به یک خوشه(cluster) نسخه ۱.۱۷ وجود ندارد.
در نسخه ۱.۱۸ kubeadm، در صورتی که گرهای با نام مشابه از قبل وجود داشته باشد، امکان جلوگیری از پیوستن آن به یک گره(node) در خوشه(cluster) اضافه شد. این امر مستلزم اضافه کردن RBAC برای کاربر bootstrap-token بود تا بتواند یک شیء گره(node) را دریافت کند.
با این حال، این مسئله باعث میشود که kubeadm join
از نسخه ۱.۱۸ نتواند به خوشه(cluster) که توسط kubeadm نسخه ۱.۱۷ ایجاد شده است، بپیوندد.
برای حل مشکل، دو گزینه دارید:
دستور kubeadm init phase bootstrap-token
را روی یک گره(node) control-plane با استفاده از kubeadm نسخه ۱.۱۸ اجرا کنید.
توجه داشته باشید که این دستور بقیه مجوزهای bootstrap-token را نیز فعال میکند.
یا
RBAC زیر را به صورت دستی با استفاده از kubectl apply -f ...
اعمال کنید:
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: kubeadm:get-nodes
rules:
- apiGroups:
- ""
resources:
- nodes
verbs:
- get
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: kubeadm:get-nodes
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: kubeadm:get-nodes
subjects:
- apiGroup: rbac.authorization.k8s.io
kind: Group
name: system:bootstrappers:kubeadm:default-node-token
پرونده(فایل) اجرایی ebtables
یا پرونده(فایل) اجرایی مشابه آن در حین نصب پیدا نشد.
اگر هنگام اجرای kubeadm init
هشدارهای زیر را مشاهده کردید
[preflight] WARNING: ebtables not found in system path
[preflight] WARNING: ethtool not found in system path
پس ممکن است ebtables
، ethtool
یا یک پرونده(فایل) اجرایی مشابه را روی گره(node) خود نداشته باشید. میتوانید آنها را با دستورات زیر نصب کنید:
- برای کاربران اوبونتو/دبیان، دستور
apt install ebtables ethtool
را اجرا کنید. - برای کاربران CentOS/Fedora، دستور
yum install ebtables ethtool
را اجرا کنید.
kubeadm در هنگام نصب در انتظار control plane میماند
اگر متوجه شدید که kubeadm init
پس از چاپ خط زیر هنگ میکند:
[apiclient] Created API client, waiting for the control plane to become ready
این ممکن است ناشی از تعدادی از مشکلات باشد. رایجترین آنها عبارتند از:
- مشکلات اتصال شبکه. قبل از ادامه، بررسی کنید که دستگاه شما اتصال کامل به شبکه دارد.
- درایور cgroup مربوط به مجری کانتینر با درایور kubelet متفاوت است. برای درک نحوه پیکربندی صحیح آن، به پیکربندی درایور cgroup مراجعه کنید.
- کانتینرهای control plane دچار crash loop یا هنگ شدهاند. میتوانید این مورد را با اجرای
docker ps
و بررسی هر کانتینر با اجرایdocker logs
بررسی کنید. برای سایر کانتینرهای زمان اجرا، به اشکالزدایی گرههای Kubernetes با crictl مراجعه کنید.
kubeadm هنگام حذف کانتینرهای مدیریتشده، مسدود میشود
اگر مجری کانتینر متوقف شود و هیچ کانتینری که توسط کوبرنتیز مدیریت میشود را حذف نکند، موارد زیر ممکن است رخ دهد:
sudo kubeadm reset
[preflight] Running pre-flight checks
[reset] Stopping the kubelet service
[reset] Unmounting mounted directories in "/var/lib/kubelet"
[reset] Removing kubernetes-managed containers
(block)
یک راه حل ممکن، راه اندازی مجدد مجری کانتینر و سپس اجرای مجدد kubeadm reset
است. همچنین میتوانید از crictl
برای اشکال زدایی وضعیت مجری کانتینر استفاده کنید. به اشکال زدایی گرههای کوبرنتیز با crictl مراجعه کنید.
پادها در وضعیتهای RunContainerError
، CrashLoopBackOff
یا Error
درست پس از kubeadm init
نباید هیچ پادی در این حالتها وجود داشته باشد.
- اگر پادها درست بعد از
kubeadm init
در یکی از این حالتها هستند، لطفاً یک مشکل را در مخزن kubeadm باز کنید.coredns
(یاkube-dns
) باید تا زمانی که افزونه شبکه را مستقر نکردهاید، در حالتPending
باشد. - اگر پس از نصب افزونه شبکه، Pods را در حالتهای
RunContainerError
،CrashLoopBackOff
یاError
مشاهده کردید و هیچ اتفاقی برایcoredns
(یاkube-dns
) نیفتاد، به احتمال زیاد افزونه Pod Network که نصب کردهاید به نحوی خراب است. ممکن است مجبور شوید امتیازات RBAC بیشتری به آن اعطا کنید یا از نسخه جدیدتری استفاده کنید. لطفاً مشکل را در ردیاب مشکلات ارائه دهندگان Pod Network ثبت کنید و مشکل را در آنجا بررسی کنید.
«coredns» در حالت Pending
گیر کرده است
این انتظار میرود و بخشی از طراحی است. kubeadm مستقل از ارائهدهنده شبکه است، بنابراین مدیر باید افزونه شبکه pod را نصب کند. شما باید قبل از اینکه CoreDNS به طور کامل مستقر شود، یک افزونه Pod Network نصب کنید. از این رو، قبل از راهاندازی شبکه، در حالت «در انتظار» قرار دارد.
سرویسهای HostPort کار نمیکنند
قابلیتهای «HostPort» و «HostIP» بسته به ارائهدهندهی شبکهی پاد شما در دسترس هستند. لطفاً برای اطلاع از در دسترس بودن قابلیتهای «HostPort» و «HostIP» با نویسندهی افزونهی Pod Network تماس بگیرید.
ارائه دهندگان CNI مربوط به Calico، Canal و Flannel تأیید شدهاند که از HostPort پشتیبانی میکنند.
برای اطلاعات بیشتر، به مستندات نقشه پورت CNI مراجعه کنید.
اگر ارائه دهنده شبکه شما از افزونه portmap CNI پشتیبانی نمیکند، ممکن است لازم باشد از ویژگی NodePort سرویسها استفاده کنید یا از HostNetwork=true
استفاده کنید.
پادها از طریق سرویس IP خود قابل دسترسی نیستند
-
بسیاری از افزونههای شبکه هنوز hairpin mode را فعال نمیکنند که به پادها اجازه میدهد از طریق Service IP خود به خودشان دسترسی داشته باشند. این مشکلی مربوط به CNI است. لطفاً برای دریافت آخرین وضعیت پشتیبانی از حالت hairpin با ارائهدهنده افزونه شبکه تماس بگیرید.
-
اگر از VirtualBox (مستقیماً یا از طریق Vagrant) استفاده میکنید، باید مطمئن شوید که
hostname -i
یک نشانی(آدرس) IP قابل مسیریابی را برمیگرداند. به طور پیشفرض، اولین رابط به یک شبکه فقط میزبان غیرقابل مسیریابی متصل است. یک راه حل، تغییر/etc/hosts
است، برای مثال به این Vagrantfile مراجعه کنید.
خطاهای گواهی TLS
خطای زیر نشاندهندهی عدم تطابق احتمالی گواهی است.
# kubectl get pods
Unable to connect to the server: x509: certificate signed by unknown authority (possibly because of "crypto/rsa: verification error" while trying to verify candidate authority certificate "kubernetes")
-
تأیید کنید که پرونده(فایل)
$HOME/.kube/config
حاوی یک گواهی معتبر است و در صورت لزوم یک گواهی را بازسازی کنید. گواهیهای موجود در پرونده(فایل) kubeconfig با کد base64 کدگذاری شدهاند. دستورbase64 --decode
میتواند برای رمزگشایی گواهی و دستورopenssl x509 -text -noout
میتواند برای مشاهده اطلاعات گواهی استفاده شود. -
متغیر محیطی
KUBECONFIG
را با استفاده از دستور زیر غیرفعال کنید:unset KUBECONFIG
یا آن را روی مکان پیشفرض KUBECONFIG
تنظیم کنید:
export KUBECONFIG=/etc/kubernetes/admin.conf
-
یک راه حل دیگر، بازنویسی
kubeconfig
موجود برای کاربر "admin" است:mv $HOME/.kube $HOME/.kube.bak mkdir $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
عدم موفقیت در چرخش گواهی کلاینت Kubelet
به طور پیشفرض، kubeadm با استفاده از پیوند نمادین /var/lib/kubelet/pki/kubelet-client-current.pem
که در /etc/kubernetes/kubelet.conf
مشخص شده است، یک kubelet با چرخش خودکار گواهینامههای کلاینت پیکربندی میکند.
اگر این فرآیند چرخش با شکست مواجه شود، ممکن است خطاهایی مانند x509: certificate has expired or is not yet valid
در لاگهای kube-apiserver مشاهده کنید. برای رفع مشکل، باید این مراحل را دنبال کنید:
-
از پروندههای
/etc/kubernetes/kubelet.conf
و/var/lib/kubelet/pki/kubelet-client*
پشتیبان تهیه کرده و آنها را از گرهی خراب حذف کنید. -
از یک گره control plane فعال در خوشه(cluster) ای که
/etc/kubernetes/pki/ca.key
دارد، دستورkubeadm kubeconfig user --org system:nodes --client-name system:node:$NODE > kubelet.conf
را اجرا کنید.$NODE
باید روی نام گره(node) خراب موجود در خوشه(cluster) تنظیم شود.kubelet.conf
حاصل را به صورت دستی تغییر دهید تا نام خوشه(cluster) و نقطه پایانی سرور تنظیم شود، یاkubeconfig user --config
را به آن بدهید (به ایجاد پروندههای kubeconfig برای کاربران اضافی مراجعه کنید). اگر خوشه(cluster) شماca.key
را ندارد، باید گواهیهای تعبیه شده درkubelet.conf
را به صورت خارجی امضا کنید. -
پرونده(فایل)
kubelet.conf
حاصل را در/etc/kubernetes/kubelet.conf
روی گرهی خرابشده کپی کنید. -
Kubelet (
systemctl restart kubelet
) را روی گره(node) خرابشده مجدداً راهاندازی کنید و منتظر بمانید تا/var/lib/kubelet/pki/kubelet-client-current.pem
دوباره ایجاد شود. -
پرونده(فایل)
kubelet.conf
را به صورت دستی ویرایش کنید تا به گواهیهای کلاینت kubelet چرخانده شده اشاره کند، برای این کارclient-certificate-data
وclient-key-data
را با موارد زیر جایگزین کنید:client-certificate: /var/lib/kubelet/pki/kubelet-client-current.pem client-key: /var/lib/kubelet/pki/kubelet-client-current.pem
-
kubelet را مجدداً راه اندازی کنید.
-
مطمئن شوید که گره(node) به حالت «آماده» (Ready) درآمده است.
کارت شبکه پیشفرض هنگام استفاده از flannel به عنوان شبکه پاد در Vagrant
خطای زیر ممکن است نشان دهد که مشکلی در شبکه پاد وجود دارد:
Error from server (NotFound): the server could not find the requested resource
-
اگر از flannel به عنوان شبکه pod در Vagrant استفاده میکنید، باید نام رابط پیشفرض flannel را مشخص کنید.
Vagrant معمولاً دو رابط به همه ماشینهای مجازی اختصاص میدهد. رابط اول که به همه میزبانها نشانی IP
10.0.2.15
اختصاص داده شده است، برای ترافیک خارجی است که NAT میشود.این ممکن است منجر به مشکلاتی در flannel شود، که به طور پیشفرض روی اولین رابط روی یک میزبان قرار میگیرد.
این امر باعث میشود همه میزبانها فکر کنند که نشانی IP عمومی یکسانی دارند. برای جلوگیری از این، پرچم
--face eth1
را به flannel ارسال کنید تا رابط دوم انتخاب شود.
IP غیر عمومی مورد استفاده برای کانتینرها
در برخی شرایط، دستورات kubectl logs
و kubectl run
ممکن است در یک خوشه(cluster) با عملکرد عادی، خطاهای زیر را نشان دهند:
Error from server: Get https://10.19.0.41:10250/containerLogs/default/mysql-ddc65b868-glc5m/mysql: dial tcp 10.19.0.41:10250: getsockopt: no route to host
-
این ممکن است به دلیل استفاده کوبرنتیز از یک IP باشد که نمیتواند با IP های دیگر در زیرشبکه به ظاهر یکسان ارتباط برقرار کند، احتمالاً به دلیل سیاست ارائه دهنده دستگاه.
-
DigitalOcean یک IP عمومی به
eth0
و همچنین یک IP خصوصی برای استفاده داخلی به عنوان لنگر برای ویژگی IP شناور خود اختصاص میدهد، اماkubelet
دومی را به جای IP عمومی به عنوانIP داخلی
گره(node) انتخاب میکند.برای بررسی این سناریو به جای
ifconfig
ازip addr show
استفاده کنید زیراifconfig
نشانی(آدرس) IP مستعار متخلف را نمایش نمیدهد. به عنوان یک جایگزین، یک نقطه پایانی API مخصوصDigitalOcean
امکان جستجوی IP لنگر را از سرور مجازی فراهم میکند:curl http://169.254.169.254/metadata/v1/interfaces/public/0/anchor_ipv4/address
راه حل این است که با استفاده از --node-ip
به kubelet
بگویید از کدام IP استفاده کند. هنگام استفاده از DigitalOcean، در صورت تمایل به استفاده از شبکه خصوصی اختیاری، میتواند IP عمومی (اختصاص داده شده به eth0
) یا IP خصوصی (اختصاص داده شده به eth1
) باشد. برای این کار میتوان از بخش kubeletExtraArgs
از ساختار kubeadmNodeRegistrationOptions
استفاده کرد.
سپس kubelet
را مجدداً راه اندازی کنید:
systemctl daemon-reload
systemctl restart kubelet
پادهای coredns
دارای وضعیت CrashLoopBackOff
یا Error
هستند
اگر گرههایی دارید که SELinux را با نسخه قدیمیتر Docker اجرا میکنند، ممکن است با سناریویی مواجه شوید که در آن پادهای coredns
شروع به کار نمیکنند. برای حل این مشکل، میتوانید یکی از گزینههای زیر را امتحان کنید:
-
به نسخه جدیدتر Docker ارتقا دهید.
-
پرونده استقرار
coredns
را تغییر دهید تاallowPrivilegeEscalation
بر رویtrue
تنظیم شود:
kubectl -n kube-system get deployment coredns -o yaml | \
sed 's/allowPrivilegeEscalation: false/allowPrivilegeEscalation: true/g' | \
kubectl apply -f -
یکی دیگر از دلایل بروز خطای «CrashLoopBackOff» در CoreDNS زمانی است که یک CoreDNS Pod مستقر در کوبرنتیز یک حلقه را تشخیص دهد. چندین راه حل برای جلوگیری از تلاش کوبرنتیز برای راهاندازی مجدد CoreDNS Pod هر بار که CoreDNS حلقه را تشخیص داده و خارج میشود، در دسترس هستند.
Caution:
غیرفعال کردن SELinux یا تنظیم allowPrivilegeEscalation روی true میتواند امنیت خوشه(cluster) شما را به خطر بیندازد.پادهای etcd مرتباً مجدداً راهاندازی میشوند
اگر با خطای زیر مواجه شدید:
rpc error: code = 2 desc = oci runtime error: exec failed: container_linux.go:247: starting container process caused "process_linux.go:110: decoding init error from pipe caused \"read parent: connection reset by peer\""
این مشکل در صورتی ظاهر میشود که CentOS 7 را با Docker 1.13.1.84 اجرا کنید. این نسخه از Docker میتواند از اجرای kubelet در کانتینر etcd جلوگیری کند.
برای حل مشکل، یکی از این گزینهها را انتخاب کنید:
-
بازگشت به نسخه قبلی داکر، مانند 1.13.1-75
yum downgrade docker-1.13.1-75.git8633870.el7.centos.x86_64 docker-client-1.13.1-75.git8633870.el7.centos.x86_64 docker-common-1.13.1-75.git8633870.el7.centos.x86_64
-
یکی از نسخههای پیشنهادی جدیدتر، مانند ۱۸.۰۶ را نصب کنید:
sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo yum install docker-ce-18.06.1.ce-3.el7.x86_64
ارسال لیستی از مقادیر جدا شده با ویرگول به مولفه های داخل پرچم --component-extra-args
امکانپذیر نیست.
پرچمهای kubeadm init
مانند --component-extra-args
به شما امکان میدهند مولفههای سفارشی را به یک جزء control plane مانند kube-apiserver ارسال کنید. با این حال، این مکانیسم به دلیل نوع دادهای که برای تجزیه مقادیر استفاده میشود (mapStringString
) محدود است.
اگر تصمیم دارید مولفه ای را ارسال کنید که از چندین مقدار جدا شده با ویرگول مانند
--apiserver-extra-args "enable-admission-plugins=LimitRanger,NamespaceExists"
پشتیبانی میکند، این پرچم با
flag: malformed pair, expect string=string
با شکست مواجه خواهد شد. این اتفاق میافتد زیرا لیست مولفهها برای
--apiserver-extra-args
انتظار جفتهای key=value
را دارد و در این حالت NamespacesExists
به عنوان کلیدی در نظر گرفته میشود که مقداری از آن کم است.
به عنوان یک روش جایگزین، میتوانید جفتهای key=value
را به این صورت از هم جدا کنید:
--apiserver-extra-args "enable-admission-plugins=LimitRanger,enable-admission-plugins=NamespaceExists"
اما این باعث میشود که کلید enable-admission-plugins
فقط مقدار NamespaceExists
را داشته باشد.
یک راه حل شناخته شده، استفاده از kubeadm پرونده(فایل) پیکربندی است.
kube-proxy قبل از مقداردهی اولیه گره(node) توسط cloud-controller-manager برنامهریزی شده است
در سناریوهای ارائه دهنده ابر، kube-proxy میتواند قبل از اینکه cloud-controller-manager نشانیهای گره(node) را مقداردهی اولیه کند، روی گرههای کارگر جدید برنامهریزی شود. این باعث میشود kube-proxy نتواند نشانی(آدرس) IP گره(node) را به درستی دریافت کند و تأثیرات جانبی بر عملکرد پروکسی که متعادلکنندههای بار را مدیریت میکند، داشته باشد.
خطای زیر در kube-proxy Pods قابل مشاهده است:
server.go:610] Failed to retrieve node IP: host IP unknown; known addresses: []
proxier.go:340] invalid nodeIP, initializing kube-proxy with 127.0.0.1 as nodeIP
یک راه حل شناخته شده، وصله کردن kube-proxy DaemonSet است تا امکان زمانبندی آن روی گرههای control plane صرف نظر از شرایط آنها فراهم شود و تا زمانی که شرایط محافظت اولیه آنها کاهش یابد، از گرههای دیگر دور نگه داشته شود:
kubectl -n kube-system patch ds kube-proxy -p='{
"spec": {
"template": {
"spec": {
"tolerations": [
{
"key": "CriticalAddonsOnly",
"operator": "Exists"
},
{
"effect": "NoSchedule",
"key": "node-role.kubernetes.io/control-plane"
}
]
}
}
}
}'
موضوع ردیابی این مشکل اینجا است.
/usr
روی گرهها فقط خواندنی نصب شده است
در توزیعهای لینوکس مانند Fedora CoreOS یا Flatcar Container Linux، پوشه(folder) /usr
به عنوان یک فایل سیستم فقط خواندنی نصب میشود. برای پشتیبانی از flex-volume، اجزای کوبرنتیز مانند kubelet و kube-controller-manager از مسیر پیشفرض /usr/libexec/kubernetes/kubelet-plugins/volume/exec/
استفاده میکنند، با این حال پوشه(folder) flex-volume باید قابل نوشتن باشد تا این ویژگی کار کند.
Note:
FlexVolume در نسخه کوبرنتیز v1.23 منسوخ شد.برای حل این مشکل، میتوانید پوشه(folder) flex-volume را با استفاده از kubeadm پیکربندی کنید. پرونده(فایل) پیکربندی.
در گره(node) کنترل اصلی (که با استفاده از kubeadm init
ایجاد شده است)، پرونده(فایل) زیر را با استفاده از --config
ارسال کنید:
apiVersion: kubeadm.k8s.io/v1beta4
kind: InitConfiguration
nodeRegistration:
kubeletExtraArgs:
- name: "volume-plugin-dir"
value: "/opt/libexec/kubernetes/kubelet-plugins/volume/exec/"
---
apiVersion: kubeadm.k8s.io/v1beta4
kind: ClusterConfiguration
controllerManager:
extraArgs:
- name: "flex-volume-plugin-dir"
value: "/opt/libexec/kubernetes/kubelet-plugins/volume/exec/"
در مورد اتصال گرهها:
apiVersion: kubeadm.k8s.io/v1beta4
kind: JoinConfiguration
nodeRegistration:
kubeletExtraArgs:
- name: "volume-plugin-dir"
value: "/opt/libexec/kubernetes/kubelet-plugins/volume/exec/"
به عنوان یک روش جایگزین، میتوانید /etc/fstab
را تغییر دهید تا mount /usr
قابل نوشتن شود، اما لطفاً توجه داشته باشید که این کار، یک اصل طراحی توزیع لینوکس را تغییر میدهد.
برنامه ارتقاء kubeadm پیام خطای « context deadline exceeded» را چاپ میکند.
این پیام خطا هنگام ارتقاء یک خوشه(cluster) کوبرنتیز با kubeadm
در صورت اجرای یک etcd خارجی نشان داده میشود. این یک اشکال بحرانی نیست و به این دلیل اتفاق میافتد که نسخههای قدیمیتر kubeadm بررسی نسخه را روی خوشه(cluster) etcd خارجی انجام میدهند. میتوانید با kubeadm upgrade apply ...
ادامه دهید.
این مشکل از نسخه ۱.۱۹ برطرف شده است.
kubeadm reset
«/var/lib/kubelet» را از حالت وصل خارج میکند
اگر /var/lib/kubelet
در حالت متصل باشد، انجام kubeadm reset
عملاً آن را از حالت متصل خارج میکند.
برای حل این مشکل، پس از انجام عملیات kubeadm reset
، پوشه(folder) /var/lib/kubelet
را دوباره متصل کنید.
این یک پسرفت است که در kubeadm نسخه ۱.۱۵ معرفی شد. این مشکل در نسخه ۱.۲۰ برطرف شده است.
نمیتوان از سرور متریک به صورت امن در خوشه(cluster) kubeadm استفاده کرد.
در یک خوشه(cluster) kubeadm، میتوان با ارسال --kubelet-insecure-tls
به metrics-server به صورت ناامن از آن استفاده کرد. این روش برای خوشه(cluster) های عملیاتی توصیه نمیشود.
اگر میخواهید از TLS بین سرور metrics و kubelet استفاده کنید، مشکلی وجود دارد، زیرا kubeadm یک گواهی سرویس خودامضا برای kubelet مستقر میکند. این میتواند باعث خطاهای زیر در سمت سرور metrics شود:
x509: certificate signed by unknown authority
x509: certificate is valid for IP-foo not IP-bar
برای درک نحوه پیکربندی kubeletها در یک خوشه(cluster) kubeadm برای داشتن گواهیهای سرویسدهی امضا شده، به فعالسازی گواهیهای سرویسدهی امضا شده kubelet مراجعه کنید.
همچنین به نحوه اجرای امن سرور metrics مراجعه کنید.
به دلیل تغییر نکردن هش etcd، ارتقا با شکست مواجه میشود
فقط برای ارتقاء یک گره control plane با پرونده(فایل) دودویی(باینری) kubeadm نسخه ۱.۲۸.۳ یا بالاتر، که در حال حاضر توسط نسخههای kubeadm نسخههای ۱.۲۸.۰، ۱.۲۸.۱ یا ۱.۲۸.۲ مدیریت میشود، قابل اجرا است.
در اینجا پیام خطایی که ممکن است با آن مواجه شوید آمده است:
[upgrade/etcd] Failed to upgrade etcd: couldn't upgrade control plane. kubeadm has tried to recover everything into the earlier state. Errors faced: static Pod hash for component etcd on Node kinder-upgrade-control-plane-1 did not change after 5m0s: timed out waiting for the condition
[upgrade/etcd] Waiting for previous etcd to become available
I0907 10:10:09.109104 3704 etcd.go:588] [etcd] attempting to see if all cluster endpoints ([https://172.17.0.6:2379/ https://172.17.0.4:2379/ https://172.17.0.3:2379/]) are available 1/10
[upgrade/etcd] Etcd was rolled back and is now available
static Pod hash for component etcd on Node kinder-upgrade-control-plane-1 did not change after 5m0s: timed out waiting for the condition
couldn't upgrade control plane. kubeadm has tried to recover everything into the earlier state. Errors faced
k8s.io/kubernetes/cmd/kubeadm/app/phases/upgrade.rollbackOldManifests
cmd/kubeadm/app/phases/upgrade/staticpods.go:525
k8s.io/kubernetes/cmd/kubeadm/app/phases/upgrade.upgradeComponent
cmd/kubeadm/app/phases/upgrade/staticpods.go:254
k8s.io/kubernetes/cmd/kubeadm/app/phases/upgrade.performEtcdStaticPodUpgrade
cmd/kubeadm/app/phases/upgrade/staticpods.go:338
...
پیام خطایی که ممکن است با آن مواجه شوید این است: دلیل این خطا این است که نسخههای آسیبدیده یک پرونده(فایل) تنظیمات etcd با پیشفرضهای ناخواسته در PodSpec تولید میکنند. این منجر به ایجاد تفاوت در مقایسه تنظیمات میشود و kubeadm انتظار تغییر در هش Pod را دارد، اما kubelet هرگز هش را بهروزرسانی نمیکند.
اگر این مشکل را در خوشه(cluster) خود مشاهده کردید، دو راه برای حل آن وجود دارد:
-
ارتقاء etcd را میتوان با استفاده از دستور زیر بین نسخههای آسیبدیده و نسخه ۱.۲۸.۳ (یا بالاتر) نادیده گرفت:
kubeadm upgrade {apply|node} [version] --etcd-upgrade=false
این کار در صورتی که نسخه جدید etcd توسط نسخه بعدی وصله v1.28 معرفی شده باشد، توصیه نمیشود.
-
قبل از ارتقا، تنظیمات مربوط به پاد ثابت etcd را وصله کنید تا ویژگیهای پیشفرض مشکلساز حذف شوند:
diff --git a/etc/kubernetes/manifests/etcd_defaults.yaml b/etc/kubernetes/manifests/etcd_origin.yaml index d807ccbe0aa..46b35f00e15 100644 --- a/etc/kubernetes/manifests/etcd_defaults.yaml +++ b/etc/kubernetes/manifests/etcd_origin.yaml @@ -43,7 +43,6 @@ spec: scheme: HTTP initialDelaySeconds: 10 periodSeconds: 10 - successThreshold: 1 timeoutSeconds: 15 name: etcd resources: @@ -59,26 +58,18 @@ spec: scheme: HTTP initialDelaySeconds: 10 periodSeconds: 10 - successThreshold: 1 timeoutSeconds: 15 - terminationMessagePath: /dev/termination-log - terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/etcd name: etcd-data - mountPath: /etc/kubernetes/pki/etcd name: etcd-certs - dnsPolicy: ClusterFirst - enableServiceLinks: true hostNetwork: true priority: 2000001000 priorityClassName: system-node-critical - restartPolicy: Always - schedulerName: default-scheduler securityContext: seccompProfile: type: RuntimeDefault - terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /etc/kubernetes/pki/etcd
اطلاعات بیشتر در مورد این اشکال را میتوانید در ردیابی مشکل بیابید.
3 - (cluster)مدیریت خوشه
3.1 - اجرای kubelet در حالت مستقل
این آموزش به شما نشان میدهد که چگونه یک نمونه مستقل از kubelet را اجرا کنید
شما ممکن است انگیزههای مختلفی برای اجرای یک kubelet مستقل داشته باشید این آموزش با هدف آشنایی شما با کوبرنتیز تهیه شده است، حتی اگر تجربه زیادی با آن نداشته باشید. میتوانید این آموزش را دنبال کنید و در مورد راهاندازی گره، پادهای پایه (استاتیک) و نحوه مدیریت کانتینرها توسط کوبرنتیزاطلاعات کسب کنید
پس از دنبال کردن این آموزش، میتوانید از خوشه ای که دارای control plane برای مدیریت پادها و گرهها و انواع دیگر اشیاء است، استفاده کنید. به عنوان مثال، Hello, minikube
همچنین میتوانید kubelet را در حالت مستقل اجرا کنید تا برای موارد استفاده در محیط عملیاتی مناسب باشد، مانند اجرای control plane برای یک خوشه (cluster) با قابلیت دسترسی بالا و استقرار انعطافپذیر. این آموزش جزئیات مورد نیاز برای اجرای یک control plane انعطافپذیر را پوشش نمیدهد
Objectives
cri-o
وkubelet
را روی یک سیستم لینوکس نصب کنید و آنها را به عنوان سرویسهایsystemd
اجرا کنید.- یک پاد (Pod) با اجرای
nginx
راهاندازی کنید که به درخواستهای روی پورت TCP 80 روی نشانی IP پاد گوش دهد. - یاد بگیرید که چگونه اجزای مختلف راهحل با یکدیگر تعامل دارند.
Caution:
پیکربندی kubelet که برای این آموزش استفاده شده است، از نظر طراحی ناامن است و نباید در محیط عملیاتی استفاده شودBefore you begin
- دسترسی ادمین (
root
) به یک سیستم لینوکس که ازsystemd
وiptables
(یا nftables با شبیهسازیiptables
) استفاده میکند - دسترسی به اینترنت برای دانلود اجزای مورد نیاز برای آموزش، مانند:
دسترسی به اینترنت برای دانلود اجزای مورد نیاز برای آموزش، مانند:
- یک مجری کانتینرکه کوبرنتیز (CRI) را پیادهسازی میکند
- Network plugins (these are often known as Container Networking Interface (CNI))
- Required CLI tools:
curl
,tar
,jq
.
سیستم را آماده کنید
پیکربندی Swap
به طور پیشفرض، اگر حافظه swap روی یک گره شناسایی شود، kubelet شروع به کار نمیکند. این بدان معناست که swap باید غیرفعال شود یا توسط kubelet تحمل شود.
Note:
اگر kubelet را طوری پیکربندی کنید که swap را تحمل کند، kubelet همچنان Podها (و کانتینرهای موجود در آن Podها) را طوری پیکربندی میکند که از فضای swap استفاده نکنند. برای اینکه بفهمید Podها چگونه میتوانند از swap موجود استفاده کنند، میتوانید درباره مدیریت حافظه swap در گرههای لینوکس بیشتر بخوانیداگر حافظه swap را فعال کردهاید، آن را غیرفعال کنید یا عبارت failSwapOn: false
را به پرونده پیکربندی kubelet اضافه کنید
برای بررسی فعال بودن swap:
sudo swapon --show
اگر هیچ خروجی از دستور وجود نداشته باشد، حافظه swap از قبل غیرفعال شده است
برای غیرفعال کردن موقت swap:
sudo swapoff -a
برای اینکه این تغییر در طول راهاندازیهای مجدد پایدار بماند:
مطمئن شوید که swap بسته به نحوه پیکربندی آن در سیستم شما، در /etc/fstab
یا systemd.swap
غیرفعال باشد
فعال کردن ارسال بسته IPv4
برای بررسی اینکه آیا ارسال بسته IPv4 فعال است:
cat /proc/sys/net/ipv4/ip_forward
اگر خروجی «۱» باشد، از قبل فعال شده است. اگر خروجی «۰» باشد، مراحل بعدی را دنبال کنید
برای فعال کردن ارسال بسته IPv4، یک پرونده پیکربندی ایجاد کنید که پارامتر net.ipv4.ip_forward را روی 1
تنظیم کند:
sudo tee /etc/sysctl.d/k8s.conf <<EOF
net.ipv4.ip_forward = 1
EOF
اعمال تغییرات در سیستم:
sudo sysctl --system
خروجی مشابه این است:
...
* Applying /etc/sysctl.d/k8s.conf ...
net.ipv4.ip_forward = 1
* Applying /etc/sysctl.conf ...
دانلود، نصب و پیکربندی مولفه ها
یک مجری کانتینر اجرا نصب کنید
آخرین نسخههای موجود از بستههای مورد نیاز را دانلود کنید (توصیه میشود).
این آموزش نصب CRI-O container runtime (لینک خارجی) را پیشنهاد میکند
بسته به توزیع لینوکس خاص شما، چندین [روش] برای نصب [https://github.com/cri o/cri o/blob/main/install.md] کانتینر CRI O در زمان اجرا وجود دارد. اگرچه CRI O استفاده از بستههای deb
یا rpm
را توصیه میکند، اما این آموزش از اسکریپت _static binary bundle_
پروژه CRI O Packaging
(https://github.com/crio/packaging/blob/main/README.md) استفاده میکند، که هم برای سادهسازی فرآیند کلی و هم برای عدم وابستگی به توزیع مورد نظر است
این اسکریپت نرمافزارهای مورد نیاز اضافی، مانند cni-plugins
برای شبکهسازی کانتینر، و crun
و runc
برای اجرای کانتینرها را نصب و پیکربندی میکند
این اسکریپت به طور خودکار معماری پردازنده سیستم شما (amd64
یا arm64
) را تشخیص داده و آخرین نسخههای بستههای نرمافزاری را انتخاب و نصب میکند
CRI-O تنظیم
از صفحه نسخهها (پیوند خارجی) دیدن کنید
اسکریپت بسته دودویی استاتیک را دانلود کنید:
curl https://raw.githubusercontent.com/cri-o/packaging/main/get > crio-install
اسکریپت نصب را اجرا کنید:
sudo bash crio-install
فعال کردن و شروع سرویس crio
:
sudo systemctl daemon-reload
sudo systemctl enable --now crio.service
تست سریع:
sudo systemctl is-active crio.service
خروجی مشابه این است:
active
بررسی دقیق سرویس:
sudo journalctl -f -u crio.service
نصب افزونه های شبکه
نصبکنندهی cri-o
بستهی cni-plugins
را نصب و پیکربندی میکند. میتوانید با اجرای دستور زیر، نصب را تأیید کنید:
/opt/cni/bin/bridge --version
خروجی مشابه این است:
CNI bridge plugin v1.5.1
CNI protocol versions supported: 0.1.0, 0.2.0, 0.3.0, 0.3.1, 0.4.0, 1.0.0
برای بررسی پیکربندی پیشفرض:
cat /etc/cni/net.d/11-crio-ipv4-bridge.conflist
خروجی مشابه این است:
{
"cniVersion": "1.0.0",
"name": "crio",
"plugins": [
{
"type": "bridge",
"bridge": "cni0",
"isGateway": true,
"ipMasq": true,
"hairpinMode": true,
"ipam": {
"type": "host-local",
"routes": [
{ "dst": "0.0.0.0/0" }
],
"ranges": [
[{ "subnet": "10.85.0.0/16" }]
]
}
}
]
}
Note:
مطمئن شوید که محدوده پیشفرض «زیرشبکه» (۱۰.۸۵.۰.۰/۱۶) با هیچ یک از شبکههای فعال شما همپوشانی ندارد. در صورت وجود همپوشانی، میتوانید پرونده را ویرایش کرده و آن را مطابق با آن تغییر دهید. پس از تغییر، سرویس را مجدداً راهاندازی کنیددانلود و نصب kubelet
آخرین نسخه پایدار آخرین نسخه از kubelet را دریافت کنید
curl -LO "https://dl.k8s.io/release/$(curl -L -s https://dl.k8s.io/release/stable.txt)/bin/linux/amd64/kubelet"
curl -LO "https://dl.k8s.io/release/$(curl -L -s https://dl.k8s.io/release/stable.txt)/bin/linux/arm64/kubelet"
پیکربندی:
sudo mkdir -p /etc/kubernetes/manifests
sudo tee /etc/kubernetes/kubelet.yaml <<EOF
apiVersion: kubelet.config.k8s.io/v1beta1
kind: KubeletConfiguration
authentication:
webhook:
enabled: false # Do NOT use in production clusters!
authorization:
mode: AlwaysAllow # Do NOT use in production clusters!
enableServer: false
logging:
format: text
address: 127.0.0.1 # Restrict access to localhost
readOnlyPort: 10255 # Do NOT use in production clusters!
staticPodPath: /etc/kubernetes/manifests
containerRuntimeEndpoint: unix:///var/run/crio/crio.sock
EOF
Note:
از آنجا که شما در حال راهاندازی یک خوشه (cluster) عملیاتی نیستید، از HTTP ساده (readOnlyPort: 10255
) برای کوئریهای احراز هویت نشده به API kubelet استفاده میکنید
برای اهداف این آموزش، وبهوک احراز هویت غیرفعال است و حالت مجوز روی «همیشه مجاز» تنظیم شده است. میتوانید برای پیکربندی صحیح kubelet در حالت مستقل در محیط خود، اطلاعات بیشتری در مورد حالتهای مجوز و احراز هویت وبهوک کسب کنید.
برای آشنایی با پورتهایی که اجزای کوبرنتیز از آنها استفاده میکنند، به درگاه ها و پروتکل ها مراجعه کنید.
نصب:
chmod +x kubelet
sudo cp kubelet /usr/bin/
یک پرونده واحد سرویس systemd
ایجاد کنید:
sudo tee /etc/systemd/system/kubelet.service <<EOF
[Unit]
Description=Kubelet
[Service]
ExecStart=/usr/bin/kubelet \
--config=/etc/kubernetes/kubelet.yaml
Restart=always
[Install]
WantedBy=multi-user.target
EOF
پارامتر خط فرمان --kubeconfig
عمداً در پرونده پیکربندی سرویس حذف شده است. این پارامتر مسیر پرونده [kubeconfig](/docs/concepts/configuration/organize-cluster-access-kubeconfig/)
را تعیین میکند که نحوه اتصال به سرور API را مشخص میکند و حالت سرور API را فعال میکند. حذف آن، حالت مستقل را فعال میکند.
سرویس kubelet
را فعال و شروع کنید:
sudo systemctl daemon-reload
sudo systemctl enable --now kubelet.service
آزمایش سریع:
sudo systemctl is-active kubelet.service
خروجی مشابه زیر است:
active
بررسی دقیق سرویس:
sudo journalctl -u kubelet.service
نقطه پایانی API /healthz
مربوط به kubelet را بررسی کنید:
curl http://localhost:10255/healthz?verbose
خروجی مشابه زیر است:
[+]ping ok
[+]log ok
[+]syncloop ok
healthz check passed
از نقطه پایانی API /pods
مربوط به kubelet کوئری بگیرید:
curl http://localhost:10255/pods | jq '.'
خروجی مشابه زیر است:
{
"kind": "PodList",
"apiVersion": "v1",
"metadata": {},
"items": null
}
یک پاد را در kubelet اجرا کنید
در حالت مستقل، میتوانید پادها را با استفاده از تنظیمات پاد اجرا کنید. تنظیمات میتوانند یا در سیستم پرونده محلی باشند یا از طریق HTTP از یک منبع پیکربندی دریافت شوند.
ایجاد یک تنظیمات برای یک Pod:
cat <<EOF > static-web.yaml
apiVersion: v1
kind: Pod
metadata:
name: static-web
spec:
containers:
- name: web
image: nginx
ports:
- name: web
containerPort: 80
protocol: TCP
EOF
پرونده تنظیمات static-web.yaml
را در پوشه /etc/kubernetes/manifests
رونوشت کنید.
sudo cp static-web.yaml /etc/kubernetes/manifests/
اطلاعاتی در مورد کوبلت و پاد پیدا کنید
افزونه شبکه Pod یک پل شبکه (cni0
) و یک جفت رابط veth
برای هر Pod ایجاد میکند (یکی از این جفتها درون Pod تازه ساخته شده و دیگری در سطح میزبان است).
نقطه پایانی API مربوط به kubelet را در نشانی http://localhost:10255/pods
جستجو کنید:
curl http://localhost:10255/pods | jq '.'
برای به دست آوردن نشانی IP مربوط به پاد static-web
:
curl http://localhost:10255/pods | jq '.items[].status.podIP'
خروجی مشابه زیر است:
"10.85.0.4"
به پاد سرور nginx
روی http://<IP>:<Port>
(پورت پیشفرض ۸۰ است) متصل شوید، در این مورد:
curl http://10.85.0.4
خروجی مشابه زیر است:
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
...
جزئیات بیشتر را کجا جستجو کنیم
اگر نیاز به تشخیص مشکلی در اجرای این آموزش دارید، میتوانید برای نظارت و عیبیابی به پوشههای زیر مراجعه کنید:
/var/lib/cni
/var/lib/containers
/var/lib/kubelet
/var/log/containers
/var/log/pods
پاک کردن
kubelet
sudo systemctl disable --now kubelet.service
sudo systemctl daemon-reload
sudo rm /etc/systemd/system/kubelet.service
sudo rm /usr/bin/kubelet
sudo rm -rf /etc/kubernetes
sudo rm -rf /var/lib/kubelet
sudo rm -rf /var/log/containers
sudo rm -rf /var/log/pods
مجری کانتینر
sudo systemctl disable --now crio.service
sudo systemctl daemon-reload
sudo rm -rf /usr/local/bin
sudo rm -rf /usr/local/lib
sudo rm -rf /usr/local/share
sudo rm -rf /usr/libexec/crio
sudo rm -rf /etc/crio
sudo rm -rf /etc/containers
افزونه های شبکه
sudo rm -rf /opt/cni
sudo rm -rf /etc/cni
sudo rm -rf /var/lib/cni
نتیجهگیری
این صفحه جنبههای اساسی استقرار یک kubelet در حالت مستقل را پوشش داد. اکنون آماده استقرار پادها و آزمایش قابلیتهای اضافی هستید.
توجه داشته باشید که در حالت مستقل، kubelet از دریافت پیکربندیهای پاد از control plane پشتیبانی نمیکند (زیرا هیچ اتصالی به control plane وجود ندارد).
همچنین نمیتوانید از ConfigMap یا Secret برای پیکربندی کانتینرها در یک پاد استاتیک استفاده کنید.
What's next
- برای یادگیری نحوهی اجرای کوبرنتیز با یک control plane، Hello, minikube را دنبال کنید. ابزار minikube به شما کمک میکند تا یک خوشه ی تمرینی روی رایانهی خود راهاندازی کنید.
- درباره افزونههای شبکه بیشتر بدانید
- درباره مجری های کانتینر بیشتر بدانید
- درباره kubelet بیشتر بدانید
- درباره پاد های استاتیک بیشتر بدانید
3.2 - راهنمای فضاهای نام
کوبرنتیز فضاهای نام به پروژهها، تیمها یا مشتریان مختلف کمک کنید تا خوشه (cluster) کوبرنتیز را به اشتراک بگذارند.
این کار را با ارائه موارد زیر انجام میدهد:
- یک محدوده برای نامها.
- (cluster)سازوکاری برای ضمیمه کردن مجوز و سیاست به یک زیربخش از خوشه.
استفاده از چندین فضای نام اختیاری است.
این مثال نحوه استفاده از فضاهای نام کوبرنتیز برای تقسیمبندی خوشه (cluster) شما را نشان میدهد.
Before you begin
شما باید یک خوشه(Cluster) کوبرنتیز داشته باشید و ابزار خطِّ فرمان kubectl
نیز برای برقراری ارتباط با خوشه شما پیکربندی شده باشد. توصیه میشود این آموزش را روی خوشهای با دستکم دو گره(Node) که بهعنوان میزبانهای control plane عمل نمیکنند اجرا کنید.
اگر هنوز خوشه ندارید، میتوانید با استفاده از
minikube
یکی بسازید یا از یکی از محیطهای آزمایشی کوبرنتیز زیر بهره ببرید:
To check the version, enter kubectl version
.
پیشنیازها
این مثال موارد زیر را فرض میکند:
- شما یک خوشه کوبرنتیز موجود دارید.
- شما درک اولیهای از کوبرنتیز پادهای، سرویس ها، و استقرارها دارید.
آشنایی با فضای نام پیشفرض
به طور پیشفرض، یک خوشه (cluster) کوبرنتیز هنگام آمادهسازی خوشه (cluster)، یک فضای نام پیشفرض را نمونهسازی میکند تا مجموعه پیشفرض پادها، سرویسهاواستقرارها مورد استفاده توسط خوشه را در خود جای دهد.
با فرض اینکه یک خوشه (cluster) جدید دارید، میتوانید با انجام موارد زیر، فضاهای نام موجود را بررسی کنید:
kubectl get namespaces
NAME STATUS AGE
default Active 13m
ایجاد فضاهای نام جدید
برای این تمرین، دو فضای نام کوبرنتیز اضافی برای نگهداری محتوای خودایجاد خواهیم کرد.
بیایید سناریویی را تصور کنیم که در آن یک سازمان از یک خوشه (cluster) مشترک کوبرنتیز برای موارد استفاده توسعه و تولید استفاده میکند.
تیم توسعه میخواهد فضایی را در خوشه (cluster) حفظ کند که در آن بتوانند فهرست پادها، سرویسهاواستقرارهایی را که برای ساخت و اجرای برنامه خود استفاده میکنند، مشاهده کنند. در این فضا، منابع کوبرنتیز میآیند و میروند و محدودیتهای مربوط به اینکه چه کسی میتواند یا نمیتواند منابع را تغییر دهد، کاهش مییابد تا توسعه چابک امکانپذیر شود.
تیم عملیات مایل است فضایی را در خوشه (cluster) حفظ کند که در آن بتواند رویههای سختگیرانهای را در مورد اینکه چه کسی میتواند یا نمیتواند مجموعه پادها، سرویسها و استقرارهایی را که وبگاه عملیاتی را اداره میکنند، دستکاری کند، اعمال کند.
یکی از الگوهایی که این سازمان میتواند دنبال کند، تقسیمبندی خوشه (cluster) کوبرنتیز به دو فضای نام است: «توسعه» و «تولید».
بیایید دو فضای نام جدید برای نگهداری کارمان ایجاد کنیم.
از پرونده namespace-dev.yaml
که یک فضای نام development
را توصیف میکند، استفاده کنید:
apiVersion: v1
kind: Namespace
metadata:
name: development
labels:
name: development
فضای نام «توسعه» را با استفاده از kubectl ایجاد کنید.
kubectl create -f https://k8s.io/examples/admin/namespace-dev.yaml
محتویات زیر را در پرونده namespace-prod.yaml
که یک فضای نام production
را توصیف میکند، ذخیره کنید:
apiVersion: v1
kind: Namespace
metadata:
name: production
labels:
name: production
و سپس بیایید فضای نام production
را با استفاده از kubectl ایجاد کنیم.
kubectl create -f https://k8s.io/examples/admin/namespace-prod.yaml
برای اطمینان از درست بودن همه چیز، بیایید تمام فضاهای نام موجود در خوشه (cluster) خود را فهرست کنیم.
kubectl get namespaces --show-labels
NAME STATUS AGE LABELS
default Active 32m <none>
development Active 29s name=development
production Active 23s name=production
ایجاد پادها در هر فضای نام
فضای نام کوبرنتیز، محدودهی پادها، سرویسهاواستقرارها را در خوشه (cluster) فراهم میکند.
کاربرانی که با یک فضای نام تعامل دارند، محتوای فضای نام دیگر را نمیبینند.
برای نشان دادن این موضوع، بیایید یک استقرار و پادهای ساده را در فضای نام development
اجرا کنیم.
ابتدا بررسی میکنیم که محتوا فعلی چیست:
kubectl config view
apiVersion: v1
clusters:
- cluster:
certificate-authority-data: REDACTED
server: https://130.211.122.180
name: lithe-cocoa-92103_kubernetes
contexts:
- context:
cluster: lithe-cocoa-92103_kubernetes
user: lithe-cocoa-92103_kubernetes
name: lithe-cocoa-92103_kubernetes
current-context: lithe-cocoa-92103_kubernetes
kind: Config
preferences: {}
users:
- name: lithe-cocoa-92103_kubernetes
user:
client-certificate-data: REDACTED
client-key-data: REDACTED
token: 65rZW78y8HbwXXtSXuUw9DbP4FLjHi4b
- name: lithe-cocoa-92103_kubernetes-basic-auth
user:
password: h5M0FtUUIflBSdI7
username: admin
kubectl config current-context
lithe-cocoa-92103_kubernetes
مرحله بعدی تعریف یک context برای کلاینت kubectl است تا در هر فضای نام کار کند. مقدار فیلدهای "cluster" و "user" از context فعلی رونوشت میشود.
kubectl config set-context dev --namespace=development \
--cluster=lithe-cocoa-92103_kubernetes \
--user=lithe-cocoa-92103_kubernetes
kubectl config set-context prod --namespace=production \
--cluster=lithe-cocoa-92103_kubernetes \
--user=lithe-cocoa-92103_kubernetes
بهطور پیشفرض، دستورات بالا دو context را اضافه میکنند که در پرونده «.kube/config» ذخیره میشوند. اکنون میتوانید contextها را مشاهده کنید و بسته به فضای نامی که میخواهید با آن کار کنید، متناوب با دو context درخواستی جدید جایگزین کنید.
برای مشاهدهی contextهای جدید:
kubectl config view
apiVersion: v1
clusters:
- cluster:
certificate-authority-data: REDACTED
server: https://130.211.122.180
name: lithe-cocoa-92103_kubernetes
contexts:
- context:
cluster: lithe-cocoa-92103_kubernetes
user: lithe-cocoa-92103_kubernetes
name: lithe-cocoa-92103_kubernetes
- context:
cluster: lithe-cocoa-92103_kubernetes
namespace: development
user: lithe-cocoa-92103_kubernetes
name: dev
- context:
cluster: lithe-cocoa-92103_kubernetes
namespace: production
user: lithe-cocoa-92103_kubernetes
name: prod
current-context: lithe-cocoa-92103_kubernetes
kind: Config
preferences: {}
users:
- name: lithe-cocoa-92103_kubernetes
user:
client-certificate-data: REDACTED
client-key-data: REDACTED
token: 65rZW78y8HbwXXtSXuUw9DbP4FLjHi4b
- name: lithe-cocoa-92103_kubernetes-basic-auth
user:
password: h5M0FtUUIflBSdI7
username: admin
بیایید به فضای نام «development» تغییر دهیم.
kubectl config use-context dev
شما میتوانید با انجام موارد زیر، context فعلی خود را تأیید کنید:
kubectl config current-context
dev
در این مرحله، تمام درخواستهایی که از خط فرمان به خوشه (cluster) کوبرنتیز ارسال میکنیم، در فضای نام development
قرار میگیرند.
بیایید چند محتوا ایجاد کنیم.
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: snowflake
name: snowflake
spec:
replicas: 2
selector:
matchLabels:
app: snowflake
template:
metadata:
labels:
app: snowflake
spec:
containers:
- image: registry.k8s.io/serve_hostname
imagePullPolicy: Always
name: snowflake
تغییرات را برای ایجاد یک استقرار اعمال کنید
kubectl apply -f https://k8s.io/examples/admin/snowflake-deployment.yaml
ما یک استقرار با اندازه رونوشت ۲ عدد پاد ایجاد کردهایم که پادی به نام snowflake
را با یک کانتینر پایه که نام میزبان را ارائه میدهد، اجرا میکند.
kubectl get deployment
NAME READY UP-TO-DATE AVAILABLE AGE
snowflake 2/2 2 2 2m
kubectl get pods -l app=snowflake
NAME READY STATUS RESTARTS AGE
snowflake-3968820950-9dgr8 1/1 Running 0 2m
snowflake-3968820950-vgc4n 1/1 Running 0 2m
و این عالی است، توسعهدهندگان میتوانند هر کاری که میخواهند انجام دهند و لازم نیست نگران تأثیرگذاری بر محتوا در فضای نام «تولید» باشند.
بیایید به فضای نام production
برویم و نشان دهیم که چگونه منابع موجود در یک فضای نام از فضای نام دیگر پنهان میشوند.
kubectl config use-context prod
فضای نام production
باید خالی باشد و دستورات زیر نباید چیزی را برگردانند.
kubectl get deployment
kubectl get pods
بخش تولید دوست دارد گاوها را اداره کند، پس بیایید چند گاوداری ایجاد کنیم.
kubectl create deployment cattle --image=registry.k8s.io/serve_hostname --replicas=5
kubectl get deployment
NAME READY UP-TO-DATE AVAILABLE AGE
cattle 5/5 5 5 10s
kubectl get pods -l app=cattle
NAME READY STATUS RESTARTS AGE
cattle-2263376956-41xy6 1/1 Running 0 34s
cattle-2263376956-kw466 1/1 Running 0 34s
cattle-2263376956-n4v97 1/1 Running 0 34s
cattle-2263376956-p5p3i 1/1 Running 0 34s
cattle-2263376956-sxpth 1/1 Running 0 34s
در این مرحله، باید مشخص شده باشد که منابعی که کاربران در یک فضای نام ایجاد میکنند، از فضای نام دیگر پنهان هستند.
با تکامل پشتیبانی از سیاست در کوبرنتیز، این سناریو را گسترش خواهیم داد تا نشان دهیم چگونه میتوانید قوانین مجوز متفاوتی را برای هر فضای نام ارائه دهید.
4 - راهاندازی خوشه etcd با قابلیت دسترسی بالا با kubeadm
به طور پیشفرض، kubeadm یک نمونه etcd محلی را روی هر گره(node) control plane اجرا میکند.
همچنین میتوان با خوشه(cluster) etcd به عنوان خارجی رفتار کرد و نمونههای etcd را روی میزبانهای جداگانه آمادهسازی کرد. تفاوتهای بین این دو رویکرد در صفحه گزینههایی برای توپولوژی با دسترسی بالا پوشش داده شده است.
این وظیفه، فرآیند ایجاد یک خوشه خارجی etcd با دسترسی بالا از سه عضو را بررسی میکند که میتوانند توسط kubeadm در طول ایجاد خوشه مورد استفاده قرار گیرند.
Before you begin
- سه میزبان که میتوانند از طریق پورتهای TCP 2379 و 2380 با یکدیگر ارتباط برقرار کنند. این سند این پورتهای پیشفرض را در نظر گرفته است. با این حال، آنها از طریق پرونده(فایل) پیکربندی kubeadm قابل تنظیم هستند.
- هر میزبان باید systemd و یک پوسته سازگار با bash نصب شده داشته باشد.
- هر میزبان باید یک مجری کانتینر، kubelet و kubeadm نصب شده داشته باشد.
- هر میزبان باید به رجیستری container image کوبرنتیز (
registry.k8s.io
) دسترسی داشته باشد یا پرونده image از etcd مورد نیاز را با استفاده ازkubeadm config images list/pull
فهرست/دریافت کند. این راهنما نمونههای etcd را به عنوان پادهای استاتیک که توسط یک kubelet مدیریت میشود، تنظیم میکند. - برخی زیرساختها برای کپی کردن پروندهها بین میزبانها. به عنوان مثال
ssh
وscp
میتوانند این نیاز را برآورده کنند.
راهاندازی خوشه
رویکرد کلی این است که تمام گواهینامهها روی یک گره(node) تولید شوند و فقط پروندههای لازم بین گرههای دیگر توزیع شوند.
Note:
kubeadm شامل تمام ابزارهای رمزنگاری لازم برای تولید گواهیهای شرح داده شده در زیر است؛ برای این مثال به هیچ ابزار رمزنگاری دیگری نیاز نیست.Note:
مثالهای زیر از نشانیهای IPv4 استفاده میکنند، اما میتوانید kubeadm، kubelet و etcd را نیز برای استفاده از نشانیهای IPv6 پیکربندی کنید. Dual-stack توسط برخی از گزینههای Kubernetes پشتیبانی میشود، اما توسط etcd پشتیبانی نمیشود. برای جزئیات بیشتر در مورد پشتیبانی از Dual-stack در Kubernetes، به پشتیبانی Dual-stack با kubeadm مراجعه کنید.-
kubelet را طوری پیکربندی کنید که به عنوان مدیر سرویس برای etcd عمل کند.
از آنجایی که etcd ابتدا ایجاد شده است، شما باید با ایجاد یک پرونده واحد جدید که اولویت بالاتری نسبت به پرونده واحد kubelet ارائه شده توسط kubeadm دارد، اولویت سرویس را لغو کنید.Note:
شما باید این کار را روی هر میزبانی که etcd باید در آن اجرا شود، انجام دهید.cat << EOF > /etc/systemd/system/kubelet.service.d/kubelet.conf # Replace "systemd" with the cgroup driver of your container runtime. The default value in the kubelet is "cgroupfs". # Replace the value of "containerRuntimeEndpoint" for a different container runtime if needed. # apiVersion: kubelet.config.k8s.io/v1beta1 kind: KubeletConfiguration authentication: anonymous: enabled: false webhook: enabled: false authorization: mode: AlwaysAllow cgroupDriver: systemd address: 127.0.0.1 containerRuntimeEndpoint: unix:///var/run/containerd/containerd.sock staticPodPath: /etc/kubernetes/manifests EOF cat << EOF > /etc/systemd/system/kubelet.service.d/20-etcd-service-manager.conf [Service] ExecStart= ExecStart=/usr/bin/kubelet --config=/etc/systemd/system/kubelet.service.d/kubelet.conf Restart=always EOF systemctl daemon-reload systemctl restart kubelet
وضعیت kubelet را بررسی کنید تا مطمئن شوید که در حال اجرا است.
systemctl status kubelet
-
ایجاد پروندههای پیکربندی برای kubeadm.
با استفاده از اسکریپت زیر، یک پرونده پیکربندی kubeadm برای هر میزبانی که قرار است یک عضو etcd روی آن اجرا شود، ایجاد کنید.
# Update HOST0, HOST1 and HOST2 with the IPs of your hosts export HOST0=10.0.0.6 export HOST1=10.0.0.7 export HOST2=10.0.0.8 # Update NAME0, NAME1 and NAME2 with the hostnames of your hosts export NAME0="infra0" export NAME1="infra1" export NAME2="infra2" # Create temp directories to store files that will end up on other hosts mkdir -p /tmp/${HOST0}/ /tmp/${HOST1}/ /tmp/${HOST2}/ HOSTS=(${HOST0} ${HOST1} ${HOST2}) NAMES=(${NAME0} ${NAME1} ${NAME2}) for i in "${!HOSTS[@]}"; do HOST=${HOSTS[$i]} NAME=${NAMES[$i]} cat << EOF > /tmp/${HOST}/kubeadmcfg.yaml --- apiVersion: "kubeadm.k8s.io/v1beta4" kind: InitConfiguration nodeRegistration: name: ${NAME} localAPIEndpoint: advertiseAddress: ${HOST} --- apiVersion: "kubeadm.k8s.io/v1beta4" kind: ClusterConfiguration etcd: local: serverCertSANs: - "${HOST}" peerCertSANs: - "${HOST}" extraArgs: - name: initial-cluster value: ${NAMES[0]}=https://${HOSTS[0]}:2380,${NAMES[1]}=https://${HOSTS[1]}:2380,${NAMES[2]}=https://${HOSTS[2]}:2380 - name: initial-cluster-state value: new - name: name value: ${NAME} - name: listen-peer-urls value: https://${HOST}:2380 - name: listen-client-urls value: https://${HOST}:2379 - name: advertise-client-urls value: https://${HOST}:2379 - name: initial-advertise-peer-urls value: https://${HOST}:2380 EOF done
-
مرجع صدور گواهی را ایجاد کنید.
اگر از قبل یک CA دارید، تنها کاری که باید انجام دهید کپی کردن پروندههای
crt
وkey
مربوط به CA در/etc/kubernetes/pki/etcd/ca.crt
و/etc/kubernetes/pki/etcd/ca.key
است. پس از کپی کردن این پروندهها، به مرحله بعدی، "ایجاد گواهینامه برای هر عضو" بروید.اگر از قبل CA ندارید، این دستور را روی
$HOST0
(جایی که پروندههای پیکربندی kubeadm را ایجاد کردهاید) اجرا کنید.kubeadm init phase certs etcd-ca
این دو پرونده را ایجاد میکند:
/etc/kubernetes/pki/etcd/ca.crt
/etc/kubernetes/pki/etcd/ca.key
-
ایجاد گواهی برای هر عضو
kubeadm init phase certs etcd-server --config=/tmp/${HOST2}/kubeadmcfg.yaml kubeadm init phase certs etcd-peer --config=/tmp/${HOST2}/kubeadmcfg.yaml kubeadm init phase certs etcd-healthcheck-client --config=/tmp/${HOST2}/kubeadmcfg.yaml kubeadm init phase certs apiserver-etcd-client --config=/tmp/${HOST2}/kubeadmcfg.yaml cp -R /etc/kubernetes/pki /tmp/${HOST2}/ # cleanup non-reusable certificates find /etc/kubernetes/pki -not -name ca.crt -not -name ca.key -type f -delete kubeadm init phase certs etcd-server --config=/tmp/${HOST1}/kubeadmcfg.yaml kubeadm init phase certs etcd-peer --config=/tmp/${HOST1}/kubeadmcfg.yaml kubeadm init phase certs etcd-healthcheck-client --config=/tmp/${HOST1}/kubeadmcfg.yaml kubeadm init phase certs apiserver-etcd-client --config=/tmp/${HOST1}/kubeadmcfg.yaml cp -R /etc/kubernetes/pki /tmp/${HOST1}/ find /etc/kubernetes/pki -not -name ca.crt -not -name ca.key -type f -delete kubeadm init phase certs etcd-server --config=/tmp/${HOST0}/kubeadmcfg.yaml kubeadm init phase certs etcd-peer --config=/tmp/${HOST0}/kubeadmcfg.yaml kubeadm init phase certs etcd-healthcheck-client --config=/tmp/${HOST0}/kubeadmcfg.yaml kubeadm init phase certs apiserver-etcd-client --config=/tmp/${HOST0}/kubeadmcfg.yaml # No need to move the certs because they are for HOST0 # clean up certs that should not be copied off this host find /tmp/${HOST2} -name ca.key -type f -delete find /tmp/${HOST1} -name ca.key -type f -delete
-
کپی گواهینامهها و پیکربندیهای kubeadm.
گواهینامهها ایجاد شدهاند و اکنون باید به میزبانهای مربوطه منتقل شوند.
USER=ubuntu HOST=${HOST1} scp -r /tmp/${HOST}/* ${USER}@${HOST}: ssh ${USER}@${HOST} USER@HOST $ sudo -Es root@HOST $ chown -R root:root pki root@HOST $ mv pki /etc/kubernetes/
-
اطمینان حاصل کنید که همه پروندههای مورد انتظار وجود دارند.
لیست کامل پروندههای مورد نیاز در
$HOST0
به شرح زیر است:/tmp/${HOST0} └── kubeadmcfg.yaml --- /etc/kubernetes/pki ├── apiserver-etcd-client.crt ├── apiserver-etcd-client.key └── etcd ├── ca.crt ├── ca.key ├── healthcheck-client.crt ├── healthcheck-client.key ├── peer.crt ├── peer.key ├── server.crt └── server.key
روی
$HOST1
:$HOME └── kubeadmcfg.yaml --- /etc/kubernetes/pki ├── apiserver-etcd-client.crt ├── apiserver-etcd-client.key └── etcd ├── ca.crt ├── healthcheck-client.crt ├── healthcheck-client.key ├── peer.crt ├── peer.key ├── server.crt └── server.key
روی
$HOST2
:$HOME └── kubeadmcfg.yaml --- /etc/kubernetes/pki ├── apiserver-etcd-client.crt ├── apiserver-etcd-client.key └── etcd ├── ca.crt ├── healthcheck-client.crt ├── healthcheck-client.key ├── peer.crt ├── peer.key ├── server.crt └── server.key
-
پاد استاتیک را ایجاد کنید.
حالا که گواهینامهها و پیکربندیها آماده شدهاند، وقت آن رسیده که تنظیمات را ایجاد کنیم. روی هر میزبان، دستور
kubeadm
را اجرا کنید تا یک تنظیمات ثابت برای etcd ایجاد شود.root@HOST0 $ kubeadm init phase etcd local --config=/tmp/${HOST0}/kubeadmcfg.yaml root@HOST1 $ kubeadm init phase etcd local --config=$HOME/kubeadmcfg.yaml root@HOST2 $ kubeadm init phase etcd local --config=$HOME/kubeadmcfg.yaml
-
اختیاری: سلامت خوشه را بررسی کنید.
اگر
etcdctl
در دسترس نباشد، میتوانید این ابزار را درون یک container image اجرا کنید. شما میتوانید این کار را مستقیماً با مجری کانتینر خود با استفاده از ابزاری مانندcrictl run
انجام دهید و نه از طریق کوبرنتیز.ETCDCTL_API=3 etcdctl \ --cert /etc/kubernetes/pki/etcd/peer.crt \ --key /etc/kubernetes/pki/etcd/peer.key \ --cacert /etc/kubernetes/pki/etcd/ca.crt \ --endpoints https://${HOST0}:2379 endpoint health ... https://[HOST0 IP]:2379 is healthy: successfully committed proposal: took = 16.283339ms https://[HOST1 IP]:2379 is healthy: successfully committed proposal: took = 19.44402ms https://[HOST2 IP]:2379 is healthy: successfully committed proposal: took = 35.926451ms
- مقدار
${HOST0}
را برابر با نشانی(آدرس) IP میزبانی که در حال آزمایش آن هستید، قرار دهید.
- مقدار
What's next
زمانی که یک خوشه etcd با ۳ عضو فعال داشتید، میتوانید با استفاده از روش etcd خارجی با kubeadm به راهاندازی یک control plane با دسترسیپذیری بالا ادامه دهید.
5 - مرجع
این بخش از مستندات کوبرنتیز شامل ارجاعات است.
مرجع API
-
واژهنامه - فهرستی جامع و استاندارد از اصطلاحات کوبرنتیز
-
استفاده از API کوبرنتیز - نمای کلی API در کوبرنتیز
-
کنترل دسترسی API - جزئیاتی درباره نحوه کنترل دسترسی به API در کوبرنتیز
کتابخانههای client با پشتیبانی رسمی
برای فراخوانی API کوبرنتیز از یک زبان برنامهنویسی، میتوانید از
کتابخانهها استفاده کنید.
کتابخانههایی که بهطور رسمی پشتیبانی میشوند:
- Kubernetes Go client library
- Kubernetes Python client library
- Kubernetes Java client library
- Kubernetes JavaScript client library
- Kubernetes C# client library
- Kubernetes Haskell client library
خط فرمان
- kubectl - ابزار خط فرمان اصلی برای اجرای دستورها و مدیریت خوشههای کوبرنتیز.
- JSONPath - راهنمای نحوی برای استفاده از عبارات JSONPath با kubectl.
- kubeadm - ابزار خط فرمانی برای راهاندازی آسان یک خوشه ایمن کوبرنتیز.
اجزا
-
kubelet - عامل اصلیای که روی هر گره اجرا میشود. kubelet مجموعهای از PodSpecها را میگیرد و اطمینان حاصل میکند کانتینرهای توصیفشده در حال اجرا و سالم هستند.
-
kube-apiserver - یک REST API که دادههای اشیای API مانند پادها، سرویسها و replication controllerها را اعتبارسنجی و پیکربندی میکند.
-
kube-controller-manager - یک Daemon ای که حلقههای کنترل اصلی همراه کوبرنتیز را در خود جای داده است.
-
kube-proxy - میتواند ارسال ساده جریان TCP/UDP یا ارسال TCP/UDP بهصورت round-robin را بین مجموعهای از بکاندها انجام دهد.
-
kube-scheduler - زمانبندیکنندهای که دسترسپذیری، عملکرد و ظرفیت را مدیریت میکند.
-
فهرست ports and protocols که باید روی گرههای Control Plain و Worker باز باشند
پیکربندی APIها
این بخش میزبان مستندات APIهای «منتشر نشده» است که برای پیکربندی اجزا یا ابزارهای کوبرنتیز استفاده میشوند. اکثر این APIها توسط سرور API به روش RESTful در معرض نمایش قرار نمیگیرند، اگرچه برای کاربر یا اپراتور جهت استفاده یا مدیریت یک خوشه ضروری هستند.
- kubeconfig (v1)
- kuberc (v1alpha1)
- kube-apiserver admission (v1)
- kube-apiserver configuration (v1alpha1) و
- kube-apiserver configuration (v1beta1) و kube-apiserver configuration (v1)
- kube-apiserver event rate limit (v1alpha1)
- kubelet configuration (v1alpha1) و kubelet configuration (v1beta1) kubelet configuration (v1)
- kubelet credential providers (v1) kube-scheduler configuration (v1)
- kube-controller-manager configuration (v1alpha1)
- kube-proxy configuration (v1alpha1)
audit.k8s.io/v1
API- Client authentication API (v1beta1) و Client authentication API (v1)
- WebhookAdmission configuration (v1)
- ImagePolicy API (v1alpha1)
پیکربندی API برای kubeadm
API های خارجی
اینها APIهایی هستند که توسط پروژه کوبرنتیز تعریف شدهاند، اما توسط پروژه اصلی پیادهسازی نشدهاند:
اسناد طراحی
آرشیوی از اسناد طراحی برای قابلیتهای کوبرنتیز. نقاط شروع خوبی وجود دارد
5.1 - واژهنامه
6 - پیکربندی هر kubelet در خوشه(cluster) شما با استفاده از kubeadm
Kubernetes v1.11 [stable]
چرخه حیات ابزار رابط خط فرمان kubeadm از kubelet که یک سرویس (daemon) است که روی هر گره(node) در خوشه(cluster) کوبرنتیز اجرا میشود، جدا شده است. ابزار رابط خط فرمان kubeadm هنگام راهاندازی یا ارتقاء کوبرنتیز توسط کاربر اجرا میشود، در حالی که kubelet همیشه در پسزمینه در حال اجرا است.
از آنجایی که kubelet یک سرویس (daemon) است، باید توسط نوعی سیستم init یا مدیر سرویس نگهداری شود. وقتی kubelet با استفاده از DEBها یا RPMها نصب میشود، systemd برای مدیریت kubelet پیکربندی میشود. میتوانید به جای آن از یک مدیر سرویس متفاوت استفاده کنید، اما باید آن را به صورت دستی پیکربندی کنید.
برخی از جزئیات پیکربندی kubelet باید در تمام kubelet های موجود در خوشه(cluster) یکسان باشد، در حالی که سایر جنبههای پیکربندی باید بر اساس هر kubelet تنظیم شوند تا با ویژگیهای مختلف یک ماشین خاص (مانند سیستم عامل، فضای ذخیرهسازی و شبکه) سازگار شوند. شما میتوانید پیکربندی kubelet های خود را به صورت دستی مدیریت کنید، اما kubeadm اکنون یک نوع API از نوع KubeletConfiguration
را برای مدیریت پیکربندیهای kubelet خود به صورت مرکزی ارائه میدهد.
الگوهای پیکربندی Kubelet
بخشهای زیر الگوهایی را برای پیکربندی kubelet شرح میدهند که با استفاده از kubeadm ساده شدهاند، نه اینکه پیکربندی kubelet را برای هر گره(node) به صورت دستی مدیریت کنند.
انتشار پیکربندی سطح خوشه به هر kubelet
شما میتوانید مقادیر پیشفرض را برای استفاده توسط دستورات kubeadm init
و kubeadm join
به kubelet ارائه دهید. مثالهای جالب شامل استفاده از یک مجری کانتینر متفاوت یا تنظیم زیرشبکه پیشفرض مورد استفاده توسط سرویسها است.
اگر میخواهید سرویسهای شما از زیرشبکه 10.96.0.0/12
به عنوان پیشفرض برای سرویسها استفاده کنند، میتوانید پارامتر --service-cidr
را به kubeadm ارسال کنید:
kubeadm init --service-cidr 10.96.0.0/12
اکنون IPهای مجازی برای سرویسها از این زیرشبکه اختصاص داده میشوند. همچنین باید نشانی(آدرس) DNS مورد استفاده توسط kubelet را با استفاده از پرچم --cluster-dns
تنظیم کنید. این تنظیم باید برای هر kubelet روی هر مدیر و گره(node) در خوشه(cluster) یکسان باشد. kubelet یک شیء API نسخهبندی شده و ساختار یافته ارائه میدهد که میتواند اکثر پارامترها را در kubelet پیکربندی کند و این پیکربندی را به هر kubelet در حال اجرا در خوشه(cluster) ارسال کند. این شیء KubeletConfiguration نامیده میشود. KubeletConfiguration
به کاربر اجازه میدهد پرچمهایی مانند نشانی(آدرس)های IP DNS خوشه(cluster) را که به صورت لیستی از مقادیر با کلید camelCased بیان میشوند، مشخص کند، که با مثال زیر نشان داده شده است:
apiVersion: kubelet.config.k8s.io/v1beta1
kind: KubeletConfiguration
clusterDNS:
- 10.96.0.10
برای جزئیات بیشتر در مورد KubeletConfiguration
، به این بخش نگاهی بیندازید.
ارائه جزئیات پیکربندی مختص به هر نمونه
برخی از میزبانها به دلیل تفاوت در سختافزار، سیستم عامل، شبکه یا سایر پارامترهای خاص میزبان، به پیکربندیهای خاصی برای kubelet نیاز دارند. لیست زیر چند نمونه را ارائه میدهد.
-
مسیر پرونده DNS resolution، همانطور که توسط پرچم پیکربندی
--resolv-conf
در kubelet مشخص شده است، ممکن است در بین سیستم عاملها یا بسته به اینکه آیا ازsystemd-resolved
استفاده میکنید یا خیر، متفاوت باشد. اگر این مسیر اشتباه باشد، DNS resolution در گرهای که kubelet آن به طور نادرست پیکربندی شده است، با شکست مواجه خواهد شد. -
شیء گره(node) API با نام
.metadata.name
به طور پیشفرض روی نام میزبان دستگاه تنظیم شده است، مگر اینکه از یک ارائهدهنده ابری استفاده کنید. در صورت نیاز به تعیین نام گرهای متفاوت از نام میزبان دستگاه، میتوانید از پرچم--hostname-override
برای لغو رفتار پیشفرض استفاده کنید. -
در حال حاضر، kubelet نمیتواند به طور خودکار درایور cgroup مورد استفاده توسط مجری کانتینر را تشخیص دهد، اما مقدار
--cgroup-driver
باید با درایور cgroup مورد استفاده توسط مجری کانتینر مطابقت داشته باشد تا سلامت kubelet تضمین شود. -
برای مشخص کردن مجری کانتینر، باید نقطه پایانی آن را با پرچم
--container-runtime-endpoint=<path>
تنظیم کنید.
روش توصیهشده برای اعمال چنین پیکربندی مختص به نمونه، استفاده از KubeletConfiguration
patches است.
پیکربندی kubelets با استفاده از kubeadm
میتوان kubelet را طوری پیکربندی کرد که kubeadm آن را اجرا کند اگر یک شیء API سفارشی KubeletConfiguration
با یک پرونده(فایل) پیکربندی مانند kubeadm ... --config some-config-file.yaml
ارسال شود.
با فراخوانی kubeadm config print init-defaults --component-configs KubeletConfiguration
میتوانید تمام مقادیر پیشفرض این ساختار را مشاهده کنید.
همچنین میتوان وصلههای مخصوص هر نمونه را روی «KubeletConfiguration» پایه اعمال کرد. برای جزئیات بیشتر، نگاهی به سفارشیسازی kubelet بیندازید.
گردش کار هنگام استفاده از kubeadm init
وقتی kubeadm init
را فراخوانی میکنید، پیکربندی kubelet در مسیر /var/lib/kubelet/config.yaml
روی دیسک ذخیره میشود و همچنین در یک نقشه پیکربندی kubelet-config
در فضای نام kube-system
خوشه(cluster) آپلود میشود. یک پرونده(فایل) پیکربندی kubelet همچنین در مسیر /etc/kubernetes/kubelet.conf
با پیکربندی پایه در سطح خوشه(cluster) برای همه kubelet های خوشه(cluster) نوشته میشود. این پرونده(فایل) پیکربندی به گواهیهای کلاینت اشاره میکند که به kubelet اجازه میدهد با سرور API ارتباط برقرار کند. این امر نیاز به انتشار پیکربندی سطح خوشه(cluster) به هر kubelet را برطرف میکند.
برای پرداختن به الگوی دومِ ارائه جزئیات پیکربندی مختص به نمونه، kubeadm یک پرونده(فایل) محیطی را در /var/lib/kubelet/kubeadm-flags.env
مینویسد که شامل فهرستی از پرچمهایی است که باید هنگام شروع به kubelet منتقل شوند. پرچمها در پرونده(فایل) به این شکل ارائه میشوند:
KUBELET_KUBEADM_ARGS="--flag1=value1 --flag2=value2 ..."
علاوه بر پرچمهای مورد استفاده هنگام شروع kubelet، این پرونده(فایل) همچنین شامل پارامترهای پویا مانند درایور cgroup و اینکه آیا از یک سوکت مجری کانتینر متفاوت (--cri-socket
) استفاده شود یا خیر، میباشد.
پس از مرتبسازی این دو پرونده(فایل) روی دیسک، kubeadm تلاش میکند دو دستور زیر را اجرا کند، البته اگر از systemd استفاده میکنید:
systemctl daemon-reload && systemctl restart kubelet
اگر بارگذاری مجدد و راهاندازی مجدد موفقیتآمیز باشد، گردش کار عادی kubeadm init
ادامه مییابد.
گردش کار هنگام استفاده از kubeadm join
وقتی kubeadm join
را اجرا میکنید، kubeadm از اعتبارنامهی Bootstrap Token برای انجام یک راه انداز TLS استفاده میکند که اعتبارنامهی مورد نیاز برای دانلود نقشهی پیکربندی kubelet-config
را دریافت کرده و آن را در /var/lib/kubelet/config.yaml
مینویسد. پرونده(فایل) محیط پویا دقیقاً به همان روشی که kubeadm init
تولید میشود، تولید میشود.
در مرحله بعد، kubeadm
دو دستور زیر را برای بارگذاری پیکربندی جدید در kubelet اجرا میکند:
systemctl daemon-reload && systemctl restart kubelet
پس از اینکه kubelet پیکربندی جدید را بارگذاری کرد، kubeadm پرونده(فایل) KubeConfig را مینویسد که شامل یک گواهی CA و راه انداز Token است. این پروندهها توسط kubelet برای انجام TLS راه انداز و دریافت یک اعتبارنامه منحصر به فرد استفاده میشوند که در /etc/kubernetes/kubelet.conf
ذخیره میشود.
وقتی پرونده(فایل) /etc/kubernetes/kubelet.conf
نوشته میشود، kubelet اجرای TLS راه انداز را به پایان رسانده است. Kubeadm پس از تکمیل TLS راه انداز ، پرونده(فایل) /etc/kubernetes/bootstrap-kubelet.conf
را حذف میکند.
پرونده نصبی kubelet برای systemd
kubeadm
به همراه پیکربندی نحوهی اجرای kubelet توسط systemd ارائه میشود.
توجه داشته باشید که دستور kubeadm CLI (فایل)هرگز به این پرونده drop-in دست نمیزند.
این پرونده پیکربندی که توسط بسته kubeadm نصب شده است، در مسیر /usr/lib/systemd/system/kubelet.service.d/10-kubeadm.conf
نوشته شده و توسط systemd استفاده میشود. این پرونده، بسته اصلی kubelet.service
را تکمیل میکند.
اگر میخواهید این مورد را بیشتر تغییر دهید، میتوانید یک پوشه به نشانی(آدرس) /etc/systemd/system/kubelet.service.d/
(نه /usr/lib/systemd/system/kubelet.service.d/
) ایجاد کنید و تنظیمات شخصیسازی خود را در یک پرونده(فایل) در آنجا قرار دهید. برای مثال، میتوانید یک پرونده(فایل) محلی جدید به نشانی(آدرس) /etc/systemd/system/kubelet.service.d/local-overrides.conf
اضافه کنید تا تنظیمات واحد پیکربندی شده توسط kubeadm
را تغییر دهید.
این چیزی است که احتمالاً در /usr/lib/systemd/system/kubelet.service.d/10-kubeadm.conf
خواهید یافت:
Note:
مطالب زیر فقط یک مثال هستند. اگر نمیخواهید از مدیر بسته استفاده کنید، راهنمای ذکر شده در بخش (بدون مدیر بسته) را دنبال کنید.[Service]
Environment="KUBELET_KUBECONFIG_ARGS=--bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf"
Environment="KUBELET_CONFIG_ARGS=--config=/var/lib/kubelet/config.yaml"
# This is a file that "kubeadm init" and "kubeadm join" generate at runtime, populating
# the KUBELET_KUBEADM_ARGS variable dynamically
EnvironmentFile=-/var/lib/kubelet/kubeadm-flags.env
# This is a file that the user can use for overrides of the kubelet args as a last resort. Preferably,
# the user should use the .NodeRegistration.KubeletExtraArgs object in the configuration files instead.
# KUBELET_EXTRA_ARGS should be sourced from this file.
EnvironmentFile=-/etc/default/kubelet
ExecStart=
ExecStart=/usr/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_CONFIG_ARGS $KUBELET_KUBEADM_ARGS $KUBELET_EXTRA_ARGS
این پرونده(فایل) مکانهای پیشفرض برای تمام پرونده(فایل) های مدیریتشده توسط kubeadm در kubelet را مشخص میکند.
- پرونده(فایل) KubeConfig مورد استفاده برای TLS (فایل)راه انداز، پرونده
/etc/kubernetes/bootstrap-kubelet.conf
است، اما فقط در صورتی استفاده میشود که/etc/kubernetes/kubelet.conf
وجود نداشته باشد. - پرونده(فایل) KubeConfig با هویت منحصر به فرد kubelet در مسیر
/etc/kubernetes/kubelet.conf
قرار دارد. - پرونده(فایل) حاوی ComponentConfig مربوط به kubelet در مسیر
/var/lib/kubelet/config.yaml
قرار دارد. - پرونده(فایل) محیط پویا که شامل
KUBELET_KUBEADM_ARGS
است، از/var/lib/kubelet/kubeadm-flags.env
گرفته شده است. - پرونده(فایل) ای که میتواند شامل لغو پرچمهای مشخصشده توسط کاربر با
KUBELET_EXTRA_ARGS
باشد، از/etc/default/kubelet
(برای DEBها) یا/etc/sysconfig/kubelet
(برای RPMها) گرفته شده است.KUBELET_EXTRA_ARGS
آخرین پرونده(فایل) در زنجیره پرچمها است و در صورت وجود تنظیمات متناقض، بالاترین اولویت را دارد.
پرونده(فایل) های دودویی(باینری) و محتویات بستههای کوبرنتیز
بستههای DEB و RPM که با نسخههای کوبرنتیز ارائه میشوند عبارتند از:
Package name | Description |
---|---|
kubeadm |
ابزار خط فرمان /usr/bin/kubeadm و پرونده نصبی kubelet را برای kubelet نصب میکند. |
kubelet |
(باینری)پرونده(فایل) دودویی /usr/bin/kubelet را نصب میکند. |
kubectl |
(باینری)پرونده(فایل) دودویی /usr/bin/kubectl را نصب میکند. |
cri-tools |
(باینری)پرونده(فایل) دودویی /usr/bin/crictl را از مخزن گیت cri-tools نصب میکند. |
kubernetes-cni |
(باینری)پرونده(فایل)های دودویی /opt/cni/bin را از مخزن plugins git نصب میکند. |
7 - مشارکت در کوبرنتیز
.راههای زیادی برای مشارکت در کوبرنتیز وجود دارد. میتوانید روی طراحی قابلیتهای جدید کار کنید، کد موجود را مستند کنید یا برای وب نوشتهای ما بنویسید. بیش از اینها: میتوانید آن قابلیتهای جدید را پیادهسازی کرده یا باگها را رفع کنید. میتوانید به افراد برای پیوستن به جامعه مشارکتکنندگان کمک کنید یا از مشارکتکنندگان فعلی پشتیبانی کنید.
با وجود این همه روش برای تأثیرگذاری بر پروژه، ما – کوبرنتیز – یک تارنما اختصاصی ساختهایم: https://k8s.dev. میتوانید به آنجا بروید تا بیشتر درباره مشارکت در کوبرنتیز بدانید.
اگر به طور خاص میخواهید درباره مشارکت در مستندات یا بخشهای دیگر این تارنما یاد بگیرید، مشارکت در مستندات کوبرنتیز را مطالعه کنید. اگر به طور خاص میخواهید در وب نوشتهای رسمی کوبرنتیز کمک کنید، مشارکت در وب نوشتهای کوبرنتیز را بخوانید.
همچنین میتوانید صفحه مشارکتکنندگان CNCF درباره مشارکت در کوبرنتیز را مطالعه کنید.
7.1 - بومیسازی مستندات کوبرنتیز
این صفحه به شما نشان میدهد که چگونه مستندات را برای زبانهای مختلف بومیسازی کنید.
کمک به محلی سازی موجود
شما میتوانید به افزودن یا بهبود محتوای یک محلیسازی موجود کمک کنید. در کانال Kubernetes در Slack، میتوانید برای هر محلیسازی یک کانال پیدا کنید. همچنین یک کانال عمومی در Slack تحت عنوان SIG Docs Localizations وجود دارد که میتوانید در آن سلام کنید.
Note:
برای جزئیات بیشتر در مورد نحوه مشارکت در یک بومیسازی خاص، به دنبال نسخه بومیسازیشده این صفحه باشید.کد دو حرفی زبان خود را پیدا کنید
ابتدا، برای یافتن کد دو حرفی زبان محلیسازی خود، به استاندارد ISO 639-1 مراجعه کنید. برای مثال، کد دو حرفی زبان کرهای «ko» است.
برخی از زبانها از نسخه کوچک کد کشور که توسط ISO-3166 تعریف شده است، همراه با کدهای زبان خود استفاده میکنند. برای مثال، کد زبان پرتغالی برزیلی «pt-br» است.
مخزن را Fork و Clone کنید
ابتدا، شاخهی خودتان را ایجاد کنید از مخزن kubernetes/website.
سپس، fork خود را clone کنید و تغییر پوشه دهید:
git clone https://github.com/<username>/website
cd website
پوشه محتوای تارنما شامل زیرپوشه هایی برای هر زبان است. محلیسازی که میخواهید به آن کمک کنید، درون content/<two-letter-code>
قرار دارد.
پیشنهاد تغییرات
صفحه بومیسازیشدهی انتخابی خود را بر اساس نسخه انگلیسی آن ایجاد یا بهروزرسانی کنید. برای جزئیات بیشتر به بومیسازی محتوا مراجعه کنید.
اگر متوجه یک بیدقتی فنی یا مشکل دیگری در مستندات بالادستی (انگلیسی) شدید، ابتدا باید مستندات بالادستی را اصلاح کنید و سپس با بهروزرسانی بومیسازی که روی آن کار میکنید، اصلاح معادل را تکرار کنید.
تغییرات در یک درخواست ادغام را به یک محلیسازی واحد محدود کنید. بررسی درخواستهای ادغام که محتوا را در چندین محلیسازی تغییر میدهند، مشکلساز است.
برای پیشنهاد تغییرات در آن بومیسازی، از پیشنهاد بهبود محتوا پیروی کنید. این فرآیند مشابه پیشنهاد تغییرات در محتوای بالادستی (انگلیسی) است.
شروع یک محلیسازی جدید
اگر میخواهید مستندات کوبرنتیز به یک زبان جدید بومیسازی شود، مراحل زیر را باید انجام دهید.
از آنجا که مشارکتکنندگان نمیتوانند درخواستهای ادغام خود را تأیید کنند، برای شروع بومیسازی حداقل به دو مشارکتکننده نیاز دارید.
همه تیمهای محلیسازی باید خودکفا باشند. تارنما کوبرنتیز خوشحال است که میزبان کار شما باشد، اما ترجمه آن و بهروز نگه داشتن محتوای محلیسازی شده موجود به عهده شماست.
شما باید کد دو حرفی زبان خود را بدانید. برای یافتن کد دو حرفی زبان محلی خود، به استاندارد ISO 639-1 مراجعه کنید. برای مثال، کد دو حرفی زبان کرهای «ko» است.
اگر زبانی که میخواهید بومیسازی آن را شروع کنید، در مکانهای مختلفی صحبت میشود و تفاوتهای قابل توجهی بین گونههای مختلف آن وجود دارد، ممکن است منطقی باشد که کد کشور ISO-3166 با حروف کوچک را با کد دو حرفی آن زبان ترکیب کنید. به عنوان مثال، پرتغالی برزیلی به صورت «pt-br» بومیسازی شده است.
وقتی محلیسازی جدیدی را شروع میکنید، باید قبل از اینکه پروژه کوبرنتیز بتواند تغییرات شما را در تارنما زنده منتشر کند، تمام حداقل محتوای مورد نیاز را محلیسازی کنید.
اسناد SIG میتوانند به شما کمک کنند تا روی یک شاخه جداگانه کار کنید تا بتوانید به تدریج به سمت آن هدف حرکت کنید.
پیدا کردن جامعه
به کوبرنتیز SIG اسناد اطلاع دهید که به ایجاد محلیسازی علاقهمند هستید! به کانال SIG Docs در Slack و کانال SIG Docs Localizations در Slack بپیوندید. سایر تیمهای محلیسازی خوشحال میشوند که در شروع کار به شما کمک کنند و به سوالات شما پاسخ دهند.
لطفاً شرکت در جلسه زیرگروه محلیسازی اسناد SIG را نیز در نظر بگیرید. ماموریت زیرگروه محلیسازی اسناد SIG، همکاری در تیمهای محلیسازی اسناد SIG برای همکاری در تعریف و مستندسازی فرآیندهای ایجاد راهنماهای مشارکتی محلیسازی شده است. علاوه بر این، زیرگروه محلیسازی اسناد SIG به دنبال فرصتهایی برای ایجاد و اشتراکگذاری ابزارهای مشترک در بین تیمهای محلیسازی و شناسایی الزامات جدید برای تیم رهبری اسناد SIG است. اگر در مورد این جلسه سؤالی دارید، لطفاً در کانال محلیسازی اسناد SIG سوال کنید.
همچنین میتوانید یک کانال Slack برای محلیسازی خود در مخزن kubernetes/community
ایجاد کنید. برای مثالی از اضافه کردن یک کانال Slack،به درخواست ادغام مربوط به اضافه کردن یک کانال برای زبان فارسی مراجعه کنید.
به سازمان گیت هاب کوبرنتیز بپیوندید
وقتی یک درخواست ادغام محلیسازی باز کردید، میتوانید عضو سازمان گیت هاب کوبرنتیز شوید. هر فرد در تیم باید درخواست عضویت سازمان خود را (https://github.com/kubernetes/org/issues/new/choose) در مخزن kubernetes/org
ایجاد کند.
تیم محلیسازی خود را در گیتهاب اضافه کنید
در مرحله بعد، تیم محلیسازی کوبرنتیز خود را به sig-docs/teams.yaml
اضافه کنید. برای مثالی از اضافه کردن یک تیم محلیسازی، به درخواست ادغام برای اضافه کردن تیم محلیسازی اسپانیایی مراجعه کنید.
اعضای «@kubernetes/sig-docs--owners» میتوانند درخواست ادغام هایی را تأیید کنند که محتوا را در پوشه محلیسازی شما (و فقط در داخل) تغییر میدهد: «/content//». برای هر محلیسازی، تیم @Kubernetes/sig-docs-**-reviews
تکالیف بررسی درخواست های ادغام جدید را خودکار میکند. اعضای @kubernetes/website-maintainers
میتوانند شاخههای محلیسازی جدیدی برای هماهنگی تلاشهای ترجمه ایجاد کنند. اعضای @kubernetes/website-milestone-maintainers
میتوانند از /milestone
دستور Prow برای اختصاص یک نقطه عطف به مسائل یا درخواست های ادغام استفاده کنند.
پیکربندی گردش کار
در مرحله بعد، یک برچسب GitHub برای محلیسازی خود در مخزن kubernetes/test-infra
اضافه کنید. یک برچسب به شما امکان میدهد مشکلات را فیلتر کرده و درخواستها را برای زبان خاص خود دریافت کنید.
برای مثالی از افزودن برچسب، به درخواست ادغام مربوط به افزودن برچسب زبان ایتالیایی مراجعه کنید (https://github.com/kubernetes/test-infra/pull/11316).
تغییر پیکربندی تارنما
تارنمای کوبرنتیز از Hugo به عنوان قالب وب خود استفاده میکند. پیکربندی Hugo این تارنما در پرونده hugo.toml
قرار دارد. برای پشتیبانی از محلیسازی جدید، باید hugo.toml
را تغییر دهید.
یک بلوک پیکربندی برای زبان جدید به hugo.toml
زیر بلوک [languages]
موجود اضافه کنید. برای مثال، بلوک زبان آلمانی به شکل زیر خواهد بود:
[languages.de]
title = "Kubernetes"
languageName = "Deutsch (German)"
weight = 5
contentDir = "content/de"
languagedirection = "ltr"
[languages.de.params]
time_format_blog = "02.01.2006"
language_alternatives = ["en"]
description = "Produktionsreife Container-Orchestrierung"
languageNameLatinScript = "Deutsch"
نوار انتخاب زبان، مقدار مربوط به languageName
را فهرست میکند. "نام زبان به خط بومی و زبان (نام زبان انگلیسی به خط لاتین)" را به languageName
اختصاص دهید. برای مثال، languageName = "한국어 (کرهای)"
یا languageName = "Deutsch (آلمانی)"
.
میتوان از languageNameLatinScript
برای دسترسی به نام زبان به خط لاتین و استفاده از آن در قالب استفاده کرد. "نام زبان به خط لاتین" را به languageNameLatinScript
اختصاص دهید. برای مثال، languageNameLatinScript ="Korean"
یا languageNameLatinScript ="Deutsch"
.
پارامتر «وزن» ترتیب زبانها را در نوار انتخاب زبان تعیین میکند. وزن کمتر اولویت دارد و در نتیجه زبان اول ظاهر میشود. هنگام اختصاص پارامتر «وزن»، بررسی بلوک زبانهای موجود و تنظیم وزن آنها برای اطمینان از اینکه نسبت به همه زبانها، از جمله هر زبان جدید اضافه شده، به ترتیب مرتب شدهاند، مهم است.
برای اطلاعات بیشتر در مورد پشتیبانی چند زبانه Hugo، به "حالت چند زبانه" مراجعه کنید.
یک پوشه محلیسازی جدید اضافه کنید
یک زیرشاخه مختص به زبان مورد نظر را به پوشه content
در مخزن اضافه کنید. برای مثال، کد دو حرفی برای زبان آلمانی de
است:
mkdir content/de
شما همچنین باید یک پوشه در داخل «i18n» برای ایجاد کنید رشته های محلی شده; برای مثال به محلی سازی های موجود نگاه کنید.
برای مثال، برای زبان آلمانی، رشتهها در i18n/de/de.toml
قرار دارند.
بومیسازی ضوابط رفتاری جامعه
برای اضافه کردن اصول اخلاقی به زبان خودتان، یک درخواست ادغام در مخزن cncf/foundation
باز کنید.
پروندههای مالکان را تنظیم کنید
برای تنظیم نقشهای هر کاربر که در بومیسازی مشارکت دارند، یک پرونده OWNERS
در زیرشاخهی زبان مربوطه با کد زیر ایجاد کنید:
- بازبینها: فهرستی از تیمهای کوبرنتیز با نقشهای بازبین، در این مورد،
- تیم
sig-docs-**-reviews
که در افزودن تیم محلیسازی خود در گیتهاب ایجاد شده است. - تأییدکنندگان: فهرستی از تیمهای کوبرنتیز با نقشهای تأییدکننده، در این مورد،
- تیم
sig-docs-**-owners
که در افزودن تیم محلیسازی خود در گیتهاب ایجاد شده است. - برچسبها: فهرستی از برچسبهای گیتهاب که بهطور خودکار به یک درخواست ادغام اعمال میشوند، در این مورد، برچسب زبانی که در Configure the workflow ایجاد شده است.
اطلاعات بیشتر در مورد پرونده OWNERS
را میتوانید در go.k8s.io/owners بیابید.
پرونده OWNERS اسپانیایی با کد زبان es
، به این شکل است:
# برای مشاهده اسناد مربوط به مالکین به نشانی https://go.k8s.io/owners مراجعه کنید.
# این پروژه محلیسازی زبان اسپانیایی است.
# تیمها و اعضا در نشانی https://github.com/orgs/kubernetes/teams قابل مشاهده هستند.
reviewers:
- sig-docs-es-reviews
approvers:
- sig-docs-es-owners
labels:
- area/localization
- language/es
پس از افزودن پرونده OWNERS
مختص زبان، پرونده rootOWNERS_ALIASES
را با تیمهای جدید کوبرنتیز برای محلیسازی، sig-docs-**-owners
و sig-docs-**-reviews
بهروزرسانی کنید.
برای هر تیم، لیست کاربران گیتهاب درخواستی را به ترتیب حروف الفبا در اضافه کردن تیم محلیسازی خود در گیتهاب اضافه کنید.
--- a/OWNERS_ALIASES
+++ b/OWNERS_ALIASES
@@ -48,6 +48,14 @@ aliases:
- stewart-yu
- xiangpengzhao
- zhangxiaoyu-zidif
+ sig-docs-es-owners: # Admins for Spanish content
+ - alexbrand
+ - raelga
+ sig-docs-es-reviews: # PR reviews for Spanish content
+ - alexbrand
+ - electrocucaracha
+ - glo-pena
+ - raelga
sig-docs-fr-owners: # Admins for French content
- perriea
- remyleone
درخواست ادغام را باز کنید
در مرحله بعد، یک درخواست ادغام را باز کنید (درخواست ادغام) برای افزودن محلی سازی به مخزن «kubernetes/website». درخواست ادغام قبل از تأیید باید شامل همه حداقل محتوای مورد نیاز باشد.
برای مثالی از افزودن یک محلیسازی جدید، به درخواست ادغام برای فعالسازی مستندات به زبان فرانسوی مراجعه کنید.
یک پرونده README محلی اضافه کنید
برای راهنمایی سایر مشارکتکنندگان محلیسازی، یک پرونده جدید README-**.md
به بالاترین سطح kubernetes/website اضافه کنید، که در آن **
کد دو حرفی زبان است. برای مثال، یک پرونده README آلمانی به صورت README-de.md
خواهد بود.
مشارکت کنندگان بومی سازی را در پرونده «README-**.md» بومی سازی شده راهنمایی کنید. همان اطلاعات موجود در «README.md» و همچنین شامل موارد زیر باشد:
- نقطه تماس برای پروژه بومیسازی
- هرگونه اطلاعات خاص مربوط به محلیسازی
پس از ایجاد پرونده README محلی، پیوندی از پرونده اصلی انگلیسی README.md
به پرونده اضافه کنید و اطلاعات تماس را به زبان انگلیسی در آن قرار دهید. میتوانید شناسه گیتهاب، نشانی رایانامه، کانال Slack یا روش دیگری برای تماس ارائه دهید. همچنین باید پیوندی به آییننامه رفتار انجمن محلی خود ارائه دهید.
محلیسازی جدید خود را راهاندازی کنید
وقتی محلیسازی الزامات گردش کار و حداقل خروجی را برآورده میکند، SIG اسناد موارد زیر را انجام میدهد:
- انتخاب زبان را در وبسایت فعال میکند.
- در دسترس بودن محلیسازی را از طریق کانالهای بنیاد رایانش ابری بومی(CNCF)، از جمله وب نوشت کوبرنتیز منتشر میکند.
بومیسازی محتوا
بومیسازی تمام مستندات کوبرنتیز کار بسیار بزرگی است. اشکالی ندارد که از مقیاس کوچک شروع کنید و به مرور زمان آن را گسترش دهید.
حداقل محتوای مورد نیاز
حداقل، تمام بومیسازیها باید شامل موارد زیر باشند:
توضیحات | نشانیهای اینترنتی |
---|---|
خانه | همه نشانیهای اینترنتی (URL) عنوان و زیرعنوان |
نصب | همه نشانیهای اینترنتی (URL) عنوان و زیرعنوان |
آموزشها | مبانی کوبرنتیز, سلام Minikube |
رشتههای سایت | تمام رشتههای تارنما در یک پرونده TOML جدید و بومیسازیشده |
انتشارات | همه نشانیهای اینترنتی (URL) عنوان و زیرعنوان |
اسناد ترجمه شده باید در زیرشاخه content/**/
خود قرار گیرند، اما در غیر این صورت، همان مسیر URL منبع انگلیسی را دنبال کنند. به عنوان مثال، برای تهیه آموزش Kubernetes Basics برای ترجمه به آلمانی، یک زیرشاخه در زیر شاخه content/de/
ایجاد کنید و منبع یا پوشه انگلیسی را رونوشت کنید:
mkdir -p content/de/docs/tutorials
cp -ra content/en/docs/tutorials/kubernetes-basics/ content/de/docs/tutorials/
ابزارهای ترجمه میتوانند فرآیند ترجمه را سرعت بخشند. برای مثال، برخی از ویراستاران افزونههایی را برای ترجمه سریع متن ارائه میدهند.
Caution:
ترجمه ماشینی به خودی خود کافی نیست. بومیسازی نیازمند بررسی گسترده انسانی است تا حداقل استانداردهای کیفیت را رعایت کند.برای اطمینان از دقت دستور زبان و معنی، اعضای تیم محلیسازی شما باید قبل از انتشار، تمام ترجمههای تولید شده توسط ماشین را با دقت بررسی کنند.
بومی سازی تصاویر SVG
پروژه کوبرنتیز توصیه میکند در صورت امکان از تصاویر برداری (SVG) استفاده کنید، زیرا ویرایش این تصاویر برای تیم محلیسازی بسیار آسانتر است. اگر یک تصویر شطرنجی پیدا کردید که نیاز به بومی سازی دارد، ابتدا نسخه انگلیسی را به صورت تصویر برداری مجدد ترسیم کنید و سپس آن را بومی سازی کنید.
هنگام ترجمه متن درون تصاویر SVG (گرافیک برداری مقیاسپذیر)، پیروی از دستورالعملهای خاص برای اطمینان از دقت و حفظ سازگاری در نسخههای مختلف زبان ضروری است. تصاویر SVG معمولاً در مستندات کوبرنتیز برای نشان دادن مفاهیم، گردشهای کاری و نمودارها استفاده میشوند.
-
شناسایی متن قابل ترجمه: با شناسایی عناصر متنی درون تصویر SVG که نیاز به ترجمه دارند، شروع کنید. این عناصر معمولاً شامل برچسبها، زیرنویسها، حاشیهنویسیها یا هر متنی هستند که اطلاعات را منتقل میکند.
-
ویرایش پروندههای SVG: پرونده های SVG مبتنی بر XML هستند، به این معنی که میتوان آنها را با استفاده از یک ویرایشگر متن ویرایش کرد. با این حال، توجه به این نکته مهم است که اکثر تصاویر مستندات در کوبرنتیز از قبل متن را به منحنی تبدیل میکنند تا از مشکلات سازگاری فونت جلوگیری شود. در چنین مواردی، توصیه میشود از نرمافزارهای تخصصی ویرایش SVG مانند Inkscape برای ویرایش استفاده کنید، پرونده SVG را باز کنید و عناصر متنی را که نیاز به ترجمه دارند، پیدا کنید.
-
ترجمه متن: متن اصلی را با نسخه ترجمه شده به زبان مورد نظر جایگزین کنید. مطمئن شوید که متن ترجمه شده به طور دقیق معنای مورد نظر را منتقل میکند و در فضای موجود در تصویر جای میگیرد. هنگام کار با زبانهایی که از الفبای لاتین استفاده میکنند، باید از خانواده فونت Open Sans استفاده شود. میتوانید فونت Open Sans را از اینجا دریافت کنید: فونت Open Sans.
-
تبدیل متن به منحنی: همانطور که قبلاً ذکر شد، برای رفع مشکلات سازگاری فونت، توصیه میشود متن ترجمه شده را به منحنی یا مسیر تبدیل کنید. تبدیل متن به منحنی تضمین میکند که تصویر نهایی متن ترجمه شده را به درستی نمایش میدهد، حتی اگر سیستم کاربر فونت دقیق استفاده شده در SVG اصلی را نداشته باشد.
-
بررسی و آزمایش: پس از انجام ترجمههای لازم و تبدیل متن به منحنی، تصویر SVG بهروزرسانیشده را ذخیره و بررسی کنید تا از نمایش و ترازبندی صحیح متن اطمینان حاصل شود. پیشنمایش تغییرات محلی را بررسی کنید.
پرونده های منبع
بومیسازیها باید بر اساس پرونده های انگلیسی از یک نسخه خاص که توسط تیم بومیسازی هدفگذاری شده است، انجام شوند. هر تیم بومیسازی میتواند تصمیم بگیرد که کدام نسخه را هدف قرار دهد، که در زیر به آن نسخه هدف گفته میشود.
برای یافتن پرونده های منبع برای نسخه هدف خود:
-
به مخزن تارنمای کوبرنتیز در نشانی https://github.com/kubernetes/website بروید.
-
یک شاخه برای نسخه هدف خود از جدول زیر انتخاب کنید:
نسخه هدف | شاخه |
---|---|
آخرین نسخه | main |
نسخه قبلی | release-1.32 |
نسخه بعدی | dev-1.34 |
شاخهی «اصلی» محتوای نسخه فعلی v1.33
را در خود جای داده است. تیم انتشار، قبل از انتشار نسخه بعدی، یک شاخه release-1.33
ایجاد میکند: v1.34.
رشتههای سایت در i18n
محلیسازیها باید شامل محتویات i18n/en/en.toml
در یک پرونده جدید مختص زبان باشند. به عنوان مثال، از زبان آلمانی استفاده میکنیم:
i18n/de/de.toml
.
یک پوشه و پرونده محلیسازی جدید به i18n/
اضافه کنید. برای مثال، با زبان آلمانی (de
):
mkdir -p i18n/de
cp i18n/en/en.toml i18n/de/de.toml
توضیحات بالای پرونده را متناسب با محلیسازی خود اصلاح کنید، سپس مقدار هر رشته را ترجمه کنید. برای مثال، این متن جایگزین به زبان آلمانی برای فرم جستجو است:
[ui_search]
other = "Suchen"
بومیسازی رشتههای سایت به شما امکان میدهد متن و ویژگیهای کل سایت را سفارشی کنید: برای مثال، متن حق نشر قانونی در پاورقی هر صفحه.
راهنمای محلیسازی مختص زبان
به عنوان یک تیم محلیسازی، میتوانید با ایجاد یک راهنمای محلیسازی مختص هر زبان، بهترین شیوههایی را که تیمتان دنبال میکند، رسمی کنید.
برای مثال، به راهنمای محلیسازی زبان کرهای مراجعه کنید که شامل مطالبی در مورد موضوعات زیر است:
- آهنگ سرعت و انتشار
- راهبرد شاخه
- گردش کار درخواست ادغام
- راهنمای شیوه
- واژهنامه اصطلاحات بومیسازیشده و غیربومیسازیشده
- قراردادهای نشانهگذاری
- اصطلاحات شیء کوبرنتیز API
جلسات زوم مخصوص زبانهای مختلف
اگر پروژه محلیسازی به زمان جلسه جداگانهای نیاز دارد، با یکی از اعضای SIG اسناد یا سرپرست فنی تماس بگیرید تا یک جلسه زوم جدید و دعوتنامه تقویمی ایجاد کنید. این کار فقط زمانی لازم است که تیم به اندازه کافی بزرگ باشد که بتواند از پس آن برآید و به یک جلسه جداگانه نیاز داشته باشد.
طبق سیاست CNCF، تیمهای محلیسازی باید جلسات خود را در لیست پخش یوتیوب SIG اسناد بارگذاری کنند. یکی از روسای مشترک یا سرپرست فنی SIG اسناد میتواند تا زمان خودکارسازی این فرآیند توسط SIG اسناد به آنها کمک کند.
راهبرد شاخه
از آنجا که پروژههای محلیسازی، تلاشهایی بسیار مشارکتی هستند، ما تیمها را تشویق میکنیم که در شاخههای محلیسازی مشترک کار کنند - به خصوص هنگام شروع کار و زمانی که محلیسازی هنوز فعال نشده است.
برای همکاری در یک شاخه محلیسازی:
-
یکی از اعضای تیم @kubernetes/website-maintainers یک شاخه محلیسازی از شاخه منبع در https://github.com/kubernetes/website باز میکند.
تأییدکنندگان تیم شما زمانی به تیم
@kubernetes/website-maintainers
پیوستند که شما تیم محلیسازی خود را به مخزنkubernetes/org
اضافه کردید.ما طرح نامگذاری شاخه زیر را توصیه میکنیم:
dev-<source version>-<language code>.<team milestone>
برای مثال، یک تأییدکننده در یک تیم محلیسازی آلمانی، شاخه محلیسازی
dev-1.12-de.1
را مستقیماً در مخزنkubernetes/website
، بر اساس شاخه منبع برای کوبرنتیز نسخه ۱.۱۲، باز میکند. -
مشارکتکنندگان انفرادی، شاخههای ویژگی را بر اساس شاخه محلیسازی باز میکنند.
برای مثال، یک مشارکتکننده آلمانی یک درخواست ادغام با تغییرات در
kubernetes:dev-1.12-de.1
ازusername:local-branch-name
باز میکند. -
تأییدکنندگان، شاخههای ویژگی را بررسی و در شاخه محلیسازی ادغام میکنند.
-
به صورت دورهای، یک تأییدکننده با باز کردن و تأیید یک درخواست ادغام جدید، شاخه محلیسازی را با شاخه منبع خود ادغام میکند. قبل از تأیید درخواست ادغام، حتماً commitها را squash کنید. مراحل ۱ تا ۴ را در صورت نیاز تا زمان تکمیل بومیسازی تکرار کنید. برای مثال، شاخههای بومیسازی بعدی آلمانی عبارتند از:
dev-1.12-de.2
،dev-1.12-de.3
و غیره.
تیمها باید محتوای بومیسازیشده را در همان شاخهای که محتوا از آن تهیه شده است، ادغام کنند. برای مثال:
- یک شاخه محلیسازی که از شاخه
اصلی
منبعگیری شده است، باید در شاخهاصلی
ادغام شود. - یک شاخه محلیسازی که از
release-1.32
منبعگیری شده است، باید درrelease-1.32
ادغام شود.
Note:
اگر شاخه محلیسازی شما از شاخهاصلی
ایجاد شده باشد، اما قبل از ایجاد شاخه انتشار جدید release-1.33
با اصلی
ادغام نشده باشد، آن را هم در اصلی
و هم در شاخه انتشار جدید release-1.33
ادغام کنید. برای ادغام شاخه محلیسازی خود در شاخه انتشار جدید release-1.33
، باید شاخه بالادستی شاخه محلیسازی خود را به release-1.33
تغییر دهید.در ابتدای هر مرحله از مراحل پیشرفت تیم، باز کردن یک مسئله برای مقایسه تغییرات بالادستی بین شاخه محلیسازی قبلی و شاخه محلیسازی فعلی مفید است. دو اسکریپت برای مقایسه تغییرات بالادستی وجود دارد.
upstream_changes.py
برای بررسی تغییرات اعمال شده در یک پرونده خاص مفید است. وdiff_l10n_branches.py
برای ایجاد لیستی از پرونده های منسوخ شده برای یک شاخه محلیسازی خاص مفید است.
در حالی که فقط تأییدکنندگان میتوانند یک شاخه محلیسازی جدید باز کنند و درخواستهای ادغام را ادغام کنند، هر کسی میتواند یک درخواست ادغام برای یک شاخه محلیسازی جدید باز کند. هیچ مجوز خاصی لازم نیست.
برای اطلاعات بیشتر در مورد کار از طریق Forkها یا مستقیماً از مخزن، به "مخزن را fork و clone کنید" مراجعه کنید.
مشارکتهای بالادستی
SIG اسناد از مشارکتها و اصلاحات بالادستی در منبع انگلیسی استقبال میکند.