当前位置: 首页 > news >正文

Kubernetes(k8s)集群部署----->超详细

Kubernetes(k8s)集群部署----->超详细

  • 一、资源准备
  • 二、安装准备
    • 2.1 主机环境设置
      • 2.1.1 关闭操作系统防火墙、selinux
      • 2.1.2 关闭swap交换分区
      • 2.1.3 允许iptables检测桥接流量(可选)
    • 2.2 安装Docker环境
    • 2.3 安装Kubeadm、Kubelet和Kubectl
      • 2.3.1 配置k8s的yum源(阿里云的源)
      • 2.3.2 安装及版本检查
      • 2.3.3 设置kubelet自启动
      • 2.3.4 卸载
  • 三、Kubernetes集群所需的镜像拉取
    • 3.1 生成一个默认 kubeadm 初始化配置文件
    • 3.2 列出当前Kubernetes集群所需的所有镜像列表及其版本信息
    • 3.3 拉取所k8s需要的容器镜像
    • 3.4 镜像检查
  • 四、初始化Master节点
    • 4.1 初始化报错解决
    • 4.2 再次执行初始化报错解决
    • 4.3 初始化完成,root用户执行命令
  • 五、安装网络插件Calico
  • 六、Worker节点部署
  • 七、集群检查
  • 八、集群测试--集群自我修复
  • 九、 部署Dashboard
  • 十、集群的加入令牌过期--处理


💖The Begin💖点点关注,收藏不迷路💖

Kubernetes(简称k8s)是一个开源的容器编排平台,可以帮助开发人员和运维团队更轻松地管理容器化应用程序。本文将详细介绍如何进行k8s集群的部署,以帮助读者快速搭建一个高可用、可伸缩的k8s集群。

一、资源准备

1、操作系统:至少三台物理机或虚拟机,具有至少2核4GB内存的配置,操作系统为Linux。

主机名IP
k8s-01192.168.234.21
k8s-02192.168.234.22
k8s-03192.168.234.23

2、主机名设置:确保每台服务器都有唯一的主机名,并且主机名能够通过DNS解析进行互相访问。

在这里插入图片描述

3、网络设置:确保每台服务器之间可以互相通信,建议使用静态IP地址,并关闭防火墙或者开放必要的端口。
在这里插入图片描述
在这里插入图片描述

4、安装Docker:在每台服务器上安装Docker引擎。

二、安装准备

2.1 主机环境设置

在每台服务器上执行设置。

2.1.1 关闭操作系统防火墙、selinux

1、修改/etc/selinux/config文件中的SELINUX值为disabled

[root@k8s-01 ~]# vi /etc/selinux/config

2、修改SELINUX的值为disabled

SELINUX=disabled
或者使用命令设置:sudo sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config

在这里插入图片描述
3、检查防火墙是否关闭

[root@k8s-01 ~]# systemctl status firewalld

若防火墙状态显示为active (running),则表示防火墙未关闭
若防火墙状态显示为inactive (dead),则无需再关闭防火墙

4、关闭防火墙并禁止开机重启

[root@k8s-01 ~]# systemctl disable firewalld.service
[root@k8s-01 ~]# systemctl stop firewalld.service

2.1.2 关闭swap交换分区

关闭swap交换内存是为了保障数据库的访问性能,避免把数据库的缓冲区内存淘汰到磁盘上。 如果服务器内存比较小,内存过载时,可打开swap交换内存保障正常运行。

###永久关闭命令
[root@k8s-01 ~]# swapoff -ased -ri 's/.*swap.*/#&/' /etc/fstab##目的是将swap那行注释,如下图所示:

在这里插入图片描述

###开启命令(不执行)
[root@k8s-01 ~]# swapon -a

2.1.3 允许iptables检测桥接流量(可选)

cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
br_netfilter
EOFcat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF# 加载所有配置
sudo sysctl --system

在这里插入图片描述

2.2 安装Docker环境

安装Docker:在每台服务器上安装Docker,Kubernetes依赖于Docker来运行容器。

docker 安装可参考前面的文章:Docker基础入门:Docker起源、组成、安装、及常用命令

[root@k8s-01 ~]# docker -v    #查看是否安装成功
Docker version 20.10.7, build f0df350
[root@k8s-01 ~]#

2.3 安装Kubeadm、Kubelet和Kubectl

在每台服务器上安装Kubeadm、Kubelet和Kubectl,这些工具将帮助我们部署和管理Kubernetes集群。

Kubeadm、Kubelet和Kubectl是Kubernetes中的三个核心组件。

1、Kubeadm:Kubeadm是用于初始化和设置Kubernetes集群的工具。它负责启动集群的控制平面组件(如API服务器、控制器管理器和调度器)以及节点上的网络插件(如Flannel、Calico等)。Kubeadm还处理证书和安全性设置,并提供了一种简化的方式来添加或删除节点。

2、Kubelet:Kubelet是每个节点上运行的主要代理程序,负责管理该节点上的容器和Pod。它与控制平面通信,接收Pod的调度信息并确保它们在节点上正确运行。Kubelet还监控容器的状态,并在需要时重启失败的容器。

3、Kubectl:Kubectl是Kubernetes的命令行工具,用于与Kubernetes集群进行交互。它允许用户创建、管理和监视Kubernetes对象,如Pod、Service、Deployment等。Kubectl可以通过命令行界面执行各种操作,例如创建和删除资源、查看集群状态、日志记录和调试。

这三个组件共同协作,使得用户能够轻松地部署、管理和监控Kubernetes集群,并与集群进行交互。

2.3.1 配置k8s的yum源(阿里云的源)

在每台服务器上执行:

cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpghttp://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

在这里插入图片描述

2.3.2 安装及版本检查

执行以下命令开始安装。

## 指定版本安装
sudo yum install -y kubelet-1.24.1 kubeadm-1.24.1 kubectl-1.24.1 --disableexcludes=kubernetes
## 或 yum install 安装最新版
sudo yum install kubelet kubeadm kubectl

在这里插入图片描述

## 版本检查
kubeadm version

在这里插入图片描述

2.3.3 设置kubelet自启动

## 所有服务器执行
systemctl enable --now kubelet

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

##kubelet状态查看
systemctl status kubelet

在这里插入图片描述

## 获取有关kubeadm软件包的详细信息的命令
yum info kubeadm

在这里插入图片描述

2.3.4 卸载

sudo apt-get remove kubelet kubectl kubeadm

三、Kubernetes集群所需的镜像拉取

3.1 生成一个默认 kubeadm 初始化配置文件

kubeadm config print init-defaults >kubeadm-init.yaml## 将k8s.gcr.io 修改为阿里云地址 :registry.aliyuncs.com/google_containers

在这里插入图片描述

3.2 列出当前Kubernetes集群所需的所有镜像列表及其版本信息

kubeadm config images list[root@k8s-01 ~]#  kubeadm config images list
I1213 18:44:19.052543   11505 version.go:255] remote version is much newer: v1.28.4; falling back to: stable-1.24
k8s.gcr.io/kube-apiserver:v1.24.17
k8s.gcr.io/kube-controller-manager:v1.24.17
k8s.gcr.io/kube-scheduler:v1.24.17
k8s.gcr.io/kube-proxy:v1.24.17
k8s.gcr.io/pause:3.7
k8s.gcr.io/etcd:3.5.3-0
k8s.gcr.io/coredns/coredns:v1.8.6
[root@k8s-01 ~]#

在这里插入图片描述

3.3 拉取所k8s需要的容器镜像

## 单条批量执行
docker pull  registry.aliyuncs.com/google_containers/kube-apiserver:v1.24.17
docker pull  registry.aliyuncs.com/google_containers/kube-controller-manager:v1.24.17
docker pull  registry.aliyuncs.com/google_containers/kube-scheduler:v1.24.17
docker pull  registry.aliyuncs.com/google_containers/kube-proxy:v1.24.17
docker pull  registry.aliyuncs.com/google_containers/pause:3.7
docker pull  registry.aliyuncs.com/google_containers/etcd:3.5.3-0
docker pull  registry.aliyuncs.com/google_containers/coredns:v1.8.6
## 或者使用脚本执行批量拉取sudo tee ./images.sh <<-'EOF'
#!/bin/bash
images=(
kube-apiserver:v1.24.17
kube-controller-manager:v1.24.17
kube-scheduler:v1.24.17
kube-proxy:v1.24.17
pause:3.7
etcd:3.5.3-0
coredns:v1.8.6
)
for imageName in ${images[@]} ; dodocker pull registry.aliyuncs.com/google_containers/$imageName
done
EOF

在这里插入图片描述

## Shell脚本命令,用于给当前目录下的images.sh文件添加执行权限,并执行该文件。
chmod +x ./images.sh && ./images.sh

3.4 镜像检查

docker images

在这里插入图片描述

四、初始化Master节点

初始化Master节点:使用Kubeadm初始化Master节点,该命令将自动完成Kubernetes的初始化配置。

kubeadm init \--apiserver-advertise-address=192.168.234.21 \--control-plane-endpoint=k8s-01 \--image-repository registry.aliyuncs.com/google_containers \--kubernetes-version v1.24.1 \--service-cidr=10.11.0.0/16 \--pod-network-cidr=172.30.0.0/16
具体的参数解释如下:--apiserver-advertise-address=192.168.0.113:指定API服务器的广播地址,即集群内其他节点访问API服务器的地址。
--image-repository registry.aliyuncs.com/google_containers:指定所使用的镜像仓库地址,这里使用了阿里云的镜像仓库地址。
--kubernetes-version v1.22.1:指定初始化集群时使用的Kubernetes版本。
--service-cidr=10.11.0.0/16:指定Service的IP地址段,Service是Kubernetes中用于提供服务发现和负载均衡的组件。
--pod-network-cidr=172.30.0.0/16:指定Pod的IP地址段,Pod是Kubernetes中最小的调度单位。

4.1 初始化报错解决

报错1:

[root@k8s-01 ~]# kubeadm init \
>   --apiserver-advertise-address=192.168.234.21 \
>   --control-plane-endpoint=k8s-01 \
>   --image-repository registry.aliyuncs.com/google_containers \
>   --kubernetes-version v1.24.1 \
>   --service-cidr=10.11.0.0/16 \
>   --pod-network-cidr=172.30.0.0/16
[init] Using Kubernetes version: v1.24.1
[preflight] Running pre-flight checks
error execution phase preflight: [preflight] Some fatal errors occurred:[ERROR CRI]: container runtime is not running: output: time="2023-12-13T20:40:14+08:00" level=fatal msg="validate service connection: CRI v1 runtime API is not implemented for endpoint \"unix:///var/run/containerd/containerd.sock\": rpc error: code = Unimplemented desc = unknown service runtime.v1.RuntimeService"
, error: exit status 1
[preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`
To see the stack trace of this error execute with --v=5 or higher
[root@k8s-01 ~]# 

解决:

注意:kubernetes 1.24+版本之后,docker必须要加装cir-docker。

cir-docker下载链接: https://pan.baidu.com/s/1ZCmY07McMdicB-bdQvnSeA
提取码: ivax

1、上传安装cir-docker
[root@k8s-01 ~]# ll
total 12952
-rw-------. 1 root root     1419 Dec 12 16:09 anaconda-ks.cfg
-rw-r--r--. 1 root root      886 May 26  2021 config.toml.bak
-rw-r--r--  1 root root 13242440 Dec 13 20:59 cri-dockerd-0.3.4.amd64.tgz
-rwxr-xr-x. 1 root root      269 Dec 13 19:28 images.sh
-rw-r--r--. 1 root root      859 Dec 13 19:55 kubeadm-init.yaml
[root@k8s-01 ~]# tar -xf cri-dockerd-0.3.4.amd64.tgz -C /usr/local/
[root@k8s-01 ~]# cd /usr/local/
[root@k8s-01 local]# mv cri-dockerd/cri-dockerd /usr/local/bin
[root@k8s-01 local]# cri-dockerd --version
cri-dockerd 0.3.4 (e88b1605)
[root@k8s-01 local]# 2、配置开机自启
[root@k8s-01 local]# vi /etc/systemd/system/cri-dockerd.service
添加内容:[Unit]
Description=CRI Interface for Docker Application Container Engine
Documentation=https://docs.mirantis.com
After=network-online.target firewalld.service docker.service
Wants=network-online.target[Service]
Type=notify
ExecStart=/usr/local/bin/cri-dockerd --pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.9 --network-plugin=cni --cni-conf-dir=/etc/cni/net.d --cni-bin-dir=/opt/cni/bin --container-runtime-endpoint=unix:///var/run/cri-dockerd.sock --cri-dockerd-root-directory=/var/lib/dockershim --docker-endpoint=unix:///var/run/docker.sock --cri-dockerd-root-directory=/var/lib/docker
ExecReload=/bin/kill -s HUP $MAINPID
TimeoutSec=0
RestartSec=2
Restart=always
StartLimitBurst=3
StartLimitInterval=60s
LimitNOFILE=infinity
LimitNPROC=infinity
LimitCORE=infinity
TasksMax=infinity
Delegate=yes
KillMode=process
[Install]
WantedBy=multi-user.target[root@k8s-01 local]#  vi /etc/systemd/system/cri-dockerd.socket
添加内容:
[Unit]
Description=CRI Docker Socket for the API
PartOf=cri-docker.service
[Socket]
ListenStream=/var/run/cri-dockerd.sock
SocketMode=0660
SocketUser=root
SocketGroup=docker
[Install]
WantedBy=sockets.target3、设置开机自启
systemctl daemon-reload
systemctl start cri-dockerd.service
systemctl enable cri-dockerd.service

4.2 再次执行初始化报错解决

kubeadm init \--apiserver-advertise-address=192.168.234.21 \--control-plane-endpoint=k8s-01 \--image-repository registry.aliyuncs.com/google_containers \--kubernetes-version v1.24.1 \--service-cidr=10.11.0.0/16 \--pod-network-cidr=172.30.0.0/16

报错2:

[root@k8s-01 ~]# kubeadm init \
>   --apiserver-advertise-address=192.168.234.21 \
>   --control-plane-endpoint=k8s-01 \
>   --image-repository registry.aliyuncs.com/google_containers \
>   --kubernetes-version v1.24.1 \
>   --service-cidr=10.11.0.0/16 \
>   --pod-network-cidr=172.30.0.0/16
Found multiple CRI endpoints on the host. Please define which one do you wish to use by setting the 'criSocket' field in the kubeadm configuration file: unix:///var/run/containerd/containerd.sock, unix:///var/run/cri-dockerd.sock
To see the stack trace of this error execute with --v=5 or higher
[root@k8s-01 ~]#

解决:

报错原因:没有整合kubelet和cri-dockerd。

3、解决办法,在命令后面加上以下选项--cri-socket unix:///var/run/cri-dockerd.sock完整命令:kubeadm init \--apiserver-advertise-address=192.168.234.21 \--control-plane-endpoint=k8s-01 \--image-repository registry.aliyuncs.com/google_containers \--kubernetes-version v1.24.1 \--service-cidr=10.11.0.0/16 \--pod-network-cidr=172.30.0.0/16 \--cri-socket unix:///var/run/cri-dockerd.sock

初始化正常:

在这里插入图片描述

在这里插入图片描述
Your Kubernetes control-plane has initialized successfully!

这个消息表示Kubernetes控制平面已经成功初始化。

以下输出信息,复制保存。

Your Kubernetes control-plane has initialized successfully!To start using your cluster, you need to run the following as a regular user:mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/configAlternatively, if you are the root user, you can run:export KUBECONFIG=/etc/kubernetes/admin.confYou should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:https://kubernetes.io/docs/concepts/cluster-administration/addons/You can now join any number of control-plane nodes by copying certificate authorities
and service account keys on each node and then running the following as root:kubeadm join k8s-01:6443 --token 5sevvb.yo465pjpjogd7j21 \--discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c \--control-planeThen you can join any number of worker nodes by running the following on each as root:kubeadm join k8s-01:6443 --token 5sevvb.yo465pjpjogd7j21 \--discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c

翻译:

你的Kubernetes控制平面已经成功初始化!要开始使用你的集群,你需要以普通用户身份运行以下命令:mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config或者,如果你是root用户,可以运行以下命令:export KUBECONFIG=/etc/kubernetes/admin.conf现在,你应该在集群中部署一个pod网络。
运行 “kubectl apply -f [podnetwork].yaml” 命令,选择其中一个选项,参考链接:
https://kubernetes.io/docs/concepts/cluster-administration/addons/你现在可以通过在每个节点上复制证书机构和服务帐户密钥,然后以root身份运行以下命令来加入任意数量的控制平面节点:kubeadm join k8s-01:6443 –token 5sevvb.yo465pjpjogd7j21
–discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c
–control-plane然后,你可以通过在每个工作节点上以root身份运行以下命令来加入任意数量的工作节点:kubeadm join k8s-01:6443 –token 5sevvb.yo465pjpjogd7j21
–discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c

4.3 初始化完成,root用户执行命令

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

在这里插入图片描述

五、安装网络插件Calico

安装网络插件:选择一种网络插件,如Flannel、Calico等,并在Master节点上安装和配置该插件。

 1、使用wget工具下载指定URL的文件calico.yaml,并且禁用SSL证书验证wget https://docs.projectcalico.org/v3.25/manifests/calico.yaml --no-check-certificate2、将清单文件(calico.yaml)应用到Kubernetes集群中,apply是一个kubectl的子命令,用于创建或更新Kubernetes资源kubectl apply -f calico.yaml

在这里插入图片描述

六、Worker节点部署

加入集群:在每个Worker节点上使用Kubeadm加入到Kubernetes集群中。
在每个从节点执行:

kubeadm join k8s-01:6443 --token 5sevvb.yo465pjpjogd7j21 \--discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c \--cri-socket unix:///var/run/cri-dockerd.sock

需要在末尾添加 --cri-socket unix:///var/run/cri-dockerd.sock:要不会报错:

Found multiple CRI endpoints on the host. Please define which one do you wish to use by setting the 'criSocket' field in the kubeadm configuration file: unix:///var/run/containerd/containerd.sock, unix:///var/run/cri-dockerd.sock
To see the stack trace of this error execute with --v=5 or higher

k8s-02:

在这里插入图片描述
k8s-03:

在这里插入图片描述

七、集群检查

1、获取所有命名空间中的所有Pod的信息。

kubectl get pod -A ##所有都为runing状态

在这里插入图片描述
2、获取集群中的所有节点列表。

kubectl get nodes 

在这里插入图片描述

NAME:节点的名称。
STATUS:节点的状态,包括 Ready(准备就绪)和 NotReady(未准备就绪)。
ROLES:节点的角色,如 master(主节点)和 worker(工作节点)。
AGE:节点的运行时间。
VERSION:节点上运行的 Kubernetes 版本。

八、集群测试–集群自我修复

三台设备reboot重启。三台设备重新启动后,集群应该能够自动检测到它们的重新加入,并将它们纳入集群的运行中。
在这里插入图片描述

重启后集群运行正常。
在这里插入图片描述

部署示例应用:在Kubernetes集群中部署一个简单的示例应用,如一个Nginx服务。
验证应用状态:通过Kubectl命令或者Dashboard界面,验证示例应用的状态是否正常运行。
水平扩展应用:通过增加Pod的数量,测试集群的水平扩展能力。
高可用测试:模拟Master节点故障,测试集群的高可用性。

九、 部署Dashboard

可选步骤,如果需要可视化的管理界面,可以在Master节点上部署Dashboard。


1、Kubernetes Dashboard项目在Github上的源代码文件kubernetes-dashboard.yaml。保存为kubernetes-dashboard.yaml文件。curl -o kubernetes-dashboard.yaml  https://raw.githubusercontent.com/kubernetes/dashboard/v2.6.1/aio/deploy/recommended.yaml2、根据提供的kubernetes-dashboard.yaml文件中的配置信息,创建或更新Kubernetes Dashboard资源。kubectl apply -f kubernetes-dashboard.yaml --validate=false

在这里插入图片描述
在这里插入图片描述

3、获取kube-system命名空间中的所有pods的详细信息kubectl get pods -n kube-system -o wide

在这里插入图片描述

4、修改访问端口kubectl edit svc kubernetes-dashboard -n kubernetes-dashboard

在这里插入图片描述

5、通过grep命令筛选出带有”kubernetes-dashboard”关键字的服务kubectl get svc -A | grep kubernetes-dashboard

在这里插入图片描述
30187 即为对外暴露的端口。

6、浏览器访问测试:https://192.168.234.21:30187/#/loginip 可以是集群任意IP

在这里插入图片描述

7、创建管理员角色, dashboard-adminuser.yamlcat >>dashboard-adminuser.yaml<<'EOF'
apiVersion: v1
kind: ServiceAccount
metadata:name: admin-usernamespace: kubernetes-dashboard
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:name: admin-user
roleRef:apiGroup: rbac.authorization.k8s.iokind: ClusterRolename: cluster-admin
subjects:
- kind: ServiceAccountname: admin-usernamespace: kubernetes-dashboard
---
apiVersion: v1
kind: Secret
metadata:name: admin-usernamespace: kubernetes-dashboardannotations:kubernetes.io/service-account.name: "admin-user"   
type: kubernetes.io/service-account-token    
EOF

在这里插入图片描述

8、kubectl apply -f dashboard-adminuser.yaml
kubectl get secret admin-user -n kubernetes-dashboard -o jsonpath={".data.token"} | base64 -d#复制上面命令返回的token到web页面即可登录。

在这里插入图片描述

在这里插入图片描述

十、集群的加入令牌过期–处理

当Kubernetes集群的加入令牌过期时,可以采取以下步骤进行处理:

1、首先,检查是否有其他有效的加入令牌可用。可以通过运行以下命令获取可用的加入令牌列表:

kubeadm token list

2、如果有其他有效的加入令牌可用,可以使用该令牌重新加入集群。运行以下命令以使用新的令牌加入集群:

 kubeadm token create --print-join-command

在这里插入图片描述

结语:

本文详细介绍了Kubernetes分布式部署的实用步骤,希望能够帮助读者顺利部署和管理自己的Kubernetes集群。

Kubernetes作为一款强大的容器编排工具,能够帮助我们更高效地管理和运行容器化应用,提高应用的可靠性和可伸缩性。祝您在Kubernetes的世界里探索出更多的可能性!


💖The End💖点点关注,收藏不迷路💖

相关文章:

  • Spring Boot学习随笔- 集成JSP模板(配置视图解析器)、整合Mybatis(@MapperScan注解的使用)
  • 企业选CRM系统,这3个关键点你一定不能错过
  • 【摸鱼向】利用Arduino实现自动化切屏
  • python自动化测试实战 —— 自动化测试框架的实例
  • MySQL 报错 You can‘t specify target table for update in FROM clause解决办法
  • Flink 读写 HBase 总结
  • JeecgBoot jmreport/queryFieldBySql RCE漏洞复现
  • ArcGIS pro与SuperMap根据属性自动填充颜色步骤
  • 【JVM入门到实战】(三) 查看字节码文件的工具
  • 结构化并发 ForkJoinPool StructuredTaskScope
  • ExoPlayer架构详解与源码分析(10)——H264Reader
  • 【数据结构】平衡树引入
  • 用23种设计模式打造一个cocos creator的游戏框架----(十四)观察者模式
  • SCT52A40——120V,4A,高频高压侧和低压侧栅极驱动器
  • ISP去噪(1)
  • AngularJS指令开发(1)——参数详解
  • ES6--对象的扩展
  • GDB 调试 Mysql 实战(三)优先队列排序算法中的行记录长度统计是怎么来的(上)...
  • isset在php5.6-和php7.0+的一些差异
  • Mithril.js 入门介绍
  • NSTimer学习笔记
  • SpringBoot 实战 (三) | 配置文件详解
  • storm drpc实例
  • Stream流与Lambda表达式(三) 静态工厂类Collectors
  • 初识 webpack
  • 翻译--Thinking in React
  • 极限编程 (Extreme Programming) - 发布计划 (Release Planning)
  • 离散点最小(凸)包围边界查找
  • 名企6年Java程序员的工作总结,写给在迷茫中的你!
  • 排序算法学习笔记
  • 微信小程序:实现悬浮返回和分享按钮
  • 2017年360最后一道编程题
  • ​一帧图像的Android之旅 :应用的首个绘制请求
  • #stm32整理(一)flash读写
  • #设计模式#4.6 Flyweight(享元) 对象结构型模式
  • (a /b)*c的值
  • (cljs/run-at (JSVM. :browser) 搭建刚好可用的开发环境!)
  • (DFS + 剪枝)【洛谷P1731】 [NOI1999] 生日蛋糕
  • (Java实习生)每日10道面试题打卡——JavaWeb篇
  • (LeetCode) T14. Longest Common Prefix
  • (TOJ2804)Even? Odd?
  • (分布式缓存)Redis持久化
  • (附程序)AD采集中的10种经典软件滤波程序优缺点分析
  • (十)T检验-第一部分
  • (一) springboot详细介绍
  • (原創) 如何優化ThinkPad X61開機速度? (NB) (ThinkPad) (X61) (OS) (Windows)
  • (转)JVM内存分配 -Xms128m -Xmx512m -XX:PermSize=128m -XX:MaxPermSize=512m
  • (转)LINQ之路
  • .net core使用ef 6
  • .NET LINQ 通常分 Syntax Query 和Syntax Method
  • .NET 中什么样的类是可使用 await 异步等待的?
  • .NET/C# 在代码中测量代码执行耗时的建议(比较系统性能计数器和系统时间)
  • .Net6使用WebSocket与前端进行通信
  • .Net多线程总结
  • .pub是什么文件_Rust 模块和文件 - 「译」