@@ -487,14 +487,102 @@ L2 underlay网络就是链路层(L2) 互通的底层网络。 IPvlan L2模
487
487
IPvlan的L3模式, flannel的host-gw模式和Calico的BGP组网方式都是L3 underlay类型的网络。
488
488
489
489
490
+ ### DNS服务基本框架
491
+ Kubernetes的DNS应用部署好后, 会对外暴露一个服务, 集群内的容器通过访问该服务的Cluster IP+53端口获得域名解析服务, 而这个Service的Cluster IP一般情况下都是固定的。
492
+ 一般应用程序是无须感知DNS服务器的IP地址的, 以Linux系统为例, 容器内进程想要获得域名解析服务, 只需把DNS Server写入/etc/resolv.conf文件。 那么刷新/etc/resolv.conf配置这个动作是谁完成的呢? 答案是Kubelet。
493
+ 原来, 当Kubernetes的DNS服务Cluster IP分配后, 系统(一般是指安装程序) 会给Kubelet配置 ` --cluster-dns=<dns service ip> ` 启动参数,
494
+ DNS服务的IP地址将在用户容器启动时传递, 并写入每个容器的/etc/resolv.conf文件。 DNS服务IP即上文提到的DNS Service的Cluster IP, 可以配置成--cluster-dns=10.0.0.1。
495
+ 除此之外, Kubelet的 ` --cluster_domain=<default-local-domain> ` 参数支持配置集群域名后缀, 默认是` cluster.local ` 。
496
+
497
+
498
+
490
499
## k8s的网络策略
491
500
492
501
为了实现细粒度的容器间网络访问隔离策略, Kubernetes从1.3版本开始引入了Network Policy机制, 到1.8版本升级为networking.k8s.io/v1稳定版本。 Network Policy的主要功能是对Pod或者Namespace之间的网络通信进行限制和准入控制, 设置方式为将目标对象的Label作为查询条件, 设置允许访问或禁止访问的客户端Pod列表。 目前查询条件可以作用于Pod和Namespace级别。
493
502
494
503
为了使用Network Policy, Kubernetes引入了一个新的资源对象NetworkPolicy, 供用户设置Pod之间的网络访问策略。 但这个资源对象配置的仅仅是策略规则, 还需要一个策略控制器(Policy Controller) 进行策略规则的具体实现。 策略控制器由第三方网络组件提供, 目前Calico、 Cilium、 Kube-router、 Romana、 Weave Net等开源项目均支持网络策略的实现。
495
504
505
+
506
+ 网络策略作为Pod网络隔离的一层抽象, 用白名单实现了一个访问控制列表(ACL) , 从Label Selector、 namespace selector、 端口、CIDR这4个维度限制Pod的流量进出。
507
+
496
508
网络策略的设置主要用于对目标Pod的网络访问进行控制, 在默认情况下对所有Pod都是允许访问的, 在设置了指向Pod的NetworkPolicy网络策略后, 到Pod的访问才会被限制。
497
509
510
+ ### 网络策略应用举例
511
+
512
+ - Deny all ingress and egress
513
+ ``` yaml
514
+ apiVersion : networking.k8s.io/v1
515
+ kind : NetworkPolicy
516
+ metadata :
517
+ name : default-deny
518
+ spec :
519
+ podSelector : {}
520
+ policyTypes :
521
+ - Ingress
522
+ - Egress
523
+ ` ` `
524
+ 这个策略会阻止所有入站和出站流量到达或离开匹配的 Pod。这意味着没有任何流量可以进入或离开这些 Pod,除非有其他更具体的网络策略允许特定的流量。
525
+
526
+ - Allow all ingress
527
+ ` ` ` yaml
528
+ apiVersion : networking.k8s.io/v1
529
+ kind : NetworkPolicy
530
+ metadata :
531
+ name : allow-all
532
+ spec :
533
+ podSelector : {}
534
+ ingress :
535
+ - {}
536
+ ` ` `
537
+ 这个策略允许所有入站流量到达匹配的 Pod。这意味着任何外部流量都可以访问这些 Pod,但不包括出站流量控制。
538
+
539
+ - Allow all egress
540
+ ` ` ` yaml
541
+ apiVersion : networking.k8s.io/v1
542
+ kind : NetworkPolicy
543
+ metadata :
544
+ name : allow-all
545
+ spec :
546
+ podSelector : {}
547
+ egress :
548
+ - {}
549
+ ` ` `
550
+ 这个策略允许所有出站流量从匹配的 Pod 发出。这意味着这些 Pod 可以发送任何类型的流量到外部目的地,但不包括入站流量控制
551
+
552
+ > {} 代表允许所有流量, []代表拒绝所有流量
553
+
554
+ ` ` ` yaml
555
+ apiVersion : networking.k8s.io/v1
556
+ kind : NetworkPolicy
557
+ metadata :
558
+ name : default-deny
559
+ spec :
560
+ podSelector : {}
561
+ policyTypes :
562
+ ingress : []
563
+ ` ` `
564
+
565
+ 限制只能从指定端口进来
566
+ ` ` ` yaml
567
+ apiVersion : networking.k8s.io/v1
568
+ kind : NetworkPolicy
569
+ metadata :
570
+ name : api-allow-5000
571
+ spec :
572
+ podSelector :
573
+ matchLabels :
574
+ app : apiserver
575
+ ingress :
576
+ - ports :
577
+ - port : 5000
578
+ from :
579
+ - podSelector :
580
+ matchLabels :
581
+ role : monitoring
582
+ ` ` `
583
+
584
+
585
+
498
586
` ` ` yaml
499
587
apiVersion : networking.k8s.io/v1
500
588
kind : NetworkPolicy
@@ -519,6 +607,9 @@ spec:
519
607
- podSelector :
520
608
matchLabels :
521
609
app.kubernetes.io/name : prometheus
610
+ - namespaceSelector :
611
+ matchLabels :
612
+ project : myproject
522
613
# 允许访问的目标Pod监听的端口号
523
614
ports :
524
615
- port : 3000
@@ -539,6 +630,87 @@ spec:
539
630
540
631
在一个命名空间没有设置任何网络策略的情况下, 对其中Pod的ingress和egress网络流量并不会有任何限制。 在命名空间级别可以设置一些默认的全局网络策略, 以便管理员对整个命名空间进行统一的网络策略设置。
541
632
633
+ ## 网络故障定位
634
+
635
+ ### IP转发和桥接
636
+ Kubernetes网络利用Linux内核Netfilter模块设置低级别的集群IP负载均衡, 除了iptables和IPVS, 还需要用到两个关键的模块: IP转发(IP forward) 和桥接。
637
+
638
+ #### IP转发
639
+ IP转发是一种内核态设置, 允许将一个接口的流量转发到另一个接口, 该配置是Linux内核将流量从容器路由到外部所必需的。 有时, 该项设置可能会被安全团队运行的定期安全扫描重置, 或者没有配置为重启后生效。 在这种情况下, 就会出现网络访问失败的情况, 例如, 访问Pod服务连接超时:
640
+ ` ` ` bash
641
+ * connect to 10.100.225.223 port 5000 failed: Connection timed out
642
+ * Failed to connect to 10.100.225.223 port 5000: Connection timed out
643
+ * Closing connection 0
644
+ curl : (7) Failed to connect to 10.100.225.223 port 5000: Connection timed out
645
+ ` ` `
646
+ Tcpdump可以显示发送了大量重复的SYN数据包, 但没有收到ACK。
647
+
648
+ 那么, 该如何诊断呢? 请看下面的诊断方法:
649
+ ` ` ` bash
650
+ # 检查 ipv4 forwarding是否开启
651
+ sysctl net.ipv4.ip_forward
652
+ # 0 意味着未开启
653
+ net.ipv4.ip_forward = 0
654
+ ```
655
+ 修复也很简单,只需要开启ip转发功能即可
656
+ ``` bash
657
+ sysctl -w net.ipv4.ip_forward=1
658
+ # 验证并生效
659
+ sysctl -p
660
+ ```
661
+
662
+
663
+ #### 桥接
664
+ Kubernetes通过bridge-netfilter配置使iptables规则应用在Linux网桥上。 该配置对Linux内核进行宿主机和容器之间数据包的地址转换是必需的。 否则, Pod进行外部服务网络请求时会出现目标主机不可达或者连接拒绝等错误(host unreachable或connection refused) 。
665
+
666
+ 那么, 如何诊断呢? 请看下面的命令:
667
+ ``` bash
668
+ # 检查 bridge netfilter是否开启
669
+ sysctl net.bridge.bridge-nf-call-iptables
670
+ # 0 表示未开启
671
+ net.bridge.bridge-nf-call-iptables=0
672
+ ```
673
+
674
+ 使用如下方式开启桥接
675
+ ``` bash
676
+ modprobe br_netfilter
677
+ # 开启
678
+ sysctl -w net.bridge.bridge-nf-call-iptables=1
679
+
680
+ echo net.bridge.bridge-nf-call-iptables=1 >> /etc/sysconf.d/10-bridge-nf-call-iptables.conf
681
+ sysctl -p
682
+ ```
683
+
684
+
685
+ ### Pod CIDR冲突
686
+ Kubernetes有时会为容器和容器之间的通信建立一层特殊的overlay网络(取决于你使用什么样的网络插件) 。 使用隔离的Pod网络容器可以获得唯一的IP并且可以避免集群上的端口冲突, 而当Pod子网和主机网络出现冲突时就会出现问题。 Pod和Pod之间通信会因为路由问题被中断:
687
+ ``` bash
688
+ # curl http://172.28.128.132:5000
689
+ curl: (7) Failed to connect to 172.28.128.132 port 5000: No route to host
690
+ ```
691
+
692
+ 使用 ` kubectl get pod -n xxx -o wide ` 查看 ip地址是否和主机网络出现冲突
693
+
694
+ ### hairpin
695
+ hairpin的含义用一句话表述就是“自己访问自己”。 例如, Pod有时无法通过Service IP访问自己, 这就有可能是hairpin的配置问题了。
696
+
697
+ Hairpin模式是一种网络配置选项,通常用于虚拟化环境中,特别是当使用Open vSwitch(OVS)或类似的软件定义网络(SDN)解决方案时。启用hairpin模式(即设置为1)允许同一桥接设备上的两个虚拟机之间直接通信,而不需要将数据包发送到外部网络再返回。这可以提高性能和效率,特别是在需要大量内部通信的应用场景中。
698
+
699
+ 通常, 当Kube-proxy以iptables或IPVS模式运行, 并且Pod与桥接网络连接时, 就会发生这种情况。 Kubelet的启动参数提供了一个--hairpin-mode的标志, 支持的值有hairpin-veth和promiscuous-bridge。 检查Kubelet的日志也能看到以下日志行, 例如:
700
+ ``` bash
701
+ I0629 00:51:43.648698 3252 kubelet.go:380] hairpin mode set to " promiscuous-bridge"
702
+ ```
703
+ 用户需要检查Kubelet的--hairpin-mode是否被设置为一个合法的值
704
+ ` --hairpin-mode ` 被Kubelet设置成hairpin-veth并且生效后, 底层其实是在修改宿主机操作系统/sys/devices/virtual/net目录下设备文件hairpin_mode的值, 可以通过以下命令确认是否修改成功:
705
+
706
+ ``` bash
707
+ # for intf in /sys/devices/virtual/net/cbr0/brif/; do cat $intf/hairpin_mode; done
708
+ 1
709
+ 1
710
+ 1
711
+ 1
712
+ ```
713
+
542
714
543
715
544
716
0 commit comments