91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Istio 服務部署

發布時間:2020-06-10 16:31:34 來源:網絡 閱讀:2988 作者:酥心糖 欄目:云計算

此篇博文istio相關介紹和測試用例來源于網絡,這里結合自己配置加以整理。

istio 介紹

官方中文參考文檔

官方英文參考文檔

服務網格(Service Mesh)這個術語通常用于描述構成這些應用程序的微服務網絡以及應用之間的交互。隨著規模和復雜性的增長,服務網格越來越難以理解和管理。它的需求包括服務發現、負載均衡、故障恢復、指標收集和監控以及通常更加復雜的運維需求,例如 A/B 測試、金絲雀發布、限流、訪問控制和端到端認證等。

Istio 提供了一個完整的解決方案,通過為整個服務網格提供行為洞察和操作控制來滿足微服務應用程序的多樣化需求。

使用istio的目標

Istio 提供一種簡單的方式來為已部署的服務建立網絡,該網絡具有負載均衡、服務間認證、監控等功能,只需要對服務的代碼進行一點或不需要做任何改動。想要讓服務支持 Istio,只需要在您的環境中部署一個特殊的 sidecar 代理,使用 Istio 控制平面功能配置和管理代理,攔截微服務之間的所有網絡通信:

  • HTTP、gRPC、WebSocket 和 TCP 流量的自動負載均衡。

  • 通過豐富的路由規則、重試、故障轉移和故障注入,可以對流量行為進行細粒度控制。

  • 可插入的策略層和配置 API,支持訪問控制、速率限制和配額。

  • 對出入集群入口和出口中所有流量的自動度量指標、日志記錄和跟蹤。

  • 通過強大的基于身份的驗證和授權,在集群中實現安全的服務間通信。

Istio 旨在實現可擴展性,滿足各種部署需求。

istio的核心功能

流量管理: 通過簡單的規則配置和流量路由,您可以控制服務之間的流量和 API 調用。
通信安全: Istio 的安全功能使開發人員可以專注于應用程序級別的安全性。Istio 提供底層安全通信信道,并大規模管理服務通信的認證、授權和加密。
監控功能: 通過 Istio 的監控功能,可以真正了解服務性能如何影響上游和下游的功能,而其自定義儀表板可以提供對所有服務性能的可視性,并讓您了解該性能如何影響您的其他進程。
跨平臺: Istio 是獨立于平臺的,旨在運行在各種環境中,包括跨云、內部部署、Kubernetes、Mesos 等。
集成和定制: 策略執行組件可以擴展和定制,以便與現有的 ACL、日志、監控、配額、審計等方案集成。

系統架構

Istio 服務網格邏輯上分為數據平面和控制平面。

  • 數據平面由一組以 sidecar 方式部署的智能代理(Envoy)組成。這些代理可以調節和控制微服務及 Mixer 之間所有的網絡通信。

  • 控制平面負責管理和配置代理來路由流量。此外控制平面配置 Mixer 以實施策略和收集遙測數據。
    Istio 服務部署
組件介紹

Istio 使用 Envoy 代理的擴展版本,Envoy 是以 C++ 開發的高性能代理,用于調解服務網格中所有服務的所有入站和出站流量。Envoy 的許多內置功能被 istio 發揚光大,例如:

  • 動態服務發現
  • 負載均衡
  • TLS 終止
  • HTTP/2 & gRPC 代理
  • 熔斷器
  • 健康檢查、基于百分比流量拆分的灰度發布
  • 故障注入
  • 豐富的度量指標

Envoy 被部署為 sidecar,和對應服務在同一個 Kubernetes pod 中。

Mixer 是一個獨立于平臺的組件,負責在服務網格上執行訪問控制和使用策略,并從 Envoy 代理和其他服務收集遙測數據。代理提取請求級屬性,發送到 Mixer 進行評估。

Pilot 為 Envoy sidecar 提供服務發現功能,為智能路由(例如 A/B 測試、金絲雀部署等)和彈性(超時、重試、熔斷器等)提供流量管理功能。它將控制流量行為的高級路由規則轉換為特定于 Envoy 的配置,并在運行時將它們傳播到 sidecar。

Citadel 通過內置身份和憑證管理可以提供強大的服務間和最終用戶身份驗證。可用于升級服務網格中未加密的流量,并為運維人員提供基于服務標識而不是網絡控制的強制執行策略的能力。從 0.5 版本開始,Istio 支持基于角色的訪問控制,以控制誰可以訪問您的服務。

Galley 代表其他的 Istio 控制平面組件,用來驗證用戶編寫的 Istio API 配置。隨著時間的推移,Galley 將接管 Istio 獲取配置、 處理和分配組件的頂級責任。它將負責將其他的 Istio 組件與從底層平臺(例如 Kubernetes)獲取用戶配置的細節中隔離開來。

Istio 部署

提示:在Minikube中運行需要至少8G內存和4核CPU。

參考文檔:https://thenewstack.io/tutorial-blue-green-deployments-with-kubernetes-and-istio

0. 確認K8S環境配置

如果要成功部署istio,需要給kube-apiserver添加MutatingAdmissionWebhook,ValidatingAdmissionWebhook的參數,成功運行istio的kube-apiserver配置如下:

[Unit]
Description=Kubernetes API Server
Documentation=https://github.com/GoogleCloudPlatform/kubernetes
After=network.target

[Service]
ExecStart=/opt/kubernetes/bin/kube-apiserver \
  --enable-admission-plugins=MutatingAdmissionWebhook,ValidatingAdmissionWebhook,NamespaceLifecycle,LimitRanger,ServiceAccount,DefaultStorageClass,ResourceQuota,NodeRestriction \
  --bind-address=192.168.20.31 \
  --insecure-bind-address=127.0.0.1 \
  --authorization-mode=Node,RBAC \
  --runtime-config=rbac.authorization.k8s.io/v1 \
  --kubelet-https=true \
  --anonymous-auth=false \
  --basic-auth-file=/opt/kubernetes/ssl/basic-auth.csv \
  --enable-bootstrap-token-auth \
  --token-auth-file=/opt/kubernetes/ssl/bootstrap-token.csv \
  --service-cluster-ip-range=10.1.0.0/16 \
  --service-node-port-range=20000-40000 \
  --tls-cert-file=/opt/kubernetes/ssl/kubernetes.pem \
  --tls-private-key-file=/opt/kubernetes/ssl/kubernetes-key.pem \
  --client-ca-file=/opt/kubernetes/ssl/ca.pem \
  --service-account-key-file=/opt/kubernetes/ssl/ca-key.pem \
  --requestheader-client-ca-file=/opt/kubernetes/ssl/ca.pem \
  --requestheader-allowed-names= \
  --requestheader-extra-headers-prefix="X-Remote-Extra-" \
  --requestheader-group-headers=X-Remote-Group \
  --requestheader-username-headers=X-Remote-User \
  --proxy-client-cert-file=/opt/kubernetes/ssl/metrics-server.pem \
  --proxy-client-key-file=/opt/kubernetes/ssl/metrics-server-key.pem \
  --enable-aggregator-routing=true \
  --runtime-config=api/all=true  \
  --etcd-servers=http://192.168.20.31:2379,http://192.168.20.32:2379,http://192.168.20.33:2379 \
  --enable-swagger-ui=true \
  --allow-privileged=true \
  --audit-log-maxage=30 \
  --audit-log-maxbackup=3 \
  --audit-log-maxsize=100 \
  --audit-log-path=/opt/kubernetes/log/api-audit.log \
  --event-ttl=1h \
  --v=2 \
  --logtostderr=false \
  --log-dir=/opt/kubernetes/log
Restart=on-failure
RestartSec=5
Type=notify
LimitNOFILE=65536

[Install]
WantedBy=multi-user.target

確認Metrics Server成功安裝,并正常運行:

# kubectl  get apiservices |grep metrics-server
v1beta1.metrics.k8s.io                  kube-system/metrics-server   True        5d

# kubectl get apiservices v1beta1.metrics.k8s.io -o yaml

apiVersion: apiregistration.k8s.io/v1
kind: APIService
metadata:
  creationTimestamp: 2018-11-07T06:23:17Z
  name: v1beta1.metrics.k8s.io
  resourceVersion: "747856"
  selfLink: /apis/apiregistration.k8s.io/v1/apiservices/v1beta1.metrics.k8s.io
  uid: 9d638462-e255-11e8-a817-000c29550ccc
spec:
  group: metrics.k8s.io
  groupPriorityMinimum: 100
  insecureSkipTLSVerify: true
  service:
    name: metrics-server
    namespace: kube-system
  version: v1beta1
  versionPriority: 100
status:
  conditions:
  - lastTransitionTime: 2018-11-12T09:21:46Z
    message: all checks passed
    reason: Passed
    status: "True"
    type: Available

# kubectl  top node                 # k8s 1.12版本默認會使用metrics api
NAME            CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%   
192.168.20.32   580m         28%    2263Mi          61%       
192.168.20.33   381m         19%    2317Mi          63% 
1.下載istio

執行如下命令,會下載安裝包并自動解壓縮:

curl -L https://git.io/getLatestIstio | sh -

進入 Istio 包目錄。例如,假設這個包是 istio-1.1.0.0:

cd istio-1.1.0

安裝目錄中包含:

  • 在 install/ 目錄中包含了 Kubernetes 安裝所需的 .yaml 文件
  • samples/ 目錄中是示例應用
  • istioctl 客戶端文件保存在 bin/ 目錄之中。istioctl 的功能是手工進行 Envoy Sidecar 的注入,以及對路由規則、策略的管理
  • istio.VERSION 配置文件

添加bin目錄到系統的環境變量,或者將bin/istioctl文件拷貝到/usr/bin ,這樣在使用istioctl命令時就更加方便了:

export PATH=$PWD/bin:$PATH
2. 安裝istio

安裝istio的自定義資源(CRD):

kubectl apply -f install/kubernetes/helm/istio/templates/crds.yaml

由于是在沒有Rancher和云供應商的環境中安裝istio,沒有LoadBalancer的支持,所以我們需要將istio-1.0.3/install/kubernetes/istio-demo.yam 中的LoadBalancer關鍵字修改為 NodePort:

apiVersion: v1
kind: Service
metadata:
  name: istio-ingressgateway
  namespace: istio-system
  annotations:
  labels:
    chart: gateways-1.0.3
    release: istio
    heritage: Tiller
    app: istio-ingressgateway
    istio: ingressgateway
spec:
  type: LoadBalancer                # 將此處的LoadBalancer 修改為 NodePort
  selector:
    app: istio-ingressgateway
    istio: ingressgateway
  ports:
    -
      name: http2
      nodePort: 31380
      port: 80
      targetPort: 80
    -
      name: https
      nodePort: 31390
      port: 443

用如下命令安裝不啟用 Sidecar 間雙向 TLS 認證的 Istio:

kubectl apply -f install/kubernetes/istio-demo.yaml

執行這個文件之后,我們會發現已經安裝了多個服務和pod,并且創建了istio-system的命名空間:

[root@k8s-node-1 ~]# kubectl  get pod -n istio-system
NAME                                     READY   STATUS      RESTARTS   AGE
grafana-546d9997bb-2z8nj                 1/1     Running     0          4h5m
istio-citadel-6955bc9cb7-b4jm4           1/1     Running     0          4h5m
istio-cleanup-secrets-9rm4c              0/1     Completed   0          4h5m
istio-egressgateway-7dc5cbbc56-gccmr     1/1     Running     0          4h5m
istio-galley-545b6b8f5b-pwckj            1/1     Running     0          3h8m
istio-grafana-post-install-stm7q         0/1     Completed   0          4h5m
istio-ingressgateway-7958d776b5-kf4xf    1/1     Running     0          4h5m
istio-pilot-567dd97ddc-mnmhg             2/2     Running     0          4h5m
istio-policy-5c689f446f-82lbn            2/2     Running     0          4h5m
istio-policy-5c689f446f-jl4lh            2/2     Running     1          102m
istio-policy-5c689f446f-s4924            2/2     Running     0          3m14s
istio-security-post-install-cgqtr        0/1     Completed   0          4h5m
istio-sidecar-injector-99b476b7b-4twb2   1/1     Running     0          4h5m
istio-telemetry-55d68b5dfb-ftlbl         2/2     Running     0          4h5m
istio-telemetry-55d68b5dfb-l8xk6         2/2     Running     0          3h7m
istio-telemetry-55d68b5dfb-t5kdz         2/2     Running     1          3h8m
istio-telemetry-55d68b5dfb-zgljm         2/2     Running     0          3h8m
istio-telemetry-55d68b5dfb-zxg7q         2/2     Running     1          3h8m
istio-tracing-6445d6dbbf-92876           1/1     Running     0          4h5m
prometheus-65d6f6b6c-bpk8q               1/1     Running     1          4h5m
servicegraph-57c8cbc56f-f92rs            1/1     Running     17         4h5m

[root@k8s-node-1 ~]# kubectl  get svc -n istio-system
NAME                     TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)                                                                                                                   AGE
grafana                  NodePort    10.1.157.231   <none>        3000:28271/TCP                                                                                                            4h7m
istio-citadel            ClusterIP   10.1.103.109   <none>        8060/TCP,9093/TCP                                                                                                         4h7m
istio-egressgateway      ClusterIP   10.1.171.122   <none>        80/TCP,443/TCP                                                                                                            4h7m
istio-galley             ClusterIP   10.1.60.32     <none>        443/TCP,9093/TCP                                                                                                          4h7m
istio-ingressgateway     NodePort    10.1.105.144   <none>        80:31380/TCP,443:31390/TCP,31400:31400/TCP,15011:39182/TCP,8060:21878/TCP,853:35905/TCP,15030:22762/TCP,15031:20989/TCP   4h7m
istio-pilot              ClusterIP   10.1.28.6      <none>        15010/TCP,15011/TCP,8080/TCP,9093/TCP                                                                                     4h7m
istio-policy             ClusterIP   10.1.208.196   <none>        9091/TCP,15004/TCP,9093/TCP                                                                                               4h7m
istio-sidecar-injector   ClusterIP   10.1.31.204    <none>        443/TCP                                                                                                                   4h7m
istio-telemetry          ClusterIP   10.1.178.158   <none>        9091/TCP,15004/TCP,9093/TCP,42422/TCP                                                                                     4h7m
jaeger-agent             ClusterIP   None           <none>        5775/UDP,6831/UDP,6832/UDP                                                                                                4h7m
jaeger-collector         ClusterIP   10.1.63.111    <none>        14267/TCP,14268/TCP                                                                                                       4h7m
jaeger-query             ClusterIP   10.1.235.64    <none>        16686/TCP                                                                                                                 4h7m
prometheus               NodePort    10.1.235.55    <none>        9090:28729/TCP                                                                                                            4h7m
servicegraph             ClusterIP   10.1.30.255    <none>        8088/TCP                                                                                                                  4h7m
tracing                  ClusterIP   10.1.114.120   <none>        80/TCP                                                                                                                    4h7m
zipkin                   ClusterIP   10.1.212.242   <none>        9411/TCP                                                                                                                  4h7m
3.標記命名空間

為了對k8s中的各個命名空間進行監控和流量處理,需要對每個命名空間進行 Envoy 容器注入(確認Istio-sidecar-injector正常啟動):

 kubectl label namespace <namespace> istio-injection=enabled

 EG:

 kubectl label namespace default istio-injection=enabled

如果要取消標記,使用如下命令:

 kubectl label namespace default istio-injection-

理解原理:
istio提供了缺省的配置,會在帶有istio-injection=enabled標簽的命名空間中選擇pod,添加一個istio-proxy的容器,使用如下命令可以編輯目標命名空間的范圍:

kubectl edit mutatingwebhookconfiguration istio-sidecar-injector

istio-system 命名空間中的 ConfigMap istio-sidecar-injector 中包含了缺省的注入策略以及 Sidecar 的注入模板。

有兩種注入策略:
disabled: Sidecar 注入器缺省不會向 Pod 進行注入。在 Pod 模板中加入 sidecar.istio.io/inject 注解并賦值為 true 才能啟用注入。
enabled: Sidecar 注入器缺省會對 Pod 進行注入。在 Pod 模板中加入 sidecar.istio.io/inject 注解并賦值為 false 就會阻止對這一 Pod 的注入

4.查看相關服務

這里使用jsonpath工具查看istio-ingressgateway的外部服務端口:

kubectl  -n istio-system get service istio-ingressgateway -o jsonpath='{.spec.ports[?(@.name=="http2")].nodePort}'

查看grafana的外部映射端口,此端口上的服務展示了當前集群的監控數據:

 kubectl  -n istio-system get service grafana -o jsonpath='{.spec.ports[?(@.name=="http")].nodePort}'

查看prometheus服務的端口:

 kubectl  -n istio-system get service prometheus -o yaml|grep nodePort

所有有UI界面的外部端口都可以通過瀏覽器采用 ip:端口 的方式正常訪問。

如果在默認的grafana模板中,沒有正常的展示出數據,可以查看各個節點的時鐘是否同步,通過在查看網頁URL的請求在prometheus執行,看是否能得到數據。

可以按照官方提供的bookinfo示例對istio進行測試:https://istio.io/docs/examples/bookinfo/

采用分流方式部署一個應用的兩個版本

創建服務應用

這里使用一個示例文件,部署兩個不同版本的nginx服務,對這兩個版本分流。創建myapp.yaml:

apiVersion: v1
kind: Service
metadata:
  name: myapp
  labels:
    app: myapp
spec:
  type: ClusterIP
  ports:
  - port: 80
    name: http
  selector:
    app: myapp
---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: myapp-v1
spec:
  replicas: 1
  template:
    metadata:
      labels:
        app: myapp
        version: v1
    spec:
      containers:
      - name: myapp
        image: janakiramm/myapp:v1
        imagePullPolicy: IfNotPresent
        ports:
        - containerPort: 80
---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: myapp-v2
spec:
  replicas: 1
  template:
    metadata:
      labels:
        app: myapp
        version: v2
    spec:
      containers:
      - name: myapp
        image: janakiramm/myapp:v2
        imagePullPolicy: IfNotPresent
        ports:
        - containerPort: 80

這個文件中,構建了簡單的基于Nginx的Docker鏡像來作為應用案例:janakiramm/myapp:v1和janakiramm/myapp:v2。部署完成之后,這兩個版本的Nginx會分別顯示藍色或者綠色背景的靜態頁面。

執行:

kubectl apply -f myapp.yaml

成功創建后,使用port-forward 命令映射出本地端口,測試是否能成功訪問:

kubectl port-forward deployment/myapp-v1  8081:80

curl 127.0.0.1:8081
創建網關

這里分別創建了網關(Gateway)、目的地規則(DestinationRule)、虛擬服務(VirtualService)到app-gateway.yaml文件中:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: app-gateway
spec:
  selector:
    istio: ingressgateway 
  servers:
  - port:
      number: 80
      name: http
      protocol: HTTP
    hosts:
    - "*"
---
apiVersion: networking.istio.io/v1alpha3
kind: DestinationRule
metadata:
  name: myapp
spec:
  host: myapp
  subsets:
  - name: v1
    labels:
      version: v1
  - name: v2
    labels:
      version: v2
---      
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: myapp
spec:
  hosts:
  - "*"
  gateways:
  - app-gateway
  http:
    - route:
      - destination:
          host: myapp
          subset: v1
        weight: 50
      - destination:
          host: myapp
          subset: v2
        weight: 50        
---
  • Istio網關描述了在網格邊界的負載均衡器如何處理進出的HTTP/TCP連接。著重描述了哪些端口應該被暴露出來,有哪些協議可以用,負載均衡器的SNI配置等。這里默認指向了Ingress網關。
  • Istio目的地規則定義了流量被路由以后訪問服務的規則。
  • 虛擬服務定義了當主機獲得地址以后一系列流量的路由規則。每一條路由規則都定義了某個基于特定協議的流量的匹配規則。當一個流量被匹配了,基于版本,它會被發送到相關的目標服務。

執行:

kubectl apply -f app-gateway.yaml

可以通過istio-ingressgateway的端口來查看此服務:

kubectl  -n istio-system get service istio-ingressgateway -o jsonpath='{.spec.ports[?(@.name=="http2")].nodePort}'

通過訪問此端口可以直接訪問到應用服務,可以發現當我們不斷請求時,會根據之前設置的權重對v1和v2進行輪詢。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

东乡族自治县| 安图县| 南昌市| 靖安县| 渝中区| 阿图什市| 张掖市| 淮滨县| 通化县| 桓台县| 菏泽市| 九江市| 宜川县| 瑞金市| 正镶白旗| 拉萨市| 天长市| 徐闻县| 策勒县| 靖宇县| 遂昌县| 栾川县| 洪湖市| 南澳县| 溆浦县| 怀宁县| 邳州市| 启东市| 页游| 石泉县| 钟山县| 鹿邑县| 石景山区| 霸州市| 怀来县| 普定县| 乐清市| 华亭县| 潜山县| 清远市| 岳普湖县|