開發一個operator擴展kubernetes的能力

正文

Operator 是 CoreOS 推出的旨在簡化複雜有狀態應用管理,它是一個感知應用狀態的控制器,經過擴展 Kubernetes API 來自動建立、管理和配置應用實例。 Operator 基於 CRD 擴展資源對象,並經過控制器來保證應用處於預期狀態。前端

  • 經過 Kubernetes API 觀察集羣的當前狀態;
  • 分析當前狀態與指望狀態的差異;
  • 調用k8s API消除這些差異。

爲何使用crd

Kubernetes 目前已經成爲了集羣調度領域最煊赫一時的開源項目之一 。其內置的 controller通常能夠知足大多數使用場景,但對於不少定製化需求,其表達能力仍是有限的。所以 Kubernetes 支持 Custom Resource Definition,也就是咱們一直提到的 CRD。經過這一特性,用戶能夠本身定義資源類型,Kubernetes 會將其視爲資源的一種,對其提供像內置資源對象同樣的支持,這樣的實現更加原生。CRD能夠大大提升 Kubernetes 的擴展能力 ,以更原生的方式實現定製化要求。java

operator設計初衷

咱們在管理應用時,會遇到無狀態和有狀態的應用。管理無狀態的應用是相對來講比較簡單的,可是有狀態的應用則比較複雜。Operator 的設計旨在簡化複雜有狀態應用管理,其經過CRD擴展 Kubernetes API 來自動建立、管理和配置應用實例。其本質上是針對特定的場景去作有狀態服務,或者說針對複雜應用場景去簡化其運維管理的工具。node

Operator以deployment的形式部署到K8S中。部署完這個Operator以後,想要部署一個集羣,其實很方便。由於不須要再去管理這個集羣的配置信息了,只須要建立一個CRD,指定建立多少個節點,須要什麼版本,Operator會監聽該資源對象,建立出符合配置要求的集羣,從而大大簡化運維的難度和成本。python

開發不一樣中間件operator流程大致相同,下面以redis operator進行說明:linux

首先準備

  • 須要一個資源對象定義(CRD)yaml,operator代碼中會根據該yaml去組裝並建立CRD。
apiVersion: apiextensions.k8s.io/v1beta1
kind: CustomResourceDefinition
metadata:
  name: redisclusters.redis.middleware.hc.cn
spec:
  group: redis.middleware.hc.cn
  version: v1alpha1
  scope: Namespaced
  names:
    kind: RedisCluster
    singular: rediscluster
    listKind: RedisClusterList
    plural: redisclusters
    shortNames:
    - rec複製代碼

後面建立的該CRD類型的資源對象(CR),其kind爲該yaml描述中spec.names.kind的值。CR至關於CRD的具體實現。(不一樣的operator,CRD、CR定義不一樣);git

  • 準備一個CR yaml文件,後面operator代碼要根據該yaml結構在types.go中定義結構體。redis的CR yaml以下。operator最終會監聽該CR,解析裏面定義的節點數、版本號等參數,驅動作一些事情。
apiVersion: redis.middleware.hc.cn/v1alpha1
kind: RedisCluster
metadata: 
  name: example000-redis-cluster
  namespace: kube-system
spec:
  # 表明redis集羣的個數
  replicas: 7
  # 表明是否進入維修狀態
  pause: true
  # 是否刪除crd以及redis集羣
  finalizers: foreground
  # 鏡像地址
  repository: library/redis
  # 鏡像版本,便於後續多版本特化支持
  version: 3.2.8
  #redis集羣升級策略
  updateStrategy:
    # 升級類型爲AutoReceive(自動分配,不用AssignStrategies), AssignReceive(指定值分配,須要用AssignStrategies)
    type: AssignReceive
    pipeline: "100"
    assignStrategies:
       - 
        slots: 2000
        fromReplicas: nodeId1
       - 
        # 從nodeId3,nodeId4一共分配1000個卡槽
        slots: 1000 
        # 多個nodeId用逗號分隔
        fromReplicas: nodeId3,nodeId4
  # redis 實例配置詳情
  pod:
    # 標籤管理:map[string][string]
  - labels:
      key: value
    # 備註管理:map[string][string]
    annotations:
      key: value
    # 環境變量管理
    env:
    - name: tony
      value: aa
    - name: MAXMEMORY
      value: 2gb    
    # 親和性管理
    affinity: 
      nodeAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
        nodeSelectorTerms:
        - matchExpressions:
          - key: HC_Status
            operator: In
            values:
            - C
      podAntiAffinity: {}
    # 資源管理
    resources:
      limits: 
        #cpu, memory, storage,ephemeral-storage
        cpu: "2"
        memory: 4Gi
      requests:
        cpu: "1"
        memory: 2Gi
    #statefulset更新模式
    updateStrategy:
      type: RollingUpdate
    # 支持掛載形式: hostPath(不須要persistentVolumeClaimName),nfs(須要persistentVolumeClaimName)
    volumes:
      type: nfs
      persistentVolumeClaimName: pvcName
    # 配置文件模板名
    configmap: name
    # 監控鏡像
    monitorImage: string
    # 初始化鏡像
    initImage: string
    # 中間件容器鏡像
    middlewareImage: string

status:
  #當前statefulset replicas狀況
  replicas: 6
  # 集羣階段,None,Creating,Running,Failed,Scaling
  # None 或 「」, 就是表明該CRD剛建立
  # Creating 表明等待redis資源對象建立完畢(operator 發現CRD建立,建立資源對象,更新狀態)
  # Running 表明已進行初始化操做(在Creating以後,發現實例起來完畢,初始化操做)
  # Failed 表明着某異常故障
  # ---------------------
  # Scaling 表明着實例不一致(用戶修改實例,operator發現實例不一致,更新statefulset,更新狀態)
  # Upgrading 表明着升級中
  # ---------------------
  phase: Creating
  # 異常問題解釋
  reason: "異常問題"
  conditions:
  - name: redis-cluster-0
    instance: 10.168.78.90:6379
    type: master
    masterNodeId: allkk111snknkcs
    nodeId: allkk111snknkcs
    domainName: redis-cluster-0.redis-cluster.kube-system.svc.cluster.local
    slots: 1024-2048
    hostname: docker-vm-3
    hostIP: 192.168.26.122
    # true or flase 
    status: "True"
    reason: xxxx
    message: xxxx
    lastTransitionTime: 2019-03-25T03:10:29Z複製代碼

代碼生成

主要生成符合k8s風格的代碼:github

  • 生成風格統一的DeepCopy(CustomResources必須實現runtime.Object接口——必須實現DeepCopy方法);
  • clientset(自定義資源對象的客戶端);
  • listers(用來提供對於 GET/List 資源對象的請求提供只讀緩存層);
  • informers(List/Get 資源對象,還能夠監聽事件並觸發回調函數。

結構體定義到$ProjectName/pkg/apis/{中間件名稱}/{版本號}/types.go裏:須要編寫的一個go文件面試

types.go中結構體定義根據上面準備的CR yaml定義。以下,其中須要注意的是,必需要給結構體加如下兩個註解:redis

  • // +k8s:deepcopy-gen:interfaces=k8s.io/apimachinery/pkg/runtime.Object註解表示:爲該類型生成 func (t T) DeepCopy() T方法。API類型都須要實現深拷貝;
  • // +genclient註解表示爲當前類型生成客戶端。
    type.go中部分結構體定義

三、編寫$ProjectName/pkg/apis/{中間件名稱}/{版本號}/doc.go,其中定義全局tag:// +k8s:deepcopy-gen=package,表示爲包中任何類型生成深拷貝方法。package指定版本。spring

四、編寫$ProjectName/pkg/apis/{中間件名稱}/{版本號}/register.go,經過scheme註冊自定義CR類型,這樣當和API Server通訊的時候就可以處理該類型;(不一樣operator須要修改SchemeGroupVersion的Group和Version以及addKnownTypes中註冊的結構體)

package v1alpha1

import (
    "harmonycloud.cn/middleware-operator-manager/pkg/apis/redis"
    v1 "k8s.io/apimachinery/pkg/apis/meta/v1"
    "k8s.io/apimachinery/pkg/runtime"
    "k8s.io/apimachinery/pkg/runtime/schema"
)

// SchemeGroupVersion is group version used to register these objects
var SchemeGroupVersion = schema.GroupVersion {Group: redis.GroupName, Version: "v1alpha1"}

// Kind takes an unqualified kind and returns back a Group qualified GroupKind
func Kind(kind string) schema.GroupKind {
    return SchemeGroupVersion.WithKind(kind).GroupKind()
}

// Resource takes an unqualified resource and returns a Group qualified GroupResource
func Resource(resource string) schema.GroupResource {
    return SchemeGroupVersion.WithResource(resource).GroupResource()
}

var (
    SchemeBuilder = runtime.NewSchemeBuilder(addKnownTypes)
    AddToScheme   = SchemeBuilder.AddToScheme
)

//註冊CR對象
// Adds the list of known types to Scheme.
func addKnownTypes(scheme *runtime.Scheme) error {
    scheme.AddKnownTypes(SchemeGroupVersion,
        &RedisCluster{},
        &RedisClusterList{},
    )
    v1.AddToGroupVersion(scheme, SchemeGroupVersion)
    return nil
}複製代碼

五、編寫$ProjectName/pkg/apis/{中間件名稱}/register.go,其中定義了上一步用到的GroupName;

六、使用kubernetes提供的code-generator代碼生成器工具,根據定義好的CR結構體對象生成風格統一的DeepCopy(CustomResources必須實現runtime.Object接口——必須實現DeepCopy方法)、clientset(自定義資源對象的客戶端)、listers(用來提供對於 GET/List 資源對象的請求提供只讀緩存層)、informers(List/Get 資源對象,還能夠監聽事件並觸發回調函數)代碼。

code-generator地址以下,下載後放到$GOPATH/src/k8s.io/目錄下:

github.com/kubernetes/…

而後執行如下命令,harmonycloud.cn/middleware-operator-manager/pkg/clients表示最終生成的clientset、informers、listers代碼目錄,最後的redis:v1alpha1須要改爲{中間件名稱}:{版本}

./generate-groups.sh all "harmonycloud.cn/middleware-operator-manager/pkg/clients" "harmonycloud.cn/middleware-operator-manager/pkg/apis" "redis:v1alpha1"複製代碼

執行後將生成如下代碼:生成的代碼

生成代碼時可能遇到的坑,請參考:k8s自定義資源類型代碼自動生成:www.jianshu.com/p/cbeb51325…

參考:

經過自定義資源擴展Kubernetes

Extending Kubernetes: Create Controllers for Core and Custom Resources

operator主流程代碼開發

入口首先operator的入口爲operator-manager.go裏的main函數。

package main

import (
    "fmt"
    "github.com/spf13/pflag"
    "harmonycloud.cn/middleware-operator-manager/cmd/operator-manager/app"
    "harmonycloud.cn/middleware-operator-manager/cmd/operator-manager/app/options"
    "k8s.io/apiserver/pkg/util/flag"
    "k8s.io/apiserver/pkg/util/logs"
    "k8s.io/kubernetes/pkg/version/verflag"
    "os"
)

func main() {
    //參數初始化配置
    s := options.NewOMServer()
    s.AddFlags(pflag.CommandLine, app.KnownOperators())

    flag.InitFlags()
    //日誌初始化
    logs.InitLogs()
    defer logs.FlushLogs()

    verflag.PrintAndExitIfRequested()
    //進行operator初始化
    if err := app.Run(s); err != nil {
        fmt.Fprintf(os.Stderr, "%v\n", err)
        os.Exit(1)
    }
}複製代碼

main函數中首先進行對參數的初始化,其中主要包括:operator多實例時的選主配置;事件同步時間;集羣建立、升級超時時間;是否啓用leader功能;是否開啓pprof分析功能等,代碼在options.go中。

app.Run(s)根據參數配置進行operator初始化:

  • 首先根據參數配置,構建默認客戶端(操做k8s已有資源對象)、leader選舉客戶端、操做擴展資源客戶端等;
  • 以後建立CRD資源對象定義,後續建立的CR對象都是該CRD的實例;
  • 註冊健康檢查接口、根據啓動參數配置決定是否開啓pprof分析接口功能;
  • 建立recorder,主要用於記錄events(k8s資源),用於操做審計;
  • 定義Run函數,進行啓動operator,選舉結果的leader執行該函數;
  • 判斷是否開啓leader選舉功能;
  • 建立leader選舉的資源鎖,目前資源鎖實現了configmaps和endpoints方式,具體代碼在client-go下,默認使用endpoints方式;
  • 啓動leader選舉機制,爭搶到鎖,選舉爲leader的實例執行OnStartedLeading,即上面定義的Run函數;失去鎖的實例執行OnStoppedLeading函數。
// Run runs the OMServer.  This should never exit.
func Run(s *options.OperatorManagerServer) error {
    // To help debugging, immediately log version
    glog.Infof("Version: %+v", version.Get())

    //根據參數配置,構建默認客戶端(操做k8s已有資源對象)、leader選舉客戶端、操做擴展資源客戶端等
    kubeClient, leaderElectionClient, extensionCRClient, kubeconfig, err := createClients(s)

    if err != nil {
        return err
    }

    //根據提早準備好的CRD yaml文件,構建並建立CRD
    err = CreateRedisClusterCRD(extensionCRClient)
    if err != nil {
        if errors.IsAlreadyExists(err) {
            glog.Infof("redis cluster crd is already created.")
        } else {
            fmt.Fprint(os.Stderr, err)
            return err
        }
    }

    //註冊健康檢查接口、根據啓動參數配置決定是否開啓pprof分析接口功能
    go startHTTP(s)

    //建立recorder,主要用於記錄events(k8s資源)
    recorder := createRecorder(kubeClient)

    //定義Run函數,進行啓動operator,選舉結果的leader執行該函數
    run := func(stop <-chan struct{}) {
        operatorClientBuilder := operator.SimpleOperatorClientBuilder{
            ClientConfig: kubeconfig,
        }

        rootClientBuilder := controller.SimpleControllerClientBuilder{
            ClientConfig: kubeconfig,
        }

        otx, err := CreateOperatorContext(s, kubeconfig, operatorClientBuilder, rootClientBuilder, stop)
        if err != nil {
            glog.Fatalf("error building controller context: %v", err)
        }

        otx.InformerFactory = informers.NewSharedInformerFactory(kubeClient, time.Duration(s.ResyncPeriod)*time.Second)

        if err := StartOperators(otx, NewOperatorInitializers()); err != nil {
            glog.Fatalf("error starting operators: %v", err)
        }

        otx.RedisInformerFactory.Start(otx.Stop)
        otx.InformerFactory.Start(otx.Stop)
        close(otx.InformersStarted)

        select {}
    }

    //判斷是否開啓leader選舉功能
    if !s.LeaderElection.LeaderElect {
        run(nil)
        panic("unreachable")
    }

    id, err := os.Hostname()
    if err != nil {
        return err
    }

    //建立leader選舉的資源鎖,目前資源鎖實現了configmaps和endpoints方式,具體代碼在client-go下,默認使用endpoints方式
    rl, err := resourcelock.New(s.LeaderElection.ResourceLock,
        "kube-system",
        "middleware-operator-manager",
        leaderElectionClient.CoreV1(),
        resourcelock.ResourceLockConfig{
            Identity:      id,
            EventRecorder: recorder,
        })
    if err != nil {
        glog.Fatalf("error creating lock: %v", err)
    }

    //啓動leader選舉機制,爭搶到鎖,選舉爲leader的實例執行OnStartedLeading,即上面定義的Run函數;失去鎖的實例執行OnStoppedLeading函數
    leaderelection.RunOrDie(leaderelection.LeaderElectionConfig{
        Lock:          rl,
        LeaseDuration: s.LeaderElection.LeaseDuration.Duration,
        RenewDeadline: s.LeaderElection.RenewDeadline.Duration,
        RetryPeriod:   s.LeaderElection.RetryPeriod.Duration,
        Callbacks: leaderelection.LeaderCallbacks{
            OnStartedLeading: run,
            OnStoppedLeading: func() {
                glog.Fatalf("leaderelection lost")
            },
        },
    })
    panic("unreachable")
}複製代碼

CreateRedisClusterCRD方法根據上面準備的CRD yaml文件構建並建立CRD,只有建立了該CRD,redisCluster資源對象才能夠被建立。

func CreateRedisClusterCRD(extensionCRClient *extensionsclient.Clientset) error {
    //TODO add CustomResourceValidation due to guarantee redis operator work normally,k8s1.12
    crd := &v1beta1.CustomResourceDefinition{
        ObjectMeta: metav1.ObjectMeta{
            Name: "redisclusters." + v1alpha1.SchemeGroupVersion.Group,
        },
        Spec: v1beta1.CustomResourceDefinitionSpec{
            Group:   v1alpha1.SchemeGroupVersion.Group,
            Version: v1alpha1.SchemeGroupVersion.Version,
            Scope:   v1beta1.NamespaceScoped,
            Names: v1beta1.CustomResourceDefinitionNames{
                Kind:       "RedisCluster",
                ListKind:   "RedisClusterList",
                Plural:     "redisclusters",
                Singular:   "rediscluster",
                ShortNames: []string{"rec"},
            },
        },
    }
    _, err := extensionCRClient.ApiextensionsV1beta1().CustomResourceDefinitions().Create(crd)
    return err
}複製代碼

CR的apiVersion爲CRD的spec.Group/spec.Version即生成代碼時register.go中的GroupName和doc.go中的版本號:

apiVersion: redis.middleware.hc.cn/v1alpha1
kind: RedisCluster
metadata: 
  name: example000-redis-cluster
  namespace: kube-system複製代碼

Run函數中主要建立context對象,context裏包含啓動參數options,kubeconfig配置、RedisInformerFactory(監聽CR變化)、InformerFactory(監聽statefulsetset變化)等,進行啓動operator、啓動informer。

run := func(stop <-chan struct{}) {
        operatorClientBuilder := operator.SimpleOperatorClientBuilder{
            ClientConfig: kubeconfig,
        }

        rootClientBuilder := controller.SimpleControllerClientBuilder{
            ClientConfig: kubeconfig,
        }
         //建立context對象,context裏包含啓動參數options,kubeconfig配置、RedisInformerFactory(監聽CR變化)、InformerFactory(監聽statefulsetset變化)等
        otx, err := CreateOperatorContext(s, kubeconfig, operatorClientBuilder, rootClientBuilder, stop)
        if err != nil {
            glog.Fatalf("error building controller context: %v", err)
        }

        //建立InformerFactory
        otx.InformerFactory = informers.NewSharedInformerFactory(kubeClient, time.Duration(s.ResyncPeriod)*time.Second)

        //啓動operator,NewOperatorInitializers()中定義了啓動哪些operator
        if err := StartOperators(otx, NewOperatorInitializers()); err != nil {
            glog.Fatalf("error starting operators: %v", err)
        }
        //啓動RedisInformerFactory
        otx.RedisInformerFactory.Start(otx.Stop)
           //啓動InformerFactory
        otx.InformerFactory.Start(otx.Stop)
        close(otx.InformersStarted)
        //阻塞
        select {}
    }複製代碼

NewOperatorInitializers()中定義了啓動哪些operator(新加operator直接在該方法中加):

func NewOperatorInitializers() map[string]InitFunc {
    controllers := map[string]InitFunc{}
    controllers["rediscluster"] = startRedisClusterController

    return controllers
}複製代碼

CreateOperatorContext函數里根據代碼生成器生成的redis客戶端versionedClient建立了RedisInformerFactory;(根據不一樣operator生成不一樣的客戶端,這裏須要修改client_builder.go中ClientOrDie的返回值類型),最終建立context對象。

func CreateOperatorContext(s *options.OperatorManagerServer, kubeConfig *restclient.Config, operatorClientBuilder operator.OperatorClientBuilder, rootClientBuilder controller.ControllerClientBuilder, stop <-chan struct{}) (OperatorContext, error) {
    versionedClient := operatorClientBuilder.ClientOrDie("middleware-shared-informers")
    sharedInformers := redisInformerFactory.NewSharedInformerFactory(versionedClient, time.Duration(s.ResyncPeriod)*time.Second)

    /*availableResources, err := GetAvailableResources(rootClientBuilder)
    if err != nil {
        return OperatorContext{}, err
    }*/

    otx := OperatorContext{
        kubeConfig:            kubeConfig,
        OperatorClientBuilder: operatorClientBuilder,
        DefaultClientBuilder:  rootClientBuilder,
        RedisInformerFactory:  sharedInformers,
        Options:               *s,
        //AvailableResources: availableResources,
        Stop:             stop,
        InformersStarted: make(chan struct{}),
    }
    return otx, nil
}複製代碼

StartOperators函數啓動全部NewOperatorInitializers中定義的operator,執行startRedisClusterController函數。(不一樣operator執行不一樣的啓動函數)。

startRedisClusterController定義在extensions.go中,用於建立operator、啓動worker協程從隊列中取出(用於處理informer監聽變化的資源對象)進行業務邏輯處理。(新增operator須要在extensions.go中增長對應的start函數)

func startRedisClusterController(otx OperatorContext) (bool, error) {
    //建立redisOperator
    rco, err := redis.NewRedisClusterOperator(
        //註冊RedisInformer回調函數
        otx.RedisInformerFactory.Cr().V1alpha1().RedisClusters(),
         //註冊statefulsetInformer回調函數
        otx.InformerFactory.Apps().V1().StatefulSets(),
        //默認客戶端,用於操做k8s自身資源對象
        otx.DefaultClientBuilder.ClientOrDie("default-kube-client"),
        //代碼生成器生成的客戶端,用於操做CR
        otx.OperatorClientBuilder.ClientOrDie("rediscluster-operator"),
        //kubeconfig配置
        otx.kubeConfig,
        //啓動參數配置
        otx.Options,
    )
    if err != nil {
        return true, fmt.Errorf("error creating rediscluster operator: %v", err)
    }
    //啓動ConcurrentRedisClusterSyncs個worker協程處理變化的資源對象
    go rco.Run(int(otx.Options.ConcurrentRedisClusterSyncs), otx.Stop)
    return true, nil
}複製代碼

NewRedisClusterOperator方法以下,主要建立該operator的結構體,隊列,redisInformer註冊回調函數,statefulsetInformer回調函數的註冊。(不一樣的operator,須要不一樣的Informer、處理業務邏輯的方法)

func NewRedisClusterOperator(redisInformer custominfomer.RedisClusterInformer, stsInformer appsinformers.StatefulSetInformer, kubeClient clientset.Interface, customCRDClient customclient.Interface, kubeConfig *rest.Config, options options.OperatorManagerServer) (*RedisClusterOperator, error) {
    //建立該operator的recorder,記錄events
    eventBroadcaster := record.NewBroadcaster()
    eventBroadcaster.StartLogging(glog.Infof)
    eventBroadcaster.StartRecordingToSink(&v1core.EventSinkImpl{Interface: v1core.New(kubeClient.CoreV1().RESTClient()).Events("")})
 //建立該operator的結構體
    rco := &RedisClusterOperator{
        options:       &options,
        kubeConfig:    kubeConfig,
        defaultClient: kubeClient,
        //extensionCRClient: extensionCRClient,
        customCRDClient: customCRDClient,
        eventRecorder:   eventBroadcaster.NewRecorder(scheme.Scheme, v1.EventSource{Component: "operator-manager"}),
        queue:           workqueue.NewNamedRateLimitingQueue(workqueue.DefaultControllerRateLimiter(), "rediscluster"),
    }

    //redisInformer註冊回調函數,當informer監聽到redis CR資源變化時,調用對應AddFunc、UpdateFunc、DeleteFunc回調函數將CR資源放到queue中
    redisInformer.Informer().AddEventHandler(cache.ResourceEventHandlerFuncs{
        AddFunc:    rco.addRedisCluster,
        UpdateFunc: rco.updateRedisCluster,
        // This will enter the sync loop and no-op, because the RedisCluster has been deleted from the store.
        DeleteFunc: rco.deleteRedisCluster,
    })

    //定義最終處理業務邏輯的函數
    rco.syncHandler = rco.syncRedisCluster
    rco.enqueueRedisCluster = rco.enqueue

    rco.redisClusterInformer = redisInformer.Informer()
    //redisInformer是否已經開始同步事件變化
    rco.redisClusterListerSynced = rco.redisClusterInformer.HasSynced
    //lister提供操做informer中緩存的變化的資源接口
    rco.redisClusterLister = redisInformer.Lister()

     //statefulsetInformer註冊回調函數,當informer監聽到statefulset資源變化時,調用對應AddFunc、UpdateFunc、DeleteFunc回調函數將redis實例的statefulset加入到queue中
    stsInformer.Informer().AddEventHandler(
        cache.ResourceEventHandlerFuncs{
            AddFunc: rco.addStatefulSet,
            UpdateFunc: func(old, cur interface{}) {
                oldSts := old.(*appsv1.StatefulSet)
                curSts := cur.(*appsv1.StatefulSet)
                if oldSts.Status.Replicas != curSts.Status.Replicas {
                    glog.V(4).Infof("Observed updated replica count for StatefulSet: %v, %d->%d", curSts.Name, oldSts.Status.Replicas, curSts.Status.Replicas)
                }
                rco.updateStatefulSet(oldSts, curSts)
            },
            DeleteFunc: rco.deleteStatefulSet,
        },
    )
    rco.stsLister = stsInformer.Lister()
    //statefulsetInformer是否已經開始同步事件變化
    rco.stsListerSynced = stsInformer.Informer().HasSynced

    return rco, nil
}複製代碼

Run函數中等待redis CR資源、statefulset資源對象同步,而後啓動指定個數worker,並永久阻塞,直到stopCh被close(不一樣operator須要修改rco.redisClusterListerSynced爲對應的ListerSynced)

func (rco *RedisClusterOperator) Run(workers int, stopCh <-chan struct{}) {
    defer utilruntime.HandleCrash()
    defer rco.queue.ShutDown()

    glog.Infof("Starting rediscluster operator")
    defer glog.Infof("Shutting down rediscluster operator")

    //等待redis CR資源、statefulset資源對象同步。
    if !controller.WaitForCacheSync("rediscluster", stopCh, rco.redisClusterListerSynced, rco.stsListerSynced) {
        return
    }

    //循環啓動指定個數worker,並永久阻塞,直到stopCh被close
    for i := 0; i < workers; i++ {
        go wait.Until(rco.worker, time.Second, stopCh)
    }

    <-stopCh
}複製代碼

worker方法死循環rco.processNextWorkItem()在隊列Operator中定義的queue中取出變化的資源去處理(不一樣operator有不一樣的業務處理邏輯)

func (rco *RedisClusterOperator) worker() {
    for rco.processNextWorkItem() {
    }
}複製代碼

從informer監聽到資源對象變化,回調函數將資源對象key(namespace/name)放到queue中,到worker取出queue中的key去作處理,處理完成後Done掉key流程圖以下:key處理流程回調函數將資源對象的key加入到queue中,worker從queue中取出key去處理業務,此時key會被放到processing集合中,表示該key正在被處理。worker處理key時若是遇到錯誤,該key會根據重試次數是否大於最大重試次數被加入到rateLimited(能夠限制添加到queue中速度,最終還會被加入到queue)。worker處理key成功後,Forget(key)表示從rateLimited中清除,Done(key)表示key處理完畢,從processing集合中刪除。該代碼以下:

func (rco *RedisClusterOperator) processNextWorkItem() bool {
    key, quit := rco.queue.Get()

    if quit {
        return false
    }

    // Done marks item as done processing, and if it has been marked as dirty again
    // while it was being processed, it will be re-added to the queue for
    // re-processing.
    defer rco.queue.Done(key)

    err := rco.syncHandler(key.(string))
    //加入到rateLimited中、forget(key)
    rco.handleErr(err, key)

    //處理key,主業務邏輯
    go rco.syncHandler(key.(string))

    return true
}複製代碼

-----

開發注意事項

  • 開啓worker時,調用cache.WaitForCacheSync等待緩存開始同步。
    ![WaitForCacheSync等待同步
    ](https://upload-images.jianshu.io/upload_images/9134763-06e2e4bc6b7135d0.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
  • 不要改變原始對象(從lister中取出的對象),而要使用DeepCopy,由於緩存在informer之間共享。
    deepcopy
  • 根據CRD構建Statefulset時,給Statefulset加OwnerReferences,這樣在刪除CRD的時候,能夠設置是否級聯刪除statefulset。
    設置owner

參考:k8s垃圾收集:kubernetes.io/zh/docs/con…

Kubernetes之Garbage Collection:blog.csdn.net/dkfajsldfsd…

調試

本地用IDE--goland調試代碼時,配置以下:1555136612836.png

Run kind:選File;

Files:指定main函數所在文件的全路徑;

Output directory:指定編譯後輸出的二進制文件位置。可輸入。(默認輸出exe格式windows可執行文件)

Run after build:勾選後,編譯完成後運行。

Go tool arguments:填寫-i(用於增量編譯提速)。

Program arguments:用於指定程序啓動參數:

--kubeconfig=D:\SoftwareAndProgram\program\Go\Development\src\harmonycloud.cn\middleware-operator-manager\artifacts\config60 --v=5複製代碼

--kubeconfig指定kubeconfig文件所在全路徑(即k8s集羣master節點的/root/.kube/config),其指定k8s集羣apiserver地址已經訪問時的證書信息。kubeconfig文件

--v指定glog日誌級別,--v=5表示只輸出info小於5和error、warn日誌。

glog.V(4).Infof("Adding RedisCluster %s", rc.Name)
glog.Warningf("-----------redisCluster: %#v--", redisCluster)
glog.Errorf(err.Error())複製代碼

鏡像製做

編譯前提

提早安裝好go語言開發環境,正確設置GOROOT和GOPATH環境變量,要求go1.8.3版本以上

編譯二進制

middleware-operator-manager放在$GOPATH/src/harmonycloud.cn/目錄下,進入到 $GOPATH/src/harmonycloud.cn/middleware-operator-manager/cmd/operator-manager目錄, 最終要生成linux的可執行文件:

  • 若是是在windows上編譯:

打開cmd窗口,進入以上目錄後,執行如下命令:

set GOOS=linux
    go build -a -o operator-manager複製代碼
  • 若是是在linux上編譯:

執行如下命令:

go build -a -o operator-manager複製代碼

等待編譯完成,最終在當前目錄下生成operator-manager可執行文件

鏡像製做

$GOPATH/src/harmonycloud.cn/middleware-operator-manager/artifacts目錄下有Dockerfile文件,基礎鏡像爲busybox

FROM busybox複製代碼
ADD operator-manager /usr/bin/ 
    RUN chmod +x /usr/bin/operator-manager複製代碼

同級目錄下有operator-manager deployment描述文件operator-manager.yaml:

apiVersion: extensions/v1beta1
    kind: Deployment
    metadata:
      generation: 2
      labels:
        app: operator-manager
      name: operator-manager
      namespace: kube-system
    spec:
      replicas: 2
      selector:
        matchLabels:
          app: operator-manager
      strategy:
        rollingUpdate:
          maxSurge: 1
          maxUnavailable: 1
        type: RollingUpdate
      template:
        metadata:
          creationTimestamp: null
          labels:
            app: operator-manager
        spec:
          containers:
          - command:
            - operator-manager
            - --v=5
            - --leader-elect=true
            image: 192.168.26.46/k8s-deploy/operator-manager:v1
            resources:
              limits:
                cpu: 500m
                memory: 512Mi
              requests:
                cpu: 200m
                memory: 512Mi
            imagePullPolicy: Always
            name: operator-manager
            terminationMessagePath: /dev/termination-log
            terminationMessagePolicy: File
          dnsPolicy: ClusterFirst
          restartPolicy: Always
          schedulerName: default-scheduler
          securityContext: {}
          terminationGracePeriodSeconds: 30複製代碼

同級目錄下有build.sh腳本,指定了docker鏡像倉庫地址爲192.168.26.46

#!/bin/bash複製代碼
docker build -f ./Dockerfile -t operator-manager:v1 .
    docker tag operator-manager:v1 192.168.26.46/k8s-deploy/operator-manager:v1
    docker push 192.168.26.46/k8s-deploy/operator-manager:v1
    kubectl apply -f operator-manager.yaml複製代碼

執行該腳本便可以將operator-manager二進制打成鏡像並推送到192.168.26.46倉庫的k8s-deploy項目下: 同時執行了

kubectl apply -f operator-manager.yaml複製代碼

命令建立了operator-manager的deployment對象,完成了部署。

operator高可用

用k8s組件中leader選舉機制實現redis operator組件的高可用,即正常狀況下redis operator組件的多個副本只有一個是處於業務邏輯運行狀態,其它副本則不斷的嘗試去獲取鎖,去競爭leader,直到本身成爲leader。若是正在運行的leader因某種緣由致使當前進程退出,或者鎖丟失,則由其它副本去競爭新的leader,獲取leader繼而執行業務邏輯。

啓動兩個operator-manager實例:啓動了兩個實例

能夠看到只有一個實例operator-manager-86d785b5fc-m5rgh在同步事件,處理業務:master實例正在處理業務並renew鎖

operator-manager-86d785b5fc-sszj2實例一直在競爭嘗試獲取鎖:slave實例正在嘗試獲取鎖

刪除掉正在同步事件的實例operator-manager-86d785b5fc-m5rgh:刪除掉master實例

實例operator-manager-86d785b5fc-sszj2競爭獲取到鎖,開始處理業務邏輯:

slave實例獲取到鎖,開始處理業務並renew鎖故能夠經過反親和性防止兩個operator-manager實例調度到同一主機上,達到主備高可用。

最後附上源碼地址:

github.com/ll837448792…

參考:談談k8s的leader選舉--分佈式資源鎖

本公衆號免費提供csdn下載服務,海量IT學習資源,若是你準備入IT坑,勵志成爲優秀的程序猿,那麼這些資源很適合你,包括但不限於java、go、python、springcloud、elk、嵌入式 、大數據、面試資料、前端 等資源。同時咱們組建了一個技術交流羣,裏面有不少大佬,會不定時分享技術文章,若是你想來一塊兒學習提升,能夠公衆號後臺回覆【2】,免費邀請加技術交流羣互相學習提升,會不按期分享編程IT相關資源。

掃碼關注,精彩內容第一時間推給你

image

相關文章
相關標籤/搜索