QEMU IO事件處理框架

Qemu IO事件處理框架

qemu是基於事件驅動的,在基於KVM的qemu模型中,每個VCPU對應一個qemu線程,且qemu主線程負責各類事件的監聽,這裏有一個小的IO監聽框架,本節對此進行介紹。數組

1.1    涉及結構

struct GArray {

  gchar *data;

  guint len;

};

 

Data指向一個GpollFD數組,len表示數組的個數。框架

struct GPollFD

{

  gint          fd;

  gushort       events;

  gushort       revents;

};

 

Fd爲監聽的fd,event爲請求監聽的事件,是一組bit的組合。Revents爲poll收到的事件,根據此斷定當前什麼事件可用。函數

typedef struct IOHandlerRecord {

    IOCanReadHandler *fd_read_poll;

    IOHandler *fd_read;

    IOHandler *fd_write;

    void *opaque;

    QLIST_ENTRY(IOHandlerRecord) next;

    int fd;

    int pollfds_idx;

    bool deleted;

} IOHandlerRecord;

 

該結構是qemu中IO框架的處理單位,fd_read和fd_write爲註冊的對應處理函數。Next表示該結構會鏈接在一個全局的鏈表上,fd是對應的fd,delete標誌是否須要從鏈表中刪除該結構。oop

1.2    代碼分析

1.2.1         初始化階段

Main-> qemu_init_main_loopui

Main-> main_loop-> main_loop_waitthis

qemu_init_main_loopspa

int qemu_init_main_loop(void)

{

    int ret;

    GSource *src;

    init_clocks();

    ret = qemu_signal_init();

    if (ret) {

        return ret;

    }

       //malloc a globle fd array

    gpollfds = g_array_new(FALSE, FALSE, sizeof(GPollFD));

       //create a aio context

    qemu_aio_context = aio_context_new();

       //get event source from aio context

    src = aio_get_g_source(qemu_aio_context);

       //add source to main loop

    g_source_attach(src, NULL);

    g_source_unref(src);

    return 0;

}

 

Qemu中的main loop主要採用 了glib中的事件循環,關於此詳細內容,準備後面專門寫一小節,本節主要看主體IO框架。線程

       該函數主要就分配了一個Garray結構存儲全局的GpollFD,在main_loop中的main_loop_wait階段有兩個比較重要的函數:qemu_iohandler_fill,os_host_main_loop_wait和qemu_iohandler_poll,前者把用戶添加的fd信息註冊到剛纔分配的Garray結構中,os_host_main_loop_wait對事件進行監聽,qemu_iohandler_poll對接收到的事件進行處理。code

1.2.2         添加fd

用戶添加fd的函數爲qemu_set_fd_handler,參數中fd爲本次添加的fd,後面分別是對該fd的處理函數(read or write),最後opaque爲處理函數的參數。blog

int qemu_set_fd_handler(int fd,

                        IOHandler *fd_read,

                        IOHandler *fd_write,

                        void *opaque)

{

    return qemu_set_fd_handler2(fd, NULL, fd_read, fd_write, opaque);

}

 

可見該函數直接調用了qemu_set_fd_handler2:

int qemu_set_fd_handler2(int fd,

                         IOCanReadHandler *fd_read_poll,

                         IOHandler *fd_read,

                         IOHandler *fd_write,

                         void *opaque)

{

    IOHandlerRecord *ioh;

    assert(fd >= 0);

       //if read and write are  null,delete

    if (!fd_read && !fd_write) {

        QLIST_FOREACH(ioh, &io_handlers, next) {

            if (ioh->fd == fd) {

                ioh->deleted = 1;

                break;

            }

        }

    } else {//find and goto find

        QLIST_FOREACH(ioh, &io_handlers, next) {

            if (ioh->fd == fd)

                goto found;

        }

        ioh = g_malloc0(sizeof(IOHandlerRecord));

                //insert ioh to  io_handlers list

        QLIST_INSERT_HEAD(&io_handlers, ioh, next);

    found:

        ioh->fd = fd;

        ioh->fd_read_poll = fd_read_poll;

        ioh->fd_read = fd_read;

        ioh->fd_write = fd_write;

        ioh->opaque = opaque;

        ioh->pollfds_idx = -1;

        ioh->deleted = 0;

        qemu_notify_event();

    }

    return 0;

}

 

這裏判斷若是read和write函數均爲空的話就表示本次是要delete某個fd,就遍歷全部的io_handlers,對指定的fd對應的IOHandlerRecord標誌delete。

不然還有兩種狀況,添加或者更新。因此首先仍是要從io_handlers找一下,若是找到直接更新,不然新建立一個IOHandlerRecord,而後再添加信息。具體信息內容就比較簡單。

1.2.3         處理fd

在main_loop_wait函數中,經過os_host_main_loop_wait對fd進行監聽,固然並非它直接監聽,而是經過glib的接口。

當os_host_main_loop_wait返回後,就表示當前有可用的事件,在main_loop_wait函數中,調用了qemu_iohandler_poll函數對fd進行處理。

void qemu_iohandler_poll(GArray *pollfds, int ret)

{

    if (ret > 0) {

        IOHandlerRecord *pioh, *ioh;

        QLIST_FOREACH_SAFE(ioh, &io_handlers, next, pioh) {

            int revents = 0;

            if (!ioh->deleted && ioh->pollfds_idx != -1) {

                GPollFD *pfd = &g_array_index(pollfds, GPollFD,

                                              ioh->pollfds_idx);

                revents = pfd->revents;

            }

            if (!ioh->deleted && ioh->fd_read &&

                (revents & (G_IO_IN | G_IO_HUP | G_IO_ERR))) {

                ioh->fd_read(ioh->opaque);

            }

            if (!ioh->deleted && ioh->fd_write &&

                (revents & (G_IO_OUT | G_IO_ERR))) {

                ioh->fd_write(ioh->opaque);

            }

            /* Do this last in case read/write handlers marked it for deletion */

            if (ioh->deleted) {

                QLIST_REMOVE(ioh, next);

                g_free(ioh);

            }

        }

    }

}

 

具體的處理倒也簡單,逐個遍歷io_handlers,對於每一個GpollFD,取其revents,判斷delete標誌並校驗狀態,根據不一樣的狀態,調用read或者write回調。最後若是是delete的GpollFD,就從鏈表中remove掉,釋放GpollFD。

補充:針對qemu進程中線程數目的問題,從本節能夠發現qemu主線程主要負責事件循環,針對每一個虛擬機的VCPU,會有一個子線程爲之服務,所以qemu線程數目至少要大於等於1+VCPU數目。

 

以馬內利!

參考資料:

一、qemu 2.7源碼

相關文章
相關標籤/搜索