泰晓科技 -- 聚焦 Linux - 追本溯源,见微知著!
网站地址:https://tinylab.org

泰晓RISC-V实验箱,不会吃灰,开箱即用
请稍侯

一文揭秘 qemu multifd 多网口网络加速原理

Gao Chengbo 创作于 2021/03/24

By 高承博 金琦 刘唐 of TinyLab.org 2020/01/01

multifd 功能的应用场景

云计算环境计算节点上的一个物理网卡会有两个物理网口,而这两个物理网口一般都采用 bond 模式加入 OVS 的某一个网桥的。对于一条流来讲(一个 TCP 链接),每次只能从两个物理网口的其中一个流入或流出,也就是说带宽只有一个网口的带宽。在 qemu 没有打开 multifd 进行迁移时,内存的数据流量如下图所示:

alt figure1

打开 multifd 后 qemu 在进行迁移内存时,会使用两条 TCP 链接,流量如下图所示:

alt figure2

multifd 功能与 qemu 版本

因为 multifd 功能比较新,笔者在使用 qemu 2.12 版本时发现,虽然可以开启 multifd 这个 capability,但实际上 multifd 的实现函数是空的,所以下文中,笔者使用 qemu 3.0.0 的源码进行实验分析。

通过 qemu 构建测试网络

分别在两台物理服务器上各运行一个 qemu。

源虚机:

$ ./x86_64-softmmu/qemu-system-x86_64 /vms/gaocb/vm/t1_bak.qcow2 -smp 2 -m 100000 -vnc 0.0.0.0:5  -monitor stdio -machine pc-i440fx-2.6,accel=kvm

目的虚机:

$ ./x86_64-softmmu/qemu-system-x86_64 /vms/gaocb/vm/t1_bak.qcow2 -smp 2 -m 100000 -vnc 0.0.0.0:5  -monitor stdio -machine pc-i440fx-2.6,accel=kvm  -incoming tcp:192.168.1.2:55555

启用 multifd 功能

可通过 qemu hmp 命令启用和配置 multifd。

打开 multifd 功能:

(qemu) migrate_set_capability x-multifd on

每次传输的物理页:

(qemu) migrate_set_parameter x-multifd-page-count 20

打开 multifd 的通道数(TCP 链接数):

(qemu) migrate_set_parameter x-multifd-channels 2

开启迁移:

(qemu) migrate -d tcp:192.168.1.2:55555

multifd 代码框架

普通的虚机内存迁移都是通过 migration_thread 一个线程去进行的。对于 multifd 的实现也是基于 migration_thread 进行的,但 multifd 比传统的内存迁移方式又多了两个 multifd_send_thread 辅助线程用来执行。如图所示:

alt figure3

migration_thread 线程把准备好的物理页数据结构 multifd_send_state 丢给线程池里的两个 multifd_send_thread 辅助线程,两个线程谁争抢到了这个信号量,谁就开始传送数据。没争抢到的线程就会继续等待 migration_thread 下一次发出的物理数据结构 multifd_send_state

传统迁移和 multifd 迁移的代码的流程对比

由于篇幅有限,而且本次的话题也不是传统的迁移流程,所以在画代码调用流程时有些函数省略了。

alt figure4

关键代码分析

static void multifd_send_pages(void)
{
    int i;
    static int next_channel;
    MultiFDSendParams *p = NULL; /* make happy gcc */
    MultiFDPages_t *pages = multifd_send_state->pages;
    uint64_t transferred;

    qemu_sem_wait(&multifd_send_state->channels_ready);
    for (i = next_channel;; i = (i + 1) % migrate_multifd_channels()) {
        p = &multifd_send_state->params[i];

        qemu_mutex_lock(&p->mutex);
        if (!p->pending_job) {
            p->pending_job++;
            next_channel = (i + 1) % migrate_multifd_channels();
            break;
        }
        qemu_mutex_unlock(&p->mutex);
    }
    p->pages->used = 0;

    p->packet_num = multifd_send_state->packet_num++;
    printf("%s: p->pages->block = NULL \n", __func__);
    p->pages->block = NULL;
    multifd_send_state->pages = p->pages;
    p->pages = pages;
    transferred = pages->used * TARGET_PAGE_SIZE + p->packet_len;
    ram_counters.multifd_bytes += transferred;
    ram_counters.transferred += transferred;;
    qemu_mutex_unlock(&p->mutex);
    qemu_sem_post(&p->sem);
}
static void *multifd_send_thread(void *opaque)
{
    MultiFDSendParams *p = opaque;
    Error *local_err = NULL;
    int ret;

    trace_multifd_send_thread_start(p->id);

    if (multifd_send_initial_packet(p, &local_err) < 0) {
        goto out;
    }
    /* initial packet */
    p->num_packets = 1;

    while (true) {
        qemu_sem_wait(&p->sem);
        qemu_mutex_lock(&p->mutex);

        if (p->pending_job) {
            uint32_t used = p->pages->used;
            uint64_t packet_num = p->packet_num;
            uint32_t flags = p->flags;

            multifd_send_fill_packet(p);
            p->flags = 0;
            p->num_packets++;
            p->num_pages += used;
            p->pages->used = 0;
            qemu_mutex_unlock(&p->mutex);

            trace_multifd_send(p->id, packet_num, used, flags);

            ret = qio_channel_write_all(p->c, (void *)p->packet,
                                        p->packet_len, &local_err);
            if (ret != 0) {
                break;
            }

            ret = qio_channel_writev_all(p->c, p->pages->iov, used, &local_err);
            if (ret != 0) {
                break;
            }

            qemu_mutex_lock(&p->mutex);
            p->pending_job--;
            qemu_mutex_unlock(&p->mutex);

            if (flags & MULTIFD_FLAG_SYNC) {
                qemu_sem_post(&multifd_send_state->sem_sync);
            }
            qemu_sem_post(&multifd_send_state->channels_ready);
        } else if (p->quit) {
            qemu_mutex_unlock(&p->mutex);
            break;
        } else {
            qemu_mutex_unlock(&p->mutex);
            /* sometimes there are spurious wakeups */
        }
    }

out:
    if (local_err) {
        multifd_send_terminate_threads(local_err);
    }

    qemu_mutex_lock(&p->mutex);
    p->running = false;
    qemu_mutex_unlock(&p->mutex);

    trace_multifd_send_thread_end(p->id, p->num_packets, p->num_pages);

    return NULL;
}

可以看到 multifd_send_pages 函数负责把准备好的数据准备让 multifd_send_thread 线程接收。

multifd_send_thread 在产生之后就阻塞在 while 循环中的 qemu_sem_wait(&p->sem),当 multifd_send_threadqemu_sem_post(&p->sem) 释放信号量时,multifd_send_pages 就可以由阻塞状态变为运行状态进行数据发送了。可以看到这里的信号量 p->sem 是当做同步信号量使用的,用于生产者 migration_thread 和消费者 multifd_send_thread 之间唤醒使用。

实验结果

alt figure5

图中 business 网桥是 ens3f0 和 ens3f1 两个网口做了 bond。可以看到 ens3f0 和 ens3f1 两个网口都有流量。



Read Related:

Read Latest: