路漫漫其修远兮,吾将上下而求索
分类: LINUX
2013-11-07 15:50:29
漫谈Wine之一:
WINE的系统结构
毛德操
我们所要开发的Linux兼容内核主要的一个源泉就是Wine。另一方面,我们之所以要开发兼容内核的的重要原因之一,就是因为Wine不能很好地解决在Linux内核上运行Windows应用的问题。为此,我们应该对Wine进行比较深入的研究,取得对Wine的深入理解,特别是要搞清两个问题:1)Wine是什么样的?2)为什么Wine是那样的?如此才能明白我们为什么要开发兼容内核,以及我们将怎样来开发兼容内核。当然,对Wine的研究不应该孤立地进行,而必须把它放在Linux和Windows两个操作系统的背景下来开展。为此目的,我将撰写一些漫谈Wine的文章,围绕着上述的两个问题作一些介绍和分析,以期引起广泛的讨论和参与,然后再进入具体的开发阶段。这些文章将采用一事一议的方式,有的以介绍为主,有的以分析为主;有的围绕预定的题材,有的针对网友们提出的问题。
1.概述
Wine是Windows应用软件与Linux内核之间的适配层,体现为一个Wine服务进程(wineserver)和一组动态连接库(相当于Windows的众多DLL)。此外,Wine的GUI用户界面仍依赖于X11,由动态连接库x11drv和X11服务进程构成。其中x11drv是作为Wine与X11之间的界面,而X11服务进程本来就存在,因为GNOME也要通过X11服务进程操作图形界面。这样,在运行某个Windows应用时,系统中至少有3个进程与之有关:
l 应用进程本身。所有对DLL的调用均在该进程的上下文中运行。需要得到Wine的服务,或者通过Wine间接提供的其他(特别是内核)服务时,应用进程经由Wine所提供的各种动态连接库逐层往下调用。在Wine内部,这个进程往往需要通过socket和pipe与Wine服务进程通信,以接受服务进程的管理和协调;另一方面又可能经由另一个动态连接库x11drv通过别的socket与X11服务进程通信,向其发送图形操作请求并接收键盘和鼠标输入。
l Wine服务进程。其主要的作用有:提供Windows进程间通信与同步的手段;Windows进程和线程的管理,注册表服务,包括文件在内的各种W32“对象”的管理;等等。
l X11服务进程。图形的显示,以及键盘和鼠标输入。
这些进程以及动态连接库的关系如下图所示:
在这三个进程中,对桌面系统而言,Xserver本来就存在,并非因为用了Wine才引入的,所以我们先关注其余两个进程。但是,从整个桌面系统的性能与效率来看,特别是对于图形/图像操作十分频繁的应用(如游戏)而言,Xserver也是个瓶颈,所以我们将来还要回到这个问题上来,不过那是后话。
实际上,具体的Windows应用进程是从另一个进程,即Wine的作业装入程序wine转化过来的。用户一开始时启动的是wine,而具体的Windows程序名是个参数,是由wine为具体目标程序的运行建立起与Wine服务进程的连接、装入目标程序,并转入目标程序运行的。
只要没有特别说明,下面讲到的“服务进程”都是指Wine服务进程。
2.Wine服务进程
服务进程wineserver的存在独立于具体的Windows应用,所有的Windows应用在启动时都要建立起与服务进程的socket和pipe连接。所以,一般而言服务进程在启动具体Windows应用之前就应存在。不过,如果不存在,则作业装入程序wine会先启动服务进程运行,再与之建立连接。
在某种意义上,可以认为服务进程是在为Windows应用程序提供“远地过程调用(RPC)”、即跨进程的系统调用;其作用可以从它的过程调用表,即include/request.h中的函数指针数组req_handlers[ ]看出个大概:
static const req_handler req_handlers[REQ_NB_REQUESTS] =
{
(req_handler)req_new_process,
(req_handler)req_new_thread,
(req_handler)req_terminate_process,
(req_handler)req_terminate_thread,
……
(req_handler)req_load_dll,
(req_handler)req_unload_dll,
……
(req_handler)req_create_event,
(req_handler)req_create_mutex,
(req_handler)req_create_semaphore,
……
(req_handler)req_create_file,
(req_handler)req_alloc_file_handle,
(req_handler)req_get_handle_fd,
(req_handler)req_flush_file,
(req_handler)req_lock_file,
(req_handler)req_unlock_file,
……
(req_handler)req_create_socket,
(req_handler)req_accept_socket,
(req_handler)req_set_socket_event,
(req_handler)req_get_socket_event,
(req_handler)req_enable_socket_event,
(req_handler)req_set_socket_deferred,
……
(req_handler)req_open_console,
(req_handler)req_read_console_input,
(req_handler)req_write_console_output,
……
(req_handler)req_output_debug_string,
(req_handler)req_continue_debug_event,
(req_handler)req_debug_process,
(req_handler)req_debug_break,
……
(req_handler)req_set_key_value,
(req_handler)req_get_key_value,
(req_handler)req_load_registry,
……
(req_handler)req_create_timer,
(req_handler)req_open_timer,
(req_handler)req_set_timer,
(req_handler)req_cancel_timer,
……
(req_handler)req_get_msg_queue,
(req_handler)req_send_message,
(req_handler)req_get_message,
……
(req_handler)req_create_window,
(req_handler)req_link_window,
(req_handler)req_destroy_window,
(req_handler)req_set_foreground_window,
(req_handler)req_set_focus_window,
(req_handler)req_set_global_windows,
…… 共有将近200个函数
};
注:该函数指针数组下标REQ_NB_REQQUESTS在文件/include/wine/server_protocol.h的枚举类型enum request{}中定义大小。以下是该枚举类型的定义,包括各个服务进程以调用请求中给出的调用号:
可见,服务进程参与了对进程/线程、进程间通信/同步(互斥)、文件、窗口、定时器、控制台、注册表等等资源的管理与服务。
服务进程对于进程、进程间通信等等的管理(与服务)与Linux内核所提供的管理并不冲突,而是对内核的补充。这是因为Linux内核所提供的是对于Linux进程/线程的管理,而Windows应用所期待的是对于Windows进程/线程的管理。服务进程之所以需要存在,其原因之一,就是为了要在(由Linux内核所所提供的)Linux进程管理的基础上建立起对于Windows进程/线程的管理。所以,服务进程只提供其中附加的部分,例如进程/线程的调度就是由Linux内核提供的,而与服务进程无关。服务进程本身也是一个Linux进程,但不是Windows进程。同样,对别的资源的管理也有类似的问题。
如果用一句话来概括服务进程存在的理由,那就是“核内差异核外补”。所谓“核内差异”,是指Linux和Windows两个内核之间的差异。而“核外补”,是指在核外、即用户空间设法加以补偿,以填平两个内核间的差异。“核外补”的手段可以有多种,例如用动态连接库也可以实现许多“核外补”;而服务进程是其中的手段之一,而且我们将看到这是效率很低的一种手段。显然,用服务进程这种效率很低的手段来实现“核外补”,只能是不得已而用之。后面(在另一篇漫谈中)我将分析Wine为什么不得已而采用了服务进程这种手段。
既然服务进程提供对进程间通信、注册表等等的管理,它自然就成为所有Windows进程的核心与枢纽。可以说,服务进程是整个Wine平台的核心。在某种意义上,服务进程还是Linux内核的外延,因为“核外补”的目的与结果正是在用户空间形成一个虚拟的(模拟的)“Windows内核”。
事实上,在真正的Windows系统上也有个类似的进程叫csrss,是所谓“Win32子系统”的核心。这个进程之所以存在,是因为早期的WinNT 3.51内核更接近于微内核(微内核与宏内核之间的“核内差异”当然很大)。可是,从WinNT 4.0开始,其内核就再不能说是微内核、而应该说是带有微内核痕迹的宏内核了。所以,csrss已经经历了很大的变化,现在的csrss只能说是早期csrss的残留了。而Wine的服务进程,则恰恰比较接近于早期的csrss。所以,csrss的这个变化过程,正好也为我们提供了一个参考和启示,使我们看到微软原来怎么想、后来怎么想、采取了一些什么措施、怎样发展/过渡到了现在的系统结构。对此我将专门写一篇漫谈、或者穿插在别的漫谈中加以论述。
在Wine的源代码中,服务进程的主体是server/fd.c中的一个无限循环main_loop()。
[main() > main_loop()]
void main_loop(void)
{
……
while (active_users)
{
timeout = get_next_timeout();
if (!active_users) break; /* last user removed by a timeout */
ret = poll( pollfd, nb_users, timeout );
if (ret > 0)
{
for (i = 0; i < nb_users; i++)
{
if (pollfd[i].revents)
{
fd_poll_event( poll_users[i], pollfd[i].revents );
if (!--ret) break;
}
}
}
}
}
这个循环通过poll()监视已经建立的socket与pipe,每当从某个端口接收到信息时就通过fd_poll_event()执行有关的处理程序。
服务进程启动之初只有一个socket,即master_socket,这是服务进程的大门,就好像是它的IP地址一样。在工具软件wine的帮助下,所有的Windows应用进程一开始就通过这个socket与服务进程联系。当服务进程从master_socket接收到请求时,就为这个客户进程建立起一个进程管理块,并为之建立起一对管道(pipe),作为这个进程与服务进程之间的主要通信手段。与此有关的程序在master_socket_poll_event()中,master_socket的fd_ops数据结构master_socket_fd_ops()保证了服务进程对此函数的调用(在server/request.c中)。
此后,当Windows应用进程需要调用服务进程时,就通过所建立的管道发出请求,而服务进程则通过fd_poll_event()执行由管道的fd_ops数据结构thread_fd_ops中给定的函数thread_poll_event()。在这个函数中,服务进程以调用请求中给出的调用号(例如REQ_load_dll)为下标,在上述数组req_handlers[ ]内找到相应的函数并加以执行,最后加以答复。至于Windows应用进程,则在发出请求以后就进入睡眠,等待来自服务进程的答复,然后又恢复运行。下面是thread_poll_event()的伪代码:
[main() > main_loop() > fd_poll_event() > thread_poll_event()]
/* handle a client event */
static void thread_poll_event( struct fd *fd, int event )
{
struct thread *thread = get_fd_user( fd );
assert( thread->obj.ops == &thread_ops );
if (event & (POLLERR | POLLHUP)) kill_thread( thread, 0 );
else if (event & POLLIN) read_request( thread );
else if (event & POLLOUT) write_reply( thread );
}
数据结构struct fd中含有具体管道属于(通往)哪一个进程/线程的信息,因此可以知道是谁发来的请求。在正常的情况下,这个函数会调用read_request(),我们只看其主体部分:
[main() > main_loop() > fd_poll_event() > thread_poll_event() > read_request()]
/* read a request from a thread */
void read_request( struct thread *thread )
{
……
if (!thread->req_toread) /* no pending request */
{
if ((ret = read( get_unix_fd( thread->request_fd ), &thread->req,
sizeof(thread->req) )) != sizeof(thread->req)) goto error;
if (!(thread->req_toread = thread->req.request_header.request_size))
{
/* no data, handle request at once */
call_req_handler( thread );
return;
}
if (!(thread->req_data = malloc( thread->req_toread )))
fatal_protocol_error( thread,
"no memory for %d bytes request\n", thread->req_toread );
}
……
}
所谓read_request(),实际上是“读取并执行”请求。具体的执行由call_req_handler()启动,其主体是:
[main() > main_loop() > fd_poll_event() > thread_poll_event() > read_request()
> call_req_handler()]
/* call a request handler */
static void call_req_handler( struct thread *thread )
{
union generic_reply reply;
enum request req = thread->req.request_header.req;
current = thread;
current->reply_size = 0;
clear_error();
memset( &reply, 0, sizeof(reply) );
if (debug_level) trace_request();
if (req < REQ_NB_REQUESTS)
{
req_handlers[req]( ¤t->req, &reply );
if (current)
{
if (current->reply_fd)
{
reply.reply_header.error = current->error;
reply.reply_header.reply_size = current->reply_size;
if (debug_level) trace_reply( req, &reply );
send_reply( &reply );
}
else fatal_protocol_error( current, "no reply fd for request %d\n", req );
}
current = NULL;
return;
}
fatal_protocol_error( current, "bad request %d\n", req );
}
这里的指针数组req_handlers[ ],就是我们前面已经看到过的。
这种跨进程的“远地过程调用(RPC)”与对动态连接库的调用有个本质的区别,那就是:对动态连接库的调用不跨进程,目标过程的执行是在同一个(进程调度意义上的)上下文、同一个地址空间中完成的;而RPC则跨进程,是在不同的上下文和地址空间中完成的。这样,一方面起到了将服务进程中的许多数据结构跟应用进程相隔离的作用,另一方面也便于横向的(不同进程间的)协调和集中的管理。但是,在这种跨进程的调用中至少要涉及两次进程调度(与切换),势必会引入一定程度的延迟和性能下降。
3.应用进程与服务进程的通信
应用进程最初时通过socket向服务进程“报到”,并建立起pipe连接,以后就通过pipe管道按一定的规程与服务进程通信,向服务进程请求RPC服务。为方便编程,Wine的代码中定义并大量使用了几个宏操作,搞清这几个宏操作以及相关的过程对于代码的阅读和理解很有好处。
我们先看一段实际的代码:
NTSTATUS
WINAPI NtFlushBuffersFile(HANDLE hFile, IO_STATUS_BLOCK* IoStatusBlock )
{
NTSTATUS ret;
HANDLE hEvent = NULL;
SERVER_START_REQ( flush_file )
{
req->handle = hFile;
ret = wine_server_call( req );
hEvent = reply->event;
}
SERVER_END_REQ;
……
return ret;
}
这是一个Windows应用进程(即客户端)向服务进程请求冲涮一个已打开文件时所调用的函数。参数hFile类似于Linux上的打开文件号(但有区别,将来我还要讲这个事)。
指针req和reply是在SERVER_START_REQ中定义的,分别指向用来发出请求和接收答复的数据结构,而函数wine_server_call()则把请求发送给服务进程并等待其答复。
这里的SERVER_START_REQ和SERVER_END_REQ两个宏操作定义如下:
#define SERVER_START_REQ(type) \
do { \
struct __server_request_info __req; \
struct type##_request * const req = &__req.u.req.type##_request; \
const struct type##_reply * const reply = &__req.u.reply.type##_reply; \
memset( &__req.u.req, 0, sizeof(__req.u.req) ); \
__req.u.req.request_header.req = REQ_##type; \
__req.data_count = 0; \
(void)reply ; \
do
#define SERVER_END_REQ \
while(0); \
} while(0)
结合上面的代码,此时首先把发送给服务进程的数据结构视为struct flush_file_request,而把服务进程的答复则视为struct flush_file_reply。至于调用号则为REQ_flush_file,这个常数定义于server_protocol.h中的enum request{}。两个宏操作以及夹在其中的代码构成嵌套的do{ }while(0)语句。总的来说就是完成对flush_file_request的设置,将其发送给服务进程,等待其答复,并从答复中抽取所需的信息。
这样,经过C编译的预处理,前面的一段代码就成为这样:
do {
struct __server_request_info __req;
struct type##_request * const req = &__req.u.req. flush_file_request;
const struct type##_reply * const reply = &__req.u.reply. flush_file_reply;
memset( &__req.u.req, 0, sizeof(__req.u.req) );