IBinder对象在进程间传递的形式(一)

IBinder对象在进程间传递的形式(一)

大家好,又见面了,我是全栈君,祝每个程序员都可以多学几门语言。

命题   

    当service经常被远程调用时,我们经常常使用到aidl来定一个接口供service和client来使用,这个事实上就是使用Binder机制的IPC通信。当client bind service成功之后,系统AM会调用回调函数onServiceConnected将service的IBinder传递给client, client再通过调用aidl生成的asInterface()方法获得service的调用接口,此时一个bind过程结束了,我们在client端就能够远程调用service的方法了。比如

            public void onServiceConnected(ComponentName className,
                    IBinder service) {
                mSecondaryService = ISecondary.Stub.asInterface(service);
            }

    我们再看aidl生成的asInterface()的定义

	public static com.example.android.apis.app.ISecondary asInterface(android.os.IBinder obj)
	{
	if ((obj==null)) {
	return null;
	}
	android.os.IInterface iin = (android.os.IInterface)obj.queryLocalInterface(DESCRIPTOR);
	if (((iin!=null)&&(iin instanceof com.example.android.apis.app.ISecondary))) {
	return ((com.example.android.apis.app.ISecondary)iin);
	}
	return new com.example.android.apis.app.ISecondary.Stub.Proxy(obj);
	}

    首先,asInterface()会去query传入的IBinder对象是否有LocalInterface,这里的LocalInterface是指传入的IBinder是service本身的引用还是代理。

    1.当asInterface的输入的IBinder为server的引用(Binder类型)时,则直接返回该引用,那么此时调用server的方法不为IPC通信,而是直接的函数调用;

    2.当asInterface的输入的IBinder为server的代理(BinderProxy类型)时,则须要创建该server的代理并返回,此时调用server的方法为IPC通信。

    那么以上两种情况发生的条件是什么呢?这里我们先给出答案,然后再深入到代码中去研究2种不同的情况。
    1.当client和service处在同样进程中的话,asInterface的输入的IBinder为server的引用时;
    2.当client和service处在不同进程中的话,asInterface的输入的IBinder为server的代理。

在研究上述实现代码之前,我们先介绍一下IBinder作为參数使用IPC进程间传递时的状态变化,事实上这个就是我们本篇文章的核心内容,理解了这个机制,我们就会非常easy理解我们上述的那个命题的原理了。

    模型

    IBinder作为參数在IPC通信中进行传递,可能会使某些人困惑,IBinder不就是IPC通信的媒介吗?怎么还会被作为參数来传递呢,这样理解就有点狭隘了,拿native层的IPC来说,client从SM(service manager)中获取service端的Interface,这个Interface同一时候也是IBinder类型,当C/S两端须要双工通信时,即所谓的Service端须要反过来调用Client端的方法时,就须要client通过前述的那个Interface将Client端的IBinder传递给Service。
    拿Java应用层的Service来说更是如此,如本文的这个命题,以下我们会分析,首先来介绍原理性的知识。
    Binder IPC通信中,Binder是通信的媒介,Parcel是通信的内容。方法远程调用过程中,其參数都被打包成Parcel的形式来传递的。IBinder对象也不例外,我们看一下Parcel类中的writeStrongBinder()(因为java层和native层的方法是相相应的,java层仅仅是native的封装,因此我们仅仅须要看native的就可以),

status_t Parcel::writeStrongBinder(const sp<IBinder>& val)
{
    return flatten_binder(ProcessState::self(), val, this);
}

status_t flatten_binder(const sp<ProcessState>& proc,
    const sp<IBinder>& binder, Parcel* out)
{
    flat_binder_object obj;
    
    obj.flags = 0x7f | FLAT_BINDER_FLAG_ACCEPTS_FDS;
    if (binder != NULL) {
        IBinder *local = binder->localBinder();
        if (!local) {
            BpBinder *proxy = binder->remoteBinder();
            if (proxy == NULL) {
                LOGE("null proxy");
            }
            const int32_t handle = proxy ? proxy->handle() : 0;
            obj.type = BINDER_TYPE_HANDLE;
            obj.handle = handle;
            obj.cookie = NULL;
        } else {
            obj.type = BINDER_TYPE_BINDER;
            obj.binder = local->getWeakRefs();
            obj.cookie = local;
        }
    } else {
        obj.type = BINDER_TYPE_BINDER;
        obj.binder = NULL;
        obj.cookie = NULL;
    }
    
    return finish_flatten_binder(binder, obj, out);
}

上面代码分以下2种情况

1. 假设传递的IBinder为service的本地IBinder对象,那么该IBinder对象为BBinder类型的,因此上面的local不为NULL,故binder type为BINDER_TYPE_BINDER。

2. 假设传递的IBinder对象代理IBinder对象,那么binder type则为BINDER_TYPE_HANDLE。

client端将方法调用參数打包成Parcel之后,会发送到内核的Binder模块,因此以下我们将分析一下内核的Binder模块的处理。

kernel/drivers/staging/android/Binder.c中的函数binder_transaction()

switch (fp->type) {         case BINDER_TYPE_BINDER:         case BINDER_TYPE_WEAK_BINDER: {             struct binder_ref *ref;             struct binder_node *node = binder_get_node(proc, fp->binder);             if (node == NULL) {                 node = binder_new_node(proc, fp->binder, fp->cookie);                 if (node == NULL) {                     return_error = BR_FAILED_REPLY;                     goto err_binder_new_node_failed;                 }                 node->min_priority = fp->flags & FLAT_BINDER_FLAG_PRIORITY_MASK;                 node->accept_fds = !!(fp->flags & FLAT_BINDER_FLAG_ACCEPTS_FDS);             }             if (fp->cookie != node->cookie) {                 binder_user_error("binder: %d:%d sending u%p "                     "node %d, cookie mismatch %p != %p\n",                     proc->pid, thread->pid,                     fp->binder, node->debug_id,                     fp->cookie, node->cookie);                 goto err_binder_get_ref_for_node_failed;             }             ref = binder_get_ref_for_node(target_proc, node);             if (ref == NULL) {                 return_error = BR_FAILED_REPLY;                 goto err_binder_get_ref_for_node_failed;             }             if (fp->type == BINDER_TYPE_BINDER)                 fp->type = BINDER_TYPE_HANDLE;             else                 fp->type = BINDER_TYPE_WEAK_HANDLE;             fp->handle = ref->desc;             binder_inc_ref(ref, fp->type == BINDER_TYPE_HANDLE,                        &thread->todo);             binder_debug(BINDER_DEBUG_TRANSACTION,                      "        node %d u%p -> ref %d desc %d\n",                      node->debug_id, node->ptr, ref->debug_id,                      ref->desc);         } break;         case BINDER_TYPE_HANDLE:         case BINDER_TYPE_WEAK_HANDLE: {             struct binder_ref *ref = binder_get_ref(proc, fp->handle);             if (ref == NULL) {                 binder_user_error("binder: %d:%d got "                     "transaction with invalid "                     "handle, %ld\n", proc->pid,                     thread->pid, fp->handle);                 return_error = BR_FAILED_REPLY;                 goto err_binder_get_ref_failed;             }             if (ref->node->proc == target_proc) {                 if (fp->type == BINDER_TYPE_HANDLE)                     fp->type = BINDER_TYPE_BINDER;                 else                     fp->type = BINDER_TYPE_WEAK_BINDER;                 fp->binder = ref->node->ptr;                 fp->cookie = ref->node->cookie;                 binder_inc_node(ref->node, fp->type == BINDER_TYPE_BINDER, 0, NULL);                 binder_debug(BINDER_DEBUG_TRANSACTION,                          "        ref %d desc %d -> node %d u%p\n",                          ref->debug_id, ref->desc, ref->node->debug_id,                          ref->node->ptr);             } else {                 struct binder_ref *new_ref;                 new_ref = binder_get_ref_for_node(target_proc, ref->node);                 if (new_ref == NULL) {                     return_error = BR_FAILED_REPLY;                     goto err_binder_get_ref_for_node_failed;                 }                 fp->handle = new_ref->desc;                 binder_inc_ref(new_ref, fp->type == BINDER_TYPE_HANDLE, NULL);                 binder_debug(BINDER_DEBUG_TRANSACTION,                          "        ref %d desc %d -> ref %d desc %d (node %d)\n",                          ref->debug_id, ref->desc, new_ref->debug_id,                          new_ref->desc, ref->node->debug_id);             }         } break;

    上面代码也分为了2种不同的分支:

    1. 传来的IBinder类型为BINDER_TYPE_BINDER时,会将binder type值为BINDER_TYPE_HANDLE;

    2. 传来的IBinder类型为BINDER_TYPE_HANDLE时,会推断该IBinder的实体被定义的进程(也就是该IBinder代表的server被定义的进程)与目标进程(也即IBinder被传递的目标进程)是否同样,假设同样,则将该IBinder type转化为BINDER_TYPE_BINDER,同一时候使其变为IBinder本地对象的引用。

    通过上述的处理,我们能够得出以下结论:

    1.不同进程间传递的IBinder本地对象引用(BINDER_TYPE_BINDER类型),在内核中均会被转化为代理(BINDER_TYPE_HANDLE类型,眼下仅仅是改变其类型,在IBinder接收方会依据其类型转化为代理);

    2.因为仅仅有不同进程间传递才会将IBinder发送到Binder模块,所以IBinder在多级传递的过程中,有以下2种可能 进程A–>进程B–>进程A,进程A–>进程B–>进程C;其相应的IBinder类型就是BINDER_TYPE_BINDER–>BINDER_TYPE_HANDLE–>BINDER_TYPE_BINDER,BINDER_TYPE_BINDER–>BINDER_TYPE_HANDLE–>BINDER_TYPE_HANDLE。

    依据上述结论,我们就会明确Binder IPC通信过程中,同样进程间的IBinder本地对象,假设不经过不同进程的传递,那么IBinder就不会传给内核的Binder模块,因此它一直是IBinder的本地对象;假设在进程间传递,即使通过再多的进程间的传递,仅仅要最后的目标是同一个进程的component,那么他得到的IBinder对象就是本地的对象。

           IBinder对象在进程间传递的形式(一)

   


    套用模型

    理解了上面的这个模型,我们再回过头看最開始的那个命题结论就非常好理解了

    1.当client和service处在同样进程中的话,asInterface的输入的IBinder为server的引用时;

    2.当client和service处在不同进程中的话,asInterface的输入的IBinder为server的代理。

    假如某一个component(比如一个Acitivity)处在进程A,它须要bind一个service,而该service处在进程B中,我们简介一下bind的过程。

    1. 进程A向AM(进程system_server)发出Bind请求,并将回调ServiceConnection提供给AM(传递给AM的也是一个接口(IServiceConnection),由于AM与A之间是双工通信,所以A须要向AM提供IBinder);

    2. AM启动进程B并创建service,进程B将service的IBinder对象传递给AM,AM再通过IServiceConnection传递给进程A。所以service的IBinder对象的传递路径为:进程B–>进程system_server(AM)–>进程A。

    套用上面的模型,就会得出本文最開始命题的结论。

    便于理解下图给出里bind 一个service的过程

IBinder对象在进程间传递的形式(一)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/118700.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • swift uiwebview 用cookie 来实现自动登录

    swift uiwebview 用cookie 来实现自动登录

  • Visio2003密钥(office 2003密钥)

    序列号:GWH28-DGCMP-P6RC4-6J4MT-3HFDY序列号:WFDWY-XQXJF-RHRYG-BG7RQ-BBDHM

  • URAL 1146

    URAL 1146题目大意:给出一个N*N的矩阵,每个元素的范围为[-127,+127]。求其所有子矩阵中各元素之和的最大值。TimeLimit:1000MS     MemoryLimit:65536KB     64bitIOFormat:%I64d&%I64u数据规模:N理论基础:无。题目分析:求和问题,用前缀和(每一行)+枚举(对列的起始与终点和行的起始与终点枚举)即

  • size_t和int区别

    size_t和int区别size_t和intsize_t是一些C/C++标准在stddef.h中定义的。这个类型足以用来表示对象的大小。size_t的真实类型与操作系统有关。在32位架构中被普遍定义为:typedefunsignedintsize_t;而在64位架构中被定义为:typedefunsignedlongsize_t;size_t在32位架构上…

  • 制作百度音乐标签页面html,百度音乐标签.html[通俗易懂]

    制作百度音乐标签页面html,百度音乐标签.html[通俗易懂]无标题文档全部歌手AAFineFrenzyAirSupplyAlnSpink安其拉安在旭安室奈美惠BBabyfaceBackstsktrrt..BandariBarbraStreisandBeeGss北京天使合唱团宝儿包包的音乐花园巴哈尔古丽巴桑布仁巴雅尔CChrisGarneauCheistinaAguileraChristina…

  • unittest测试框架搭建_开源自动化测试框架

    unittest测试框架搭建_开源自动化测试框架本文采用unittest测试框架搭建一个简单的自动化测试实例,完成readmine网站的登录和新建项目用例,并生成测试报告。test_login文件importunittestfromseleniumimportwebdriverclassTestStorm(unittest.TestCase):defsetUp(self):self.driver=webdriver.Chrome()self.driver.get(“http://d

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号