概述
一. 概述
在博客以前有写过关于binder系列,大概写了10篇关于binder的文章,从binder驱动,到native层,再到framework,一路写到app层的使用。有兴趣的可以看看 Binder系列—开篇。
二.Binder驱动调试
看过Binder系列文章的同学,会发现Binder IPC过程最终都交给Binder Driver来完成,这是真正干跨进程通信活的地方,那么意味着这里会有各种核心的通信log,比如binder open, mmap, ioctl等操作都可以通过某种方式来打开相应调试信息来分析。对于binder driver存在16类调试log开关,如下:
2.1 debug_mask
Log类型 | mask值 | 解释 |
---|---|---|
BINDER_DEBUG_USER_ERROR | 1 | 用户使用错误 |
BINDER_DEBUG_FAILED_TRANSACTION | 2 | transaction失败 |
BINDER_DEBUG_DEAD_TRANSACTION | 4 | transaction死亡 |
BINDER_DEBUG_OPEN_CLOSE | 8 | binder的open/close/mmap信息 |
BINDER_DEBUG_DEAD_BINDER | 16 | binder/node死亡信息 |
BINDER_DEBUG_DEATH_NOTIFICATION | 32 | binder死亡通知信息 |
BINDER_DEBUG_READ_WRITE | 64 | binder的read/write信息 |
BINDER_DEBUG_USER_REFS | 128 | binder引用计数 |
BINDER_DEBUG_THREADS | 256 | binder_thread信息 |
BINDER_DEBUG_TRANSACTION | 512 | transaction信息 |
BINDER_DEBUG_TRANSACTION_COMPLETE | 1024 | transaction完成信息 |
BINDER_DEBUG_FREE_BUFFER | 2048 | 可用buffer信息 |
BINDER_DEBUG_INTERNAL_REFS | 4096 | binder内部引用计数 |
BINDER_DEBUG_BUFFER_ALLOC | 8192 | 同步内存分配信息 |
BINDER_DEBUG_PRIORITY_CAP | 16384 | 调整binder线程的nice值 |
BINDER_DEBUG_BUFFER_ALLOC_ASYNC | 32768 | 异步内存分配信息 |
每一项mask值通过将1左移N位,也就是等于2的倍数
2.2 调试开关
通过节点/sys/module/binder/parameters/debug_mask
来动态控制选择开启上表中的debug log.
(1)例如打开BINDER_DEBUG_OPEN_CLOSE
调试开关,则通过adb shell执行如下命令:
echo 8 > /sys/module/binder/parameters/debug_mask
(2)再例如同时打开BINDER_DEBUG_FAILED_TRANSACTION
和BINDER_DEBUG_DEAD_BINDER
,将各个mask值相加即可,16+2 =18.
echo 18 > /sys/module/binder/parameters/debug_mask
(3)要打开多个开关,只需将各个开关的mask值相加写入debug_mask即可。打开调试开关后,可通过adb shell,执行cat /proc/kmsg | grep binder
,即可查看相应的binder log信息。
2.3 原理
mask相加,其实现其实是利用或运算,通过一个变量控制16个开关,而不是采用16个变量,这是比较经典的设计方案。在binder Driver中通过下面语句完成节点控制debug的功能:
module_param_named(debug_mask, binder_debug_mask, uint, S_IWUSR | S_IRUGO);
module_param_named的功能:
- 首先会生成
/sys/module/binder/parameters/
目录; - module_param_named的第一个参数为
debug_mask
,则会在parameters目录下创建debug_mask
文件节点; - 当通过
echo NUM > debug_mask
命令,会触发动态修改module_param_named的第二个参数binder_debug_mask
值,这是个静态uint32_t类型数据; - 驱动中输出debug log都是通过调用binder_debug()方法,该方法通过与
binder_debug_mask
变量做或运算来判断相应类型的log信息是否需要输出。
binder_debug宏定义,如下:
#define binder_debug(mask, x...)
do {
if (binder_debug_mask & mask)
pr_info(x);
} while (0)
当然,也可以通过代码直接修改binder_debug_mask
值来控制调试开关,默认值为:
binder_debug_mask = BINDER_DEBUG_USER_ERROR |
BINDER_DEBUG_FAILED_TRANSACTION | BINDER_DEBUG_DEAD_TRANSACTION;
另外,在/sys/module/binder/parameters/
目录还有另外两个节点,分别为proc_no_lock, stop_on_user_error,其实现原理也基本差不多。
- proc_no_lock节点:与之对应binder驱动的
binder_debug_no_lock
变量,这是bool类型变量,该开关含义为在输出某些统计调试方法中是否加锁;默认为N; - stop_on_user_error节点:与之对应binder驱动的
binder_stop_on_user_error
变量,这是int类型变量,另外,修改该节点还会触发调用binder_set_stop_on_user_error()方法;该开关含义是指当触发BINDER_DEBUG_USER_ERROR类型错误时是否让整个binder系统进入休眠等待状态,默认值为0,代表不会即便发生该类型错误系统不会被挂住,而是继续执行。
三 实战
3.1 BINDER_DEBUG_OPEN_CLOSE
当打开调试开关BINDER_DEBUG_OPEN_CLOSE
时,主要输出binder的open, mmap, close, flush, release方法中的log信息
具体kernel log,如下:
- binder_open: 4681:4681
- binder_mmap: 4681 b6b42000-b6c40000 (1016 K) vma 200071 pagep 79f
- binder: 4681 close vm area b6b42000-b6c40000 (1016 K) vma 2220051 pagep 79f
- binder_flush: 4681 woke 0 threads
- binder_release: 4681 threads 1, nodes 0 (ref 0), refs 2, active transactions 0, buffers 1, pages 1
3.2 解析
上面各行log所对应的信息项:
- binder_open:
group_leader->pid
:pid
- binder_mmap:
pid
vm_start-vm_end (vm_size
K) vma vm_flags pagepvm_page_prot
- binder:
pid
close vm area vm_start-vm_end (vm_size
K) vma vm_flags pagepvm_page_prot
- binder_flush:
pid
wokewake_count
threads - binder_release:
pid
threadsthreads
, nodesnodes
(refincoming_refs
), refsoutgoing_refs
, active transactionsactive_transactions
, buffersbuffers
, pagespage_count
进一步说明其中部分关键词的含义:
vm_page_prot
:是指当前进程的VMA访问权限;wake_count
:是指该进程唤醒了处于BINDER_LOOPER_STATE_WAITING
休眠等待状态的线程个数;threads
是指该进程中的线程个数;nodes
代表该进程中创建binder_node个数;incoming_refs
指向当前node的refs个数;outgoing_refs
指向其他进程的refs个数;active_transactions
是指当前进程中所有binder线程的transactions总和;buffers
是指当前进程已分配的buffer个数;page_count
是指当前进程已分配的物理page个数。
3.3 对应函数
上述log每一行相对应的函数:
- binder_open()
- binder_vma_open() 或者 binder_mmap()
- binder_vma_close()
- binder_deferred_flush() 由binder_flush调用(见下方调用栈)
- binder_deferred_release() 由binder_release调用(见下方调用栈)
binder_flush调用栈:
binder_flush
binder_defer_work(proc, BINDER_DEFERRED_FLUSH);
queue_work(binder_deferred_workqueue, &binder_deferred_work);
binder_deferred_func //通过 DECLARE_WORK(binder_deferred_work, binder_deferred_func);
binder_deferred_flush
binder_release调用栈:
binder_release
binder_defer_work(proc, BINDER_DEFERRED_RELEASE);
queue_work(binder_deferred_workqueue, &binder_deferred_work);
binder_deferred_func //通过 DECLARE_WORK(binder_deferred_work, binder_deferred_func);
binder_deferred_release
当binder所在进程结束时会调用binder_release。 binder_open打开binder驱动/dev/binder,这是字符设备,获取文件描述符。在进程结束的时候会有一个关闭文件系统的过程中会调用驱动close方法,该方法相对应的是release()方法。
但并不是每个close系统调用都会触发调用release()方法. 只有真正释放设备数据结构才调用release(),内核维持一个文件结构被使用多少次的计数,即便是应用程序没有明显地关闭它打开的文件也适用: 内核在进程exit()时会释放所有内存和关闭相应的文件资源, 通过使用close系统调用最终也会release binder.
四. 其他实例
4.1 BINDER_DEBUG_DEAD_BINDER
//debug_id, node的引用次数,死亡通知个数
binder: node 1078337
now dead, refs 1
, death 0
//ref->proc->pid, ref->debug_id, ref->desc(handle)
binder: 13839
delete ref 1078335
desc 1
has death notification
//proc->pid, thread->pid, (u64)cookie, death
binder: 1788
:1805
BC_DEAD_BINDER_DONE 9ce308c0
found f10a5400
4.2 BINDER_DEBUG_FREE_BUFFER
查询可用buffer:
//proc->pid, thread->pid, (u64)data_ptr, buffer->debug_id, buffer->transaction
binder: 463
:5919
BC_FREE_BUFFER ub4641028
found buffer 1183795
for finished
transaction
binder: 277
:2771
BC_FREE_BUFFER ub6c58028
found buffer 1183806
for active
transaction
另外,buffer->transaction ? “active” : “finished”
位于方法binder_thread_write()
4.3 BINDER_DEBUG_BUFFER_ALLOC_ASYNC(异步)
申请和释放异步buffer:
//proc->pid, size, proc->free_async_space
binder: 1788
: binder_alloc_buf size 148
async free 520004
binder: 1788
: binder_free_buf size 148
async free 520192
解析:
- binder_alloc_buf:进程1788,申请148 Bytes,则该进程的可用异步空间大小520004 Bytes;
- binder_free_buf: 进程1788,释放148 Bytes,则该进程的可用异步空间大小520192 Bytes;
内存大小计算:
free_async_space = 520004 Bytes,再释放148 Bytes后,则可用大小应该是 520152 Bytes,这里却为520192 Bytes,这里多出来的40 Bytes是哪来得呢?这是因为binder_free_buf
还会同时释放struct binder_buffer,该结构体大小则为40 Bytes.
另外:buffer申请内存binder_alloc_buf
和释放内存binder_free_buf
,除了本身内存申请和释放,会同时伴随着binder_buffer结构体的创建和释放,这便是每次操作40 Bytes差距所在。另外, 对于64位系统,binder_buffer大小为80 Bytes.
初始化值
proc->free_async_space = proc->buffer_size / 2 = (1M-8K)/2 = 520192 Bytes。当进程刚打开binder驱动,执行完binder_mmap方法后,异步可用空间总大小为 520192 Bytes.
4.4 BINDER_DEBUG_BUFFER_ALLOC(同步)
// 参数:proc->pid, size, buffer, buffer_size
binder: 1788
: binder_alloc_buf size 76
got buffer c7800128
size 208
binder: 1788
: allocate
pages c7801000-c7800000
// 参数:proc->pid, new_buffer_size, new_buffer
binder: 1788
: add free buffer, size 92
, at c780019c
binder: 1788
: free
pages c7801000-c7800000
//参数:proc->pid, buffer, prev
binder: 1788
: merge free, buffer c780019c
share page with c7800128
解析:
- binder_alloc_buf: 从proc->free_buffers这棵红黑色树,找到一块大小大于并最接近
76
Bytes的buffer,该buffer大小为208
Bytes; - binder_update_page_range:申请一个page大小的物理内存,地址为
c7801000-c7800000
。 - binder_insert_free_buffer: 将空闲buffer添加到proc->free_buffers;
- binder_update_page_range:释放一个page大小的物理内存,地址为
c7801000-c7800000
。 - binder_delete_free_buffer:在执行binder_free_buf()过程,合并释放的buffer,由于该buffer跟上一个buffer共享同一page,则无需释放。
五. 小结
本文主要介绍控制调试开关和各个开关的含义及原理,最后再通过一个实例来进一步来说明其中一项开关打开后的log信息该如何分析。后续会介绍更多的调试含义和调试工具,以及从上至下binder是如何通信。
原文地址:http://gityuan.com/2016/08/27/binder-debug/
最后
以上就是碧蓝烧鹅为你收集整理的Binder子系统之调试分析(一)的全部内容,希望文章能够帮你解决Binder子系统之调试分析(一)所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复