Increases the op backtrace buffer
authorBarret Rhoden <brho@cs.berkeley.edu>
Tue, 11 Nov 2014 22:42:25 +0000 (14:42 -0800)
committerBarret Rhoden <brho@cs.berkeley.edu>
Tue, 11 Nov 2014 22:42:25 +0000 (14:42 -0800)
Our callgraphs are often deeper than 8, which leads to not properly attributing
deep functions to their older ancestors.  The downside is the buffers (on the
stack) are bigger, increasing our chances of running off the stack, and
increasing the overhead of the backtrace.  If the stack is a problem, we can
malloc the buffer or something.

kern/src/oprofile/cpu_buffer.c

index 1968dc0..596f359 100644 (file)
@@ -34,7 +34,7 @@ static struct queue *opq;
 /* this is run from core 0 for all cpu buffers. */
 static void wq_sync_buffer(void);
 unsigned long oprofile_cpu_buffer_size = 65536;
-unsigned long oprofile_backtrace_depth = 8;
+unsigned long oprofile_backtrace_depth = 16;
 
 #define DEFAULT_TIMER_EXPIRE (HZ / 10)
 static int work_enabled;