Lock depth checking allows panicy prints
[akaros.git] / kern / include / smp.h
1 /*
2  * Copyright (c) 2009 The Regents of the University of California
3  * Barret Rhoden <brho@cs.berkeley.edu>
4  * See LICENSE for details.
5  */
6
7 #ifndef ROS_INC_SMP_H
8 #define ROS_INC_SMP_H
9
10 /* SMP related functions */
11
12 #include <arch/smp.h>
13 #include <ros/common.h>
14 #include <sys/queue.h>
15 #include <trap.h>
16 #include <atomic.h>
17 #include <process.h>
18 #include <syscall.h>
19 #include <alarm.h>
20
21 #ifdef __SHARC__
22 typedef sharC_env_t;
23 #endif
24
25 struct per_cpu_info {
26         spinlock_t lock;
27         /* Process management */
28         // cur_proc should be valid on all cores that are not management cores.
29         struct proc *cur_proc;          /* which process context is loaded */
30         struct proc *owning_proc;       /* proc owning the core / cur_tf */
31         uint32_t owning_vcoreid;        /* vcoreid of owning proc (if applicable */
32         struct trapframe *cur_tf;       /* user tf we came in on (can be 0) */
33         struct trapframe actual_tf;     /* storage for cur_tf */
34         uint32_t __ctx_depth;           /* don't access directly.  see trap.h. */
35         int __lock_depth_disabled;      /* disables spinlock depth checking */
36         struct syscall *cur_sysc;       /* ptr is into cur_proc's address space */
37         struct kthread *spare;          /* useful when restarting */
38         struct timer_chain tchain;      /* for the per-core alarm */
39         unsigned int lock_depth;
40
41 #ifdef __SHARC__
42         // held spin-locks. this will have to go elsewhere if multiple kernel
43         // threads can share a CPU.
44         // zra: Used by Ivy. Let me know if this should go elsewhere.
45         sharC_env_t sharC_env;
46 #endif
47 #ifdef __i386__
48         taskstate_t *tss;
49         segdesc_t *gdt;
50 #endif
51         /* KMSGs */
52         spinlock_t immed_amsg_lock;
53         struct kernel_msg_list NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) immed_amsgs;
54         spinlock_t routine_amsg_lock;
55         struct kernel_msg_list NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) routine_amsgs;
56 }__attribute__((aligned(HW_CACHE_ALIGN)));
57
58 /* Allows the kernel to figure out what process is running on this core.  Can be
59  * used just like a pointer to a struct proc. */
60 #define current per_cpu_info[core_id()].cur_proc
61 /* Allows the kernel to figure out what *user* tf is on this core's stack.  Can
62  * be used just like a pointer to a struct Trapframe.  Note the distinction
63  * between kernel and user contexts.  The kernel always returns to its nested,
64  * interrupted contexts via iret/etc.  We never do that for user contexts. */
65 #define current_tf per_cpu_info[core_id()].cur_tf
66
67 typedef struct per_cpu_info NTPTV(t) NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) per_cpu_info_t;
68
69 extern per_cpu_info_t (RO per_cpu_info)[MAX_NUM_CPUS];
70 extern volatile uint32_t RO num_cpus;
71
72 /* SMP bootup functions */
73 void smp_boot(void);
74 void smp_idle(void) __attribute__((noreturn));
75 void smp_percpu_init(void); // this must be called by each core individually
76 void __arch_pcpu_init(uint32_t coreid); /* each arch has one of these */
77
78 /* SMP utility functions */
79 int smp_call_function_self(poly_isr_t handler, TV(t) data,
80                            handler_wrapper_t** wait_wrapper);
81 int smp_call_function_all(poly_isr_t handler, TV(t) data,
82                           handler_wrapper_t** wait_wrapper);
83 int smp_call_function_single(uint32_t dest, poly_isr_t handler, TV(t) data,
84                              handler_wrapper_t** wait_wrapper);
85 int smp_call_wait(handler_wrapper_t*SAFE wrapper);
86
87 #endif /* !ROS_INC_SMP_H */