Spinlock depth checking
[akaros.git] / kern / include / smp.h
1 /*
2  * Copyright (c) 2009 The Regents of the University of California
3  * Barret Rhoden <brho@cs.berkeley.edu>
4  * See LICENSE for details.
5  */
6
7 #ifndef ROS_INC_SMP_H
8 #define ROS_INC_SMP_H
9
10 /* SMP related functions */
11
12 #include <arch/smp.h>
13 #include <ros/common.h>
14 #include <sys/queue.h>
15 #include <trap.h>
16 #include <atomic.h>
17 #include <process.h>
18 #include <syscall.h>
19 #include <alarm.h>
20
21 #ifdef __SHARC__
22 typedef sharC_env_t;
23 #endif
24
25 struct per_cpu_info {
26         spinlock_t lock;
27         /* Process management */
28         // cur_proc should be valid on all cores that are not management cores.
29         struct proc *cur_proc;          /* which process context is loaded */
30         struct proc *owning_proc;       /* proc owning the core / cur_tf */
31         uint32_t owning_vcoreid;        /* vcoreid of owning proc (if applicable */
32         struct trapframe *cur_tf;       /* user tf we came in on (can be 0) */
33         struct trapframe actual_tf;     /* storage for cur_tf */
34         struct syscall *cur_sysc;       /* ptr is into cur_proc's address space */
35         struct kthread *spare;          /* useful when restarting */
36         struct timer_chain tchain;      /* for the per-core alarm */
37         unsigned int lock_depth;
38
39 #ifdef __SHARC__
40         // held spin-locks. this will have to go elsewhere if multiple kernel
41         // threads can share a CPU.
42         // zra: Used by Ivy. Let me know if this should go elsewhere.
43         sharC_env_t sharC_env;
44 #endif
45 #ifdef __i386__
46         taskstate_t *tss;
47         segdesc_t *gdt;
48 #endif
49         /* KMSGs */
50         spinlock_t immed_amsg_lock;
51         struct kernel_msg_list NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) immed_amsgs;
52         spinlock_t routine_amsg_lock;
53         struct kernel_msg_list NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) routine_amsgs;
54 }__attribute__((aligned(HW_CACHE_ALIGN)));
55
56 /* Allows the kernel to figure out what process is running on this core.  Can be
57  * used just like a pointer to a struct proc. */
58 #define current per_cpu_info[core_id()].cur_proc
59 /* Allows the kernel to figure out what *user* tf is on this core's stack.  Can
60  * be used just like a pointer to a struct Trapframe.  Note the distinction
61  * between kernel and user contexts.  The kernel always returns to its nested,
62  * interrupted contexts via iret/etc.  We never do that for user contexts. */
63 #define current_tf per_cpu_info[core_id()].cur_tf
64
65 typedef struct per_cpu_info NTPTV(t) NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) per_cpu_info_t;
66
67 extern per_cpu_info_t (RO per_cpu_info)[MAX_NUM_CPUS];
68 extern volatile uint32_t RO num_cpus;
69
70 /* SMP bootup functions */
71 void smp_boot(void);
72 void smp_idle(void) __attribute__((noreturn));
73 void smp_percpu_init(void); // this must be called by each core individually
74 void __arch_pcpu_init(uint32_t coreid); /* each arch has one of these */
75
76 /* SMP utility functions */
77 int smp_call_function_self(poly_isr_t handler, TV(t) data,
78                            handler_wrapper_t** wait_wrapper);
79 int smp_call_function_all(poly_isr_t handler, TV(t) data,
80                           handler_wrapper_t** wait_wrapper);
81 int smp_call_function_single(uint32_t dest, poly_isr_t handler, TV(t) data,
82                              handler_wrapper_t** wait_wrapper);
83 int smp_call_wait(handler_wrapper_t*SAFE wrapper);
84
85 #endif /* !ROS_INC_SMP_H */