Simplify things and put VM info into per-cpu struct
[akaros.git] / kern / include / smp.h
1 /*
2  * Copyright (c) 2009 The Regents of the University of California
3  * Barret Rhoden <brho@cs.berkeley.edu>
4  * See LICENSE for details.
5  */
6
7 #ifndef ROS_INC_SMP_H
8 #define ROS_INC_SMP_H
9
10 /* SMP related functions */
11
12 #include <arch/smp.h>
13 #include <ros/common.h>
14 #include <sys/queue.h>
15 #include <trap.h>
16 #include <atomic.h>
17 #include <process.h>
18 #include <syscall.h>
19 #include <alarm.h>
20 #include <trace.h>
21 #ifdef CONFIG_X86_64
22 #include <arch/vm.h>
23 #endif
24
25 #ifdef __SHARC__
26 typedef sharC_env_t;
27 #endif
28
29 struct per_cpu_info {
30 #ifdef CONFIG_X86_64
31         uintptr_t stacktop;
32         /* virtual machines */
33         struct vmcs vmxarea;
34         struct vmcs *vmcs;
35 #endif
36         spinlock_t lock;
37         /* Process management */
38         // cur_proc should be valid on all cores that are not management cores.
39         struct proc *cur_proc;          /* which process context is loaded */
40         struct proc *owning_proc;       /* proc owning the core / cur_ctx */
41         uint32_t owning_vcoreid;        /* vcoreid of owning proc (if applicable */
42         struct user_context *cur_ctx;   /* user ctx we came in on (can be 0) */
43         struct user_context actual_ctx; /* storage for cur_ctx */
44         uint32_t __ctx_depth;           /* don't access directly.  see trap.h. */
45         int __lock_checking_enabled;/* == 1, enables spinlock depth checking */
46         struct kthread *cur_kthread;/* tracks the running kernel context */
47         struct kthread *spare;          /* useful when restarting */
48         struct timer_chain tchain;      /* for the per-core alarm */
49         unsigned int lock_depth;
50         struct trace_ring traces;
51
52 #ifdef __SHARC__
53         // held spin-locks. this will have to go elsewhere if multiple kernel
54         // threads can share a CPU.
55         // zra: Used by Ivy. Let me know if this should go elsewhere.
56         sharC_env_t sharC_env;
57 #endif
58         /* TODO: 64b (not sure if we'll need these at all */
59 #ifdef CONFIG_X86
60         taskstate_t *tss;
61         segdesc_t *gdt;
62 #endif
63         /* KMSGs */
64         spinlock_t immed_amsg_lock;
65         struct kernel_msg_list NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) immed_amsgs;
66         spinlock_t routine_amsg_lock;
67         struct kernel_msg_list NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) routine_amsgs;
68 }__attribute__((aligned(ARCH_CL_SIZE)));
69
70 /* Allows the kernel to figure out what process is running on this core.  Can be
71  * used just like a pointer to a struct proc. */
72 #define current per_cpu_info[core_id()].cur_proc
73 /* Allows the kernel to figure out what *user* ctx is on this core's stack.  Can
74  * be used just like a pointer to a struct user_context.  Note the distinction
75  * between kernel and user contexts.  The kernel always returns to its nested,
76  * interrupted contexts via iret/etc.  We never do that for user contexts. */
77 #define current_ctx per_cpu_info[core_id()].cur_ctx
78
79 typedef struct per_cpu_info NTPTV(t) NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) per_cpu_info_t;
80
81 extern per_cpu_info_t (RO per_cpu_info)[MAX_NUM_CPUS];
82 extern volatile uint32_t RO num_cpus;
83
84 /* SMP bootup functions */
85 void smp_boot(void);
86 void smp_idle(void) __attribute__((noreturn));
87 void smp_percpu_init(void); // this must be called by each core individually
88 void __arch_pcpu_init(uint32_t coreid); /* each arch has one of these */
89
90 /* SMP utility functions */
91 int smp_call_function_self(isr_t handler, void *data,
92                            handler_wrapper_t **wait_wrapper);
93 int smp_call_function_all(isr_t handler, void *data,
94                           handler_wrapper_t **wait_wrapper);
95 int smp_call_function_single(uint32_t dest, isr_t handler, void *data,
96                              handler_wrapper_t **wait_wrapper);
97 int smp_call_wait(handler_wrapper_t *wrapper);
98
99 /* PCPUI Trace Rings: */
100 struct pcpu_trace_event {
101         int                                                     type;
102         int                                                     arg0;
103         uint64_t                                        arg1;
104 };
105
106 /* If you want to add a type, use the next available number, increment NR_TYPES,
107  * use your own macro, and provide a handler.  Add your handler to
108  * pcpui_tr_handlers in smp.c. */
109 #define PCPUI_TR_TYPE_NULL              0
110 #define PCPUI_TR_TYPE_KMSG              1
111 #define PCPUI_TR_TYPE_LOCKS             2
112 #define PCPUI_NR_TYPES                  3
113
114 #ifdef CONFIG_TRACE_KMSGS
115
116 # define pcpui_trace_kmsg(pcpui, pc)                                           \
117 {                                                                              \
118         struct pcpu_trace_event *e = get_trace_slot_racy(&pcpui->traces);          \
119         if (e) {                                                                   \
120                 e->type = PCPUI_TR_TYPE_KMSG;                                          \
121                 e->arg1 = pc;                                                          \
122         }                                                                          \
123 }
124
125 #else
126
127 # define pcpui_trace_kmsg(pcpui, pc)
128
129 #endif /* CONFIG_TRACE_KMSGS */
130
131
132 #ifdef CONFIG_TRACE_LOCKS
133
134 # define pcpui_trace_locks(pcpui, lock)                                        \
135 {                                                                              \
136         struct pcpu_trace_event *e = get_trace_slot_overwrite(&pcpui->traces);     \
137         if (e) {                                                                   \
138                 e->type = PCPUI_TR_TYPE_LOCKS;                                         \
139                 e->arg0 = (int)tsc2usec(read_tsc());                                   \
140                 e->arg1 = (uintptr_t)lock;                                             \
141         }                                                                          \
142 }
143
144 #else
145
146 # define pcpui_trace_locks(pcpui, lock)
147
148 #endif /* CONFIG_TRACE_LOCKS */
149
150 /* Run the handlers for all events in a pcpui ring.  Can run on all cores, or
151  * just one core.  'type' selects which event type is handled (0 for all). */
152 void pcpui_tr_foreach(int coreid, int type);
153 void pcpui_tr_foreach_all(int type);
154 void pcpui_tr_reset_all(void);
155 void pcpui_tr_reset_and_clear_all(void);
156
157 #endif /* ROS_INC_SMP_H */