645c0516e0c9036a3616df07532759462b2eecfe
[akaros.git] / user / parlib / include / vcore.h
1 #ifndef _VCORE_H
2 #define _VCORE_H
3
4 #ifdef __cplusplus
5 extern "C" {
6 #endif
7
8 #include <arch/vcore.h>
9 #include <sys/param.h>
10 #include <string.h>
11
12 /*****************************************************************************/
13 /* TODO: This is a complete hack, but necessary for vcore stuff to work for now
14  * The issue is that exit sometimes calls sys_yield(), and we can't recover from
15  * that properly under our vcore model (we shouldn't though).  We really need to
16  * rethink what sys_yield 'should' do when in multicore mode, or else come up 
17  * with a different syscall entirely. */
18 #include <stdlib.h>
19 #include <unistd.h>
20 #undef exit
21 #define exit(status) ros_syscall(SYS_proc_destroy, getpid(), status, 0, 0, 0, 0)
22 /*****************************************************************************/
23
24 #define LOG2_MAX_VCORES 6
25 #define MAX_VCORES (1 << LOG2_MAX_VCORES)
26
27 #define TRANSITION_STACK_PAGES 2
28 #define TRANSITION_STACK_SIZE (TRANSITION_STACK_PAGES*PGSIZE)
29
30 /* Defined by glibc; Must be implemented by a user level threading library */
31 extern void vcore_entry();
32 /* Declared in glibc's start.c */
33 extern __thread bool __vcore_context;
34 /* Simple ev_q (bits, IPIs, vc0) for scp syscalls, signals, etc */
35 struct event_queue *__scp_simple_evq;
36
37 /* Utility Functions */
38 void *allocate_tls(void);
39 void free_tls(void *tcb);
40 void *reinit_tls(void *tcb);
41
42 /* Vcore API functions */
43 static inline size_t max_vcores(void);
44 static inline size_t num_vcores(void);
45 static inline int vcore_id(void);
46 static inline bool in_vcore_context(void);
47 static inline bool in_multi_mode(void);
48 static inline void __enable_notifs(uint32_t vcoreid);
49 static inline void __disable_notifs(uint32_t vcoreid);
50 static inline bool notif_is_enabled(uint32_t vcoreid);
51 static inline bool vcore_is_mapped(uint32_t vcoreid);
52 static inline bool vcore_is_preempted(uint32_t vcoreid);
53 static inline struct preempt_data *vcpd_of(uint32_t vcoreid);
54 static inline bool preempt_is_pending(uint32_t vcoreid);
55 static inline bool __preempt_is_pending(uint32_t vcoreid);
56 int vcore_init(void);
57 void vcore_event_init(void);
58 void vcore_change_to_m(void);
59 int vcore_request(long nr_new_vcores);
60 void vcore_yield(bool preempt_pending);
61 bool clear_notif_pending(uint32_t vcoreid);
62 void enable_notifs(uint32_t vcoreid);
63 void disable_notifs(uint32_t vcoreid);
64 void vcore_idle(void);
65 void ensure_vcore_runs(uint32_t vcoreid);
66 void cpu_relax_vc(uint32_t vcoreid);
67
68 /* Static inlines */
69 static inline size_t max_vcores(void)
70 {
71         return MIN(__procinfo.max_vcores, MAX_VCORES);
72 }
73
74 static inline size_t num_vcores(void)
75 {
76         return __procinfo.num_vcores;
77 }
78
79 static inline int vcore_id(void)
80 {
81         return __vcoreid;
82 }
83
84 static inline bool in_vcore_context(void)
85 {
86         return __vcore_context;
87 }
88
89 static inline bool in_multi_mode(void)
90 {
91         return __procinfo.is_mcp;
92 }
93
94 /* Only call this if you know what you are doing. */
95 static inline void __enable_notifs(uint32_t vcoreid)
96 {
97         vcpd_of(vcoreid)->notif_disabled = FALSE;
98 }
99
100 static inline void __disable_notifs(uint32_t vcoreid)
101 {
102         vcpd_of(vcoreid)->notif_disabled = TRUE;
103 }
104
105 static inline bool notif_is_enabled(uint32_t vcoreid)
106 {
107         return !vcpd_of(vcoreid)->notif_disabled;
108 }
109
110 static inline bool vcore_is_mapped(uint32_t vcoreid)
111 {
112         return __procinfo.vcoremap[vcoreid].valid;
113 }
114
115 /* We could also check for VC_K_LOCK, but that's a bit much. */
116 static inline bool vcore_is_preempted(uint32_t vcoreid)
117 {
118         struct preempt_data *vcpd = vcpd_of(vcoreid);
119         return atomic_read(&vcpd->flags) & VC_PREEMPTED;
120 }
121
122 static inline struct preempt_data *vcpd_of(uint32_t vcoreid)
123 {
124         return &__procdata.vcore_preempt_data[vcoreid];
125 }
126
127 /* Uthread's can call this in case they care if a preemption is coming.  If a
128  * preempt is incoming, this will return TRUE, if you are in uthread context.  A
129  * reasonable response for a uthread is to yield, and vcore_entry will deal with
130  * the preempt pending.
131  *
132  * If you call this from vcore context, it will do nothing.  In general, it's
133  * not safe to just yield (or do whatever you plan on doing) from arbitrary
134  * places in vcore context.  So we just lie about PP. */
135 static inline bool preempt_is_pending(uint32_t vcoreid)
136 {
137         if (in_vcore_context())
138                 return FALSE;
139         return __preempt_is_pending(vcoreid);
140 }
141
142 static inline bool __preempt_is_pending(uint32_t vcoreid)
143 {
144         return __procinfo.vcoremap[vcoreid].preempt_pending;
145 }
146
147 #ifdef __cplusplus
148 }
149 #endif
150
151 #endif