Cleans up preempt_pending helper functions
[akaros.git] / user / parlib / include / vcore.h
1 #ifndef _VCORE_H
2 #define _VCORE_H
3
4 #ifdef __cplusplus
5 extern "C" {
6 #endif
7
8 #include <arch/vcore.h>
9 #include <sys/param.h>
10 #include <string.h>
11
12 /*****************************************************************************/
13 /* TODO: This is a complete hack, but necessary for vcore stuff to work for now
14  * The issue is that exit sometimes calls sys_yield(), and we can't recover from
15  * that properly under our vcore model (we shouldn't though).  We really need to
16  * rethink what sys_yield 'should' do when in multicore mode, or else come up 
17  * with a different syscall entirely. */
18 #include <stdlib.h>
19 #include <unistd.h>
20 #undef exit
21 #define exit(status) ros_syscall(SYS_proc_destroy, getpid(), status, 0, 0, 0, 0)
22 /*****************************************************************************/
23
24 #define LOG2_MAX_VCORES 6
25 #define MAX_VCORES (1 << LOG2_MAX_VCORES)
26
27 #define TRANSITION_STACK_PAGES 2
28 #define TRANSITION_STACK_SIZE (TRANSITION_STACK_PAGES*PGSIZE)
29
30 /* Defined by glibc; Must be implemented by a user level threading library */
31 extern void vcore_entry();
32 /* Declared in glibc's start.c */
33 extern __thread bool __vcore_context;
34
35 /* Utility Functions */
36 void *allocate_tls(void);
37 void free_tls(void *tcb);
38 void *reinit_tls(void *tcb);
39
40 /* Vcore API functions */
41 static inline size_t max_vcores(void);
42 static inline size_t num_vcores(void);
43 static inline int vcore_id(void);
44 static inline bool in_vcore_context(void);
45 static inline bool in_multi_mode(void);
46 static inline void __enable_notifs(uint32_t vcoreid);
47 static inline void __disable_notifs(uint32_t vcoreid);
48 static inline bool notif_is_enabled(uint32_t vcoreid);
49 static inline bool vcore_is_mapped(uint32_t vcoreid);
50 static inline bool vcore_is_preempted(uint32_t vcoreid);
51 static inline struct preempt_data *vcpd_of(uint32_t vcoreid);
52 static inline bool preempt_is_pending(uint32_t vcoreid);
53 static inline bool __preempt_is_pending(uint32_t vcoreid);
54 int vcore_init(void);
55 int vcore_request(long nr_new_vcores);
56 void vcore_yield(bool preempt_pending);
57 bool clear_notif_pending(uint32_t vcoreid);
58 void enable_notifs(uint32_t vcoreid);
59 void disable_notifs(uint32_t vcoreid);
60 void vcore_idle(void);
61
62 /* Static inlines */
63 static inline size_t max_vcores(void)
64 {
65         return MIN(__procinfo.max_vcores, MAX_VCORES);
66 }
67
68 static inline size_t num_vcores(void)
69 {
70         return __procinfo.num_vcores;
71 }
72
73 static inline int vcore_id(void)
74 {
75         return __vcoreid;
76 }
77
78 static inline bool in_vcore_context(void)
79 {
80         return __vcore_context;
81 }
82
83 static inline bool in_multi_mode(void)
84 {
85         return __procinfo.is_mcp;
86 }
87
88 /* Only call this if you know what you are doing. */
89 static inline void __enable_notifs(uint32_t vcoreid)
90 {
91         vcpd_of(vcoreid)->notif_disabled = FALSE;
92 }
93
94 static inline void __disable_notifs(uint32_t vcoreid)
95 {
96         vcpd_of(vcoreid)->notif_disabled = TRUE;
97 }
98
99 static inline bool notif_is_enabled(uint32_t vcoreid)
100 {
101         return !vcpd_of(vcoreid)->notif_disabled;
102 }
103
104 static inline bool vcore_is_mapped(uint32_t vcoreid)
105 {
106         return __procinfo.vcoremap[vcoreid].valid;
107 }
108
109 /* We could also check for VC_K_LOCK, but that's a bit much. */
110 static inline bool vcore_is_preempted(uint32_t vcoreid)
111 {
112         struct preempt_data *vcpd = vcpd_of(vcoreid);
113         return atomic_read(&vcpd->flags) & VC_PREEMPTED;
114 }
115
116 static inline struct preempt_data *vcpd_of(uint32_t vcoreid)
117 {
118         return &__procdata.vcore_preempt_data[vcoreid];
119 }
120
121 /* Uthread's can call this in case they care if a preemption is coming.  If a
122  * preempt is incoming, this will return TRUE, if you are in uthread context.  A
123  * reasonable response for a uthread is to yield, and vcore_entry will deal with
124  * the preempt pending.
125  *
126  * If you call this from vcore context, it will do nothing.  In general, it's
127  * not safe to just yield (or do whatever you plan on doing) from arbitrary
128  * places in vcore context.  So we just lie about PP. */
129 static inline bool preempt_is_pending(uint32_t vcoreid)
130 {
131         if (in_vcore_context())
132                 return FALSE;
133         return __preempt_is_pending(vcoreid);
134 }
135
136 static inline bool __preempt_is_pending(uint32_t vcoreid)
137 {
138         return __procinfo.vcoremap[vcoreid].preempt_pending;
139 }
140
141 #ifdef __cplusplus
142 }
143 #endif
144
145 #endif