Breaks up sys_resource_req (XCC)
[akaros.git] / user / parlib / include / vcore.h
1 #ifndef _VCORE_H
2 #define _VCORE_H
3
4 #ifdef __cplusplus
5 extern "C" {
6 #endif
7
8 #include <arch/vcore.h>
9 #include <sys/param.h>
10 #include <string.h>
11
12 /*****************************************************************************/
13 /* TODO: This is a complete hack, but necessary for vcore stuff to work for now
14  * The issue is that exit sometimes calls sys_yield(), and we can't recover from
15  * that properly under our vcore model (we shouldn't though).  We really need to
16  * rethink what sys_yield 'should' do when in multicore mode, or else come up 
17  * with a different syscall entirely. */
18 #include <stdlib.h>
19 #include <unistd.h>
20 #undef exit
21 #define exit(status) ros_syscall(SYS_proc_destroy, getpid(), status, 0, 0, 0, 0)
22 /*****************************************************************************/
23
24 #define LOG2_MAX_VCORES 6
25 #define MAX_VCORES (1 << LOG2_MAX_VCORES)
26
27 #define TRANSITION_STACK_PAGES 2
28 #define TRANSITION_STACK_SIZE (TRANSITION_STACK_PAGES*PGSIZE)
29
30 /* Defined by glibc; Must be implemented by a user level threading library */
31 extern void vcore_entry();
32 /* Declared in glibc's start.c */
33 extern __thread bool __vcore_context;
34
35 /* Utility Functions */
36 void *allocate_tls(void);
37 void free_tls(void *tcb);
38 void *reinit_tls(void *tcb);
39
40 /* Vcore API functions */
41 static inline size_t max_vcores(void);
42 static inline size_t num_vcores(void);
43 static inline int vcore_id(void);
44 static inline bool in_vcore_context(void);
45 static inline bool in_multi_mode(void);
46 static inline void __enable_notifs(uint32_t vcoreid);
47 static inline void __disable_notifs(uint32_t vcoreid);
48 static inline bool notif_is_enabled(uint32_t vcoreid);
49 static inline bool vcore_is_mapped(uint32_t vcoreid);
50 static inline bool vcore_is_preempted(uint32_t vcoreid);
51 static inline struct preempt_data *vcpd_of(uint32_t vcoreid);
52 static inline bool preempt_is_pending(uint32_t vcoreid);
53 static inline bool __preempt_is_pending(uint32_t vcoreid);
54 int vcore_init(void);
55 void vcore_change_to_m(void);
56 int vcore_request(long nr_new_vcores);
57 void vcore_yield(bool preempt_pending);
58 bool clear_notif_pending(uint32_t vcoreid);
59 void enable_notifs(uint32_t vcoreid);
60 void disable_notifs(uint32_t vcoreid);
61 void vcore_idle(void);
62 void ensure_vcore_runs(uint32_t vcoreid);
63 void cpu_relax_vc(uint32_t vcoreid);
64
65 /* Static inlines */
66 static inline size_t max_vcores(void)
67 {
68         return MIN(__procinfo.max_vcores, MAX_VCORES);
69 }
70
71 static inline size_t num_vcores(void)
72 {
73         return __procinfo.num_vcores;
74 }
75
76 static inline int vcore_id(void)
77 {
78         return __vcoreid;
79 }
80
81 static inline bool in_vcore_context(void)
82 {
83         return __vcore_context;
84 }
85
86 static inline bool in_multi_mode(void)
87 {
88         return __procinfo.is_mcp;
89 }
90
91 /* Only call this if you know what you are doing. */
92 static inline void __enable_notifs(uint32_t vcoreid)
93 {
94         vcpd_of(vcoreid)->notif_disabled = FALSE;
95 }
96
97 static inline void __disable_notifs(uint32_t vcoreid)
98 {
99         vcpd_of(vcoreid)->notif_disabled = TRUE;
100 }
101
102 static inline bool notif_is_enabled(uint32_t vcoreid)
103 {
104         return !vcpd_of(vcoreid)->notif_disabled;
105 }
106
107 static inline bool vcore_is_mapped(uint32_t vcoreid)
108 {
109         return __procinfo.vcoremap[vcoreid].valid;
110 }
111
112 /* We could also check for VC_K_LOCK, but that's a bit much. */
113 static inline bool vcore_is_preempted(uint32_t vcoreid)
114 {
115         struct preempt_data *vcpd = vcpd_of(vcoreid);
116         return atomic_read(&vcpd->flags) & VC_PREEMPTED;
117 }
118
119 static inline struct preempt_data *vcpd_of(uint32_t vcoreid)
120 {
121         return &__procdata.vcore_preempt_data[vcoreid];
122 }
123
124 /* Uthread's can call this in case they care if a preemption is coming.  If a
125  * preempt is incoming, this will return TRUE, if you are in uthread context.  A
126  * reasonable response for a uthread is to yield, and vcore_entry will deal with
127  * the preempt pending.
128  *
129  * If you call this from vcore context, it will do nothing.  In general, it's
130  * not safe to just yield (or do whatever you plan on doing) from arbitrary
131  * places in vcore context.  So we just lie about PP. */
132 static inline bool preempt_is_pending(uint32_t vcoreid)
133 {
134         if (in_vcore_context())
135                 return FALSE;
136         return __preempt_is_pending(vcoreid);
137 }
138
139 static inline bool __preempt_is_pending(uint32_t vcoreid)
140 {
141         return __procinfo.vcoremap[vcoreid].preempt_pending;
142 }
143
144 #ifdef __cplusplus
145 }
146 #endif
147
148 #endif