parlib: Add 'timed' functions for sems/mtxs/cvs
[akaros.git] / user / parlib / include / parlib / uthread.h
1 #pragma once
2
3 #include <parlib/vcore.h>
4 #include <parlib/signal.h>
5 #include <parlib/spinlock.h>
6 #include <parlib/parlib.h>
7 #include <ros/syscall.h>
8 #include <sys/queue.h>
9 #include <time.h>
10
11 __BEGIN_DECLS
12
13 #define UTHREAD_DONT_MIGRATE            0x001 /* don't move to another vcore */
14 #define UTHREAD_SAVED                           0x002 /* uthread's state is in utf */
15 #define UTHREAD_FPSAVED                         0x004 /* uthread's FP state is in uth->as */
16 #define UTHREAD_IS_THREAD0                      0x008 /* thread0: glibc's main() thread */
17
18 /* Thread States */
19 #define UT_RUNNING              1
20 #define UT_NOT_RUNNING  2
21
22 /* Externally blocked thread reasons (for uthread_has_blocked()) */
23 #define UTH_EXT_BLK_MUTEX                       1
24 #define UTH_EXT_BLK_EVENTQ                      2
25 #define UTH_EXT_BLK_JUSTICE                     3       /* whatever.  might need more options */
26
27 /* Bare necessities of a user thread.  2LSs should allocate a bigger struct and
28  * cast their threads to uthreads when talking with vcore code.  Vcore/default
29  * 2LS code won't touch udata or beyond. */
30 struct uthread {
31         struct user_context u_ctx;
32         struct ancillary_state as;
33         void *tls_desc;
34         int flags;
35         int state;
36         struct sigstate sigstate;
37         int notif_disabled_depth;
38         TAILQ_ENTRY(uthread) sync_next;
39         struct syscall *sysc;   /* syscall we're blocking on, if any */
40         struct syscall local_sysc;      /* for when we don't want to use the stack */
41         void (*yield_func)(struct uthread*, void*);
42         void *yield_arg;
43         int err_no;
44         char err_str[MAX_ERRSTR_LEN];
45 };
46 TAILQ_HEAD(uth_tailq, uthread);
47
48 extern __thread struct uthread *current_uthread;
49
50
51 /* This struct is undefined.  We use it instead of void * so we can get
52  * compiler warnings if someone passes the wrong pointer type.  Internally, 2LSs
53  * and the default implementation use another object type. */
54 typedef struct __uth_sync_opaque * uth_sync_t;
55
56 /* 2LS-independent synchronization code (e.g. uthread mutexes) uses these
57  * helpers to access 2LS-specific functions.
58  *
59  * Note the spinlock associated with the higher-level sync primitive is held for
60  * these (where applicable). */
61 uth_sync_t __uth_sync_alloc(void);
62 void __uth_sync_free(uth_sync_t sync);
63 struct uthread *__uth_sync_get_next(uth_sync_t sync);
64 bool __uth_sync_get_uth(uth_sync_t sync, struct uthread *uth);
65 /* 2LSs that use default sync objs will call this in their has_blocked op. */
66 void __uth_default_sync_enqueue(struct uthread *uth, uth_sync_t sync);
67
68 /* 2L-Scheduler operations.  Examples in pthread.c. */
69 struct schedule_ops {
70         /**** These functions must be defined ****/
71         /* Functions supporting thread ops */
72         void (*sched_entry)(void);
73         void (*thread_runnable)(struct uthread *);
74         void (*thread_paused)(struct uthread *);
75         void (*thread_blockon_sysc)(struct uthread *, void *);
76         void (*thread_has_blocked)(struct uthread *, uth_sync_t, int);
77         void (*thread_refl_fault)(struct uthread *, struct user_context *);
78         /**** Defining these functions is optional. ****/
79         uth_sync_t (*sync_alloc)(void);
80         void (*sync_free)(uth_sync_t);
81         struct uthread *(*sync_get_next)(uth_sync_t);
82         bool (*sync_get_uth)(uth_sync_t, struct uthread *);
83         /* Functions event handling wants */
84         void (*preempt_pending)(void);
85 };
86 extern struct schedule_ops *sched_ops;
87
88 /* Low-level _S code calls this for basic uthreading without a 2LS */
89 void uthread_lib_init(void);
90 /* Call this from your 2LS init routines.  Pass it a uthread representing
91  * thread0, your 2LS ops, and your syscall handler + data.
92  *
93  * When it returns, you're in _M mode (thread0 on vcore0) */
94 void uthread_2ls_init(struct uthread *uthread, struct schedule_ops *ops,
95                       void (*handle_sysc)(struct event_msg *, unsigned int,
96                                           void *),
97                       void *data);
98 /* Call this to become an mcp capable of worling with uthreads. */
99 void uthread_mcp_init(void);
100
101 /* Functions to make/manage uthreads.  Can be called by functions such as
102  * pthread_create(), which can wrap these with their own stuff (like attrs,
103  * retvals, etc). */
104
105 /* uthread_init() does the uthread initialization of a uthread that the caller
106  * created.  Call this whenever you are "starting over" with a thread.  Pass in
107  * attr, if you want to override any defaults. */
108 struct uth_thread_attr {
109         bool want_tls;          /* default, no */
110 };
111 void uthread_init(struct uthread *new_thread, struct uth_thread_attr *attr);
112 /* Call this when you are done with a uthread, forever, but before you free it */
113 void uthread_cleanup(struct uthread *uthread);
114 void uthread_runnable(struct uthread *uthread);
115 void uthread_yield(bool save_state, void (*yield_func)(struct uthread*, void*),
116                    void *yield_arg);
117 void uthread_sleep(unsigned int seconds);
118 void uthread_usleep(unsigned int usecs);
119 void __attribute__((noreturn)) uthread_sleep_forever(void);
120 void uthread_has_blocked(struct uthread *uthread, uth_sync_t sync, int flags);
121 void uthread_paused(struct uthread *uthread);
122
123 /* Utility functions */
124 bool __check_preempt_pending(uint32_t vcoreid); /* careful: check the code */
125 void uth_disable_notifs(void);
126 void uth_enable_notifs(void);
127
128 /* Helpers, which the 2LS can call */
129 void __block_uthread_on_async_sysc(struct uthread *uth);
130 void highjack_current_uthread(struct uthread *uthread);
131 struct uthread *stop_current_uthread(void);
132 void __attribute__((noreturn)) run_current_uthread(void);
133 void __attribute__((noreturn)) run_uthread(struct uthread *uthread);
134
135 /* Asking for trouble with this API, when we just want stacktop (or whatever
136  * the SP will be). */
137 static inline void init_uthread_ctx(struct uthread *uth, void (*entry)(void),
138                                     void *stack_bottom, uint32_t size)
139 {
140         init_user_ctx(&uth->u_ctx, (long)entry, (long)(stack_bottom) + size);
141 }
142
143 /* When we look at the current_uthread, its context might be in the uthread
144  * struct or it might be in VCPD.  This returns a pointer to the right place. */
145 static inline struct user_context *get_cur_uth_ctx(void)
146 {
147         if (current_uthread->flags & UTHREAD_SAVED)
148                 return &current_uthread->u_ctx;
149         else
150                 return &vcpd_of(vcore_id())->uthread_ctx;
151 }
152
153 #define uthread_set_tls_var(uth, name, val)                                    \
154 ({                                                                             \
155         typeof(val) __val = val;                                                   \
156         begin_access_tls_vars(((struct uthread*)(uth))->tls_desc);                 \
157         name = __val;                                                              \
158         end_access_tls_vars();                                                     \
159 })
160
161 #define uthread_get_tls_var(uth, name)                                         \
162 ({                                                                             \
163         typeof(name) val;                                                          \
164         begin_access_tls_vars(((struct uthread*)(uth))->tls_desc);                 \
165         val = name;                                                                \
166         end_access_tls_vars();                                                     \
167         val;                                                                       \
168 })
169
170 /* Uthread Mutexes / CVs / etc. */
171
172 typedef struct uth_semaphore uth_semaphore_t;
173 typedef struct uth_semaphore uth_mutex_t;
174 typedef struct uth_recurse_mutex uth_recurse_mutex_t;
175 typedef struct uth_cond_var uth_cond_var_t;
176
177 struct uth_semaphore {
178         struct spin_pdr_lock            lock;
179         uth_sync_t                                      sync_obj;
180         unsigned int                            count;
181         parlib_once_t                           once_ctl;
182 };
183 #define UTH_SEMAPHORE_INIT(n) { .once_ctl = PARLIB_ONCE_INIT, .count = (n) }
184 #define UTH_MUTEX_INIT { .once_ctl = PARLIB_ONCE_INIT }
185
186 struct uth_recurse_mutex {
187         uth_mutex_t                                     mtx;
188         struct uthread                          *lockholder;
189         unsigned int                            count;
190         parlib_once_t                           once_ctl;
191 };
192 #define UTH_RECURSE_MUTEX_INIT { .once_ctl = PARLIB_ONCE_INIT }
193
194 struct uth_cond_var {
195         struct spin_pdr_lock            lock;
196         uth_sync_t                                      sync_obj;
197         parlib_once_t                           once_ctl;
198 };
199 #define UTH_COND_VAR_INIT { .once_ctl = PARLIB_ONCE_INIT }
200
201 void uth_semaphore_init(uth_semaphore_t *sem, unsigned int count);
202 void uth_semaphore_destroy(uth_semaphore_t *sem);
203 uth_semaphore_t *uth_semaphore_alloc(unsigned int count);
204 void uth_semaphore_free(uth_semaphore_t *sem);
205 bool uth_semaphore_timed_down(uth_semaphore_t *sem,
206                               const struct timespec *abs_timeout);
207 void uth_semaphore_down(uth_semaphore_t *sem);
208 bool uth_semaphore_trydown(uth_semaphore_t *sem);
209 void uth_semaphore_up(uth_semaphore_t *sem);
210
211 void uth_mutex_init(uth_mutex_t *m);
212 void uth_mutex_destroy(uth_mutex_t *m);
213 uth_mutex_t *uth_mutex_alloc(void);
214 void uth_mutex_free(uth_mutex_t *m);
215 bool uth_mutex_timed_lock(uth_mutex_t *m, const struct timespec *abs_timeout);
216 void uth_mutex_lock(uth_mutex_t *m);
217 bool uth_mutex_trylock(uth_mutex_t *m);
218 void uth_mutex_unlock(uth_mutex_t *m);
219
220 void uth_recurse_mutex_init(uth_recurse_mutex_t *r_m);
221 void uth_recurse_mutex_destroy(uth_recurse_mutex_t *r_m);
222 uth_recurse_mutex_t *uth_recurse_mutex_alloc(void);
223 void uth_recurse_mutex_free(uth_recurse_mutex_t *r_m);
224 bool uth_recurse_mutex_timed_lock(uth_recurse_mutex_t *m,
225                                   const struct timespec *abs_timeout);
226 void uth_recurse_mutex_lock(uth_recurse_mutex_t *r_m);
227 bool uth_recurse_mutex_trylock(uth_recurse_mutex_t *r_m);
228 void uth_recurse_mutex_unlock(uth_recurse_mutex_t *r_m);
229
230 /* Callers to cv_wait must hold the mutex, which it will atomically wait and
231  * unlock, then relock when it returns.  Callers to signal and broadcast may
232  * hold the mutex, if they choose. */
233 void uth_cond_var_init(uth_cond_var_t *cv);
234 void uth_cond_var_destroy(uth_cond_var_t *cv);
235 uth_cond_var_t *uth_cond_var_alloc(void);
236 void uth_cond_var_free(uth_cond_var_t *cv);
237 bool uth_cond_var_timed_wait(uth_cond_var_t *cv, uth_mutex_t *m,
238                              const struct timespec *abs_timeout);
239 void uth_cond_var_wait(uth_cond_var_t *cv, uth_mutex_t *m);
240 bool uth_cond_var_timed_wait_recurse(uth_cond_var_t *cv,
241                                      uth_recurse_mutex_t *r_mtx,
242                                      const struct timespec *abs_timeout);
243 void uth_cond_var_wait_recurse(uth_cond_var_t *cv, uth_recurse_mutex_t *r_mtx);
244 void uth_cond_var_signal(uth_cond_var_t *cv);
245 void uth_cond_var_broadcast(uth_cond_var_t *cv);
246
247 /* Called by gcc to see if we are multithreaded. */
248 bool uth_2ls_is_multithreaded(void);
249
250 __END_DECLS