Use a helper for determining if a uth handles sigs
[akaros.git] / user / parlib / signal.c
1 /* Copyright (c) 2013 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * Kevin Klues <klueska@cs.berkeley.edu>
4  * See LICENSE for details.
5  *
6  * POSIX signal handling glue.  All glibc programs link against parlib, so they
7  * will get this mixed in.  Mostly just registration of signal handlers.
8  *
9  * POSIX signal handling caveats:
10  *      - We don't copy signal handling tables or anything across forks or execs
11  *      - We don't send meaningful info in the siginfos, nor do we pass pid/uids on
12  *      signals coming from a kill.  This is especially pertinent for sigqueue,
13  *      which needs a payload (value) and sending PID
14  *      - We run handlers in vcore context, so any blocking syscall will spin.
15  *      Regular signals have restrictions on their syscalls too, though not this
16  *      great.  We could spawn off a uthread to run the handler, given that we have
17  *      a 2LS (which we don't for SCPs).
18  *      - We don't do anything with signal blocking/masking.  When in a signal
19  *      handler, you won't get interrupted with another signal handler (so long as
20  *      you run it in vcore context!).  With uthreads, you could get interrupted.
21  *      There is also no process wide signal blocking yet (sigprocmask()).  If this
22  *      is desired, we can abort certain signals when we h_p_signal(), 
23  *      - Likewise, we don't do waiting for particular signals yet.  Just about the
24  *      only thing we do is allow the registration of signal handlers. 
25  *      - Check each function for further notes.  */
26
27 // Needed for sigmask functions...
28 #define _GNU_SOURCE
29
30 #include <stdio.h>
31 #include <parlib/parlib.h>
32 #include <parlib/signal.h>
33 #include <parlib/uthread.h>
34 #include <parlib/event.h>
35 #include <errno.h>
36 #include <parlib/assert.h>
37 #include <ros/procinfo.h>
38 #include <ros/syscall.h>
39 #include <sys/mman.h>
40 #include <parlib/stdio.h>
41
42 /* Forward declare our signal_ops functions. */
43 static int __sigaltstack(__const struct sigaltstack *__restrict __ss,
44                          struct sigaltstack *__restrict __oss);
45 static int __siginterrupt(int __sig, int __interrupt);
46 static int __sigpending(sigset_t *__set);
47 static int __sigprocmask(int __how, __const sigset_t *__restrict __set,
48                          sigset_t *__restrict __oset);
49 static int __sigqueue(__pid_t __pid, int __sig, __const union sigval __val);
50 static int __sigreturn(struct sigcontext *__scp);
51 static int __sigstack(struct sigstack *__ss, struct sigstack *__oss);
52 static int __sigsuspend(__const sigset_t *__set);
53 static int __sigtimedwait(__const sigset_t *__restrict __set,
54                           siginfo_t *__restrict __info,
55                           __const struct timespec *__restrict __timeout);
56 static int __sigwait(__const sigset_t *__restrict __set, int *__restrict __sig);
57 static int __sigwaitinfo(__const sigset_t *__restrict __set,
58                          siginfo_t *__restrict __info);
59 static int __sigself(int signo);
60
61 /* The default definition of signal_ops (similar to sched_ops in uthread.c) */
62 struct signal_ops default_signal_ops = {
63         .sigaltstack = __sigaltstack,
64         .siginterrupt = __siginterrupt,
65         .sigpending = __sigpending,
66         .sigprocmask = __sigprocmask,
67         .sigqueue = __sigqueue,
68         .sigreturn = __sigreturn,
69         .sigstack = __sigstack,
70         .sigsuspend = __sigsuspend,
71         .sigtimedwait = __sigtimedwait,
72         .sigwait = __sigwait,
73         .sigwaitinfo = __sigwaitinfo,
74         .sigself = __sigself
75 };
76
77 /* This is the catch all akaros event->posix signal handler.  All posix signals
78  * are received in a single akaros event type.  They are then dispatched from
79  * this function to their proper posix signal handler */
80 static void handle_event(struct event_msg *ev_msg, unsigned int ev_type,
81                          void *data)
82 {
83         int sig_nr;
84         struct siginfo info = {0};
85         info.si_code = SI_USER;
86
87         assert(ev_msg);
88         sig_nr = ev_msg->ev_arg1;
89         trigger_posix_signal(sig_nr, &info, 0);
90 }
91
92 /* Called from uthread_slim_init() */
93 void init_posix_signals(void)
94 {
95         struct event_queue *posix_sig_ev_q;
96
97         signal_ops = &default_signal_ops;
98         register_ev_handler(EV_POSIX_SIGNAL, handle_event, 0);
99         posix_sig_ev_q = get_eventq(EV_MBOX_UCQ);
100         assert(posix_sig_ev_q);
101         posix_sig_ev_q->ev_flags = EVENT_IPI | EVENT_INDIR | EVENT_SPAM_INDIR |
102                                    EVENT_WAKEUP;
103         register_kevent_q(posix_sig_ev_q, EV_POSIX_SIGNAL);
104 }
105
106 /* Swap the contents of two user contexts (not just their pointers). */
107 static void swap_user_contexts(struct user_context *c1, struct user_context *c2)
108 {
109         struct user_context temp_ctx;
110
111         temp_ctx = *c1;
112         *c1 = *c2;
113         *c2 = temp_ctx;
114 }
115
116 /* Helper for checking a stack pointer.  It's possible the context we're
117  * injecting signals into is complete garbage, so using the SP is a little
118  * dangerous. */
119 static bool stack_ptr_is_sane(uintptr_t sp)
120 {
121         if ((sp < PGSIZE) || (sp > ULIM))
122                 return FALSE;
123         return TRUE;
124 }
125
126 static bool uth_is_handling_sigs(struct uthread *uth)
127 {
128         return uth->sigstate.data ? TRUE : FALSE;
129 }
130
131 /* Prep a uthread to run a signal handler.  The original context of the uthread
132  * is saved on its stack, and a new context is set up to run the signal handler
133  * the next time the uthread is run. */
134 static void __prep_sighandler(struct uthread *uthread,
135                               void (*entry)(void),
136                               struct siginfo *info)
137 {
138         uintptr_t stack;
139         struct user_context *ctx;
140
141         if (uthread->flags & UTHREAD_SAVED) {
142                 ctx = &uthread->u_ctx;
143                 stack = get_user_ctx_stack(ctx) - sizeof(struct sigdata);
144                 assert(stack_ptr_is_sane(stack));
145                 uthread->sigstate.data = (struct sigdata*)stack;
146                 if (uthread->flags & UTHREAD_FPSAVED) {
147                         uthread->sigstate.data->as = uthread->as;
148                         uthread->flags &= ~UTHREAD_FPSAVED;
149                 }
150         } else {
151                 assert(current_uthread == uthread);
152                 ctx = &vcpd_of(vcore_id())->uthread_ctx;
153                 stack = get_user_ctx_stack(ctx) - sizeof(struct sigdata);
154                 assert(stack_ptr_is_sane(stack));
155                 uthread->sigstate.data = (struct sigdata*)stack;
156                 save_fp_state(&uthread->sigstate.data->as);
157         }
158         if (info != NULL)
159                 uthread->sigstate.data->info = *info;
160
161         init_user_ctx(&uthread->sigstate.data->u_ctx, (uintptr_t)entry, stack);
162         swap_user_contexts(ctx, &uthread->sigstate.data->u_ctx);
163 }
164
165 /* Restore the context saved as the result of running a signal handler on a
166  * uthread. This context will execute the next time the uthread is run. */
167 static void __restore_after_sighandler(struct uthread *uthread)
168 {
169         uthread->u_ctx = uthread->sigstate.data->u_ctx;
170         uthread->flags |= UTHREAD_SAVED;
171         switch (uthread->u_ctx.type) {
172         case ROS_HW_CTX:
173         case ROS_VM_CTX:
174                 uthread->as = uthread->sigstate.data->as;
175                 uthread->flags |= UTHREAD_FPSAVED;
176                 break;
177         }
178         uthread->sigstate.data = NULL;
179 }
180
181 /* Callback when yielding a pthread after upon completion of a sighandler.  We
182  * didn't save the current context on yeild, but that's ok because here we
183  * restore the original saved context of the pthread and then treat this like a
184  * normal voluntary yield. */
185 static void __exit_sighandler_cb(struct uthread *uthread, void *junk)
186 {
187         __restore_after_sighandler(uthread);
188         uthread_paused(uthread);
189 }
190
191 /* Run a specific sighandler from the top of the sigstate stack. The 'info'
192  * struct is prepopulated before the call is triggered as the result of a
193  * reflected fault. */
194 static void __run_sighandler(void)
195 {
196         struct uthread *uthread = current_uthread;
197         int signo = uthread->sigstate.data->info.si_signo;
198
199         __sigdelset(&uthread->sigstate.pending, signo);
200         trigger_posix_signal(signo, &uthread->sigstate.data->info,
201                              &uthread->sigstate.data->u_ctx);
202         uthread_yield(FALSE, __exit_sighandler_cb, 0);
203 }
204
205 /* Run through all pending sighandlers and trigger them with a NULL info
206  * field. These handlers are triggered as the result of thread directed
207  * signals (i.e. not interprocess signals), and thus don't require individual
208  * 'info' structs. */
209 static void __run_all_sighandlers(void)
210 {
211         struct uthread *uthread = current_uthread;
212         sigset_t andset = uthread->sigstate.pending & (~uthread->sigstate.mask);
213
214         for (int i = 1; i < _NSIG; i++) {
215                 if (__sigismember(&andset, i)) {
216                         __sigdelset(&uthread->sigstate.pending, i);
217                         trigger_posix_signal(i, NULL, &uthread->sigstate.data->u_ctx);
218                 }
219         }
220         uthread_yield(FALSE, __exit_sighandler_cb, 0);
221 }
222
223 int uthread_signal(struct uthread *uthread, int signo)
224 {
225         // Slightly racy with clearing of mask when triggering the signal, but
226         // that's OK, as signals are inherently racy since they don't queue up.
227         return sigaddset(&uthread->sigstate.pending, signo);
228 }
229
230 /* If there are any pending signals, prep the uthread to run it's signal
231  * handler. The next time the uthread is run, it will pop into it's signal
232  * handler context instead of its original saved context. Once the signal
233  * handler is complete, the original context will be restored and restarted. */
234 void uthread_prep_pending_signals(struct uthread *uthread)
235 {
236         if (!uth_is_handling_sigs(uthread) && uthread->sigstate.pending) {
237                 sigset_t andset = uthread->sigstate.pending & (~uthread->sigstate.mask);
238
239                 if (!__sigisemptyset(&andset))
240                         __prep_sighandler(uthread, __run_all_sighandlers, NULL);
241         }
242 }
243
244 /* If the given signal is unmasked, prep the uthread to run it's signal
245  * handler, but don't run it yet. In either case, make the uthread runnable
246  * again. Once the signal handler is complete, the original context will be
247  * restored and restarted. */
248 void uthread_prep_signal_from_fault(struct uthread *uthread,
249                                     int signo, int code, void *addr)
250 {
251         if (!__sigismember(&uthread->sigstate.mask, signo)) {
252                 struct siginfo info = {0};
253
254                 if (uth_is_handling_sigs(uthread)) {
255                         printf("Uthread sighandler faulted, signal: %d\n", signo);
256                         /* uthread.c already copied out the faulting ctx into the uth */
257                         print_user_context(&uthread->u_ctx);
258                         exit(-1);
259                 }
260                 info.si_signo = signo;
261                 info.si_code = code;
262                 info.si_addr = addr;
263                 __prep_sighandler(uthread, __run_sighandler, &info);
264         }
265 }
266
267 /* This is managed by vcore / 2LS code */
268 static int __sigaltstack(__const struct sigaltstack *__restrict __ss,
269                          struct sigaltstack *__restrict __oss)
270 {
271         return 0;
272 }
273
274 /* Akaros can't have signals interrupt syscalls to need a restart, though we can
275  * re-wake-up the process while it is waiting for its syscall. */
276 static int __siginterrupt(int __sig, int __interrupt)
277 {
278         return 0;
279 }
280
281 /* Not really possible or relevant - you'd need to walk/examine the event UCQ */
282 static int __sigpending(sigset_t *__set)
283 {
284         return 0;
285 }
286
287 static int __sigprocmask(int __how, __const sigset_t *__restrict __set,
288                          sigset_t *__restrict __oset)
289 {
290         sigset_t *sigmask = &current_uthread->sigstate.mask;
291
292         if (__set && (__how != SIG_BLOCK) &&
293                      (__how != SIG_SETMASK) &&
294                      (__how != SIG_UNBLOCK)) {
295                 errno = EINVAL;
296                 return -1;
297         }
298
299         if (__oset)
300                 *__oset = *sigmask;
301         if (__set) {
302                 switch (__how) {
303                         case SIG_BLOCK:
304                                 *sigmask = *sigmask | *__set;
305                                 break;
306                         case SIG_SETMASK:
307                                 *sigmask = *__set;
308                                 break;
309                         case SIG_UNBLOCK:
310                                 *sigmask = *sigmask & ~(*__set);
311                                 break;
312                 }
313         }
314         return 0;
315 }
316
317 /* Needs support with trigger_posix_signal to deal with passing values with
318  * POSIX signals. */
319 static int __sigqueue(__pid_t __pid, int __sig, __const union sigval __val)
320 {
321         return 0;
322 }
323
324 /* Linux specific, and not really needed for us */
325 static int __sigreturn(struct sigcontext *__scp)
326 {
327         return 0;
328 }
329
330 /* This is managed by vcore / 2LS code */
331 static int __sigstack(struct sigstack *__ss, struct sigstack *__oss)
332 {
333         return 0;
334 }
335
336 /* Could do this with a loop on delivery of the signal, sleeping and getting
337  * woken up by the kernel on any event, like we do with async syscalls. */
338 static int __sigsuspend(__const sigset_t *__set)
339 {
340         return 0;
341 }
342
343 /* Can be done similar to sigsuspend, with an extra alarm syscall */
344 static int __sigtimedwait(__const sigset_t *__restrict __set,
345                           siginfo_t *__restrict __info,
346                           __const struct timespec *__restrict __timeout)
347 {
348         return 0;
349 }
350
351 /* Can be done similar to sigsuspend */
352 static int __sigwait(__const sigset_t *__restrict __set, int *__restrict __sig)
353 {
354         return 0;
355 }
356
357 /* Can be done similar to sigsuspend */
358 static int __sigwaitinfo(__const sigset_t *__restrict __set,
359                          siginfo_t *__restrict __info)
360 {
361         return 0;
362 }
363
364 static int __sigself(int signo)
365 {
366         int ret = uthread_signal(current_uthread, signo);
367
368         void cb(struct uthread *uthread, void *arg)
369         {
370                 uthread_paused(uthread);
371         }
372         if (ret == 0)
373                 uthread_yield(TRUE, cb, 0);
374 }