Fixes (unused) bug in get_event_type()
[akaros.git] / user / parlib / event.c
1 /* Copyright (c) 2011 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * Userspace utility functions for receiving events and notifications (IPIs).
6  * Some are higher level than others; just use what you need. */ 
7
8 #include <ros/event.h>
9 #include <ros/procdata.h>
10 #include <ros/bcq.h>
11 #include <bitmask.h>
12 #include <vcore.h>
13 #include <stdlib.h>
14 #include <string.h>
15 #include <assert.h>
16 #include <errno.h>
17 #include <parlib.h>
18 #include <event.h>
19 #include <uthread.h>
20
21 /********* Event_q Setup / Registration  ***********/
22
23 /* Get event_qs via these interfaces, since eventually we'll want to either
24  * allocate from pinned memory or use some form of a slab allocator.  Also, this
25  * stitches up the big_q so its ev_mbox points to its internal mbox.  Never
26  * access the internal mbox directly. */
27 struct event_queue *get_big_event_q(void)
28 {
29         /* TODO: (PIN) should be pinned memory */
30         struct event_queue_big *big_q = malloc(sizeof(struct event_queue_big));
31         memset(big_q, 0, sizeof(struct event_queue_big));
32         big_q->ev_mbox = &big_q->ev_imbox;
33         return (struct event_queue*)big_q;
34 }
35
36 /* Give it up */
37 void put_big_event_q(struct event_queue *ev_q)
38 {
39         /* if we use something other than malloc, we'll need to be aware that ev_q
40          * is actually an event_queue_big.  One option is to use the flags, though
41          * this could be error prone. */
42         free(ev_q);
43 }
44
45 /* Need to point this event_q to an mbox - usually to a vcpd */
46 struct event_queue *get_event_q(void)
47 {
48         /* TODO: (PIN) should be pinned memory */
49         struct event_queue *ev_q = malloc(sizeof(struct event_queue));
50         memset(ev_q, 0, sizeof(struct event_queue));
51         return ev_q;
52 }
53
54 /* Gets a small ev_q, with ev_mbox pointing to the vcpd mbox of vcoreid */
55 struct event_queue *get_event_q_vcpd(uint32_t vcoreid)
56 {
57         struct event_queue *ev_q = get_event_q();
58         ev_q->ev_mbox = &__procdata.vcore_preempt_data[vcoreid].ev_mbox;
59         return ev_q;
60 }
61
62 void put_event_q(struct event_queue *ev_q)
63 {
64         /* if we use something other than malloc, we'll need to be aware that ev_q
65          * is actually an event_queue_big. */
66         free(ev_q);
67 }
68
69 /* Sets ev_q to be the receiving end for kernel event ev_type */
70 void register_kevent_q(struct event_queue *ev_q, unsigned int ev_type)
71 {
72         __procdata.kernel_evts[ev_type] = ev_q;
73 }
74
75 /* Clears the event, returning an ev_q if there was one there.  You'll need to
76  * free it. */
77 struct event_queue *clear_kevent_q(unsigned int ev_type)
78 {
79         struct event_queue *ev_q = __procdata.kernel_evts[ev_type];
80         __procdata.kernel_evts[ev_type] = 0;
81         return ev_q;
82 }
83
84 /* Enables an IPI/event combo for ev_type sent to vcoreid's default mbox.  IPI
85  * if you want one or not.  This is the simplest thing applications may want,
86  * and shows how you can put the other event functions together to get similar
87  * things done. */
88 void enable_kevent(unsigned int ev_type, uint32_t vcoreid, int ev_flags)
89 {
90         struct event_queue *ev_q = get_event_q_vcpd(vcoreid);
91         ev_q->ev_flags = ev_flags;
92         ev_q->ev_vcore = vcoreid;
93         ev_q->ev_handler = 0;
94         register_kevent_q(ev_q, ev_type);
95 }
96
97 /* Stop receiving the events (one could be on the way) */
98 void disable_kevent(unsigned int ev_type)
99 {
100         struct event_queue *ev_q = clear_kevent_q(ev_type);
101         if (ev_q)
102                 put_event_q(ev_q);
103         else
104                 printf("Tried to disable but no event_q loaded on ev_type %d", ev_type);
105 }
106
107 /********* Event Handling / Reception ***********/
108 /* Tests the ev_q to see if anything has happened on it.  Up to the caller to do
109  * something with the info, such as try and dequeue or handle an overflow.
110  * Flags is for the ev_q's flags (if you know it), which is to check the NO_MSG
111  * style ev_qs. */
112 bool event_activity(struct event_mbox *ev_mbox, int flags)
113 {
114         if (!bcq_empty(&ev_mbox->ev_msgs))
115                 return TRUE;
116         /* Only need to check the bitmask for activity if we've had overflows or if
117          * we are a NO_MSG.  This means the client can clear its overflows. */
118         if (ev_mbox->ev_overflows || (flags & EVENT_NOMSG)) {
119                 if (!BITMASK_IS_CLEAR(&ev_mbox->ev_bitmap, MAX_NR_EVENT))
120                         return TRUE;
121         }
122         return FALSE;
123 }
124
125 /* Clears the overflows, returning the number of overflows cleared. */
126 unsigned int event_clear_overflows(struct event_queue *ev_q)
127 {
128         unsigned int retval = ev_q->ev_mbox->ev_overflows;
129         ev_q->ev_mbox->ev_overflows = 0;
130         return retval;
131 }
132
133 /* Somewhat ghetto helper, for the lazy.  If all you care about is an event
134  * number, this will see if the event happened or not.  It will try for a
135  * message, but if there is none, it will go for a bit.  Note that multiple
136  * messages that overflowed could turn into just one bit. */
137 unsigned int get_event_type(struct event_mbox *ev_mbox)
138 {
139         struct event_msg local_msg = {0};
140         /* BCQ returns 0 on success, so this will dequeue and return the type. */
141         if (!bcq_dequeue(&ev_mbox->ev_msgs, &local_msg, NR_BCQ_EVENTS)) {
142                 return local_msg.ev_type;
143         }
144         if (BITMASK_IS_CLEAR(&ev_mbox->ev_bitmap, MAX_NR_EVENT))
145                 return EV_NONE; /* aka, 0 */
146         for (int i = 0; i < MAX_NR_EVENT; i++) {
147                 if (GET_BITMASK_BIT(ev_mbox->ev_bitmap, i)) {
148                         CLR_BITMASK_BIT_ATOMIC(ev_mbox->ev_bitmap, i);
149                         return i;
150                 }
151         }
152         return EV_NONE;
153 }
154
155 /* Actual Event Handling */
156
157 /* List of handlers, process-wide, that the 2LS should fill in.  They all must
158  * return (don't context switch to a u_thread), and need to handle ev_msg being
159  * 0. */
160 handle_event_t ev_handlers[MAX_NR_EVENT] = {[EV_EVENT] handle_ev_ev, 0};
161
162 /* Handle an mbox.  This is the receive-side processing of an event_queue.  It
163  * takes an ev_mbox, since the vcpd mbox isn't a regular ev_q.  For now, we
164  * check for preemptions between each event handler. */
165 static int handle_mbox(struct event_mbox *ev_mbox, unsigned int flags)
166 {
167         struct event_msg local_msg;
168         unsigned int ev_type;
169         bool overflow = FALSE;
170         int retval = 0;
171         uint32_t vcoreid = vcore_id();
172
173         if (!event_activity(ev_mbox, flags))
174                 return retval;
175         /* Try to dequeue, dispatch whatever you get.  TODO consider checking for
176          * overflow first */
177         while (!bcq_dequeue(&ev_mbox->ev_msgs, &local_msg, NR_BCQ_EVENTS)) {
178                 ev_type = local_msg.ev_type;
179                 printd("BCQ: ev_type: %d\n", ev_type);
180                 if (ev_handlers[ev_type])
181                         ev_handlers[ev_type](&local_msg, ev_type, overflow);
182                 check_preempt_pending(vcoreid);
183                 retval++;
184         }
185         /* Race here with another core clearing overflows/bits.  Don't have more
186          * than one vcore work on an mbox without being more careful of overflows
187          * (as in, assume any overflow means all bits must be checked, since someone
188          * might have not told a handler of an overflow). */
189         if (ev_mbox->ev_overflows) {
190                 ev_mbox->ev_overflows = 0;
191                 overflow = TRUE;
192         }
193         /* Process all bits.  As far as I've seen, using overflow like this is
194          * thread safe (tested on some code in mhello, asm looks like it knows to
195          * have the function use addresses relative to the frame pointer). */
196         void bit_handler(unsigned int bit) {
197                 printd("Bit: ev_type: %d\n", bit);
198                 if (ev_handlers[bit])
199                         ev_handlers[bit](0, bit, overflow);
200                 retval++;
201                 check_preempt_pending(vcoreid);
202                 /* Consider checking the queue for incoming messages while we're here */
203         }
204         BITMASK_FOREACH_SET(ev_mbox->ev_bitmap, MAX_NR_EVENT, bit_handler, TRUE);
205         return retval;
206 }
207
208 /* The EV_EVENT handler - extract the ev_q from the message.  If you want this
209  * to catch overflows, you'll need to register your event_queues (TODO).  Might
210  * be issues with per-core handling (register globally, or just per vcore). */
211 void handle_ev_ev(struct event_msg *ev_msg, unsigned int ev_type, bool overflow)
212 {
213         struct event_queue *ev_q;
214         /* TODO: handle overflow (register, etc) */
215         if (overflow)
216                 printf("Ignoring overflow!  Deal with me!\n");
217         if (!ev_msg)
218                 return;
219         ev_q = ev_msg->ev_arg3;
220         if (ev_q)
221                 handle_event_q(ev_q);
222 }
223
224 /* 2LS will probably call this in vcore_entry and places where it wants to check
225  * for / handle events.  This will process all the events for the given vcore.
226  * Note, it probably should be the calling vcore you do this to...  Returns the
227  * number of events handled. */
228 int handle_events(uint32_t vcoreid)
229 {
230         struct preempt_data *vcpd = &__procdata.vcore_preempt_data[vcoreid];
231         /* TODO: EVENT_NOMSG checks could be painful.  we could either keep track of
232          * whether or not the 2LS has a NOMSG ev_q pointing to its vcpd, or have the
233          * kernel set another flag for "bits" */
234         return handle_mbox(&vcpd->ev_mbox, EVENT_NOMSG);
235 }
236
237 /* Handles the events on ev_q IAW the event_handlers[].  If the ev_q is
238  * application specific, then this will dispatch/handle based on its flags. */
239 void handle_event_q(struct event_queue *ev_q)
240 {
241         /* If the program wants to handle the ev_q on its own: */
242         if (ev_q->ev_flags & (EVENT_JUSTHANDLEIT | EVENT_THREAD)) {
243                 if (!ev_q->ev_handler) {
244                         printf("No ev_handler installed for ev_q %08p, aborting!\n", ev_q);
245                         return;
246                 }
247                 if (ev_q->ev_flags & EVENT_JUSTHANDLEIT) {
248                         /* Remember this can't block or page fault */
249                         ev_q->ev_handler(ev_q);
250                 } else if (ev_q->ev_flags & EVENT_THREAD) {
251                         /* 2LS sched op.  The 2LS can use an existing thread if it wants,
252                          * but do so inside spawn_thread() */
253                         if (sched_ops->spawn_thread)
254                                 sched_ops->spawn_thread((uintptr_t)ev_q->ev_handler, ev_q);
255                         else
256                                 printf("2LS can't spawn a thread for ev_q %08p\n", ev_q);
257                 }
258                 return;
259         }
260         handle_mbox(ev_q->ev_mbox, ev_q->ev_flags);
261 }