Event helpers for userspace
[akaros.git] / kern / include / ros / ring_buffer.h
1 /******************************************************************************
2  * ring.h
3  * 
4  * Shared producer-consumer ring macros.
5  *
6  * Permission is hereby granted, free of charge, to any person obtaining a copy
7  * of this software and associated documentation files (the "Software"), to
8  * deal in the Software without restriction, including without limitation the
9  * rights to use, copy, modify, merge, publish, distribute, sublicense, and/or
10  * sell copies of the Software, and to permit persons to whom the Software is
11  * furnished to do so, subject to the following conditions:
12  *
13  * The above copyright notice and this permission notice shall be included in
14  * all copies or substantial portions of the Software.
15  *
16  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
17  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
18  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
19  * AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
20  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
21  * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
22  * DEALINGS IN THE SOFTWARE.
23  *
24  * Tim Deegan and Andrew Warfield November 2004.
25  */
26
27 #ifndef ROS_INC_RING_BUFFER_H
28 #define ROS_INC_RING_BUFFER_H
29
30 #include <string.h>
31 #include <ros/arch/membar.h>
32
33 #define xen_mb()  mb()
34 #define xen_rmb() rmb()
35 #define xen_wmb() wmb()
36
37 typedef unsigned int RING_IDX;
38
39 // zra: smp.c is v. slow to build because these RDn() things cause expressions
40 //      to grow exponentially.
41
42 /* Round a 32-bit unsigned constant down to the nearest power of two. */
43 #define __RD2(_x)  (((_x) & 0x00000002UL) ? 0x2                  : ((_x) & 0x1))
44 #define __RD4(_x)  (((_x) & 0x0000000cUL) ? __RD2((_x)>>2)<<2    : __RD2(_x))
45 #define __RD8(_x)  (((_x) & 0x000000f0UL) ? __RD4((_x)>>4)<<4    : __RD4(_x))
46 #define __RD16(_x) (((_x) & 0x0000ff00UL) ? __RD8((_x)>>8)<<8    : __RD8(_x))
47 #define __RD32(_x) (((_x) & 0xffff0000UL) ? __RD16((_x)>>16)<<16 : __RD16(_x))
48
49 /* Statically assert that two values are in fact equal.
50  * It works by enducing a compil error from a duplicate case in a switch 
51  * statement if the assertion is false.
52  */
53 #define __ASSERT_EQUAL(x, y) \
54         switch ((x) == (y)) case 0: case ((x) == (y)):
55
56 /*
57  * Calculate size of a shared ring, given the total available space for the
58  * ring and indexes (_sz), and the name tag of the request/response structure.
59  * A ring contains as many entries as will fit, rounded down to the nearest 
60  * power of two (so we can mask with (size-1) to loop around).
61  * This tells us how many elements the ring _s can contain, given _sz space.
62  */
63 #define __RING_SIZE(_s, _sz) \
64     __RING_SIZE_BYTES(_s, _sz) / sizeof((_s)->ring[0])
65
66 /*
67  * This is the same as above, except in terms of bytes instead of elements
68  */
69 #define __RING_SIZE_BYTES(_s, _sz) \
70     (__RD32((_sz) - (long)(_s)->ring + (long)(_s)))
71
72 /*
73  * These two are the same as above except that they rely on type information
74  * to determine the sizes statically, rather than the runtime instantiation
75  * of the ring buffer variable
76  */
77 #define __RING_SIZE_STATIC(__name, _sz) \
78     (__RING_SIZE_BYTES_STATIC(_sz) / sizeof(union __name##_sring_entry))
79
80 #define __RING_SIZE_BYTES_STATIC(_sz) \
81     (__RD32((_sz) - __RING_HEADER_SIZE()))
82
83 /*
84  * Macros to make the correct C datatypes for a new kind of ring.
85  * 
86  * To make a new ring datatype, you need to have two message structures,
87  * let's say request_t, and response_t already defined.
88  *
89  * In a header where you want the ring datatype declared, you then do:
90  *
91  *     DEFINE_RING_TYPES(mytag, request_t, response_t);
92  * or
93  *     DEFINE_RING_TYPES_WITH_SIZE(mytag, request_t, response_t, size);
94  *
95  * Both macros expand out to give you a set of types, as you can see below.
96  * The most important of these are:
97  * 
98  *     mytag_sring_t      - The shared ring.
99  *     mytag_front_ring_t - The 'front' half of the ring.
100  *     mytag_back_ring_t  - The 'back' half of the ring.
101  *
102  * The first of these macros will only declare a single element array to 
103  * represent the ring buffer in the shared ring struct that is ultimately
104  * created.  
105  *
106  * The second macro actually statically declares space of size (size) inside
107  * the shared ring struct. This size is rounded down to the nearest power of 2
108  * and space is subtracted off to account for holding any necessary ring 
109  * buffer headers.
110  *
111  * To initialize a ring in your code you need to know the location and size
112  * of the shared memory area (PAGE_SIZE, for instance). To initialise
113  * the front half:
114  *
115  *     mytag_front_ring_t front_ring;
116  *     SHARED_RING_INIT((mytag_sring_t *)shared_page);
117  *     FRONT_RING_INIT(&front_ring, (mytag_sring_t *)shared_page, PAGE_SIZE);
118  *
119  * Initializing the back follows similarly (note that only the front
120  * initializes the shared ring):
121  *
122  *     mytag_back_ring_t back_ring;
123  *     BACK_RING_INIT(&back_ring, (mytag_sring_t *)shared_page, PAGE_SIZE);
124  *
125  * If you use the second of the two macros when first defining your ring 
126  * structures, then the size you use when initializing your front and back 
127  * rings *should* match the size you passed into this macro (e.g. PAGE_SIZE
128  * in this example).
129  */
130
131 #define __RING_HEADER()                                                 \
132     RING_IDX req_prod, req_event;                                       \
133     RING_IDX rsp_prod, rsp_event;                                       \
134     uint8_t  pad[48];
135     
136 struct rhs_struct {
137         __RING_HEADER()
138 };
139
140 #define __RING_HEADER_SIZE() \
141     (sizeof(struct rhs_struct))
142
143 #define DEFINE_RING_TYPES(__name, __req_t, __rsp_t)                     \
144         DEFINE_RING_TYPES_WITH_SIZE(__name, __req_t, __rsp_t,               \
145                                     __RING_HEADER_SIZE() + 1)
146
147 #define DEFINE_RING_TYPES_WITH_SIZE(__name, __req_t, __rsp_t, __size)   \
148                                                                         \
149 /* Shared ring entry */                                                 \
150 union __name##_sring_entry {                                            \
151     __req_t req;                                                        \
152     __rsp_t rsp;                                                        \
153 } TRUSTED;                                                              \
154                                                                         \
155 /* Shared ring page */                                                  \
156 struct __name##_sring {                                                 \
157         __RING_HEADER()                                                     \
158     union __name##_sring_entry ring[__RING_SIZE_STATIC(__name, __size)];\
159 };                                                                      \
160                                                                         \
161 /* "Front" end's private variables */                                   \
162 struct __name##_front_ring {                                            \
163     RING_IDX req_prod_pvt;                                              \
164     RING_IDX rsp_cons;                                                  \
165     unsigned int nr_ents;                                               \
166     struct __name##_sring *sring;                                       \
167 };                                                                      \
168                                                                         \
169 /* "Back" end's private variables */                                    \
170 struct __name##_back_ring {                                             \
171     RING_IDX rsp_prod_pvt;                                              \
172     RING_IDX req_cons;                                                  \
173     unsigned int nr_ents;                                               \
174     struct __name##_sring *sring;                                       \
175 };                                                                      \
176                                                                         \
177 /* Syntactic sugar */                                                   \
178 typedef struct __name##_sring __name##_sring_t;                         \
179 typedef struct __name##_front_ring __name##_front_ring_t;               \
180 typedef struct __name##_back_ring __name##_back_ring_t;                 \
181 /* This is a dummy function just used to statically assert that         \
182  * there are no weird padding issues associated with our sring structs  \
183  */                                                                     \
184 static void __name##_assert_sring_size() __attribute__((used));         \
185 static void __name##_assert_sring_size() {                              \
186         __ASSERT_EQUAL( sizeof(__name##_sring_t),                           \
187                         ( __RING_HEADER_SIZE()  +                           \
188                           ( __RING_SIZE_STATIC(__name, __size) *            \
189                             sizeof(union __name##_sring_entry)              \
190                           )                                                 \
191                         )                                                   \
192                       );                                                    \
193 }              
194
195
196 /*
197  * Macros for manipulating rings.
198  * 
199  * FRONT_RING_whatever works on the "front end" of a ring: here 
200  * requests are pushed on to the ring and responses taken off it.
201  * 
202  * BACK_RING_whatever works on the "back end" of a ring: here 
203  * requests are taken off the ring and responses put on.
204  * 
205  * N.B. these macros do NO INTERLOCKS OR FLOW CONTROL. 
206  * This is OK in 1-for-1 request-response situations where the 
207  * requestor (front end) never has more than RING_SIZE()-1
208  * outstanding requests.
209  */
210
211 /* Initialising empty rings */
212 #define SHARED_RING_INIT(_s) do {                                       \
213     (_s)->req_prod  = (_s)->rsp_prod  = 0;                              \
214     (_s)->req_event = (_s)->rsp_event = 1;                              \
215     (void)memset((_s)->pad, 0, sizeof((_s)->pad));                      \
216 } while(0)
217
218 #define FRONT_RING_INIT(_r, _s, __size) do {                            \
219     (_r)->req_prod_pvt = 0;                                             \
220     (_r)->rsp_cons = 0;                                                 \
221     (_r)->nr_ents = __RING_SIZE(_s, __size);                            \
222     (_r)->sring = (_s);                                                 \
223 } while (0)
224
225 #define BACK_RING_INIT(_r, _s, __size) do {                             \
226     (_r)->rsp_prod_pvt = 0;                                             \
227     (_r)->req_cons = 0;                                                 \
228     (_r)->nr_ents = __RING_SIZE(_s, __size);                            \
229     (_r)->sring = (_s);                                                 \
230 } while (0)
231
232 /* Initialize to existing shared indexes -- for recovery */
233 #define FRONT_RING_ATTACH(_r, _s, __size) do {                          \
234     (_r)->sring = (_s);                                                 \
235     (_r)->req_prod_pvt = (_s)->req_prod;                                \
236     (_r)->rsp_cons = (_s)->rsp_prod;                                    \
237     (_r)->nr_ents = __RING_SIZE(_s, __size);                            \
238 } while (0)
239
240 #define BACK_RING_ATTACH(_r, _s, __size) do {                           \
241     (_r)->sring = (_s);                                                 \
242     (_r)->rsp_prod_pvt = (_s)->rsp_prod;                                \
243     (_r)->req_cons = (_s)->req_prod;                                    \
244     (_r)->nr_ents = __RING_SIZE(_s, __size);                            \
245 } while (0)
246
247 /* How big is this ring? */
248 #define RING_SIZE(_r)                                                   \
249     ((_r)->nr_ents)
250
251 /* Number of free requests (for use on front side only). */
252 #define RING_FREE_REQUESTS(_r)                                          \
253     (RING_SIZE(_r) - ((_r)->req_prod_pvt - (_r)->rsp_cons))
254
255 /* Test if there is an empty slot available on the front ring.
256  * (This is only meaningful from the front. )
257  */
258 #define RING_FULL(_r)                                                   \
259     (RING_FREE_REQUESTS(_r) == 0)
260
261 /* Test if there are outstanding messages to be processed on a ring. */
262 #define RING_HAS_UNCONSUMED_RESPONSES(_r)                               \
263     ((_r)->sring->rsp_prod - (_r)->rsp_cons)
264
265 #ifdef __GNUC__
266 #define RING_HAS_UNCONSUMED_REQUESTS(_r) ({                             \
267     unsigned int req = (_r)->sring->req_prod - (_r)->req_cons;          \
268     unsigned int rsp = RING_SIZE(_r) -                                  \
269         ((_r)->req_cons - (_r)->rsp_prod_pvt);                          \
270     req < rsp ? req : rsp;                                              \
271 })
272 #else
273 /* Same as above, but without the nice GCC ({ ... }) syntax. */
274 #define RING_HAS_UNCONSUMED_REQUESTS(_r)                                \
275     ((((_r)->sring->req_prod - (_r)->req_cons) <                        \
276       (RING_SIZE(_r) - ((_r)->req_cons - (_r)->rsp_prod_pvt))) ?        \
277      ((_r)->sring->req_prod - (_r)->req_cons) :                         \
278      (RING_SIZE(_r) - ((_r)->req_cons - (_r)->rsp_prod_pvt)))
279 #endif
280
281 /* Direct access to individual ring elements, by index. */
282 #define RING_GET_REQUEST(_r, _idx)                                      \
283     (&((_r)->sring->ring[((_idx) & (RING_SIZE(_r) - 1))].req))
284
285 #define RING_GET_RESPONSE(_r, _idx)                                     \
286     (&((_r)->sring->ring[((_idx) & (RING_SIZE(_r) - 1))].rsp))
287
288 /* Loop termination condition: Would the specified index overflow the ring? */
289 #define RING_REQUEST_CONS_OVERFLOW(_r, _cons)                           \
290     (((_cons) - (_r)->rsp_prod_pvt) >= RING_SIZE(_r))
291
292 #define RING_PUSH_REQUESTS(_r) do {                                     \
293     xen_wmb(); /* back sees requests /before/ updated producer index */ \
294     (_r)->sring->req_prod = (_r)->req_prod_pvt;                         \
295 } while (0)
296
297 #define RING_PUSH_RESPONSES(_r) do {                                    \
298     xen_wmb(); /* front sees resps /before/ updated producer index */   \
299     (_r)->sring->rsp_prod = (_r)->rsp_prod_pvt;                         \
300 } while (0)
301
302 /*
303  * Notification hold-off (req_event and rsp_event):
304  * 
305  * When queueing requests or responses on a shared ring, it may not always be
306  * necessary to notify the remote end. For example, if requests are in flight
307  * in a backend, the front may be able to queue further requests without
308  * notifying the back (if the back checks for new requests when it queues
309  * responses).
310  * 
311  * When enqueuing requests or responses:
312  * 
313  *  Use RING_PUSH_{REQUESTS,RESPONSES}_AND_CHECK_NOTIFY(). The second argument
314  *  is a boolean return value. True indicates that the receiver requires an
315  *  asynchronous notification.
316  * 
317  * After dequeuing requests or responses (before sleeping the connection):
318  * 
319  *  Use RING_FINAL_CHECK_FOR_REQUESTS() or RING_FINAL_CHECK_FOR_RESPONSES().
320  *  The second argument is a boolean return value. True indicates that there
321  *  are pending messages on the ring (i.e., the connection should not be put
322  *  to sleep).
323  * 
324  *  These macros will set the req_event/rsp_event field to trigger a
325  *  notification on the very next message that is enqueued. If you want to
326  *  create batches of work (i.e., only receive a notification after several
327  *  messages have been enqueued) then you will need to create a customised
328  *  version of the FINAL_CHECK macro in your own code, which sets the event
329  *  field appropriately.
330  */
331
332 #define RING_PUSH_REQUESTS_AND_CHECK_NOTIFY(_r, _notify) do {           \
333     RING_IDX __old = (_r)->sring->req_prod;                             \
334     RING_IDX __new = (_r)->req_prod_pvt;                                \
335     xen_wmb(); /* back sees requests /before/ updated producer index */ \
336     (_r)->sring->req_prod = __new;                                      \
337     xen_mb(); /* back sees new requests /before/ we check req_event */  \
338     (_notify) = ((RING_IDX)(__new - (_r)->sring->req_event) <           \
339                  (RING_IDX)(__new - __old));                            \
340 } while (0)
341
342 #define RING_PUSH_RESPONSES_AND_CHECK_NOTIFY(_r, _notify) do {          \
343     RING_IDX __old = (_r)->sring->rsp_prod;                             \
344     RING_IDX __new = (_r)->rsp_prod_pvt;                                \
345     xen_wmb(); /* front sees resps /before/ updated producer index */   \
346     (_r)->sring->rsp_prod = __new;                                      \
347     xen_mb(); /* front sees new resps /before/ we check rsp_event */    \
348     (_notify) = ((RING_IDX)(__new - (_r)->sring->rsp_event) <           \
349                  (RING_IDX)(__new - __old));                            \
350 } while (0)
351
352 #define RING_FINAL_CHECK_FOR_REQUESTS(_r, _work_to_do) do {             \
353     (_work_to_do) = RING_HAS_UNCONSUMED_REQUESTS(_r);                   \
354     if (_work_to_do) break;                                             \
355     (_r)->sring->req_event = (_r)->req_cons + 1;                        \
356     xen_mb();                                                           \
357     (_work_to_do) = RING_HAS_UNCONSUMED_REQUESTS(_r);                   \
358 } while (0)
359
360 #define RING_FINAL_CHECK_FOR_RESPONSES(_r, _work_to_do) do {            \
361     (_work_to_do) = RING_HAS_UNCONSUMED_RESPONSES(_r);                  \
362     if (_work_to_do) break;                                             \
363     (_r)->sring->rsp_event = (_r)->rsp_cons + 1;                        \
364     xen_mb();                                                           \
365     (_work_to_do) = RING_HAS_UNCONSUMED_RESPONSES(_r);                  \
366 } while (0)
367
368 #endif /* ROS_INC_RING_BUFFER_H */
369
370 /*
371  * Local variables:
372  * mode: C
373  * c-set-style: "BSD"
374  * c-basic-offset: 4
375  * tab-width: 4
376  * indent-tabs-mode: nil
377  * End:
378  */
379