b8a7f76d91d941d642b97ae35e30baa000a88e95
[akaros.git] / kern / include / ros / bcq.h
1 /* Copyright (c) 2010 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * Multi-producer, multi-consumer queues.  Designed initially for an untrusted
6  * consumer.
7  */
8
9 #ifndef ROS_INC_BCQ_H
10 #define ROS_INC_BCQ_H
11
12 #include <ros/common.h>
13 #include <ros/bcq_struct.h>
14 /* Each arch has some basic atomic ops.  We need comp_and_swap for now. */
15 #include <arch/atomic.h>
16 #include <string.h>
17
18 /* Bounded Concurrent Queues, untrusted consumer
19  *
20  * This is a producer/consumer circular buffer, in which the producer never
21  * blocks and does not need to trust the data structure (which is writable by
22  * the consumer).
23  *
24  * A producer enqueues an item, based on the indexes of the producer and
25  * consumer.  Enqueue cannot block, but can fail if the queue is full or if it
26  * fails to enqueue after a certain amount of tries.
27  *
28  * prod_idx:     the next item to be produced
29  * cons_pvt_idx: the next item a consumer can claim
30  * cons_pub_idx: the last item (farthest left / oldest) that hasn't been
31  *               consumed/made ready to be clobbered by the producer (it is
32  *               what the consumer produces).  Once all are clear, this will be
33  *               the same as the prod_idx.
34  *
35  * The number of free slots in the buffer is: BufSize - (prod_idx - cons_pub)
36  * The power-of-two nature of the number of elements makes this work when it
37  * wraps around, just like with Xen.  Check it yourself with a counter of 8 and
38  * bufsizes of 8 and 4.
39  *
40  *
41  * General plan:
42  *
43  * Producers compete among themselves, using the prod_idx, to get a free spot.
44  * Once they have a spot, they fill in the item, and then toggle the "ready for
45  * consumption" bool for a client.  If it cannot find one after a number of
46  * tries, it simply fails (could be a DoS from the client).
47  *
48  * Consumers fight with their private index, which they use to determine who is
49  * consuming which item.  If there is an unconsumed item, they try to advance
50  * the pvt counter.  If they succeed, they can consume the item.  The item
51  * might not be there yet, so they must spin until it is there.  Then, the
52  * consumer copies the item out, and clears the bool (rdy_for_cons).
53  *
54  * At this point, the consumer needs to make sure the pub_idx is advanced
55  * enough so the producer knows the item is free.  If pub_idx was their item,
56  * they move it forward to the next item.  If it is not, currently, they spin
57  * and wait until the previous consumer finishes, and then move it forward.
58  * This isn't ideal, and we can deal with this in the future.  
59  *
60  * Enqueue will enqueue the item pointed to by elem.  Dequeue will write an
61  * item into the memory pointed to by elem.
62  *
63  * The number of items must be a power of two.  In the future, we'll probably
64  * use Xen's rounding macros.  Not using powers of two is a pain, esp with mods
65  * of negative numbers.
66  *
67  * Here's how to use it:
68  *
69  * DEFINE_BCQ_TYPES(my_name, my_type, my_size);
70  * struct my_name_bcq some_bcq;
71  * bcq_init(&some_bcq, my_type, my_size);
72  *
73  * bcq_enqueue(&some_bcq, &some_my_type, my_size, num_fails_okay);
74  * bcq_dequeue(&some_bcq, &some_my_type, my_size);
75  *
76  * They both return 0 on success, or some error code on failure.
77  *
78  * TODO later:
79  * How about an atomic_add_return for the prod?  Now that we use powers of two,
80  * CAS is probably overkill.
81  *
82  * Automatically round up.
83  *
84  * Watch out for ABA.  Could use ctrs in the top of the indexes.  Not really an
85  * issue, since that would be a wraparound.
86  *
87  * Consumers could also just set their bit, and have whoever has the pub_idx
88  * right before them be the one to advance it all the way up.
89  *
90  * Using uint32_t for now, since that's the comp_and_swap we have.  We'll
91  * probably get other sizes once we're sure we like the current one.  */
92
93 #if 0 // Defined in the included header
94
95 struct bcq_header {
96         uint32_t prod_idx;              /* next to be produced in */
97         uint32_t cons_pub_idx;  /* last completely consumed */
98         uint32_t cons_pvt_idx;  /* last a consumer has dibs on */
99 };
100
101 // This is there too:
102 #define DEFINE_BCQ_TYPES(__name, __elem_t, __num_elems)
103
104 #endif
105
106 /* Functions */                                                                
107 #define bcq_init(_bcq, _ele_type, _num_elems)                                  \
108         memset((_bcq), 0, sizeof( _ele_type ) * (_num_elems))                                 
109
110 /* Num empty buffer slots in the BCQ */
111 #define BCQ_FREE_SLOTS(_p, _cp, _ne) ((_ne) - ((_p) - (_cp)))
112
113 /* Really empty */
114 #define BCQ_EMPTY(_p, _cp, _ne) ((_ne) == BCQ_FREE_SLOTS(_p, _cp, _ne))
115
116 /* All work claimed by a consumer */
117 #define BCQ_NO_WORK(_p, _cpv) ((_p) == (_cpv))
118
119 /* Buffer full */
120 #define BCQ_FULL(_p, _cp, _ne) (0 == BCQ_FREE_SLOTS(_p, _cp, _ne))
121
122 /* Figure out the slot you want, bail if it's full, or if you failed too many
123  * times, CAS to set the new prod.  Fill yours in, toggle the bool.  Sorry, the
124  * macro got a bit ugly, esp with the __retval hackery. */
125 #define bcq_enqueue(_bcq, _elem, _num_elems, _num_fail)                        \
126 ({                                                                             \
127         uint32_t __prod, __new_prod, __cons_pub, __failctr = 0;                    \
128         int __retval = 0;                                                          \
129         do {                                                                       \
130                 if (((_num_fail)) && (__failctr++ >= (_num_fail))) {                   \
131                         __retval = -EFAIL;                                                 \
132                         break;                                                             \
133                 }                                                                      \
134                 __prod = (_bcq)->hdr.prod_idx;                                         \
135                 __cons_pub = (_bcq)->hdr.cons_pub_idx;                                 \
136                 if (BCQ_FULL(__prod, __cons_pub, (_num_elems))) {                      \
137                         __retval = -EBUSY;                                                 \
138                         break;                                                             \
139                 }                                                                      \
140                 __new_prod = __prod + 1;                                               \
141         } while (!atomic_comp_swap(&(_bcq)->hdr.prod_idx, __prod, __new_prod));    \
142         if (!__retval) {                                                           \
143                 /* from here out, __prod is the local __prod that we won */            \
144                 (_bcq)->wraps[__prod & ((_num_elems)-1)].elem = *(_elem);              \
145                 (_bcq)->wraps[__prod & ((_num_elems)-1)].rdy_for_cons = TRUE;          \
146         }                                                                          \
147         __retval;                                                                  \
148 })
149
150 /* Similar to enqueue, spin afterwards til cons_pub is our element, then
151  * advance it. */
152 #define bcq_dequeue(_bcq, _elem, _num_elems)                                   \
153 ({                                                                             \
154         uint32_t __prod, __cons_pvt, __new_cons_pvt, __cons_pub;                   \
155         int __retval = 0;                                                          \
156         do {                                                                       \
157                 __prod = (_bcq)->hdr.prod_idx;                                         \
158                 __cons_pvt = (_bcq)->hdr.cons_pvt_idx;                                 \
159                 if (BCQ_NO_WORK(__prod, __cons_pvt)) {                                 \
160                         __retval = -EBUSY;                                                 \
161                         break;                                                             \
162                 }                                                                      \
163                 __new_cons_pvt = (__cons_pvt + 1);                                     \
164         } while (!atomic_comp_swap(&(_bcq)->hdr.cons_pvt_idx, __cons_pvt,          \
165                                    __new_cons_pvt));                               \
166         if (!__retval) {                                                           \
167                 /* from here out, __cons_pvt is the local __cons_pvt that we won */    \
168                 /* wait for the producer to finish copying it in */                    \
169                 while (!(_bcq)->wraps[__cons_pvt & ((_num_elems)-1)].rdy_for_cons)     \
170                         cpu_relax();                                                       \
171                 *(_elem) = (_bcq)->wraps[__cons_pvt & ((_num_elems)-1)].elem;          \
172                 (_bcq)->wraps[__cons_pvt & ((_num_elems)-1)].rdy_for_cons = FALSE;     \
173                 /* wait til we're the cons_pub, then advance it by one */              \
174                 while ((_bcq)->hdr.cons_pub_idx != __cons_pvt)                         \
175                         cpu_relax();                                                       \
176                 (_bcq)->hdr.cons_pub_idx = __cons_pvt + 1;                             \
177         }                                                                          \
178         __retval;                                                                  \
179 })
180
181 /* Checks of a bcq is empty (meaning no work), instead of trying to dequeue */
182 #define bcq_empty(_bcq)                                                        \
183         BCQ_NO_WORK((_bcq)->hdr.prod_idx, (_bcq)->hdr.cons_pvt_idx)
184
185 #if 0
186 /* Original C Code, for posterity / debugging */
187 static inline int enqueue(struct __name_bcq *bcq, __elem_t *elem,
188                           int num_fail)
189 {
190         uint32_t __prod, __new_prod, __cons_pub, __failctr = 0;
191         do {
192                 if ((num_fail) && (__failctr++ >= num_fail)) {
193                         printk("FAILED\n");
194                         return -EFAIL;
195                 }
196                 __prod = bcq->hdr.prod_idx;
197                 __cons_pub = bcq->hdr.cons_pub_idx;
198         printk("# free slots : %d\n", BCQ_FREE_SLOTS(__prod, __cons_pub, __num_elems));
199
200 //              printk("__prod = %p, cons_pub = %p\n", __prod, __cons_pub-1);
201 //              printk("__prod mod = %p, cons_pub mod = %p\n", __prod &(__num_elems-1), (__cons_pub-1) &(__num_elems-1));
202
203                 if (BCQ_FULL(__prod, __cons_pub, __num_elems)) {
204                         printk("BUSY\n");
205                         return -EBUSY;
206                 }
207                 __new_prod = __prod + 1;
208         } while (!atomic_comp_swap(&bcq->hdr.prod_idx, __prod, __new_prod));
209         /* from here out, __prod is the local __prod that we won */
210
211         printk("enqueuing to location %d\n", __prod & (__num_elems-1));
212
213         bcq->wraps[__prod & (__num_elems-1)].elem = *elem;
214         bcq->wraps[__prod & (__num_elems-1)].rdy_for_cons = TRUE;
215         return 0;
216 }
217
218 /* Similar to enqueue, spin afterwards til cons_pub is our element, then */
219 /* advance it. */
220 static inline int dequeue(struct __name_bcq *bcq, __elem_t *elem)
221 {
222         uint32_t __prod, __cons_pvt, __new_cons_pvt, __cons_pub;
223         do {
224                 __prod = bcq->hdr.prod_idx;
225                 __cons_pvt = bcq->hdr.cons_pvt_idx;
226                 if (BCQ_NO_WORK(__prod, __cons_pvt))
227                         return -EBUSY;
228                 __new_cons_pvt = (__cons_pvt + 1);
229         } while (!atomic_comp_swap(&bcq->hdr.cons_pvt_idx, __cons_pvt,
230                                    __new_cons_pvt));
231         /* from here out, __cons_pvt is the local __cons_pvt that we won */
232         printk("dequeueing from location %d\n", __cons_pvt & (__num_elems-1));
233
234         /* wait for the producer to finish copying it in */
235         while (!bcq->wraps[__cons_pvt & (__num_elems-1)].rdy_for_cons)
236                 cpu_relax();
237         *elem = bcq->wraps[__cons_pvt & (__num_elems-1)].elem;
238         bcq->wraps[__cons_pvt & (__num_elems-1)].rdy_for_cons = FALSE;
239         /* wait til we're the cons_pub, then advance it by one */
240         while (bcq->hdr.cons_pub_idx != __cons_pvt)
241                 cpu_relax();
242         bcq->hdr.cons_pub_idx = __cons_pvt + 1;
243         return 0;
244 }
245 #endif
246
247 #endif /* !ROS_INC_BCQ_H */