Refactor freeb to separate out free_block_extra
[akaros.git] / kern / src / ns / allocb.c
1 // INFERNO
2 #include <vfs.h>
3 #include <kfs.h>
4 #include <slab.h>
5 #include <kmalloc.h>
6 #include <kref.h>
7 #include <string.h>
8 #include <stdio.h>
9 #include <assert.h>
10 #include <error.h>
11 #include <cpio.h>
12 #include <pmap.h>
13 #include <smp.h>
14 #include <ip.h>
15 #include <process.h>
16
17 /* Note that Hdrspc is only available via padblock (to the 'left' of the rp). */
18 enum {
19         Hdrspc = 128,           /* leave room for high-level headers */
20         Bdead = 0x51494F42,     /* "QIOB" */
21         BLOCKALIGN = 32,        /* was the old BY2V in inferno, which was 8 */
22 };
23
24 static atomic_t ialloc_bytes = 0;
25
26 /*
27  *  allocate blocks (round data base address to 64 bit boundary).
28  *  if mallocz gives us more than we asked for, leave room at the front
29  *  for header.
30  */
31 static struct block *_allocb(int size, int mem_flags)
32 {
33         struct block *b;
34         uintptr_t addr;
35         int n;
36
37         b = kmalloc(sizeof(struct block) + size + Hdrspc + (BLOCKALIGN - 1),
38                                 mem_flags);
39         if (b == NULL)
40                 return NULL;
41
42         b->next = NULL;
43         b->list = NULL;
44         b->free = NULL;
45         b->flag = 0;
46         b->extra_len = 0;
47         b->nr_extra_bufs = 0;
48         b->extra_data = 0;
49
50         addr = (uintptr_t) b;
51         addr = ROUNDUP(addr + sizeof(struct block), BLOCKALIGN);
52         b->base = (uint8_t *) addr;
53         /* TODO: support this */
54         /* interesting. We can ask the allocator, after allocating,
55          * the *real* size of the block we got. Very nice.
56          * Not on akaros yet.
57          b->lim = ((uint8_t*)b) + msize(b);
58          */
59         b->lim =
60                 ((uint8_t *) b) + sizeof(struct block) + size + Hdrspc + (BLOCKALIGN -
61                                                                                                                                   1);
62         b->rp = b->base;
63         n = b->lim - b->base - size;
64         b->rp += n & ~(BLOCKALIGN - 1);
65         b->wp = b->rp;
66         /* b->base is aligned, rounded up from b
67          * b->lim is the upper bound on our malloc
68          * b->rp is advanced by some aligned amount, based on how much extra we
69          * received from kmalloc and the Hdrspc. */
70         return b;
71 }
72
73 struct block *allocb(int size)
74 {
75         return _allocb(size, KMALLOC_WAIT);
76 }
77
78 /* Makes sure b has nr_bufs extra_data.  Will grow, but not shrink, an existing
79  * extra_data array.  When growing, it'll copy over the old entries.  All new
80  * entries will be zeroed.  mem_flags determines if we'll block on kmallocs.
81  *
82  * Caller is responsible for concurrent access to the block's metadata. */
83 void block_add_extd(struct block *b, unsigned int nr_bufs, int mem_flags)
84 {
85         unsigned int old_nr_bufs = b->nr_extra_bufs;
86         size_t old_amt = sizeof(struct extra_bdata) * old_nr_bufs;
87         size_t new_amt = sizeof(struct extra_bdata) * nr_bufs;
88         void *new_bdata;
89
90         if (old_nr_bufs >= nr_bufs)
91                 return;
92         if (b->extra_data) {
93                 new_bdata = krealloc(b->extra_data, new_amt, mem_flags);
94                 if (!new_bdata)
95                         return;
96                 memset(new_bdata + old_amt, 0, new_amt - old_amt);
97         } else {
98                 new_bdata = kzmalloc(new_amt, mem_flags);
99                 if (!new_bdata)
100                         return;
101         }
102         b->extra_data = new_bdata;
103         b->nr_extra_bufs = nr_bufs;
104 }
105
106 /*
107  *  interrupt time allocation
108  */
109 struct block *iallocb(int size)
110 {
111         struct block *b;
112
113 #if 0   /* conf is some inferno global config */
114         if (atomic_read(&ialloc_bytes) > conf.ialloc) {
115                 //printk("iallocb: limited %lu/%lu\n", atomic_read(&ialloc_bytes),
116                 //       conf.ialloc);
117                 return NULL;
118         }
119 #endif
120
121         b = _allocb(size, 0);   /* no KMALLOC_WAIT */
122         if (b == NULL) {
123                 //printk("iallocb: no memory %lu/%lu\n", atomic_read(&ialloc_bytes),
124                 //       conf.ialloc);
125                 return NULL;
126         }
127         b->flag = BINTR;
128
129         atomic_add(&ialloc_bytes, b->lim - b->base);
130
131         return b;
132 }
133
134 void free_block_extra(struct block *b)
135 {
136         struct extra_bdata *ebd;
137
138         /* assuming our release method is kfree, which will change when we support
139          * user buffers */
140         for (int i = 0; i < b->nr_extra_bufs; i++) {
141                 ebd = &b->extra_data[i];
142                 if (ebd->base)
143                         kfree((void*)ebd->base);
144         }
145         b->extra_len = 0;
146         b->nr_extra_bufs = 0;
147         kfree(b->extra_data);   /* harmless if it is 0 */
148         b->extra_data = 0;              /* in case the block is reused by a free override */
149 }
150
151 void freeb(struct block *b)
152 {
153         void *dead = (void *)Bdead;
154
155         if (b == NULL)
156                 return;
157
158         free_block_extra(b);
159         /*
160          * drivers which perform non cache coherent DMA manage their own buffer
161          * pool of uncached buffers and provide their own free routine.
162          */
163         if (b->free) {
164                 b->free(b);
165                 return;
166         }
167         if (b->flag & BINTR) {
168                 /* subtracting the size of b */
169                 atomic_add(&ialloc_bytes, -(b->lim - b->base));
170         }
171
172         /* poison the block in case someone is still holding onto it */
173         b->next = dead;
174         b->rp = dead;
175         b->wp = dead;
176         b->lim = dead;
177         b->base = dead;
178
179         kfree(b);
180 }
181
182 void checkb(struct block *b, char *msg)
183 {
184         void *dead = (void *)Bdead;
185         struct extra_bdata *ebd;
186
187         if (b == dead)
188                 panic("checkb b %s 0x%lx", msg, b);
189         if (b->base == dead || b->lim == dead || b->next == dead
190                 || b->rp == dead || b->wp == dead) {
191                 printd("checkb: base 0x%8.8lx lim 0x%8.8lx next 0x%8.8lx\n",
192                            b->base, b->lim, b->next);
193                 printd("checkb: rp 0x%8.8lx wp 0x%8.8lx\n", b->rp, b->wp);
194                 panic("checkb dead: %s\n", msg);
195         }
196
197         if (b->base > b->lim)
198                 panic("checkb 0 %s 0x%lx 0x%lx", msg, b->base, b->lim);
199         if (b->rp < b->base)
200                 panic("checkb 1 %s 0x%lx 0x%lx", msg, b->base, b->rp);
201         if (b->wp < b->base)
202                 panic("checkb 2 %s 0x%lx 0x%lx", msg, b->base, b->wp);
203         if (b->rp > b->lim)
204                 panic("checkb 3 %s 0x%lx 0x%lx", msg, b->rp, b->lim);
205         if (b->wp > b->lim)
206                 panic("checkb 4 %s 0x%lx 0x%lx", msg, b->wp, b->lim);
207         if (b->nr_extra_bufs && !b->extra_data)
208                 panic("checkb 5 %s missing extra_data", msg);
209
210         for (int i = 0; i < b->nr_extra_bufs; i++) {
211                 ebd = &b->extra_data[i];
212                 if (ebd->base) {
213                         if (!kmalloc_refcnt((void*)ebd->base))
214                                 panic("checkb buf %d, base %p has no refcnt!\n", i, ebd->base);
215                 }
216         }
217
218 }
219
220 void iallocsummary(void)
221 {
222         printd("ialloc %lu/%lu\n", atomic_read(&ialloc_bytes), 0 /*conf.ialloc */ );
223 }
224
225 void printblock(struct block *b)
226 {
227         unsigned char *c;
228         unsigned int off, elen;
229         struct extra_bdata *e;
230
231         if (b == NULL) {
232                 printk("block is null\n");
233                 return;
234         }
235
236         printk("block of BLEN = %d, with %d header and %d data in %d extras\n",
237                BLEN(b), BHLEN(b), b->extra_len, b->nr_extra_bufs);
238
239         printk("header:\n");
240         printk("%2x:\t", 0);
241         off = 0;
242         for (c = b->rp; c < b->wp; c++) {
243                 printk("  %02x", *c & 0xff);
244                 off++;
245                 if (off % 8 == 0) {
246                         printk("\n");
247                         printk("%2x:\t", off);
248                 }
249         }
250         printk("\n");
251         elen = b->extra_len;
252         for (int i = 0; (i < b->nr_extra_bufs) && elen; i++) {
253                 e = &b->extra_data[i];
254                 if (e->len == 0)
255                         continue;
256                 elen -= e->len;
257                 printk("data %d:\n", i);
258                 printk("%2x:\t", 0);
259                 for (off = 0; off < e->len; off++) {
260                         c = (unsigned char *)e->base + e->off + off;
261                         printk("  %02x", *c & 0xff);
262                         if ((off + 1) % 8 == 0 && off +1 < e->len) {
263                                 printk("\n");
264                                 printk("%2x:\t", off + 1);
265                         }
266                 }
267         }
268         printk("\n");
269 }