Fix minor TCP-blocking bugs
[akaros.git] / kern / src / ns / allocb.c
1 // INFERNO
2 #include <vfs.h>
3 #include <kfs.h>
4 #include <slab.h>
5 #include <kmalloc.h>
6 #include <kref.h>
7 #include <string.h>
8 #include <stdio.h>
9 #include <assert.h>
10 #include <error.h>
11 #include <cpio.h>
12 #include <pmap.h>
13 #include <smp.h>
14 #include <ip.h>
15 #include <process.h>
16
17 enum
18 {
19         Hdrspc          = 64,           /* leave room for high-level headers */
20         Bdead           = 0x51494F42,   /* "QIOB" */
21         BLOCKALIGN  = 32,               /* was the old BY2V in inferno, which was 8 */
22 };
23
24 static atomic_t ialloc_bytes = 0;
25
26 /*
27  *  allocate blocks (round data base address to 64 bit boundary).
28  *  if mallocz gives us more than we asked for, leave room at the front
29  *  for header.
30  */
31 struct block *_allocb(int size)
32 {
33         struct block *b;
34         uintptr_t addr;
35         int n;
36
37         /* TODO: verify we end up with properly aligned blocks */
38         b = kzmalloc(sizeof(struct block) + size + Hdrspc + (BLOCKALIGN - 1),
39                      KMALLOC_WAIT);
40         if (b == NULL)
41                 return NULL;
42
43         b->next = NULL;
44         b->list = NULL;
45         b->free = NULL;
46         b->flag = 0;
47
48         addr = (uintptr_t)b;
49         addr = ROUNDUP(addr + sizeof(struct block), BLOCKALIGN);
50         b->base = (uint8_t*)addr;
51         /* interesting. We can ask the allocator, after allocating,
52          * the *real* size of the block we got. Very nice.
53          * Not on akaros yet.
54         b->lim = ((uint8_t*)b) + msize(b);
55          */
56         b->lim = ((uint8_t*)b) + sizeof(struct block) + size + Hdrspc + (BLOCKALIGN - 1);
57         b->rp = b->base;
58         n = b->lim - b->base - size;
59         b->rp += n & ~(BLOCKALIGN - 1);
60         b->wp = b->rp;
61
62         return b;
63 }
64
65 struct block *allocb(int size)
66 {
67         struct block *b;
68
69         b = _allocb(size);
70         if (b == 0)
71                 exhausted("Blocks");
72         return b;
73 }
74
75 /*
76  *  interrupt time allocation
77  */
78 struct block *iallocb(int size)
79 {
80         struct block *b;
81
82         #if 0 /* conf is some inferno global config */
83         if (atomic_read(&ialloc_bytes) > conf.ialloc) {
84                 //printk("iallocb: limited %lu/%lu\n", atomic_read(&ialloc_bytes),
85                 //       conf.ialloc);
86                 return NULL;
87         }
88         #endif
89
90         b = _allocb(size);
91         if (b == NULL) {
92                 //printk("iallocb: no memory %lu/%lu\n", atomic_read(&ialloc_bytes),
93                 //       conf.ialloc);
94                 return NULL;
95         }
96         b->flag = BINTR;
97
98         atomic_add(&ialloc_bytes, b->lim - b->base);
99
100         return b;
101 }
102
103 void freeb(struct block *b)
104 {
105         void *dead = (void *)Bdead;
106
107         if (b == NULL)
108                 return;
109
110         /*
111          * drivers which perform non cache coherent DMA manage their own buffer
112          * pool of uncached buffers and provide their own free routine.
113          */
114         if (b->free) {
115                 b->free(b);
116                 return;
117         }
118         if (b->flag & BINTR) {
119                 /* subtracting the size of b */
120                 atomic_add(&ialloc_bytes, -(b->lim - b->base));
121         }
122
123         /* poison the block in case someone is still holding onto it */
124         b->next = dead;
125         b->rp = dead;
126         b->wp = dead;
127         b->lim = dead;
128         b->base = dead;
129
130         kfree(b);
131 }
132
133 void checkb(struct block *b, char *msg)
134 {
135         void *dead = (void *)Bdead;
136
137         if (b == dead)
138                 panic("checkb b %s 0x%lx", msg, b);
139         if (b->base == dead || b->lim == dead || b->next == dead
140                 || b->rp == dead || b->wp == dead) {
141                 printd("checkb: base 0x%8.8lx lim 0x%8.8lx next 0x%8.8lx\n",
142                            b->base, b->lim, b->next);
143                 printd("checkb: rp 0x%8.8lx wp 0x%8.8lx\n", b->rp, b->wp);
144                 panic("checkb dead: %s\n", msg);
145         }
146
147         if (b->base > b->lim)
148                 panic("checkb 0 %s 0x%lx 0x%lx", msg, b->base, b->lim);
149         if (b->rp < b->base)
150                 panic("checkb 1 %s 0x%lx 0x%lx", msg, b->base, b->rp);
151         if (b->wp < b->base)
152                 panic("checkb 2 %s 0x%lx 0x%lx", msg, b->base, b->wp);
153         if (b->rp > b->lim)
154                 panic("checkb 3 %s 0x%lx 0x%lx", msg, b->rp, b->lim);
155         if (b->wp > b->lim)
156                 panic("checkb 4 %s 0x%lx 0x%lx", msg, b->wp, b->lim);
157
158 }
159
160 void iallocsummary(void)
161 {
162         printd("ialloc %lu/%lu\n", atomic_read(&ialloc_bytes), 0 /*conf.ialloc*/);
163 }