cf4da6d9de87d55fdb4bdbf85f312ad1dc7888ab
[akaros.git] / kern / src / ns / allocb.c
1 // INFERNO
2 #include <vfs.h>
3 #include <kfs.h>
4 #include <slab.h>
5 #include <kmalloc.h>
6 #include <kref.h>
7 #include <string.h>
8 #include <stdio.h>
9 #include <assert.h>
10 #include <error.h>
11 #include <cpio.h>
12 #include <pmap.h>
13 #include <smp.h>
14 #include <ip.h>
15 #include <process.h>
16
17 enum {
18         Hdrspc = 64,                            /* leave room for high-level headers */
19         Bdead = 0x51494F42,     /* "QIOB" */
20         BLOCKALIGN = 32,        /* was the old BY2V in inferno, which was 8 */
21 };
22
23 static atomic_t ialloc_bytes = 0;
24
25 /*
26  *  allocate blocks (round data base address to 64 bit boundary).
27  *  if mallocz gives us more than we asked for, leave room at the front
28  *  for header.
29  */
30 struct block *_allocb(int size)
31 {
32         struct block *b;
33         uintptr_t addr;
34         int n;
35
36         /* TODO: verify we end up with properly aligned blocks */
37         b = kzmalloc(sizeof(struct block) + size + Hdrspc + (BLOCKALIGN - 1),
38                                  KMALLOC_WAIT);
39         if (b == NULL)
40                 return NULL;
41
42         b->next = NULL;
43         b->list = NULL;
44         b->free = NULL;
45         b->flag = 0;
46
47         addr = (uintptr_t) b;
48         addr = ROUNDUP(addr + sizeof(struct block), BLOCKALIGN);
49         b->base = (uint8_t *) addr;
50         /* interesting. We can ask the allocator, after allocating,
51          * the *real* size of the block we got. Very nice.
52          * Not on akaros yet.
53          b->lim = ((uint8_t*)b) + msize(b);
54          */
55         b->lim =
56                 ((uint8_t *) b) + sizeof(struct block) + size + Hdrspc + (BLOCKALIGN -
57                                                                                                                                   1);
58         b->rp = b->base;
59         n = b->lim - b->base - size;
60         b->rp += n & ~(BLOCKALIGN - 1);
61         b->wp = b->rp;
62
63         return b;
64 }
65
66 struct block *allocb(int size)
67 {
68         struct block *b;
69
70         b = _allocb(size);
71         if (b == 0)
72                 exhausted("Blocks");
73         return b;
74 }
75
76 /*
77  *  interrupt time allocation
78  */
79 struct block *iallocb(int size)
80 {
81         struct block *b;
82
83 #if 0   /* conf is some inferno global config */
84         if (atomic_read(&ialloc_bytes) > conf.ialloc) {
85                 //printk("iallocb: limited %lu/%lu\n", atomic_read(&ialloc_bytes),
86                 //       conf.ialloc);
87                 return NULL;
88         }
89 #endif
90
91         b = _allocb(size);
92         if (b == NULL) {
93                 //printk("iallocb: no memory %lu/%lu\n", atomic_read(&ialloc_bytes),
94                 //       conf.ialloc);
95                 return NULL;
96         }
97         b->flag = BINTR;
98
99         atomic_add(&ialloc_bytes, b->lim - b->base);
100
101         return b;
102 }
103
104 void freeb(struct block *b)
105 {
106         void *dead = (void *)Bdead;
107
108         if (b == NULL)
109                 return;
110
111         /*
112          * drivers which perform non cache coherent DMA manage their own buffer
113          * pool of uncached buffers and provide their own free routine.
114          */
115         if (b->free) {
116                 b->free(b);
117                 return;
118         }
119         if (b->flag & BINTR) {
120                 /* subtracting the size of b */
121                 atomic_add(&ialloc_bytes, -(b->lim - b->base));
122         }
123
124         /* poison the block in case someone is still holding onto it */
125         b->next = dead;
126         b->rp = dead;
127         b->wp = dead;
128         b->lim = dead;
129         b->base = dead;
130
131         kfree(b);
132 }
133
134 void checkb(struct block *b, char *msg)
135 {
136         void *dead = (void *)Bdead;
137
138         if (b == dead)
139                 panic("checkb b %s 0x%lx", msg, b);
140         if (b->base == dead || b->lim == dead || b->next == dead
141                 || b->rp == dead || b->wp == dead) {
142                 printd("checkb: base 0x%8.8lx lim 0x%8.8lx next 0x%8.8lx\n",
143                            b->base, b->lim, b->next);
144                 printd("checkb: rp 0x%8.8lx wp 0x%8.8lx\n", b->rp, b->wp);
145                 panic("checkb dead: %s\n", msg);
146         }
147
148         if (b->base > b->lim)
149                 panic("checkb 0 %s 0x%lx 0x%lx", msg, b->base, b->lim);
150         if (b->rp < b->base)
151                 panic("checkb 1 %s 0x%lx 0x%lx", msg, b->base, b->rp);
152         if (b->wp < b->base)
153                 panic("checkb 2 %s 0x%lx 0x%lx", msg, b->base, b->wp);
154         if (b->rp > b->lim)
155                 panic("checkb 3 %s 0x%lx 0x%lx", msg, b->rp, b->lim);
156         if (b->wp > b->lim)
157                 panic("checkb 4 %s 0x%lx 0x%lx", msg, b->wp, b->lim);
158
159 }
160
161 void iallocsummary(void)
162 {
163         printd("ialloc %lu/%lu\n", atomic_read(&ialloc_bytes), 0 /*conf.ialloc */ );
164 }