5702b52edd661225d42bad66e0d34b401a6b37bb
[akaros.git] / kern / src / blockdev.c
1 /* Copyright (c) 2010 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * Block devices and generic blockdev infrastructure */
6
7 #include <devfs.h>
8 #include <blockdev.h>
9 #include <kmalloc.h>
10 #include <slab.h>
11 #include <page_alloc.h>
12 #include <pmap.h>
13
14 struct file_operations block_f_op;
15 struct page_map_operations block_pm_op;
16 struct kmem_cache *breq_kcache;
17
18 void block_init(void)
19 {
20         breq_kcache = kmem_cache_create("block_reqs", sizeof(struct block_request),
21                                         __alignof__(struct block_request), 0, 0, 0);
22         bh_kcache = kmem_cache_create("buffer_heads", sizeof(struct buffer_head),
23                                       __alignof__(struct buffer_head), 0, 0, 0);
24
25         #ifdef __CONFIG_EXT2FS__
26         /* Now probe for and init the block device for the ext2 ram disk */
27         extern uint8_t _binary_mnt_ext2fs_img_size[];
28         extern uint8_t _binary_mnt_ext2fs_img_start[];
29         /* Build and init the block device */
30         struct block_device *ram_bd = kmalloc(sizeof(struct block_device), 0);
31         memset(ram_bd, 0, sizeof(struct block_device));
32         ram_bd->b_id = 31337;
33         ram_bd->b_sector_sz = 512;
34         ram_bd->b_nr_sector = (unsigned int)_binary_mnt_ext2fs_img_size / 512;
35         kref_init(&ram_bd->b_kref, fake_release, 1);
36         pm_init(&ram_bd->b_pm, &block_pm_op, ram_bd);
37         ram_bd->b_data = _binary_mnt_ext2fs_img_start;
38         strncpy(ram_bd->b_name, "RAMDISK", BDEV_INLINE_NAME);
39         ram_bd->b_name[BDEV_INLINE_NAME - 1] = '\0';
40         /* Connect it to the file system */
41         struct file *ram_bf = make_device("/dev/ramdisk", S_IRUSR | S_IWUSR,
42                                           __S_IFBLK, &block_f_op);
43         /* make sure the inode tracks the right pm (not it's internal one) */
44         ram_bf->f_dentry->d_inode->i_mapping = &ram_bd->b_pm;
45         ram_bf->f_dentry->d_inode->i_bdev = ram_bd;     /* this holds the bd kref */
46         kref_put(&ram_bf->f_kref);
47         #endif /* __CONFIG_EXT2FS__ */
48 }
49
50 /* Generic helper, returns a kref'd reference out of principle. */
51 struct block_device *get_bdev(char *path)
52 {
53         struct block_device *bdev;
54         struct file *block_f;
55         block_f = do_file_open(path, O_RDWR, 0);
56         assert(block_f);
57         bdev = block_f->f_dentry->d_inode->i_bdev;
58         kref_get(&bdev->b_kref, 1);
59         kref_put(&block_f->f_kref);
60         return bdev;
61 }
62
63 /* Frees all the BHs associated with page.  There could be 0, to deal with one
64  * that wasn't UPTODATE.  Don't call this on a page that isn't a PG_BUFFER.
65  * Note, these are not a circular LL (for now). */
66 void free_bhs(struct page *page)
67 {
68         struct buffer_head *bh, *next;
69         assert(page->pg_flags & PG_BUFFER);
70         bh = (struct buffer_head*)page->pg_private;
71         while (bh) {
72                 next = bh->bh_next;
73                 bh->bh_next = 0;
74                 kmem_cache_free(bh_kcache, bh);
75                 bh = next;
76         }
77         page->pg_private = 0;           /* catch bugs */
78 }
79
80 /* This ultimately will handle the actual request processing, all the way down
81  * to the driver, and will deal with blocking.  For now, we just fulfill the
82  * request right away (RAM based block devs). */
83 int bdev_submit_request(struct block_device *bdev, struct block_request *breq)
84 {
85         void *src, *dst;
86         unsigned long first_sector;
87         unsigned int nr_sector;
88
89         for (int i = 0; i < breq->nr_bhs; i++) {
90                 first_sector = breq->bhs[i]->bh_sector;
91                 nr_sector = breq->bhs[i]->bh_nr_sector;
92                 /* Sectors are indexed starting with 0, for now. */
93                 if (first_sector + nr_sector > bdev->b_nr_sector) {
94                         warn("Exceeding the num sectors!");
95                         return -1;
96                 }
97                 if (breq->flags & BREQ_READ) {
98                         dst = breq->bhs[i]->bh_buffer;
99                         src = bdev->b_data + (first_sector << SECTOR_SZ_LOG);
100                 } else if (breq->flags & BREQ_WRITE) {
101                         dst = bdev->b_data + (first_sector << SECTOR_SZ_LOG);
102                         src = breq->bhs[i]->bh_buffer;
103                 } else {
104                         panic("Need a request type!\n");
105                 }
106                 memcpy(dst, src, nr_sector << SECTOR_SZ_LOG);
107         }
108 #ifdef __i386__         /* Sparc can't register interrupt handlers yet */
109         /* Faking an interrupt.  The handler runs in interrupt context btw */
110         void x86_breq_handler(struct trapframe *tf, void *data)
111         {
112                 /* Re-register the old dumb handler */
113                 register_interrupt_handler(interrupt_handlers,
114                                            LAPIC_TIMER_DEFAULT_VECTOR, timer_interrupt,
115                                            NULL);
116                 struct block_request *breq = (struct block_request*)data;
117                 if (breq->callback)
118                         breq->callback(breq);
119         }
120         register_interrupt_handler(interrupt_handlers, LAPIC_TIMER_DEFAULT_VECTOR,
121                                    x86_breq_handler, breq);
122         /* Fake a 5ms delay */
123         set_core_timer(5000);
124 #else
125         if (breq->callback)
126                 breq->callback(breq);
127 #endif
128
129         return 0;
130 }
131
132 /* Helper method, unblocks someone blocked on sleep_on_breq(). */
133 void generic_breq_done(struct block_request *breq)
134 {
135         /* TODO: BLK - unblock the kthread sleeping on this request */
136         breq->data = (void*)1;
137 }
138
139 /* Helper, pairs with generic_breq_done() */
140 void sleep_on_breq(struct block_request *breq)
141 {
142         /* TODO: BLK Block til we are done: data gets toggled in the completion.
143          * This only works if the completion happened first (for now) */
144         assert(irq_is_enabled());
145 #ifdef __i386__         /* Sparc isn't interrupt driven yet */
146         while (!breq->data)
147                 cpu_relax();
148 #else
149         assert(breq->data);
150 #endif
151 }
152
153 /* This just tells the page cache that it is 'up to date'.  Due to the nature of
154  * the blocks in the page cache, we don't actually read the items in on
155  * readpage, we read them in when a specific block is there */
156 int block_readpage(struct page_map *pm, struct page *page)
157 {
158         page->pg_flags |= PG_UPTODATE;
159         return 0;
160 }
161
162 /* Returns a BH pointing to the buffer where blk_num from bdev is located (given
163  * blocks of size blk_sz).  This uses the page cache for the page allocations
164  * and evictions, but only caches blocks that are requested.  Check the docs for
165  * more info.  The BH isn't refcounted, but a page refcnt is returned.  Call
166  * put_block (nand/xor dirty block).
167  *
168  * Note we're using the lock_page() to sync (which is what we do with the page
169  * cache too.  It's not ideal, but keeps things simpler for now.
170  *
171  * Also note we're a little inconsistent with the use of sector sizes in certain
172  * files.  We'll sort it eventually. */
173 struct buffer_head *bdev_get_buffer(struct block_device *bdev,
174                                     unsigned long blk_num, unsigned int blk_sz)
175 {
176         struct page *page;
177         struct page_map *pm = &bdev->b_pm;
178         struct buffer_head *bh, *new, *prev, **next_loc;
179         struct block_request *breq;
180         int error;
181         unsigned int blk_per_pg = PGSIZE / blk_sz;
182         unsigned int sct_per_blk = blk_sz / bdev->b_sector_sz;
183         unsigned int blk_offset = (blk_num % blk_per_pg) * blk_sz;
184         void *my_buf;
185         assert(blk_offset < PGSIZE);
186         if (!blk_num)
187                 warn("Asking for the 0th block of a bdev...");
188         /* Make sure there's a page in the page cache.  Should always be one. */
189         error = pm_load_page(pm, blk_num / blk_per_pg, &page); 
190         if (error)
191                 panic("Failed to load page! (%d)", error);
192         my_buf = page2kva(page) + blk_offset;
193         assert(page->pg_flags & PG_BUFFER);             /* Should be part of a page map */
194 retry:
195         bh = (struct buffer_head*)page->pg_private;
196         prev = 0;
197         /* look through all the BHs for ours, stopping if we go too far. */
198         while (bh) {
199                 if (bh->bh_buffer == my_buf) {
200                         goto found;
201                 } else if (bh->bh_buffer > my_buf) {
202                         break;
203                 }
204                 prev = bh;
205                 bh = bh->bh_next;
206         }
207         /* At this point, bh points to the one beyond our space (or 0), and prev is
208          * either the one before us or 0.  We make a BH, and try to insert */
209         new = kmem_cache_alloc(bh_kcache, 0);
210         assert(new);
211         new->bh_page = page;                                    /* weak ref */
212         new->bh_buffer = my_buf;
213         new->bh_flags = 0;
214         new->bh_next = bh;
215         new->bh_bdev = bdev;                                    /* uncounted ref */
216         new->bh_sector = blk_num * sct_per_blk;
217         new->bh_nr_sector = sct_per_blk;
218         /* Try to insert the new one in place.  If it fails, retry the whole "find
219          * the bh" process.  This should be rare, so no sense optimizing it. */
220         next_loc = prev ? &prev->bh_next : (struct buffer_head**)&page->pg_private;
221         if (!atomic_comp_swap((uint32_t*)next_loc, (uint32_t)bh, (uint32_t)new)) {
222                 kmem_cache_free(bh_kcache, new);
223                 goto retry;
224         }
225         bh = new;
226 found:
227         /* At this point, we have the BH for our buf, but it might not be up to
228          * date, and there might be someone else trying to update it. */
229         /* is it already here and up to date?  if so, we're done */
230         if (bh->bh_flags & BH_UPTODATE)
231                 return bh;
232         /* if not, try to lock the page (could BLOCK).  Using this for syncing. */
233         lock_page(page);
234         /* double check, are we up to date?  if so, we're done */
235         if (bh->bh_flags & BH_UPTODATE) {
236                 unlock_page(page);
237                 return bh;
238         }
239         /* if we're here, the page is locked by us, we need to read the block */
240         breq = kmem_cache_alloc(breq_kcache, 0);
241         assert(breq);
242         breq->flags = BREQ_READ;
243         breq->callback = generic_breq_done;
244         breq->data = 0;
245         breq->bhs = breq->local_bhs;
246         breq->bhs[0] = bh;
247         breq->nr_bhs = 1;
248         error = bdev_submit_request(bdev, breq);
249         assert(!error);
250         sleep_on_breq(breq);
251         kmem_cache_free(breq_kcache, breq);
252         /* after the data is read, we mark it up to date and unlock the page. */
253         bh->bh_flags |= BH_UPTODATE;
254         unlock_page(page);
255         return bh;
256 }
257
258 /* Will dirty the block/BH/page for the given block/buffer.  Will have to be
259  * careful with the page reclaimer - if someone holds a reference, they can
260  * still dirty it. */
261 void bdev_dirty_buffer(struct buffer_head *bh)
262 {
263         struct page *page = bh->bh_page;
264         /* TODO: race on flag modification */
265         bh->bh_flags |= BH_DIRTY;
266         page->pg_flags |= PG_DIRTY;
267 }
268
269 /* Decrefs the buffer from bdev_get_buffer().  Call this when you no longer
270  * reference your block/buffer.  For now, we do refcnting on the page, since the
271  * reclaiming will be in page sized chunks from the page cache. */
272 void bdev_put_buffer(struct buffer_head *bh)
273 {
274         page_decref(bh->bh_page);
275 }
276
277 /* Block device page map ops: */
278 struct page_map_operations block_pm_op = {
279         block_readpage,
280 };
281
282 /* Block device file ops: for now, we don't let you do much of anything */
283 struct file_operations block_f_op = {
284         dev_c_llseek,
285         0,
286         0,
287         kfs_readdir,    /* this will fail gracefully */
288         dev_mmap,
289         kfs_open,
290         kfs_flush,
291         kfs_release,
292         0,      /* fsync - makes no sense */
293         kfs_poll,
294         0,      /* readv */
295         0,      /* writev */
296         kfs_sendpage,
297         kfs_check_flags,
298 };