BNX2X: spatch signed typedefs
[akaros.git] / kern / src / blockdev.c
index 77ff867..90b90de 100644 (file)
@@ -25,7 +25,7 @@ void block_init(void)
        bh_kcache = kmem_cache_create("buffer_heads", sizeof(struct buffer_head),
                                      __alignof__(struct buffer_head), 0, 0, 0);
 
-       #ifdef __CONFIG_EXT2FS__
+       #ifdef CONFIG_EXT2FS
        /* Now probe for and init the block device for the ext2 ram disk */
        extern uint8_t _binary_mnt_ext2fs_img_size[];
        extern uint8_t _binary_mnt_ext2fs_img_start[];
@@ -34,7 +34,7 @@ void block_init(void)
        memset(ram_bd, 0, sizeof(struct block_device));
        ram_bd->b_id = 31337;
        ram_bd->b_sector_sz = 512;
-       ram_bd->b_nr_sector = (unsigned int)_binary_mnt_ext2fs_img_size / 512;
+       ram_bd->b_nr_sector = (unsigned long)_binary_mnt_ext2fs_img_size / 512;
        kref_init(&ram_bd->b_kref, fake_release, 1);
        pm_init(&ram_bd->b_pm, &block_pm_op, ram_bd);
        ram_bd->b_data = _binary_mnt_ext2fs_img_start;
@@ -47,7 +47,7 @@ void block_init(void)
        ram_bf->f_dentry->d_inode->i_mapping = &ram_bd->b_pm;
        ram_bf->f_dentry->d_inode->i_bdev = ram_bd;     /* this holds the bd kref */
        kref_put(&ram_bf->f_kref);
-       #endif /* __CONFIG_EXT2FS__ */
+       #endif /* CONFIG_EXT2FS */
 }
 
 /* Generic helper, returns a kref'd reference out of principle. */
@@ -69,7 +69,7 @@ struct block_device *get_bdev(char *path)
 void free_bhs(struct page *page)
 {
        struct buffer_head *bh, *next;
-       assert(page->pg_flags & PG_BUFFER);
+       assert(atomic_read(&page->pg_flags) & PG_BUFFER);
        bh = (struct buffer_head*)page->pg_private;
        while (bh) {
                next = bh->bh_next;
@@ -108,7 +108,6 @@ int bdev_submit_request(struct block_device *bdev, struct block_request *breq)
                }
                memcpy(dst, src, nr_sector << SECTOR_SZ_LOG);
        }
-#ifdef __i386__        /* Sparc can't kthread yet */
        /* Faking the device interrupt with an alarm */
        void breq_handler(struct alarm_waiter *waiter)
        {
@@ -127,29 +126,17 @@ int bdev_submit_request(struct block_device *bdev, struct block_request *breq)
        /* Set for 5ms. */
        set_awaiter_rel(waiter, 5000);
        set_alarm(tchain, waiter);
-#else
-       if (breq->callback)
-               breq->callback(breq);
-#endif
-
        return 0;
 }
 
 /* Helper method, unblocks someone blocked on sleep_on_breq(). */
 void generic_breq_done(struct block_request *breq)
 {
-#ifdef __i386__        /* Sparc can't restart kthreads yet */
-       struct kthread *sleeper = __up_sem(&breq->sem);
-       if (!sleeper) {
+       int8_t irq_state = 0;
+       if (!sem_up_irqsave(&breq->sem, &irq_state)) {
                /* This shouldn't happen anymore.  Let brho know if it does. */
-               warn("[kernel] no one waiting on breq %08p", breq);
-               return;
+               warn("[kernel] no one waiting on breq %p", breq);
        }
-       kthread_runnable(sleeper);
-       assert(TAILQ_EMPTY(&breq->sem.waiters));
-#else
-       breq->data = (void*)1;
-#endif
 }
 
 /* Helper, pairs with generic_breq_done().  Note we sleep here on a semaphore
@@ -157,16 +144,11 @@ void generic_breq_done(struct block_request *breq)
  * for real block devices (that don't fake things with timer interrupts). */
 void sleep_on_breq(struct block_request *breq)
 {
+       int8_t irq_state = 0;
        /* Since printk takes a while, this may make you lose the race */
-       printd("Sleeping on breq %08p\n", breq);
+       printd("Sleeping on breq %p\n", breq);
        assert(irq_is_enabled());
-#ifdef __i386__
-       sleep_on(&breq->sem);
-#else
-       /* Sparc can't block yet (TODO).  This only works if the completion happened
-        * first (for now) */
-       assert(breq->data);
-#endif
+       sem_down_irqsave(&breq->sem, &irq_state);
 }
 
 /* This just tells the page cache that it is 'up to date'.  Due to the nature of
@@ -174,7 +156,7 @@ void sleep_on_breq(struct block_request *breq)
  * readpage, we read them in when a specific block is there */
 int block_readpage(struct page_map *pm, struct page *page)
 {
-       page->pg_flags |= PG_UPTODATE;
+       atomic_or(&page->pg_flags, PG_UPTODATE);
        return 0;
 }
 
@@ -209,7 +191,7 @@ struct buffer_head *bdev_get_buffer(struct block_device *bdev,
        if (error)
                panic("Failed to load page! (%d)", error);
        my_buf = page2kva(page) + blk_offset;
-       assert(page->pg_flags & PG_BUFFER);             /* Should be part of a page map */
+       atomic_or(&page->pg_flags, PG_BUFFER);
 retry:
        bh = (struct buffer_head*)page->pg_private;
        prev = 0;
@@ -240,7 +222,7 @@ retry:
        /* Normally, there'd be an ABA problem here, but we never actually remove
         * bhs from the chain until the whole page gets cleaned up, which can't
         * happen while we hold a reference to the page. */
-       if (!atomic_comp_swap((uint32_t*)next_loc, (uint32_t)bh, (uint32_t)new)) {
+       if (!atomic_cas_ptr((void**)next_loc, bh, new)) {
                kmem_cache_free(bh_kcache, new);
                goto retry;
        }
@@ -264,7 +246,7 @@ found:
        breq->flags = BREQ_READ;
        breq->callback = generic_breq_done;
        breq->data = 0;
-       init_sem(&breq->sem, 0);
+       sem_init_irqsave(&breq->sem, 0);
        breq->bhs = breq->local_bhs;
        breq->bhs[0] = bh;
        breq->nr_bhs = 1;
@@ -286,7 +268,7 @@ void bdev_dirty_buffer(struct buffer_head *bh)
        struct page *page = bh->bh_page;
        /* TODO: race on flag modification */
        bh->bh_flags |= BH_DIRTY;
-       page->pg_flags |= PG_DIRTY;
+       atomic_or(&page->pg_flags, PG_DIRTY);
 }
 
 /* Decrefs the buffer from bdev_get_buffer().  Call this when you no longer
@@ -294,7 +276,7 @@ void bdev_dirty_buffer(struct buffer_head *bh)
  * reclaiming will be in page sized chunks from the page cache. */
 void bdev_put_buffer(struct buffer_head *bh)
 {
-       page_decref(bh->bh_page);
+       pm_put_page(bh->bh_page);
 }
 
 /* Block device page map ops: */