Ksched interface cleanup, smp_idle() cleanup
[akaros.git] / kern / src / vfs.c
index 4a188a6..2ff72da 100644 (file)
@@ -99,7 +99,9 @@ void vfs_init(void)
        /* build list of all FS's in the system.  put yours here.  if this is ever
         * done on the fly, we'll need to lock. */
        TAILQ_INSERT_TAIL(&file_systems, &kfs_fs_type, list);
+#ifdef __CONFIG_EXT2FS__
        TAILQ_INSERT_TAIL(&file_systems, &ext2_fs_type, list);
+#endif
        TAILQ_FOREACH(fs, &file_systems, list)
                printk("Supports the %s Filesystem\n", fs->name);
 
@@ -150,6 +152,9 @@ static struct dentry *do_lookup(struct dentry *parent, char *name)
        /* not in the dcache at all, need to consult the FS */
        result = parent->d_inode->i_op->lookup(parent->d_inode, query, 0);
        if (!result) {
+               /* Note the USED flag will get turned off when this gets added to the
+                * LRU in dentry_release().  There's a slight race here that we'll panic
+                * on, but I want to catch it (in dcache_put()) for now. */
                query->d_flags |= DENTRY_NEGATIVE;
                dcache_put(parent->d_sb, query);
                kref_put(&query->d_kref);
@@ -675,14 +680,15 @@ void dentry_release(struct kref *kref)
        /* While locked, we need to double check the kref, in case someone already
         * reup'd it.  Re-up? you're crazy!  Reee-up, you're outta yo mind! */
        if (!kref_refcnt(&dentry->d_kref)) {
-               /* and make sure it wasn't USED, then UNUSED again */
-               /* TODO: think about issues with this */
+               /* Note this is where negative dentries get set UNUSED */
                if (dentry->d_flags & DENTRY_USED) {
                        dentry->d_flags &= ~DENTRY_USED;
                        spin_lock(&dentry->d_sb->s_lru_lock);
                        TAILQ_INSERT_TAIL(&dentry->d_sb->s_lru_d, dentry, d_lru);
                        spin_unlock(&dentry->d_sb->s_lru_lock);
                } else {
+                       /* and make sure it wasn't USED, then UNUSED again */
+                       /* TODO: think about issues with this */
                        warn("This should be rare.  Tell brho this happened.");
                }
        }
@@ -800,6 +806,7 @@ void dcache_put(struct super_block *sb, struct dentry *key_val)
        old = hashtable_remove(sb->s_dcache, key_val);
        if (old) {
                assert(old->d_flags & DENTRY_NEGATIVE);
+               /* This is possible, but rare for now (about to be put on the LRU) */
                assert(!(old->d_flags & DENTRY_USED));
                assert(!kref_refcnt(&old->d_kref));
                spin_lock(&sb->s_lru_lock);
@@ -902,18 +909,14 @@ struct inode *get_inode(struct dentry *dentry)
        atomic_set(&inode->i_writecount, 0);
        /* Set up the page_map structures.  Default is to use the embedded one.
         * Might push some of this back into specific FSs.  For now, the FS tells us
-        * what pm_op they want via i_pm.pm_op, which we use when we point i_mapping
-        * to i_pm. */
+        * what pm_op they want via i_pm.pm_op, which we set again in pm_init() */
        inode->i_mapping = &inode->i_pm;
-       inode->i_mapping->pm_host = inode;
-       radix_tree_init(&inode->i_mapping->pm_tree);
-       spinlock_init(&inode->i_mapping->pm_tree_lock);
-       inode->i_mapping->pm_flags = 0;
+       pm_init(inode->i_mapping, inode->i_pm.pm_op, inode);
        return inode;
 }
 
 /* Helper: loads/ reads in the inode numbered ino and attaches it to dentry */
-void load_inode(struct dentry *dentry, unsigned int ino)
+void load_inode(struct dentry *dentry, unsigned long ino)
 {
        struct inode *inode;
 
@@ -1044,6 +1047,7 @@ void inode_release(struct kref *kref)
        /* Either way, we dealloc the in-memory version */
        inode->i_sb->s_op->dealloc_inode(inode);        /* FS-specific clean-up */
        kref_put(&inode->i_sb->s_kref);
+       /* TODO: clean this up */
        assert(inode->i_mapping == &inode->i_pm);
        kmem_cache_free(inode_kcache, inode);
        /* TODO: (BDEV) */
@@ -1071,7 +1075,7 @@ void stat_inode(struct inode *inode, struct kstat *kstat)
 /* Inode Cache management.  In general, search on the ino, get a refcnt'd value
  * back.  Remove does not give you a reference back - it should only be called
  * in inode_release(). */
-struct inode *icache_get(struct super_block *sb, unsigned int ino)
+struct inode *icache_get(struct super_block *sb, unsigned long ino)
 {
        /* This is the same style as in pid2proc, it's the "safely create a strong
         * reference from a weak one, so long as other strong ones exist" pattern */
@@ -1093,7 +1097,7 @@ void icache_put(struct super_block *sb, struct inode *inode)
        spin_unlock(&sb->s_icache_lock);
 }
 
-struct inode *icache_remove(struct super_block *sb, unsigned int ino)
+struct inode *icache_remove(struct super_block *sb, unsigned long ino)
 {
        struct inode *inode;
        /* Presumably these hashtable removals could be easier since callers
@@ -1137,7 +1141,7 @@ ssize_t generic_file_read(struct file *file, char *buf, size_t count,
        /* For each file page, make sure it's in the page cache, then copy it out.
         * TODO: will probably need to consider concurrently truncated files here.*/
        for (int i = first_idx; i <= last_idx; i++) {
-               error = file_load_page(file, i, &page);
+               error = pm_load_page(file->f_mapping, i, &page);
                assert(!error); /* TODO: handle ENOMEM and friends */
                copy_amt = MIN(PGSIZE - page_off, buf_end - buf);
                /* TODO: (UMEM) think about this.  if it's a user buffer, we're relying
@@ -1187,7 +1191,7 @@ ssize_t generic_file_write(struct file *file, const char *buf, size_t count,
        buf_end = buf + count;
        /* For each file page, make sure it's in the page cache, then write it.*/
        for (int i = first_idx; i <= last_idx; i++) {
-               error = file_load_page(file, i, &page);
+               error = pm_load_page(file->f_mapping, i, &page);
                assert(!error); /* TODO: handle ENOMEM and friends */
                copy_amt = MIN(PGSIZE - page_off, buf_end - buf);
                /* TODO: (UMEM) (KFOP) think about this.  if it's a user buffer, we're
@@ -1704,125 +1708,6 @@ void file_release(struct kref *kref)
        kmem_cache_free(file_kcache, file);
 }
 
-/* Page cache functions */
-
-/* Looks up the index'th page in the page map, returning an incref'd reference,
- * or 0 if it was not in the map. */
-struct page *pm_find_page(struct page_map *pm, unsigned long index)
-{
-       spin_lock(&pm->pm_tree_lock);
-       struct page *page = (struct page*)radix_lookup(&pm->pm_tree, index);
-       if (page)
-               page_incref(page);
-       spin_unlock(&pm->pm_tree_lock);
-       return page;
-}
-
-/* Attempts to insert the page into the page_map, returns 0 for success, or an
- * error code if there was one already (EEXIST) or we ran out of memory
- * (ENOMEM).  On success, this will preemptively lock the page, and will also
- * store a reference to the page in the pm. */
-int pm_insert_page(struct page_map *pm, unsigned long index, struct page *page)
-{
-       int error = 0;
-       spin_lock(&pm->pm_tree_lock);
-       error = radix_insert(&pm->pm_tree, index, page);
-       if (!error) {
-               page_incref(page);
-               page->pg_flags |= PG_LOCKED;
-               page->pg_mapping = pm;
-               page->pg_index = index;
-               pm->pm_num_pages++;
-       }
-       spin_unlock(&pm->pm_tree_lock);
-       return error;
-}
-
-/* Removes the page, including its reference.  Not sure yet what interface we
- * want to this (pm and index or page), and this has never been used.  There are
- * also issues with when you want to call this, since a page in the cache may be
- * mmap'd by someone else. */
-int pm_remove_page(struct page_map *pm, struct page *page)
-{
-       void *retval;
-       warn("pm_remove_page() hasn't been thought through or tested.");
-       spin_lock(&pm->pm_tree_lock);
-       retval = radix_delete(&pm->pm_tree, page->pg_index);
-       spin_unlock(&pm->pm_tree_lock);
-       assert(retval == (void*)page);
-       page_decref(page);
-       page->pg_mapping = 0;
-       page->pg_index = 0;
-       pm->pm_num_pages--;
-       return 0;
-}
-
-/* Makes sure the index'th page from file is loaded in the page cache and
- * returns its location via **pp.  Note this will give you a refcnt'd reference.
- * This may block! TODO: (BLK) */
-int file_load_page(struct file *file, unsigned long index, struct page **pp)
-{
-       struct page_map *pm = file->f_mapping;
-       struct page *page;
-       int error;
-       bool page_was_mapped = TRUE;
-
-       page = pm_find_page(pm, index);
-       while (!page) {
-               /* kpage_alloc, since we want the page to persist after the proc
-                * dies (can be used by others, until the inode shuts down). */
-               if (kpage_alloc(&page))
-                       return -ENOMEM;
-               /* might want to initialize other things, perhaps in page_alloc() */
-               page->pg_flags = 0;
-               error = pm_insert_page(pm, index, page);
-               switch (error) {
-                       case 0:
-                               page_was_mapped = FALSE;
-                               break;
-                       case -EEXIST:
-                               /* the page was mapped already (benign race), just get rid of
-                                * our page and try again (the only case that uses the while) */
-                               page_decref(page);
-                               page = pm_find_page(pm, index);
-                               break;
-                       default:
-                               /* something is wrong, bail out! */
-                               page_decref(page);
-                               return error;
-               }
-       }
-       *pp = page;
-       /* if the page was in the map, we need to do some checks, and might have to
-        * read in the page later.  If the page was freshly inserted to the pm by
-        * us, we skip this since we are the one doing the readpage(). */
-       if (page_was_mapped) {
-               /* is it already here and up to date?  if so, we're done */
-               if (page->pg_flags & PG_UPTODATE)
-                       return 0;
-               /* if not, try to lock the page (could BLOCK) */
-               lock_page(page);
-               /* we got it, is our page still in the cache?  check the mapping.  if
-                * not, start over, perhaps with EAGAIN and outside support */
-               if (!page->pg_mapping)
-                       panic("Page is not in the mapping!  Haven't implemented this!");
-               /* double check, are we up to date?  if so, we're done */
-               if (page->pg_flags & PG_UPTODATE) {
-                       unlock_page(page);
-                       return 0;
-               }
-       }
-       /* if we're here, the page is locked by us, and it needs to be read in */
-       assert(page->pg_mapping == pm);
-       error = pm->pm_op->readpage(file, page);
-       assert(!error);
-       /* Try to sleep on the IO.  The page will be unlocked when the IO is done */
-       lock_page(page);
-       unlock_page(page);
-       assert(page->pg_flags & PG_UPTODATE);
-       return 0;
-}
-
 /* Process-related File management functions */
 
 /* Given any FD, get the appropriate file, 0 o/w */
@@ -1837,7 +1722,7 @@ struct file *get_file_from_fd(struct files_struct *open_files, int file_desc)
                        /* while max_files and max_fdset might not line up, we should never
                         * have a valid fdset higher than files */
                        assert(file_desc < open_files->max_files);
-                       retval = open_files->fd[file_desc];
+                       retval = open_files->fd[file_desc].fd_file;
                        assert(retval);
                        kref_get(&retval->f_kref, 1);
                }
@@ -1860,8 +1745,8 @@ struct file *put_file_from_fd(struct files_struct *open_files, int file_desc)
                        /* while max_files and max_fdset might not line up, we should never
                         * have a valid fdset higher than files */
                        assert(file_desc < open_files->max_files);
-                       file = open_files->fd[file_desc];
-                       open_files->fd[file_desc] = 0;
+                       file = open_files->fd[file_desc].fd_file;
+                       open_files->fd[file_desc].fd_file = 0;
                        assert(file);
                        kref_put(&file->f_kref);
                        CLR_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc);
@@ -1884,9 +1769,11 @@ int insert_file(struct files_struct *open_files, struct file *file, int low_fd)
                        continue;
                slot = i;
                SET_BITMASK_BIT(open_files->open_fds->fds_bits, slot);
-               assert(slot < open_files->max_files && open_files->fd[slot] == 0);
+               assert(slot < open_files->max_files &&
+                      open_files->fd[slot].fd_file == 0);
                kref_get(&file->f_kref, 1);
-               open_files->fd[slot] = file;
+               open_files->fd[slot].fd_file = file;
+               open_files->fd[slot].fd_flags = 0;
                if (slot >= open_files->next_fd)
                        open_files->next_fd = slot + 1;
                break;
@@ -1908,11 +1795,11 @@ void close_all_files(struct files_struct *open_files, bool cloexec)
                        /* while max_files and max_fdset might not line up, we should never
                         * have a valid fdset higher than files */
                        assert(i < open_files->max_files);
-                       file = open_files->fd[i];
-                       if (cloexec && !(file->f_flags & O_CLOEXEC))
+                       file = open_files->fd[i].fd_file;
+                       if (cloexec && !(open_files->fd[i].fd_flags & O_CLOEXEC))
                                continue;
                        /* Actually close the file */
-                       open_files->fd[i] = 0;
+                       open_files->fd[i].fd_file = 0;
                        assert(file);
                        kref_put(&file->f_kref);
                        CLR_BITMASK_BIT(open_files->open_fds->fds_bits, i);
@@ -1932,10 +1819,10 @@ void clone_files(struct files_struct *src, struct files_struct *dst)
                        /* while max_files and max_fdset might not line up, we should never
                         * have a valid fdset higher than files */
                        assert(i < src->max_files);
-                       file = src->fd[i];
-                       assert(i < dst->max_files && dst->fd[i] == 0);
+                       file = src->fd[i].fd_file;
+                       assert(i < dst->max_files && dst->fd[i].fd_file == 0);
                        SET_BITMASK_BIT(dst->open_fds->fds_bits, i);
-                       dst->fd[i] = file;
+                       dst->fd[i].fd_file = file;
                        assert(file);
                        kref_get(&file->f_kref, 1);
                        if (i >= dst->next_fd)