613c9db030361079fc2729b06a193106334f330f
[akaros.git] / kern / src / vfs.c
1 /* Copyright (c) 2009, 2010 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * Default implementations and global values for the VFS. */
6
7 #include <vfs.h> // keep this first
8 #include <sys/queue.h>
9 #include <assert.h>
10 #include <stdio.h>
11 #include <atomic.h>
12 #include <slab.h>
13 #include <kmalloc.h>
14 #include <kfs.h>
15 #include <pmap.h>
16 #include <umem.h>
17
18 struct sb_tailq super_blocks = TAILQ_HEAD_INITIALIZER(super_blocks);
19 spinlock_t super_blocks_lock = SPINLOCK_INITIALIZER;
20 struct fs_type_tailq file_systems = TAILQ_HEAD_INITIALIZER(file_systems);
21 struct namespace default_ns;
22 // TODO: temp dcache, holds all dentries ever for now
23 struct dentry_slist dcache = SLIST_HEAD_INITIALIZER(dcache);
24 spinlock_t dcache_lock = SPINLOCK_INITIALIZER;
25
26 struct kmem_cache *dentry_kcache; // not to be confused with the dcache
27 struct kmem_cache *inode_kcache;
28 struct kmem_cache *file_kcache;
29
30 /* Mounts fs from dev_name at mnt_pt in namespace ns.  There could be no mnt_pt,
31  * such as with the root of (the default) namespace.  Not sure how it would work
32  * with multiple namespaces on the same FS yet.  Note if you mount the same FS
33  * multiple times, you only have one FS still (and one SB).  If we ever support
34  * that... */
35 struct vfsmount *mount_fs(struct fs_type *fs, char *dev_name,
36                           struct dentry *mnt_pt, int flags,
37                           struct namespace *ns)
38 {
39         struct super_block *sb;
40         struct vfsmount *vmnt = kmalloc(sizeof(struct vfsmount), 0);
41
42         /* Build the vfsmount, if there is no mnt_pt, mnt is the root vfsmount (for now).
43          * fields related to the actual FS, like the sb and the mnt_root are set in
44          * the fs-specific get_sb() call. */
45         if (!mnt_pt) {
46                 vmnt->mnt_parent = NULL;
47                 vmnt->mnt_mountpoint = NULL;
48         } else { /* common case, but won't be tested til we try to mount another FS */
49                 mnt_pt->d_mount_point = TRUE;
50                 mnt_pt->d_mounted_fs = vmnt;
51                 atomic_inc(&vmnt->mnt_refcnt); /* held by mnt_pt */
52                 vmnt->mnt_parent = mnt_pt->d_sb->s_mount;
53                 vmnt->mnt_mountpoint = mnt_pt;
54         }
55         TAILQ_INIT(&vmnt->mnt_child_mounts);
56         vmnt->mnt_flags = flags;
57         vmnt->mnt_devname = dev_name;
58         vmnt->mnt_namespace = ns;
59         atomic_inc(&ns->refcnt); /* held by vmnt */
60         atomic_set(&vmnt->mnt_refcnt, 1); /* for the ref in the NS tailq below */
61
62         /* Read in / create the SB */
63         sb = fs->get_sb(fs, flags, dev_name, vmnt);
64         if (!sb)
65                 panic("You're FS sucks");
66
67         /* TODO: consider moving this into get_sb or something, in case the SB
68          * already exists (mounting again) (if we support that) */
69         spin_lock(&super_blocks_lock);
70         TAILQ_INSERT_TAIL(&super_blocks, sb, s_list); /* storing a ref here... */
71         spin_unlock(&super_blocks_lock);
72
73         /* Update holding NS */
74         spin_lock(&ns->lock);
75         TAILQ_INSERT_TAIL(&ns->vfsmounts, vmnt, mnt_list);
76         spin_unlock(&ns->lock);
77         /* note to self: so, right after this point, the NS points to the root FS
78          * mount (we return the mnt, which gets assigned), the root mnt has a dentry
79          * for /, backed by an inode, with a SB prepped and in memory. */
80         return vmnt;
81 }
82
83 void vfs_init(void)
84 {
85         struct fs_type *fs;
86
87         dentry_kcache = kmem_cache_create("dentry", sizeof(struct dentry),
88                                           __alignof__(struct dentry), 0, 0, 0);
89         inode_kcache = kmem_cache_create("inode", sizeof(struct inode),
90                                          __alignof__(struct inode), 0, 0, 0);
91         file_kcache = kmem_cache_create("file", sizeof(struct file),
92                                         __alignof__(struct file), 0, 0, 0);
93
94         atomic_set(&default_ns.refcnt, 1); // default NS never dies, +1 to exist
95         spinlock_init(&default_ns.lock);
96         default_ns.root = NULL;
97         TAILQ_INIT(&default_ns.vfsmounts);
98
99         /* build list of all FS's in the system.  put yours here.  if this is ever
100          * done on the fly, we'll need to lock. */
101         TAILQ_INSERT_TAIL(&file_systems, &kfs_fs_type, list);
102         TAILQ_FOREACH(fs, &file_systems, list)
103                 printk("Supports the %s Filesystem\n", fs->name);
104
105         /* mounting KFS at the root (/), pending root= parameters */
106         // TODO: linux creates a temp root_fs, then mounts the real root onto that
107         default_ns.root = mount_fs(&kfs_fs_type, "RAM", NULL, 0, &default_ns);
108
109         printk("vfs_init() completed\n");
110 }
111
112 /* Builds / populates the qstr of a dentry based on its d_iname.  If there is an
113  * l_name, (long), it will use that instead of the inline name.  This will
114  * probably change a bit. */
115 void qstr_builder(struct dentry *dentry, char *l_name)
116 {
117         dentry->d_name.name = l_name ? l_name : dentry->d_iname;
118         // TODO: pending what we actually do in d_hash
119         //dentry->d_name.hash = dentry->d_op->d_hash(dentry, &dentry->d_name); 
120         dentry->d_name.hash = 0xcafebabe;
121         dentry->d_name.len = strnlen(dentry->d_name.name, MAX_FILENAME_SZ);
122 }
123
124 /* Useful little helper - return the string ptr for a given file */
125 char *file_name(struct file *file)
126 {
127         return (char*)TAILQ_FIRST(&file->f_inode->i_dentry)->d_name.name;
128 }
129
130 /* Some issues with this, coupled closely to fs_lookup.  This assumes that
131  * negative dentries are not returned (might differ from linux) */
132 static struct dentry *do_lookup(struct dentry *parent, char *name)
133 {
134         struct dentry *dentry;
135         /* TODO: look up in the dentry cache first */
136         dentry = get_dentry(parent->d_sb, parent, name);
137         dentry = parent->d_inode->i_op->lookup(parent->d_inode, dentry, 0);
138         /* insert in dentry cache */
139         /* TODO: if the following are done by us, how do we know the i_ino?
140          * also need to handle inodes that are already read in!  For now, we're
141          * going to have the FS handle it in it's lookup() method: 
142          * - get a new inode
143          * - read in the inode
144          * - put in the inode cache */
145         return dentry;
146 }
147
148 /* Walk up one directory, being careful of mountpoints, namespaces, and the top
149  * of the FS */
150 static int climb_up(struct nameidata *nd)
151 {
152         // TODO
153         warn("Climbing up (../) in path lookup not supported yet!");
154         return 0;
155 }
156
157 /* Update ND such that it represents having followed dentry.  IAW the nd
158  * refcnting rules, we need to decref any references that were in there before
159  * they get clobbered. */
160 static int next_link(struct dentry *dentry, struct nameidata *nd)
161 {
162         assert(nd->dentry && nd->mnt);
163         atomic_dec(&nd->dentry->d_refcnt);
164         atomic_dec(&nd->mnt->mnt_refcnt);
165         nd->dentry = dentry;
166         nd->mnt = dentry->d_sb->s_mount;
167         return 0;
168 }
169
170 static int follow_mount(struct nameidata *nd)
171 {
172         /* Detect mount, follow, etc... (TODO!) */
173         return 0;
174 }
175
176 static int follow_symlink(struct nameidata *nd)
177 {
178         /* Detect symlink, LOOKUP_FOLLOW, follow it, etc... (TODO!) */
179         return 0;
180 }
181
182 /* Resolves the links in a basic path walk.  0 for success, -EWHATEVER
183  * otherwise.  The final lookup is returned via nd. */
184 static int link_path_walk(char *path, struct nameidata *nd)
185 {
186         struct dentry *link_dentry;
187         struct inode *link_inode, *nd_inode;
188         char *next_slash;
189         char *link = path;
190         int error;
191
192         /* skip all leading /'s */
193         while (*link == '/')
194                 link++;
195         /* if there's nothing left (null terminated), we're done */
196         if (*link == '\0')
197                 return 0;
198         /* TODO: deal with depth and LOOKUP_FOLLOW, important for symlinks */
199
200         /* iterate through each intermediate link of the path.  in general, nd
201          * tracks where we are in the path, as far as dentries go.  once we have the
202          * next dentry, we try to update nd based on that dentry.  link is the part
203          * of the path string that we are looking up */
204         while (1) {
205                 nd_inode = nd->dentry->d_inode;
206                 if ((error = check_perms(nd_inode, nd->intent)))
207                         return error;
208                 /* find the next link, break out if it is the end */
209                 next_slash = strchr(link, '/');
210                 if (!next_slash)
211                         break;
212                 else
213                         if (*(next_slash + 1) == '\0') {
214                                 /* trailing slash on the path meant the target is a dir */
215                                 nd->flags |= LOOKUP_DIRECTORY;
216                                 *next_slash = '\0';
217                                 break;
218                         }
219                 /* skip over any interim ./ */
220                 if (!strncmp("./", link, 2)) {
221                         link = next_slash + 1;
222                         continue;
223                 }
224                 /* Check for "../", walk up */
225                 if (!strncmp("../", link, 3)) {
226                         climb_up(nd);
227                         link = next_slash + 2;
228                         continue;
229                 }
230                 *next_slash = '\0';
231                 link_dentry = do_lookup(nd->dentry, link);
232                 *next_slash = '/';
233                 if (!link_dentry)
234                         return -ENOENT;
235                 /* make link_dentry the current step/answer */
236                 next_link(link_dentry, nd);
237                 /* we could be on a mountpoint or a symlink - need to follow them */
238                 follow_mount(nd);
239                 follow_symlink(nd);
240                 if (!(nd->dentry->d_inode->i_type & FS_I_DIR))
241                         return -ENOTDIR;
242                 /* move through the path string to the next entry */
243                 link = next_slash + 1;
244         }
245         /* now, we're on the last link of the path */
246         /* if we just want the parent, leave now.  and save the name of the link
247          * (last) and the type (last_type).  Note that using the qstr in this manner
248          * only allows us to use the qstr as long as the path is a valid string. */
249         if (nd->flags & LOOKUP_PARENT) {
250                 /* consider using a slimmer qstr_builder for this */
251                 nd->last.name = link;
252                 nd->last.len = strlen(link);
253                 nd->last.hash = nd->dentry->d_op->d_hash(nd->dentry, &nd->last);
254                 return 0;
255         }
256         /* deal with some weird cases with . and .. (completely untested) */
257         if (!strcmp(".", link))
258                 return 0;
259         if (!strcmp("..", link))
260                 return climb_up(nd);
261         link_dentry = do_lookup(nd->dentry, link);
262         if (!link_dentry)
263                 return -ENOENT;
264         next_link(link_dentry, nd);
265         follow_mount(nd);
266         follow_symlink(nd);
267         /* If we wanted a directory, but didn't get one, error out */
268         if ((nd->flags & LOOKUP_DIRECTORY) &&
269            !(nd->dentry->d_inode->i_type & FS_I_DIR))
270                 return -ENOTDIR;
271         return 0;
272 }
273
274 /* Given path, return the inode for the final dentry.  The ND should be
275  * initialized for the first call - specifically, we need the intent. 
276  * LOOKUP_PARENT and friends go in this flags var.
277  *
278  * TODO: this should consider the intent.  Note that creating requires writing
279  * to the last directory.
280  *
281  * Need to be careful too.  While the path has been copied-in to the kernel,
282  * it's still user input.  */
283 int path_lookup(char *path, int flags, struct nameidata *nd)
284 {
285         /* we allow absolute lookups with no process context */
286         if (path[0] == '/') {                   /* absolute lookup */
287                 if (!current)
288                         nd->dentry = default_ns.root->mnt_root;
289                 else
290                         nd->dentry = current->fs_env.root;      
291         } else {                                                /* relative lookup */
292                 assert(current);
293                 /* Don't need to lock on the fs_env since we're reading one item */
294                 nd->dentry = current->fs_env.pwd;       
295         }
296         nd->mnt = nd->dentry->d_sb->s_mount;
297         /* Whenever references get put in the nd, incref them.  Whenever they are
298          * removed, decref them. */
299         atomic_inc(&nd->mnt->mnt_refcnt);
300         atomic_inc(&nd->dentry->d_refcnt);
301         nd->flags = flags;
302         nd->depth = 0;                                  /* used in symlink following */
303         return link_path_walk(path, nd);        
304 }
305
306 /* Call this after any use of path_lookup when you are done with its results,
307  * regardless of whether it succeeded or not.  It will free any references */
308 void path_release(struct nameidata *nd)
309 {
310         /* TODO: (REF), do something when we hit 0, etc... */
311         atomic_dec(&nd->dentry->d_refcnt);
312         atomic_dec(&nd->mnt->mnt_refcnt);
313 }
314
315 /* Seems convenient: Given a path, return the appropriate file.  The reference
316  * returned is refcounted (which is done by open()).  TODO: make sure the called
317  * functions do error checking and propagate errno. */
318 struct file *path_to_file(char *path)
319 {
320         struct file *f = 0;
321         struct nameidata nd = {0};
322         if (path_lookup(path, 0, &nd))
323                 return 0;
324         f = kmem_cache_alloc(file_kcache, 0);
325         if (!f) {
326                 path_release(&nd);
327                 return 0;
328         }
329         if (nd.dentry->d_inode->i_fop->open(nd.dentry->d_inode, f)) {
330                 path_release(&nd);
331                 kmem_cache_free(file_kcache, f);
332                 return 0;
333         }
334         path_release(&nd);
335         return f;
336 }
337
338 /* Superblock functions */
339
340 /* Helper to alloc and initialize a generic superblock.  This handles all the
341  * VFS related things, like lists.  Each FS will need to handle its own things
342  * in it's *_get_sb(), usually involving reading off the disc. */
343 struct super_block *get_sb(void)
344 {
345         struct super_block *sb = kmalloc(sizeof(struct super_block), 0);
346         sb->s_dirty = FALSE;
347         spinlock_init(&sb->s_lock);
348         atomic_set(&sb->s_refcnt, 1); // for the ref passed out
349         TAILQ_INIT(&sb->s_inodes);
350         TAILQ_INIT(&sb->s_dirty_i);
351         TAILQ_INIT(&sb->s_io_wb);
352         SLIST_INIT(&sb->s_anon_d);
353         TAILQ_INIT(&sb->s_files);
354         sb->s_fs_info = 0; // can override somewhere else
355         return sb;
356 }
357
358 /* Final stages of initializing a super block, including creating and linking
359  * the root dentry, root inode, vmnt, and sb.  The d_op and root_ino are
360  * FS-specific, but otherwise it's FS-independent, tricky, and not worth having
361  * around multiple times.
362  *
363  * Not the world's best interface, so it's subject to change, esp since we're
364  * passing (now 3) FS-specific things. */
365 void init_sb(struct super_block *sb, struct vfsmount *vmnt,
366              struct dentry_operations *d_op, unsigned long root_ino,
367              void *d_fs_info)
368 {
369         /* Build and init the first dentry / inode.  The dentry ref is stored later
370          * by vfsmount's mnt_root.  The parent is dealt with later. */
371         struct dentry *d_root = get_dentry(sb, 0,  "/");        /* probably right */
372
373         /* a lot of here on down is normally done in lookup() */
374         d_root->d_op = d_op;
375         d_root->d_fs_info = d_fs_info;
376         struct inode *inode = sb->s_op->alloc_inode(sb);
377         if (!inode)
378                 panic("This FS sucks!");
379         d_root->d_inode = inode;
380         TAILQ_INSERT_TAIL(&inode->i_dentry, d_root, d_alias);
381         atomic_inc(&d_root->d_refcnt);                  /* held by the inode */
382         inode->i_ino = root_ino;
383         /* TODO: add the inode to the appropriate list (off i_list) */
384         /* TODO: do we need to read in the inode?  can we do this on demand? */
385         /* if this FS is already mounted, we'll need to do something different. */
386         sb->s_op->read_inode(inode);
387         /* Link the dentry and SB to the VFS mount */
388         vmnt->mnt_root = d_root;                                /* refcnt'd above */
389         vmnt->mnt_sb = sb;
390         /* If there is no mount point, there is no parent.  This is true only for
391          * the rootfs. */
392         if (vmnt->mnt_mountpoint) {
393                 d_root->d_parent = vmnt->mnt_mountpoint;        /* dentry of the root */
394                 atomic_inc(&vmnt->mnt_mountpoint->d_refcnt);/* held by d_root */
395         }
396         /* insert the dentry into the dentry cache.  when's the earliest we can?
397          * when's the earliest we should?  what about concurrent accesses to the
398          * same dentry?  should be locking the dentry... */
399         dcache_put(d_root); // TODO: should set a d_flag too
400 }
401
402 /* Dentry Functions */
403
404 /* Helper to alloc and initialize a generic dentry.  The following needs to be
405  * set still: d_op, d_fs_info (opt), d_inode, connect the inode to the dentry
406  * (and up the d_refcnt), maybe dcache_put().  The FS related things need to be
407  * done in fs_create and fs_mkdir.
408  *
409  * If the name is longer than the inline name, it will kmalloc a buffer, so
410  * don't worry about the storage for *name after calling this. */
411 struct dentry *get_dentry(struct super_block *sb, struct dentry *parent,
412                           char *name)
413 {
414         assert(name);
415         size_t name_len = strnlen(name, MAX_FILENAME_SZ);       /* not including \0! */
416         struct dentry *dentry = kmem_cache_alloc(dentry_kcache, 0);
417         char *l_name = 0;
418
419         //memset(dentry, 0, sizeof(struct dentry));
420         atomic_set(&dentry->d_refcnt, 1);       /* this ref is returned */
421         spinlock_init(&dentry->d_lock);
422         TAILQ_INIT(&dentry->d_subdirs);
423         dentry->d_time = 0;
424         dentry->d_sb = sb;                                      /* storing a ref here... */
425         dentry->d_mount_point = FALSE;
426         dentry->d_mounted_fs = 0;
427         dentry->d_parent = parent;
428         if (parent)                                                     /* no parent for rootfs mount */
429                 atomic_inc(&parent->d_refcnt);
430         dentry->d_flags = 0;                            /* related to its dcache state */
431         dentry->d_fs_info = 0;
432         SLIST_INIT(&dentry->d_bucket);
433         if (name_len < DNAME_INLINE_LEN) {
434                 strncpy(dentry->d_iname, name, name_len);
435                 dentry->d_iname[name_len] = '\0';
436                 qstr_builder(dentry, 0);
437         } else {
438                 l_name = kmalloc(name_len + 1, 0);
439                 assert(l_name);
440                 strncpy(l_name, name, name_len);
441                 l_name[name_len] = '\0';
442                 qstr_builder(dentry, l_name);
443         }
444         return dentry;
445 }
446
447 /* Adds a dentry to the dcache. */
448 void dcache_put(struct dentry *dentry)
449 {
450         /* TODO: should set a d_flag too */
451         spin_lock(&dcache_lock);
452         SLIST_INSERT_HEAD(&dcache, dentry, d_hash);
453         spin_unlock(&dcache_lock);
454 }
455
456 /* Free the dentry (after ref == 0 and we no longer want it).  Pairs with
457  * get_dentry(), mostly. */
458 void free_dentry(struct dentry *dentry)
459 {
460         /* Might not have a d_op, if it was involved in a failed operation */
461         if (dentry->d_op && dentry->d_op->d_release)
462                 dentry->d_op->d_release(dentry);
463         /* TODO: check/test the boundaries on this. */
464         if (dentry->d_name.len > DNAME_INLINE_LEN)
465                 kfree((void*)dentry->d_name.name);
466         kmem_cache_free(dentry_kcache, dentry);
467 }
468
469 /* Inode Functions */
470
471 /* Returns 0 if the given mode is acceptable for the inode, and an appropriate
472  * error code if not.  Needs to be writen, based on some sensible rules, and
473  * will also probably use 'current' */
474 int check_perms(struct inode *inode, int access_mode)
475 {
476         return 0;       /* anything goes! */
477 }
478
479 /* File functions */
480
481 /* Read count bytes from the file into buf, starting at *offset, which is increased
482  * accordingly, returning the number of bytes transfered.  Most filesystems will
483  * use this function for their f_op->read.  Note, this uses the page cache.
484  * Want to try out page remapping later on... */
485 ssize_t generic_file_read(struct file *file, char *buf, size_t count,
486                           off_t *offset)
487 {
488         struct page *page;
489         int error;
490         off_t page_off;
491         unsigned long first_idx, last_idx;
492         size_t copy_amt;
493         char *buf_end;
494
495         /* Consider pushing some error checking higher in the VFS */
496         if (!count)
497                 return 0;
498         if (*offset == file->f_inode->i_size)
499                 return 0; /* EOF */
500         /* Make sure we don't go past the end of the file */
501         if (*offset + count > file->f_inode->i_size) {
502                 count = file->f_inode->i_size - *offset;
503         }
504         page_off = *offset & (PGSIZE - 1);
505         first_idx = *offset >> PGSHIFT;
506         last_idx = (*offset + count) >> PGSHIFT;
507         buf_end = buf + count;
508         /* For each file page, make sure it's in the page cache, then copy it out.
509          * TODO: will probably need to consider concurrently truncated files here.*/
510         for (int i = first_idx; i <= last_idx; i++) {
511                 error = file_load_page(file, i, &page);
512                 assert(!error); /* TODO: handle ENOMEM and friends */
513                 copy_amt = MIN(PGSIZE - page_off, buf_end - buf);
514                 /* TODO: think about this.  if it's a user buffer, we're relying on
515                  * current to detect whose it is (which should work for async calls).
516                  * Also, need to propagate errors properly...  Probably should do a
517                  * user_mem_check, then free, and also to make a distinction between
518                  * when the kernel wants a read/write (TODO: KFOP) */
519                 if (current) {
520                         memcpy_to_user(current, buf, page2kva(page) + page_off, copy_amt);
521                 } else {
522                         memcpy(buf, page2kva(page) + page_off, copy_amt);
523                 }
524                 buf += copy_amt;
525                 page_off = 0;
526                 page_decref(page);      /* it's still in the cache, we just don't need it */
527         }
528         assert(buf == buf_end);
529         *offset += count;
530         return count;
531 }
532
533 /* Write count bytes from buf to the file, starting at *offset, which is increased
534  * accordingly, returning the number of bytes transfered.  Most filesystems will
535  * use this function for their f_op->write.  Note, this uses the page cache.
536  * Changes don't get flushed to disc til there is an fsync, page cache eviction,
537  * or other means of trying to writeback the pages. */
538 ssize_t generic_file_write(struct file *file, const char *buf, size_t count,
539                            off_t *offset)
540 {
541         struct page *page;
542         int error;
543         off_t page_off;
544         unsigned long first_idx, last_idx;
545         size_t copy_amt;
546         const char *buf_end;
547
548         /* Consider pushing some error checking higher in the VFS */
549         if (!count)
550                 return 0;
551         /* Extend the file.  Should put more checks in here, and maybe do this per
552          * page in the for loop below. */
553         if (*offset + count > file->f_inode->i_size)
554                 file->f_inode->i_size = *offset + count;
555         page_off = *offset & (PGSIZE - 1);
556         first_idx = *offset >> PGSHIFT;
557         last_idx = (*offset + count) >> PGSHIFT;
558         buf_end = buf + count;
559         /* For each file page, make sure it's in the page cache, then write it.*/
560         for (int i = first_idx; i <= last_idx; i++) {
561                 error = file_load_page(file, i, &page);
562                 assert(!error); /* TODO: handle ENOMEM and friends */
563                 copy_amt = MIN(PGSIZE - page_off, buf_end - buf);
564                 /* TODO: think about this.  if it's a user buffer, we're relying on
565                  * current to detect whose it is (which should work for async calls). */
566                 if (current) {
567                         memcpy_to_user(current, page2kva(page) + page_off, buf, copy_amt);
568                 } else {
569                         memcpy(page2kva(page) + page_off, buf, copy_amt);
570                 }
571                 buf += copy_amt;
572                 page_off = 0;
573                 page_decref(page);      /* it's still in the cache, we just don't need it */
574         }
575         assert(buf == buf_end);
576         *offset += count;
577         return count;
578 }
579
580 /* Opens the file, using permissions from current for lack of a better option.
581  * Called by sys_open.  This will return 0 on failure, and set errno.
582  * There's a lot of stuff that we don't do, esp related to permission checking
583  * and file truncating.
584  * TODO: open and create should set errno and propagate it up. */
585 struct file *do_file_open(char *path, int flags, int mode)
586 {
587         struct file *file = 0;
588         struct dentry *file_d;
589         struct inode *parent_i;
590         struct nameidata nd_r = {0}, *nd = &nd_r;
591         int lookup_flags = LOOKUP_PARENT;
592         int error = 0;
593
594         /* lookup the parent */
595         nd->intent = flags & (O_RDONLY|O_WRONLY|O_RDWR);
596         if (flags & O_CREAT)
597                 lookup_flags |= LOOKUP_CREATE;
598         error = path_lookup(path, lookup_flags, nd);
599         if (error) {
600                 set_errno(current_tf, -error);
601                 return 0;
602         }
603         /* see if the target is there, handle accordingly */
604         file_d = do_lookup(nd->dentry, nd->last.name); 
605         if (!file_d) {
606                 if (!(flags & O_CREAT)) {
607                         path_release(nd);
608                         set_errno(current_tf, EACCES);
609                         return 0;
610                 }
611                 /* Create the inode/file.  get a fresh dentry too: */
612                 file_d = get_dentry(nd->dentry->d_sb, nd->dentry, nd->last.name);
613                 parent_i = nd->dentry->d_inode;
614                 /* TODO: mode should be & ~umask.  Note that mode only applies to future
615                  * opens. */
616                 if (parent_i->i_op->create(parent_i, file_d, mode, nd)) {
617                         atomic_dec(&file_d->d_refcnt);
618                         free_dentry(file_d); /* TODO: REF trigger off a decref */
619                         set_errno(current_tf, EFAULT);
620                         path_release(nd);
621                         return 0;
622                 }
623                 /* when we have notions of users, do something here: */
624                 file_d->d_inode->i_uid = 0;
625                 file_d->d_inode->i_gid = 0;
626                 file_d->d_inode->i_flags = flags & ~(O_CREAT|O_TRUNC|O_EXCL|O_NOCTTY);
627                 dcache_put(file_d);
628                 atomic_dec(&file_d->d_refcnt);  /* TODO: REF / KREF */
629         } else {        /* the file exists */
630                 if ((flags & O_CREAT) && (flags & O_EXCL)) {
631                         /* wanted to create, not open */
632                         path_release(nd);
633                         set_errno(current_tf, EACCES);
634                         return 0;
635                 }
636         }
637         /* now open the file (freshly created or if it already existed) */
638         file = kmem_cache_alloc(file_kcache, 0);
639         if (!file) {
640                 set_errno(current_tf, ENOMEM);
641                 path_release(nd);
642                 return 0;
643         }
644         if (flags & O_TRUNC)
645                 warn("File truncation not supported yet.");
646         if (file_d->d_inode->i_fop->open(file_d->d_inode, file)) {
647                 set_errno(current_tf, ENOENT);
648                 path_release(nd);
649                 kmem_cache_free(file_kcache, file);
650                 return 0;
651         }
652         /* TODO: check the inode's mode (S_XXX) against the flags O_RDWR */
653         /* f_mode stores how the FILE is open, regardless of the mode */
654         file->f_mode = flags & (O_RDONLY|O_WRONLY|O_RDWR);
655         path_release(nd);
656         return file;
657 }
658
659 /* Closes a file, fsync, whatever else is necessary */
660 int do_file_close(struct file *file)
661 {
662         assert(!file->f_refcnt);
663         /* TODO: fsync */
664         file->f_op->release(file->f_inode, file);
665         return 0;
666 }
667
668 /* Page cache functions */
669
670 /* Looks up the index'th page in the page map, returning an incref'd reference,
671  * or 0 if it was not in the map. */
672 struct page *pm_find_page(struct page_map *pm, unsigned long index)
673 {
674         spin_lock(&pm->pm_tree_lock);
675         struct page *page = (struct page*)radix_lookup(&pm->pm_tree, index);
676         if (page)
677                 page_incref(page);
678         spin_unlock(&pm->pm_tree_lock);
679         return page;
680 }
681
682 /* Attempts to insert the page into the page_map, returns 0 for success, or an
683  * error code if there was one already (EEXIST) or we ran out of memory
684  * (ENOMEM).  On success, this will preemptively lock the page, and will also
685  * store a reference to the page in the pm. */
686 int pm_insert_page(struct page_map *pm, unsigned long index, struct page *page)
687 {
688         int error = 0;
689         spin_lock(&pm->pm_tree_lock);
690         error = radix_insert(&pm->pm_tree, index, page);
691         if (!error) {
692                 page_incref(page);
693                 page->pg_flags |= PG_LOCKED;
694                 page->pg_mapping = pm;
695                 page->pg_index = index;
696                 pm->pm_num_pages++;
697         }
698         spin_unlock(&pm->pm_tree_lock);
699         return error;
700 }
701
702 /* Removes the page, including its reference.  Not sure yet what interface we
703  * want to this (pm and index or page), and this has never been used.  There are
704  * also issues with when you want to call this, since a page in the cache may be
705  * mmap'd by someone else. */
706 int pm_remove_page(struct page_map *pm, struct page *page)
707 {
708         void *retval;
709         warn("pm_remove_page() hasn't been thought through or tested.");
710         spin_lock(&pm->pm_tree_lock);
711         retval = radix_delete(&pm->pm_tree, page->pg_index);
712         spin_unlock(&pm->pm_tree_lock);
713         assert(retval == (void*)page);
714         page_decref(page);
715         page->pg_mapping = 0;
716         page->pg_index = 0;
717         pm->pm_num_pages--;
718         return 0;
719 }
720
721 /* Makes sure the index'th page from file is loaded in the page cache and
722  * returns its location via **pp.  Note this will give you a refcnt'd reference.
723  * This may block! TODO: (BLK) */
724 int file_load_page(struct file *file, unsigned long index, struct page **pp)
725 {
726         struct page_map *pm = file->f_mapping;
727         struct page *page;
728         int error;
729         bool page_was_mapped = TRUE;
730
731         page = pm_find_page(pm, index);
732         while (!page) {
733                 /* kpage_alloc, since we want the page to persist after the proc
734                  * dies (can be used by others, until the inode shuts down). */
735                 if (kpage_alloc(&page))
736                         return -ENOMEM;
737                 /* might want to initialize other things, perhaps in page_alloc() */
738                 page->pg_flags = 0;
739                 error = pm_insert_page(pm, index, page);
740                 switch (error) {
741                         case 0:
742                                 page_was_mapped = FALSE;
743                                 break;
744                         case -EEXIST:
745                                 /* the page was mapped already (benign race), just get rid of
746                                  * our page and try again (the only case that uses the while) */
747                                 page_decref(page);
748                                 page = pm_find_page(pm, index);
749                                 break;
750                         default:
751                                 /* something is wrong, bail out! */
752                                 page_decref(page);
753                                 return error;
754                 }
755         }
756         *pp = page;
757         /* if the page was in the map, we need to do some checks, and might have to
758          * read in the page later.  If the page was freshly inserted to the pm by
759          * us, we skip this since we are the one doing the readpage(). */
760         if (page_was_mapped) {
761                 /* is it already here and up to date?  if so, we're done */
762                 if (page->pg_flags & PG_UPTODATE)
763                         return 0;
764                 /* if not, try to lock the page (could BLOCK) */
765                 lock_page(page);
766                 /* we got it, is our page still in the cache?  check the mapping.  if
767                  * not, start over, perhaps with EAGAIN and outside support */
768                 if (!page->pg_mapping)
769                         panic("Page is not in the mapping!  Haven't implemented this!");
770                 /* double check, are we up to date?  if so, we're done */
771                 if (page->pg_flags & PG_UPTODATE) {
772                         unlock_page(page);
773                         return 0;
774                 }
775         }
776         /* if we're here, the page is locked by us, and it needs to be read in */
777         assert(page->pg_mapping == pm);
778         error = pm->pm_op->readpage(file, page);
779         assert(!error);
780         /* Try to sleep on the IO.  The page will be unlocked when the IO is done */
781         lock_page(page);
782         unlock_page(page);
783         assert(page->pg_flags & PG_UPTODATE);
784         return 0;
785 }
786
787 /* Process-related File management functions */
788
789 /* Given any FD, get the appropriate file, 0 o/w */
790 struct file *get_file_from_fd(struct files_struct *open_files, int file_desc)
791 {
792         struct file *retval = 0;
793         spin_lock(&open_files->lock);
794         if (file_desc < open_files->max_fdset) {
795                 if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc)) {
796                         /* while max_files and max_fdset might not line up, we should never
797                          * have a valid fdset higher than files */
798                         assert(file_desc < open_files->max_files);
799                         retval = open_files->fd[file_desc];
800                         assert(retval);
801                         atomic_inc(&retval->f_refcnt);
802                 }
803         }
804         spin_unlock(&open_files->lock);
805         return retval;
806 }
807
808 /* Remove FD from the open files, if it was there, and return f.  Currently,
809  * this decref's f, so the return value is not consumable or even usable.  This
810  * hasn't been thought through yet. */
811 struct file *put_file_from_fd(struct files_struct *open_files, int file_desc)
812 {
813         struct file *file = 0;
814         spin_lock(&open_files->lock);
815         if (file_desc < open_files->max_fdset) {
816                 if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc)) {
817                         /* while max_files and max_fdset might not line up, we should never
818                          * have a valid fdset higher than files */
819                         assert(file_desc < open_files->max_files);
820                         file = open_files->fd[file_desc];
821                         open_files->fd[file_desc] = 0;
822                         CLR_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc);
823                         /* TODO: (REF) need to make sure we free if we hit 0 (might do this
824                          * in the caller */
825                         if (file) {
826                                 atomic_dec(&file->f_refcnt);
827                                 if (!file->f_refcnt)
828                                         assert(!do_file_close(file));
829                         }
830                         /* the if case is due to files (stdin) without a *file yet */
831                 }
832         }
833         spin_unlock(&open_files->lock);
834         return file;
835 }
836
837 /* Inserts the file in the files_struct, returning the corresponding new file
838  * descriptor, or an error code.  We currently grab the first open FD. */
839 int insert_file(struct files_struct *open_files, struct file *file)
840 {
841         int slot = -1;
842         spin_lock(&open_files->lock);
843         for (int i = 0; i < open_files->max_fdset; i++) {
844                 if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, i))
845                         continue;
846                 slot = i;
847                 SET_BITMASK_BIT(open_files->open_fds->fds_bits, slot);
848                 assert(slot < open_files->max_files && open_files->fd[slot] == 0);
849                 open_files->fd[slot] = file;
850                 atomic_inc(&file->f_refcnt);
851                 if (slot >= open_files->next_fd)
852                         open_files->next_fd = slot + 1;
853                 break;
854         }
855         if (slot == -1) /* should expand the FD array and fd_set */
856                 warn("Ran out of file descriptors, deal with me!");
857         spin_unlock(&open_files->lock);
858         return slot;
859 }
860
861 /* Closes all open files.  Sort of a "put" plus do_file_close(), for all. */
862 void close_all_files(struct files_struct *open_files)
863 {
864         struct file *file;
865         spin_lock(&open_files->lock);
866         for (int i = 0; i < open_files->max_fdset; i++) {
867                 if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, i)) {
868                         /* while max_files and max_fdset might not line up, we should never
869                          * have a valid fdset higher than files */
870                         assert(i < open_files->max_files);
871                         file = open_files->fd[i];
872                         open_files->fd[i] = 0;
873                         /* TODO: we may want to parallelize the blocking... */
874                         if (file) {
875                                 /* TODO: REF/KREF */
876                                 atomic_dec(&file->f_refcnt);
877                                 if (!file->f_refcnt)
878                                         do_file_close(file);
879                         }
880                         /* the if case is due to files (stdin) without a *file yet */
881                         CLR_BITMASK_BIT(open_files->open_fds->fds_bits, i);
882                 }
883         }
884         spin_unlock(&open_files->lock);
885 }