Have switch_{to,back} use an opaque uintptr_t
[akaros.git] / kern / src / vfs.c
1 /* Copyright (c) 2009, 2010 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * Default implementations and global values for the VFS. */
6
7 #include <vfs.h> // keep this first
8 #include <ros/errno.h>
9 #include <sys/queue.h>
10 #include <assert.h>
11 #include <stdio.h>
12 #include <atomic.h>
13 #include <slab.h>
14 #include <kmalloc.h>
15 #include <kfs.h>
16 #include <ext2fs.h>
17 #include <pmap.h>
18 #include <umem.h>
19 #include <smp.h>
20 #include <ns.h>
21 #include <fdtap.h>
22
23 struct sb_tailq super_blocks = TAILQ_HEAD_INITIALIZER(super_blocks);
24 spinlock_t super_blocks_lock = SPINLOCK_INITIALIZER;
25 struct fs_type_tailq file_systems = TAILQ_HEAD_INITIALIZER(file_systems);
26 struct namespace default_ns;
27
28 struct kmem_cache *dentry_kcache; // not to be confused with the dcache
29 struct kmem_cache *inode_kcache;
30 struct kmem_cache *file_kcache;
31
32 /* Mounts fs from dev_name at mnt_pt in namespace ns.  There could be no mnt_pt,
33  * such as with the root of (the default) namespace.  Not sure how it would work
34  * with multiple namespaces on the same FS yet.  Note if you mount the same FS
35  * multiple times, you only have one FS still (and one SB).  If we ever support
36  * that... */
37 struct vfsmount *__mount_fs(struct fs_type *fs, char *dev_name,
38                             struct dentry *mnt_pt, int flags,
39                             struct namespace *ns)
40 {
41         struct super_block *sb;
42         struct vfsmount *vmnt = kmalloc(sizeof(struct vfsmount), 0);
43
44         /* this first ref is stored in the NS tailq below */
45         kref_init(&vmnt->mnt_kref, fake_release, 1);
46         /* Build the vfsmount, if there is no mnt_pt, mnt is the root vfsmount (for
47          * now).  fields related to the actual FS, like the sb and the mnt_root are
48          * set in the fs-specific get_sb() call. */
49         if (!mnt_pt) {
50                 vmnt->mnt_parent = NULL;
51                 vmnt->mnt_mountpoint = NULL;
52         } else { /* common case, but won't be tested til we try to mount another FS */
53                 mnt_pt->d_mount_point = TRUE;
54                 mnt_pt->d_mounted_fs = vmnt;
55                 kref_get(&vmnt->mnt_kref, 1); /* held by mnt_pt */
56                 vmnt->mnt_parent = mnt_pt->d_sb->s_mount;
57                 vmnt->mnt_mountpoint = mnt_pt;
58         }
59         TAILQ_INIT(&vmnt->mnt_child_mounts);
60         vmnt->mnt_flags = flags;
61         vmnt->mnt_devname = dev_name;
62         vmnt->mnt_namespace = ns;
63         kref_get(&ns->kref, 1); /* held by vmnt */
64
65         /* Read in / create the SB */
66         sb = fs->get_sb(fs, flags, dev_name, vmnt);
67         if (!sb)
68                 panic("You're FS sucks");
69
70         /* TODO: consider moving this into get_sb or something, in case the SB
71          * already exists (mounting again) (if we support that) */
72         spin_lock(&super_blocks_lock);
73         TAILQ_INSERT_TAIL(&super_blocks, sb, s_list); /* storing a ref here... */
74         spin_unlock(&super_blocks_lock);
75
76         /* Update holding NS */
77         spin_lock(&ns->lock);
78         TAILQ_INSERT_TAIL(&ns->vfsmounts, vmnt, mnt_list);
79         spin_unlock(&ns->lock);
80         /* note to self: so, right after this point, the NS points to the root FS
81          * mount (we return the mnt, which gets assigned), the root mnt has a dentry
82          * for /, backed by an inode, with a SB prepped and in memory. */
83         return vmnt;
84 }
85
86 void vfs_init(void)
87 {
88         struct fs_type *fs;
89
90         dentry_kcache = kmem_cache_create("dentry", sizeof(struct dentry),
91                                           __alignof__(struct dentry), 0, 0, 0);
92         inode_kcache = kmem_cache_create("inode", sizeof(struct inode),
93                                          __alignof__(struct inode), 0, 0, 0);
94         file_kcache = kmem_cache_create("file", sizeof(struct file),
95                                         __alignof__(struct file), 0, 0, 0);
96         /* default NS never dies, +1 to exist */
97         kref_init(&default_ns.kref, fake_release, 1);
98         spinlock_init(&default_ns.lock);
99         default_ns.root = NULL;
100         TAILQ_INIT(&default_ns.vfsmounts);
101
102         /* build list of all FS's in the system.  put yours here.  if this is ever
103          * done on the fly, we'll need to lock. */
104         TAILQ_INSERT_TAIL(&file_systems, &kfs_fs_type, list);
105 #ifdef CONFIG_EXT2FS
106         TAILQ_INSERT_TAIL(&file_systems, &ext2_fs_type, list);
107 #endif
108         TAILQ_FOREACH(fs, &file_systems, list)
109                 printk("Supports the %s Filesystem\n", fs->name);
110
111         /* mounting KFS at the root (/), pending root= parameters */
112         // TODO: linux creates a temp root_fs, then mounts the real root onto that
113         default_ns.root = __mount_fs(&kfs_fs_type, "RAM", NULL, 0, &default_ns);
114
115         printk("vfs_init() completed\n");
116 }
117
118 /* FS's can provide another, if they want */
119 int generic_dentry_hash(struct dentry *dentry, struct qstr *qstr)
120 {
121         unsigned long hash = 5381;
122
123         for (int i = 0; i < qstr->len; i++) {
124                 /* hash * 33 + c, djb2's technique */
125                 hash = ((hash << 5) + hash) + qstr->name[i];
126         }
127         return hash;
128 }
129
130 /* Builds / populates the qstr of a dentry based on its d_iname.  If there is an
131  * l_name, (long), it will use that instead of the inline name.  This will
132  * probably change a bit. */
133 void qstr_builder(struct dentry *dentry, char *l_name)
134 {
135         dentry->d_name.name = l_name ? l_name : dentry->d_iname;
136         dentry->d_name.len = strnlen(dentry->d_name.name, MAX_FILENAME_SZ);
137         dentry->d_name.hash = dentry->d_op->d_hash(dentry, &dentry->d_name);
138 }
139
140 /* Useful little helper - return the string ptr for a given file */
141 char *file_name(struct file *file)
142 {
143         return file->f_dentry->d_name.name;
144 }
145
146 static int prepend(char **pbuf, size_t *pbuflen, const char *str, size_t len)
147 {
148         if (*pbuflen < len)
149                 return -ENAMETOOLONG;
150         *pbuflen -= len;
151         *pbuf -= len;
152         memcpy(*pbuf, str, len);
153
154         return 0;
155 }
156
157 char *dentry_path(struct dentry *dentry, char *path, size_t max_size)
158 {
159         size_t csize = max_size;
160         char *path_start = path + max_size, *base;
161
162         if (prepend(&path_start, &csize, "\0", 1) < 0 || csize < 1)
163                 return NULL;
164         /* Handle the case that the passed dentry is the root. */
165         base = path_start - 1;
166         *base = '/';
167         while (!DENTRY_IS_ROOT(dentry)) {
168                 if (prepend(&path_start, &csize, dentry->d_name.name,
169                                         dentry->d_name.len) < 0 ||
170                         prepend(&path_start, &csize, "/", 1) < 0)
171                         return NULL;
172                 base = path_start;
173                 dentry = dentry->d_parent;
174         }
175
176         return base;
177 }
178
179 /* Some issues with this, coupled closely to fs_lookup.
180  *
181  * Note the use of __dentry_free, instead of kref_put.  In those cases, we don't
182  * want to treat it like a kref and we have the only reference to it, so it is
183  * okay to do this.  It makes dentry_release() easier too. */
184 static struct dentry *do_lookup(struct dentry *parent, char *name)
185 {
186         struct dentry *result, *query;
187         query = get_dentry(parent->d_sb, parent, name);
188         if (!query) {
189                 warn("OOM in do_lookup(), probably wasn't expected\n");
190                 return 0;
191         }
192         result = dcache_get(parent->d_sb, query); 
193         if (result) {
194                 __dentry_free(query);
195                 return result;
196         }
197         /* No result, check for negative */
198         if (query->d_flags & DENTRY_NEGATIVE) {
199                 __dentry_free(query);
200                 return 0;
201         }
202         /* not in the dcache at all, need to consult the FS */
203         result = parent->d_inode->i_op->lookup(parent->d_inode, query, 0);
204         if (!result) {
205                 /* Note the USED flag will get turned off when this gets added to the
206                  * LRU in dentry_release().  There's a slight race here that we'll panic
207                  * on, but I want to catch it (in dcache_put()) for now. */
208                 query->d_flags |= DENTRY_NEGATIVE;
209                 dcache_put(parent->d_sb, query);
210                 kref_put(&query->d_kref);
211                 return 0;
212         }
213         dcache_put(parent->d_sb, result);
214         /* This is because KFS doesn't return the same dentry, but ext2 does.  this
215          * is ugly and needs to be fixed. (TODO) */
216         if (result != query)
217                 __dentry_free(query);
218
219         /* TODO: if the following are done by us, how do we know the i_ino?
220          * also need to handle inodes that are already read in!  For now, we're
221          * going to have the FS handle it in it's lookup() method: 
222          * - get a new inode
223          * - read in the inode
224          * - put in the inode cache */
225         return result;
226 }
227
228 /* Update ND such that it represents having followed dentry.  IAW the nd
229  * refcnting rules, we need to decref any references that were in there before
230  * they get clobbered. */
231 static int next_link(struct dentry *dentry, struct nameidata *nd)
232 {
233         assert(nd->dentry && nd->mnt);
234         /* update the dentry */
235         kref_get(&dentry->d_kref, 1);
236         kref_put(&nd->dentry->d_kref);
237         nd->dentry = dentry;
238         /* update the mount, if we need to */
239         if (dentry->d_sb->s_mount != nd->mnt) {
240                 kref_get(&dentry->d_sb->s_mount->mnt_kref, 1);
241                 kref_put(&nd->mnt->mnt_kref);
242                 nd->mnt = dentry->d_sb->s_mount;
243         }
244         return 0;
245 }
246
247 /* Walk up one directory, being careful of mountpoints, namespaces, and the top
248  * of the FS */
249 static int climb_up(struct nameidata *nd)
250 {
251         printd("CLIMB_UP, from %s\n", nd->dentry->d_name.name);
252         /* Top of the world, just return.  Should also check for being at the top of
253          * the current process's namespace (TODO) */
254         if (!nd->dentry->d_parent || (nd->dentry->d_parent == nd->dentry))
255                 return -1;
256         /* Check if we are at the top of a mount, if so, we need to follow
257          * backwards, and then climb_up from that one.  We might need to climb
258          * multiple times if we mount multiple FSs at the same spot (highly
259          * unlikely).  This is completely untested.  Might recurse instead. */
260         while (nd->mnt->mnt_root == nd->dentry) {
261                 if (!nd->mnt->mnt_parent) {
262                         warn("Might have expected a parent vfsmount (dentry had a parent)");
263                         return -1;
264                 }
265                 next_link(nd->mnt->mnt_mountpoint, nd);
266         }
267         /* Backwards walk (no mounts or any other issues now). */
268         next_link(nd->dentry->d_parent, nd);
269         printd("CLIMB_UP, to   %s\n", nd->dentry->d_name.name);
270         return 0;
271 }
272
273 /* nd->dentry might be on a mount point, so we need to move on to the child
274  * mount's root. */
275 static int follow_mount(struct nameidata *nd)
276 {
277         if (!nd->dentry->d_mount_point)
278                 return 0;
279         next_link(nd->dentry->d_mounted_fs->mnt_root, nd);
280         return 0;
281 }
282
283 static int link_path_walk(char *path, struct nameidata *nd);
284
285 /* When nd->dentry is for a symlink, this will recurse and follow that symlink,
286  * so that nd contains the results of following the symlink (dentry and mnt).
287  * Returns when it isn't a symlink, 1 on following a link, and < 0 on error. */
288 static int follow_symlink(struct nameidata *nd)
289 {
290         int retval;
291         char *symname;
292         if (!S_ISLNK(nd->dentry->d_inode->i_mode))
293                 return 0;
294         if (nd->depth > MAX_SYMLINK_DEPTH)
295                 return -ELOOP;
296         printd("Following symlink for dentry %p %s\n", nd->dentry,
297                nd->dentry->d_name.name);
298         nd->depth++;
299         symname = nd->dentry->d_inode->i_op->readlink(nd->dentry);
300         /* We need to pin in nd->dentry (the dentry of the symlink), since we need
301          * it's symname's storage to stay in memory throughout the upcoming
302          * link_path_walk().  The last_sym gets decreffed when we path_release() or
303          * follow another symlink. */
304         if (nd->last_sym)
305                 kref_put(&nd->last_sym->d_kref);
306         kref_get(&nd->dentry->d_kref, 1);
307         nd->last_sym = nd->dentry;
308         /* If this an absolute path in the symlink, we need to free the old path and
309          * start over, otherwise, we continue from the PARENT of nd (the symlink) */
310         if (symname[0] == '/') {
311                 path_release(nd);
312                 if (!current)
313                         nd->dentry = default_ns.root->mnt_root;
314                 else
315                         nd->dentry = current->fs_env.root;      
316                 nd->mnt = nd->dentry->d_sb->s_mount;
317                 kref_get(&nd->mnt->mnt_kref, 1);
318                 kref_get(&nd->dentry->d_kref, 1);
319         } else {
320                 climb_up(nd);
321         }
322         /* either way, keep on walking in the free world! */
323         retval = link_path_walk(symname, nd);
324         return (retval == 0 ? 1 : retval);
325 }
326
327 /* Little helper, to make it easier to break out of the nested loops.  Will also
328  * '\0' out the first slash if it's slashes all the way down.  Or turtles. */
329 static bool packed_trailing_slashes(char *first_slash)
330 {
331         for (char *i = first_slash; *i == '/'; i++) {
332                 if (*(i + 1) == '\0') {
333                         *first_slash = '\0';
334                         return TRUE;
335                 }
336         }
337         return FALSE;
338 }
339
340 /* Simple helper to set nd to track it's last name to be Name.  Also be careful
341  * with the storage of name.  Don't use and nd's name past the lifetime of the
342  * string used in the path_lookup()/link_path_walk/whatever.  Consider replacing
343  * parts of this with a qstr builder.  Note this uses the dentry's d_op, which
344  * might not be the dentry we care about. */
345 static void stash_nd_name(struct nameidata *nd, char *name)
346 {
347         nd->last.name = name;
348         nd->last.len = strlen(name);
349         nd->last.hash = nd->dentry->d_op->d_hash(nd->dentry, &nd->last);
350 }
351
352 /* Resolves the links in a basic path walk.  0 for success, -EWHATEVER
353  * otherwise.  The final lookup is returned via nd. */
354 static int link_path_walk(char *path, struct nameidata *nd)
355 {
356         struct dentry *link_dentry;
357         struct inode *link_inode, *nd_inode;
358         char *next_slash;
359         char *link = path;
360         int error;
361
362         /* Prevent crazy recursion */
363         if (nd->depth > MAX_SYMLINK_DEPTH)
364                 return -ELOOP;
365         /* skip all leading /'s */
366         while (*link == '/')
367                 link++;
368         /* if there's nothing left (null terminated), we're done.  This should only
369          * happen for "/", which if we wanted a PARENT, should fail (there is no
370          * parent). */
371         if (*link == '\0') {
372                 if (nd->flags & LOOKUP_PARENT) {
373                         set_errno(ENOENT);
374                         return -1;
375                 }
376                 /* o/w, we're good */
377                 return 0;
378         }
379         /* iterate through each intermediate link of the path.  in general, nd
380          * tracks where we are in the path, as far as dentries go.  once we have the
381          * next dentry, we try to update nd based on that dentry.  link is the part
382          * of the path string that we are looking up */
383         while (1) {
384                 nd_inode = nd->dentry->d_inode;
385                 if ((error = check_perms(nd_inode, nd->intent)))
386                         return error;
387                 /* find the next link, break out if it is the end */
388                 next_slash = strchr(link, '/');
389                 if (!next_slash) {
390                         break;
391                 } else {
392                         if (packed_trailing_slashes(next_slash)) {
393                                 nd->flags |= LOOKUP_DIRECTORY;
394                                 break;
395                         }
396                 }
397                 /* skip over any interim ./ */
398                 if (!strncmp("./", link, 2))
399                         goto next_loop;
400                 /* Check for "../", walk up */
401                 if (!strncmp("../", link, 3)) {
402                         climb_up(nd);
403                         goto next_loop;
404                 }
405                 *next_slash = '\0';
406                 link_dentry = do_lookup(nd->dentry, link);
407                 *next_slash = '/';
408                 if (!link_dentry)
409                         return -ENOENT;
410                 /* make link_dentry the current step/answer */
411                 next_link(link_dentry, nd);
412                 kref_put(&link_dentry->d_kref); /* do_lookup gave us a refcnt dentry */
413                 /* we could be on a mountpoint or a symlink - need to follow them */
414                 follow_mount(nd);
415                 if ((error = follow_symlink(nd)) < 0)
416                         return error;
417                 /* Turn off a possible DIRECTORY lookup, which could have been set
418                  * during the follow_symlink (a symlink could have had a directory at
419                  * the end), though it was in the middle of the real path. */
420                 nd->flags &= ~LOOKUP_DIRECTORY;
421                 if (!S_ISDIR(nd->dentry->d_inode->i_mode))
422                         return -ENOTDIR;
423 next_loop:
424                 /* move through the path string to the next entry */
425                 link = next_slash + 1;
426                 /* advance past any other interim slashes.  we know we won't hit the end
427                  * due to the for loop check above */
428                 while (*link == '/')
429                         link++;
430         }
431         /* Now, we're on the last link of the path.  We need to deal with with . and
432          * .. .  This might be weird with PARENT lookups - not sure what semantics
433          * we want exactly.  This will give the parent of whatever the PATH was
434          * supposed to look like.  Note that ND currently points to the parent of
435          * the last item (link). */
436         if (!strcmp(".", link)) {
437                 if (nd->flags & LOOKUP_PARENT) {
438                         assert(nd->dentry->d_name.name);
439                         stash_nd_name(nd, nd->dentry->d_name.name);
440                         climb_up(nd);
441                 }
442                 return 0;
443         }
444         if (!strcmp("..", link)) {
445                 climb_up(nd);
446                 if (nd->flags & LOOKUP_PARENT) {
447                         assert(nd->dentry->d_name.name);
448                         stash_nd_name(nd, nd->dentry->d_name.name);
449                         climb_up(nd);
450                 }
451                 return 0;
452         }
453         /* need to attempt to look it up, in case it's a symlink */
454         link_dentry = do_lookup(nd->dentry, link);
455         if (!link_dentry) {
456                 /* if there's no dentry, we are okay if we are looking for the parent */
457                 if (nd->flags & LOOKUP_PARENT) {
458                         assert(strcmp(link, ""));
459                         stash_nd_name(nd, link);
460                         return 0;
461                 } else {
462                         return -ENOENT;
463                 }
464         }
465         next_link(link_dentry, nd);
466         kref_put(&link_dentry->d_kref); /* do_lookup gave us a refcnt'd dentry */
467         /* at this point, nd is on the final link, but it might be a symlink */
468         if (nd->flags & LOOKUP_FOLLOW) {
469                 error = follow_symlink(nd);
470                 if (error < 0)
471                         return error;
472                 /* if we actually followed a symlink, then nd is set and we're done */
473                 if (error > 0)
474                         return 0;
475         }
476         /* One way or another, nd is on the last element of the path, symlinks and
477          * all.  Now we need to climb up to set nd back on the parent, if that's
478          * what we wanted */
479         if (nd->flags & LOOKUP_PARENT) {
480                 assert(nd->dentry->d_name.name);
481                 stash_nd_name(nd, link_dentry->d_name.name);
482                 climb_up(nd);
483                 return 0;
484         }
485         /* now, we have the dentry set, and don't want the parent, but might be on a
486          * mountpoint still.  FYI: this hasn't been thought through completely. */
487         follow_mount(nd);
488         /* If we wanted a directory, but didn't get one, error out */
489         if ((nd->flags & LOOKUP_DIRECTORY) && !S_ISDIR(nd->dentry->d_inode->i_mode))
490                 return -ENOTDIR;
491         return 0;
492 }
493
494 /* Given path, return the inode for the final dentry.  The ND should be
495  * initialized for the first call - specifically, we need the intent. 
496  * LOOKUP_PARENT and friends go in the flags var, which is not the intent.
497  *
498  * If path_lookup wants a PARENT, but hits the top of the FS (root or
499  * otherwise), we want it to error out.  It's still unclear how we want to
500  * handle processes with roots that aren't root, but at the very least, we don't
501  * want to think we have the parent of /, but have / itself.  Due to the way
502  * link_path_walk works, if that happened, we probably don't have a
503  * nd->last.name.  This needs more thought (TODO).
504  *
505  * Need to be careful too.  While the path has been copied-in to the kernel,
506  * it's still user input.  */
507 int path_lookup(char *path, int flags, struct nameidata *nd)
508 {
509         int retval;
510         printd("Path lookup for %s\n", path);
511         /* we allow absolute lookups with no process context */
512         /* TODO: RCU read lock on pwd or kref_not_zero in a loop.  concurrent chdir
513          * could decref nd->dentry before we get to incref it below. */
514         if (path[0] == '/') {                   /* absolute lookup */
515                 if (!current)
516                         nd->dentry = default_ns.root->mnt_root;
517                 else
518                         nd->dentry = current->fs_env.root;      
519         } else {                                                /* relative lookup */
520                 assert(current);
521                 /* Don't need to lock on the fs_env since we're reading one item */
522                 nd->dentry = current->fs_env.pwd;       
523         }
524         nd->mnt = nd->dentry->d_sb->s_mount;
525         /* Whenever references get put in the nd, incref them.  Whenever they are
526          * removed, decref them. */
527         kref_get(&nd->mnt->mnt_kref, 1);
528         kref_get(&nd->dentry->d_kref, 1);
529         nd->flags = flags;
530         nd->depth = 0;                                  /* used in symlink following */
531         retval =  link_path_walk(path, nd);     
532         /* make sure our PARENT lookup worked */
533         if (!retval && (flags & LOOKUP_PARENT))
534                 assert(nd->last.name);
535         return retval;
536 }
537
538 /* Call this after any use of path_lookup when you are done with its results,
539  * regardless of whether it succeeded or not.  It will free any references */
540 void path_release(struct nameidata *nd)
541 {
542         kref_put(&nd->dentry->d_kref);
543         kref_put(&nd->mnt->mnt_kref);
544         /* Free the last symlink dentry used, if there was one */
545         if (nd->last_sym) {
546                 kref_put(&nd->last_sym->d_kref);
547                 nd->last_sym = 0;                       /* catch reuse bugs */
548         }
549 }
550
551 /* External version of mount, only call this after having a / mount */
552 int mount_fs(struct fs_type *fs, char *dev_name, char *path, int flags)
553 {
554         struct nameidata nd_r = {0}, *nd = &nd_r;
555         int retval = 0;
556         retval = path_lookup(path, LOOKUP_DIRECTORY, nd);
557         if (retval)
558                 goto out;
559         /* taking the namespace of the vfsmount of path */ 
560         if (!__mount_fs(fs, dev_name, nd->dentry, flags, nd->mnt->mnt_namespace))
561                 retval = -EINVAL;
562 out:
563         path_release(nd);
564         return retval;
565 }
566
567 /* Superblock functions */
568
569 /* Dentry "hash" function for the hash table to use.  Since we already have the
570  * hash in the qstr, we don't need to rehash.  Also, note we'll be using the
571  * dentry in question as both the key and the value. */
572 static size_t __dcache_hash(void *k)
573 {
574         return (size_t)((struct dentry*)k)->d_name.hash;
575 }
576
577 /* Dentry cache hashtable equality function.  This means we need to pass in some
578  * minimal dentry when doing a lookup. */
579 static ssize_t __dcache_eq(void *k1, void *k2)
580 {
581         if (((struct dentry*)k1)->d_parent != ((struct dentry*)k2)->d_parent)
582                 return 0;
583         /* TODO: use the FS-specific string comparison */
584         return !strcmp(((struct dentry*)k1)->d_name.name,
585                        ((struct dentry*)k2)->d_name.name);
586 }
587
588 /* Helper to alloc and initialize a generic superblock.  This handles all the
589  * VFS related things, like lists.  Each FS will need to handle its own things
590  * in it's *_get_sb(), usually involving reading off the disc. */
591 struct super_block *get_sb(void)
592 {
593         struct super_block *sb = kmalloc(sizeof(struct super_block), 0);
594         sb->s_dirty = FALSE;
595         spinlock_init(&sb->s_lock);
596         kref_init(&sb->s_kref, fake_release, 1); /* for the ref passed out */
597         TAILQ_INIT(&sb->s_inodes);
598         TAILQ_INIT(&sb->s_dirty_i);
599         TAILQ_INIT(&sb->s_io_wb);
600         TAILQ_INIT(&sb->s_lru_d);
601         TAILQ_INIT(&sb->s_files);
602         sb->s_dcache = create_hashtable(100, __dcache_hash, __dcache_eq);
603         sb->s_icache = create_hashtable(100, __generic_hash, __generic_eq);
604         spinlock_init(&sb->s_lru_lock);
605         spinlock_init(&sb->s_dcache_lock);
606         spinlock_init(&sb->s_icache_lock);
607         sb->s_fs_info = 0; // can override somewhere else
608         return sb;
609 }
610
611 /* Final stages of initializing a super block, including creating and linking
612  * the root dentry, root inode, vmnt, and sb.  The d_op and root_ino are
613  * FS-specific, but otherwise it's FS-independent, tricky, and not worth having
614  * around multiple times.
615  *
616  * Not the world's best interface, so it's subject to change, esp since we're
617  * passing (now 3) FS-specific things. */
618 void init_sb(struct super_block *sb, struct vfsmount *vmnt,
619              struct dentry_operations *d_op, unsigned long root_ino,
620              void *d_fs_info)
621 {
622         /* Build and init the first dentry / inode.  The dentry ref is stored later
623          * by vfsmount's mnt_root.  The parent is dealt with later. */
624         struct dentry *d_root = get_dentry_with_ops(sb, 0,  "/", d_op);
625
626         if (!d_root)
627                 panic("OOM!  init_sb() can't fail yet!");
628         /* a lot of here on down is normally done in lookup() or create, since
629          * get_dentry isn't a fully usable dentry.  The two FS-specific settings are
630          * normally inherited from a parent within the same FS in get_dentry, but we
631          * have none here. */
632         d_root->d_op = d_op;
633         d_root->d_fs_info = d_fs_info;
634         struct inode *inode = get_inode(d_root);
635         if (!inode)
636                 panic("This FS sucks!");
637         inode->i_ino = root_ino;
638         /* TODO: add the inode to the appropriate list (off i_list) */
639         /* TODO: do we need to read in the inode?  can we do this on demand? */
640         /* if this FS is already mounted, we'll need to do something different. */
641         sb->s_op->read_inode(inode);
642         icache_put(sb, inode);
643         /* Link the dentry and SB to the VFS mount */
644         vmnt->mnt_root = d_root;                                /* ref comes from get_dentry */
645         vmnt->mnt_sb = sb;
646         /* If there is no mount point, there is no parent.  This is true only for
647          * the rootfs. */
648         if (vmnt->mnt_mountpoint) {
649                 kref_get(&vmnt->mnt_mountpoint->d_kref, 1);     /* held by d_root */
650                 d_root->d_parent = vmnt->mnt_mountpoint;        /* dentry of the root */
651         } else {
652                 d_root->d_parent = d_root;                      /* set root as its own parent */
653         }
654         /* insert the dentry into the dentry cache.  when's the earliest we can?
655          * when's the earliest we should?  what about concurrent accesses to the
656          * same dentry?  should be locking the dentry... */
657         dcache_put(sb, d_root);
658         kref_put(&inode->i_kref);               /* give up the ref from get_inode() */
659 }
660
661 /* Dentry Functions */
662
663 static void dentry_set_name(struct dentry *dentry, char *name)
664 {
665         size_t name_len = strnlen(name, MAX_FILENAME_SZ);       /* not including \0! */
666         char *l_name = 0;
667         if (name_len < DNAME_INLINE_LEN) {
668                 strlcpy(dentry->d_iname, name, name_len + 1);
669                 qstr_builder(dentry, 0);
670         } else {
671                 l_name = kmalloc(name_len + 1, 0);
672                 assert(l_name);
673                 strlcpy(l_name, name, name_len + 1);
674                 qstr_builder(dentry, l_name);
675         }
676 }
677
678 /* Gets a dentry.  If there is no parent, use d_op.  Only called directly by
679  * superblock init code. */
680 struct dentry *get_dentry_with_ops(struct super_block *sb,
681                                    struct dentry *parent, char *name,
682                                    struct dentry_operations *d_op)
683 {
684         assert(name);
685         struct dentry *dentry = kmem_cache_alloc(dentry_kcache, 0);
686
687         if (!dentry) {
688                 set_errno(ENOMEM);
689                 return 0;
690         }
691         //memset(dentry, 0, sizeof(struct dentry));
692         kref_init(&dentry->d_kref, dentry_release, 1);  /* this ref is returned */
693         spinlock_init(&dentry->d_lock);
694         TAILQ_INIT(&dentry->d_subdirs);
695         dentry->d_time = 0;
696         kref_get(&sb->s_kref, 1);
697         dentry->d_sb = sb;                                      /* storing a ref here... */
698         dentry->d_mount_point = FALSE;
699         dentry->d_mounted_fs = 0;
700         if (parent)     {                                               /* no parent for rootfs mount */
701                 kref_get(&parent->d_kref, 1);
702                 dentry->d_op = parent->d_op;    /* d_op set in init_sb for parentless */
703         } else {
704                 dentry->d_op = d_op;
705         }
706         dentry->d_parent = parent;
707         dentry->d_flags = DENTRY_USED;
708         dentry->d_fs_info = 0;
709         dentry_set_name(dentry, name);
710         /* Catch bugs by aggressively zeroing this (o/w we use old stuff) */
711         dentry->d_inode = 0;
712         return dentry;
713 }
714
715 /* Helper to alloc and initialize a generic dentry.  The following needs to be
716  * set still: d_op (if no parent), d_fs_info (opt), d_inode, connect the inode
717  * to the dentry (and up the d_kref again), maybe dcache_put().  The inode
718  * stitching is done in get_inode() or lookup (depending on the FS).
719  * The setting of the d_op might be problematic when dealing with mounts.  Just
720  * overwrite it.
721  *
722  * If the name is longer than the inline name, it will kmalloc a buffer, so
723  * don't worry about the storage for *name after calling this. */
724 struct dentry *get_dentry(struct super_block *sb, struct dentry *parent,
725                           char *name)
726 {
727         return get_dentry_with_ops(sb, parent, name, 0);
728 }
729
730 /* Called when the dentry is unreferenced (after kref == 0).  This works closely
731  * with the resurrection in dcache_get().
732  *
733  * The dentry is still in the dcache, but needs to be un-USED and added to the
734  * LRU dentry list.  Even dentries that were used in a failed lookup need to be
735  * cached - they ought to be the negative dentries.  Note that all dentries have
736  * parents, even negative ones (it is needed to find it in the dcache). */
737 void dentry_release(struct kref *kref)
738 {
739         struct dentry *dentry = container_of(kref, struct dentry, d_kref);
740
741         printd("'Releasing' dentry %p: %s\n", dentry, dentry->d_name.name);
742         /* DYING dentries (recently unlinked / rmdir'd) just get freed */
743         if (dentry->d_flags & DENTRY_DYING) {
744                 __dentry_free(dentry);
745                 return;
746         }
747         /* This lock ensures the USED state and the TAILQ membership is in sync.
748          * Also used to check the refcnt, though that might not be necessary. */
749         spin_lock(&dentry->d_lock);
750         /* While locked, we need to double check the kref, in case someone already
751          * reup'd it.  Re-up? you're crazy!  Reee-up, you're outta yo mind! */
752         if (!kref_refcnt(&dentry->d_kref)) {
753                 /* Note this is where negative dentries get set UNUSED */
754                 if (dentry->d_flags & DENTRY_USED) {
755                         dentry->d_flags &= ~DENTRY_USED;
756                         spin_lock(&dentry->d_sb->s_lru_lock);
757                         TAILQ_INSERT_TAIL(&dentry->d_sb->s_lru_d, dentry, d_lru);
758                         spin_unlock(&dentry->d_sb->s_lru_lock);
759                 } else {
760                         /* and make sure it wasn't USED, then UNUSED again */
761                         /* TODO: think about issues with this */
762                         warn("This should be rare.  Tell brho this happened.");
763                 }
764         }
765         spin_unlock(&dentry->d_lock);
766 }
767
768 /* Called when we really dealloc and get rid of a dentry (like when it is
769  * removed from the dcache, either for memory or correctness reasons)
770  *
771  * This has to handle two types of dentries: full ones (ones that had been used)
772  * and ones that had been just for lookups - hence the check for d_inode.
773  *
774  * Note that dentries pin and kref their inodes.  When all the dentries are
775  * gone, we want the inode to be released via kref.  The inode has internal /
776  * weak references to the dentry, which are not refcounted. */
777 void __dentry_free(struct dentry *dentry)
778 {
779         if (dentry->d_inode)
780                 printd("Freeing dentry %p: %s\n", dentry, dentry->d_name.name);
781         assert(dentry->d_op);   /* catch bugs.  a while back, some lacked d_op */
782         dentry->d_op->d_release(dentry);
783         /* TODO: check/test the boundaries on this. */
784         if (dentry->d_name.len > DNAME_INLINE_LEN)
785                 kfree((void*)dentry->d_name.name);
786         kref_put(&dentry->d_sb->s_kref);
787         if (dentry->d_parent)
788                 kref_put(&dentry->d_parent->d_kref);
789         if (dentry->d_mounted_fs)
790                 kref_put(&dentry->d_mounted_fs->mnt_kref);
791         if (dentry->d_inode) {
792                 TAILQ_REMOVE(&dentry->d_inode->i_dentry, dentry, d_alias);
793                 kref_put(&dentry->d_inode->i_kref);     /* dentries kref inodes */
794         }
795         kmem_cache_free(dentry_kcache, dentry);
796 }
797
798 /* Looks up the dentry for the given path, returning a refcnt'd dentry (or 0).
799  * Permissions are applied for the current user, which is quite a broken system
800  * at the moment.  Flags are lookup flags. */
801 struct dentry *lookup_dentry(char *path, int flags)
802 {
803         struct dentry *dentry;
804         struct nameidata nd_r = {0}, *nd = &nd_r;
805         int error;
806
807         error = path_lookup(path, flags, nd);
808         if (error) {
809                 path_release(nd);
810                 set_errno(-error);
811                 return 0;
812         }
813         dentry = nd->dentry;
814         kref_get(&dentry->d_kref, 1);
815         path_release(nd);
816         return dentry;
817 }
818
819 /* Get a dentry from the dcache.  At a minimum, we need the name hash and parent
820  * in what_i_want, though most uses will probably be from a get_dentry() call.
821  * We pass in the SB in the off chance that we don't want to use a get'd dentry.
822  *
823  * The unusual variable name (instead of just "key" or something) is named after
824  * ex-SPC Castro's porn folder.  Caller deals with the memory for what_i_want.
825  *
826  * If the dentry is negative, we don't return the actual result - instead, we
827  * set the negative flag in 'what i want'.  The reason is we don't want to
828  * kref_get() and then immediately put (causing dentry_release()).  This also
829  * means that dentry_release() should never get someone who wasn't USED (barring
830  * the race, which it handles).  And we don't need to ever have a dentry set as
831  * USED and NEGATIVE (which is always wrong, but would be needed for a cleaner
832  * dentry_release()).
833  *
834  * This is where we do the "kref resurrection" - we are returning a kref'd
835  * object, even if it wasn't kref'd before.  This means the dcache does NOT hold
836  * krefs (it is a weak/internal ref), but it is a source of kref generation.  We
837  * sync up with the possible freeing of the dentry by locking the table.  See
838  * Doc/kref for more info. */
839 struct dentry *dcache_get(struct super_block *sb, struct dentry *what_i_want)
840 {
841         struct dentry *found;
842         /* This lock protects the hash, as well as ensures the returned object
843          * doesn't get deleted/freed out from under us */
844         spin_lock(&sb->s_dcache_lock);
845         found = hashtable_search(sb->s_dcache, what_i_want);
846         if (found) {
847                 if (found->d_flags & DENTRY_NEGATIVE) {
848                         what_i_want->d_flags |= DENTRY_NEGATIVE;
849                         spin_unlock(&sb->s_dcache_lock);
850                         return 0;
851                 }
852                 spin_lock(&found->d_lock);
853                 __kref_get(&found->d_kref, 1);  /* prob could be done outside the lock*/
854                 /* If we're here (after kreffing) and it is not USED, we are the one who
855                  * should resurrect */
856                 if (!(found->d_flags & DENTRY_USED)) {
857                         found->d_flags |= DENTRY_USED;
858                         spin_lock(&sb->s_lru_lock);
859                         TAILQ_REMOVE(&sb->s_lru_d, found, d_lru);
860                         spin_unlock(&sb->s_lru_lock);
861                 }
862                 spin_unlock(&found->d_lock);
863         }
864         spin_unlock(&sb->s_dcache_lock);
865         return found;
866 }
867
868 /* Adds a dentry to the dcache.  Note the *dentry is both the key and the value.
869  * If the value was already in there (which can happen iff it was negative), for
870  * now we'll remove it and put the new one in there. */
871 void dcache_put(struct super_block *sb, struct dentry *key_val)
872 {
873         struct dentry *old;
874         int retval;
875         spin_lock(&sb->s_dcache_lock);
876         old = hashtable_remove(sb->s_dcache, key_val);
877         /* if it is old and non-negative, our caller lost a race with someone else
878          * adding the dentry.  but since we yanked it out, like a bunch of idiots,
879          * we still have to put it back.  should be fairly rare. */
880         if (old && (old->d_flags & DENTRY_NEGATIVE)) {
881                 /* This is possible, but rare for now (about to be put on the LRU) */
882                 assert(!(old->d_flags & DENTRY_USED));
883                 assert(!kref_refcnt(&old->d_kref));
884                 spin_lock(&sb->s_lru_lock);
885                 TAILQ_REMOVE(&sb->s_lru_d, old, d_lru);
886                 spin_unlock(&sb->s_lru_lock);
887                 /* TODO: this seems suspect.  isn't this the same memory as key_val?
888                  * in which case, we just adjust the flags (remove NEG) and reinsert? */
889                 assert(old != key_val); // checking TODO comment
890                 __dentry_free(old);
891         }
892         /* this returns 0 on failure (TODO: Fix this ghetto shit) */
893         retval = hashtable_insert(sb->s_dcache, key_val, key_val);
894         assert(retval);
895         spin_unlock(&sb->s_dcache_lock);
896 }
897
898 /* Will remove and return the dentry.  Caller deallocs the key, but the retval
899  * won't have a reference.  * Returns 0 if it wasn't found.  Callers can't
900  * assume much - they should not use the reference they *get back*, (if they
901  * already had one for key, they can use that).  There may be other users out
902  * there. */
903 struct dentry *dcache_remove(struct super_block *sb, struct dentry *key)
904 {
905         struct dentry *retval;
906         spin_lock(&sb->s_dcache_lock);
907         retval = hashtable_remove(sb->s_dcache, key);
908         spin_unlock(&sb->s_dcache_lock);
909         return retval;
910 }
911
912 /* This will clean out the LRU list, which are the unused dentries of the dentry
913  * cache.  This will optionally only free the negative ones.  Note that we grab
914  * the hash lock for the time we traverse the LRU list - this prevents someone
915  * from getting a kref from the dcache, which could cause us trouble (we rip
916  * someone off the list, who isn't unused, and they try to rip them off the
917  * list). */
918 void dcache_prune(struct super_block *sb, bool negative_only)
919 {
920         struct dentry *d_i, *temp;
921         struct dentry_tailq victims = TAILQ_HEAD_INITIALIZER(victims);
922
923         spin_lock(&sb->s_dcache_lock);
924         spin_lock(&sb->s_lru_lock);
925         TAILQ_FOREACH_SAFE(d_i, &sb->s_lru_d, d_lru, temp) {
926                 if (!(d_i->d_flags & DENTRY_USED)) {
927                         if (negative_only && !(d_i->d_flags & DENTRY_NEGATIVE))
928                                 continue;
929                         /* another place where we'd be better off with tools, not sol'ns */
930                         hashtable_remove(sb->s_dcache, d_i);
931                         TAILQ_REMOVE(&sb->s_lru_d, d_i, d_lru);
932                         TAILQ_INSERT_HEAD(&victims, d_i, d_lru);
933                 }
934         }
935         spin_unlock(&sb->s_lru_lock);
936         spin_unlock(&sb->s_dcache_lock);
937         /* Now do the actual freeing, outside of the hash/LRU list locks.  This is
938          * necessary since __dentry_free() will decref its parent, which may get
939          * released and try to add itself to the LRU. */
940         TAILQ_FOREACH_SAFE(d_i, &victims, d_lru, temp) {
941                 TAILQ_REMOVE(&victims, d_i, d_lru);
942                 assert(!kref_refcnt(&d_i->d_kref));
943                 __dentry_free(d_i);
944         }
945         /* It is possible at this point that there are new items on the LRU.  We
946          * could loop back until that list is empty, if we care about this. */
947 }
948
949 /* Inode Functions */
950
951 /* Creates and initializes a new inode.  Generic fields are filled in.
952  * FS-specific fields are filled in by the callout.  Specific fields are filled
953  * in in read_inode() based on what's on the disk for a given i_no, or when the
954  * inode is created (for new objects).
955  *
956  * i_no is set by the caller.  Note that this means this inode can be for an
957  * inode that is already on disk, or it can be used when creating. */
958 struct inode *get_inode(struct dentry *dentry)
959 {
960         struct super_block *sb = dentry->d_sb;
961         /* FS allocs and sets the following: i_op, i_fop, i_pm.pm_op, and any FS
962          * specific stuff. */
963         struct inode *inode = sb->s_op->alloc_inode(sb);
964         if (!inode) {
965                 set_errno(ENOMEM);
966                 return 0;
967         }
968         TAILQ_INSERT_HEAD(&sb->s_inodes, inode, i_sb_list);             /* weak inode ref */
969         TAILQ_INIT(&inode->i_dentry);
970         TAILQ_INSERT_TAIL(&inode->i_dentry, dentry, d_alias);   /* weak dentry ref*/
971         /* one for the dentry->d_inode, one passed out */
972         kref_init(&inode->i_kref, inode_release, 2);
973         dentry->d_inode = inode;
974         inode->i_ino = 0;                                       /* set by caller later */
975         inode->i_blksize = sb->s_blocksize;
976         spinlock_init(&inode->i_lock);
977         kref_get(&sb->s_kref, 1);                       /* could allow the dentry to pin it */
978         inode->i_sb = sb;
979         inode->i_rdev = 0;                                      /* this has no real meaning yet */
980         inode->i_bdev = sb->s_bdev;                     /* storing an uncounted ref */
981         inode->i_state = 0;                                     /* need real states, like I_NEW */
982         inode->dirtied_when = 0;
983         inode->i_flags = 0;
984         atomic_set(&inode->i_writecount, 0);
985         /* Set up the page_map structures.  Default is to use the embedded one.
986          * Might push some of this back into specific FSs.  For now, the FS tells us
987          * what pm_op they want via i_pm.pm_op, which we set again in pm_init() */
988         inode->i_mapping = &inode->i_pm;
989         pm_init(inode->i_mapping, inode->i_pm.pm_op, inode);
990         return inode;
991 }
992
993 /* Helper: loads/ reads in the inode numbered ino and attaches it to dentry */
994 void load_inode(struct dentry *dentry, unsigned long ino)
995 {
996         struct inode *inode;
997
998         /* look it up in the inode cache first */
999         inode = icache_get(dentry->d_sb, ino);
1000         if (inode) {
1001                 /* connect the dentry to its inode */
1002                 TAILQ_INSERT_TAIL(&inode->i_dentry, dentry, d_alias);
1003                 dentry->d_inode = inode;        /* storing the ref we got from icache_get */
1004                 return;
1005         }
1006         /* otherwise, we need to do it manually */
1007         inode = get_inode(dentry);
1008         inode->i_ino = ino;
1009         dentry->d_sb->s_op->read_inode(inode);
1010         /* TODO: race here, two creators could miss in the cache, and then get here.
1011          * need a way to sync across a blocking call.  needs to be either at this
1012          * point in the code or per the ino (dentries could be different) */
1013         icache_put(dentry->d_sb, inode);
1014         kref_put(&inode->i_kref);
1015 }
1016
1017 /* Helper op, used when creating regular files, directories, symlinks, etc.
1018  * Note we make a distinction between the mode and the file type (for now).
1019  * After calling this, call the FS specific version (create or mkdir), which
1020  * will set the i_ino, the filetype, and do any other FS-specific stuff.  Also
1021  * note that a lot of inode stuff was initialized in get_inode/alloc_inode.  The
1022  * stuff here is pertinent to the specific creator (user), mode, and time.  Also
1023  * note we don't pass this an nd, like Linux does... */
1024 static struct inode *create_inode(struct dentry *dentry, int mode)
1025 {
1026         uint64_t now = epoch_sec();
1027         /* note it is the i_ino that uniquely identifies a file in the specific
1028          * filesystem.  there's a diff between creating an inode (even for an in-use
1029          * ino) and then filling it in, and vs creating a brand new one.
1030          * get_inode() sets it to 0, and it should be filled in later in an
1031          * FS-specific manner. */
1032         struct inode *inode = get_inode(dentry);
1033         if (!inode)
1034                 return 0;
1035         inode->i_mode = mode & S_PMASK; /* note that after this, we have no type */
1036         inode->i_nlink = 1;
1037         inode->i_size = 0;
1038         inode->i_blocks = 0;
1039         inode->i_atime.tv_sec = now;
1040         inode->i_ctime.tv_sec = now;
1041         inode->i_mtime.tv_sec = now;
1042         inode->i_atime.tv_nsec = 0;
1043         inode->i_ctime.tv_nsec = 0;
1044         inode->i_mtime.tv_nsec = 0;
1045         inode->i_bdev = inode->i_sb->s_bdev;
1046         /* when we have notions of users, do something here: */
1047         inode->i_uid = 0;
1048         inode->i_gid = 0;
1049         return inode;
1050 }
1051
1052 /* Create a new disk inode in dir associated with dentry, with the given mode.
1053  * called when creating a regular file.  dir is the directory/parent.  dentry is
1054  * the dentry of the inode we are creating.  Note the lack of the nd... */
1055 int create_file(struct inode *dir, struct dentry *dentry, int mode)
1056 {
1057         struct inode *new_file = create_inode(dentry, mode);
1058         if (!new_file)
1059                 return -1;
1060         dir->i_op->create(dir, dentry, mode, 0);
1061         icache_put(new_file->i_sb, new_file);
1062         kref_put(&new_file->i_kref);
1063         return 0;
1064 }
1065
1066 /* Creates a new inode for a directory associated with dentry in dir with the
1067  * given mode. */
1068 int create_dir(struct inode *dir, struct dentry *dentry, int mode)
1069 {
1070         struct inode *new_dir = create_inode(dentry, mode);
1071         if (!new_dir)
1072                 return -1;
1073         dir->i_op->mkdir(dir, dentry, mode);
1074         dir->i_nlink++;         /* Directories get a hardlink for every child dir */
1075         /* Make sure my parent tracks me.  This is okay, since no directory (dir)
1076          * can have more than one dentry */
1077         struct dentry *parent = TAILQ_FIRST(&dir->i_dentry);
1078         assert(parent && parent == TAILQ_LAST(&dir->i_dentry, dentry_tailq));
1079         /* parent dentry tracks dentry as a subdir, weak reference */
1080         TAILQ_INSERT_TAIL(&parent->d_subdirs, dentry, d_subdirs_link);
1081         icache_put(new_dir->i_sb, new_dir);
1082         kref_put(&new_dir->i_kref);
1083         return 0;
1084 }
1085
1086 /* Creates a new inode for a symlink associated with dentry in dir, containing
1087  * the symlink symname */
1088 int create_symlink(struct inode *dir, struct dentry *dentry,
1089                    const char *symname, int mode)
1090 {
1091         struct inode *new_sym = create_inode(dentry, mode);
1092         if (!new_sym)
1093                 return -1;
1094         dir->i_op->symlink(dir, dentry, symname);
1095         icache_put(new_sym->i_sb, new_sym);
1096         kref_put(&new_sym->i_kref);
1097         return 0;
1098 }
1099
1100 /* Returns 0 if the given mode is acceptable for the inode, and an appropriate
1101  * error code if not.  Needs to be writen, based on some sensible rules, and
1102  * will also probably use 'current' */
1103 int check_perms(struct inode *inode, int access_mode)
1104 {
1105         return 0;       /* anything goes! */
1106 }
1107
1108 /* Called after all external refs are gone to clean up the inode.  Once this is
1109  * called, all dentries pointing here are already done (one of them triggered
1110  * this via kref_put(). */
1111 void inode_release(struct kref *kref)
1112 {
1113         struct inode *inode = container_of(kref, struct inode, i_kref);
1114         TAILQ_REMOVE(&inode->i_sb->s_inodes, inode, i_sb_list);
1115         icache_remove(inode->i_sb, inode->i_ino);
1116         /* Might need to write back or delete the file/inode */
1117         if (inode->i_nlink) {
1118                 if (inode->i_state & I_STATE_DIRTY)
1119                         inode->i_sb->s_op->write_inode(inode, TRUE);
1120         } else {
1121                 inode->i_sb->s_op->delete_inode(inode);
1122         }
1123         if (S_ISFIFO(inode->i_mode)) {
1124                 page_decref(kva2page(inode->i_pipe->p_buf));
1125                 kfree(inode->i_pipe);
1126         }
1127         /* TODO: (BDEV) */
1128         // kref_put(inode->i_bdev->kref); /* assuming it's a bdev, could be a pipe*/
1129         /* Either way, we dealloc the in-memory version */
1130         inode->i_sb->s_op->dealloc_inode(inode);        /* FS-specific clean-up */
1131         kref_put(&inode->i_sb->s_kref);
1132         /* TODO: clean this up */
1133         assert(inode->i_mapping == &inode->i_pm);
1134         kmem_cache_free(inode_kcache, inode);
1135 }
1136
1137 /* Fills in kstat with the stat information for the inode */
1138 void stat_inode(struct inode *inode, struct kstat *kstat)
1139 {
1140         kstat->st_dev = inode->i_sb->s_dev;
1141         kstat->st_ino = inode->i_ino;
1142         kstat->st_mode = inode->i_mode;
1143         kstat->st_nlink = inode->i_nlink;
1144         kstat->st_uid = inode->i_uid;
1145         kstat->st_gid = inode->i_gid;
1146         kstat->st_rdev = inode->i_rdev;
1147         kstat->st_size = inode->i_size;
1148         kstat->st_blksize = inode->i_blksize;
1149         kstat->st_blocks = inode->i_blocks;
1150         kstat->st_atim = inode->i_atime;
1151         kstat->st_mtim = inode->i_mtime;
1152         kstat->st_ctim = inode->i_ctime;
1153 }
1154
1155 void print_kstat(struct kstat *kstat)
1156 {
1157         printk("kstat info for %p:\n", kstat);
1158         printk("\tst_dev    : %p\n", kstat->st_dev);
1159         printk("\tst_ino    : %p\n", kstat->st_ino);
1160         printk("\tst_mode   : %p\n", kstat->st_mode);
1161         printk("\tst_nlink  : %p\n", kstat->st_nlink);
1162         printk("\tst_uid    : %p\n", kstat->st_uid);
1163         printk("\tst_gid    : %p\n", kstat->st_gid);
1164         printk("\tst_rdev   : %p\n", kstat->st_rdev);
1165         printk("\tst_size   : %p\n", kstat->st_size);
1166         printk("\tst_blksize: %p\n", kstat->st_blksize);
1167         printk("\tst_blocks : %p\n", kstat->st_blocks);
1168         printk("\tst_atime  : %p\n", kstat->st_atim);
1169         printk("\tst_mtime  : %p\n", kstat->st_mtim);
1170         printk("\tst_ctime  : %p\n", kstat->st_ctim);
1171 }
1172
1173 /* Inode Cache management.  In general, search on the ino, get a refcnt'd value
1174  * back.  Remove does not give you a reference back - it should only be called
1175  * in inode_release(). */
1176 struct inode *icache_get(struct super_block *sb, unsigned long ino)
1177 {
1178         /* This is the same style as in pid2proc, it's the "safely create a strong
1179          * reference from a weak one, so long as other strong ones exist" pattern */
1180         spin_lock(&sb->s_icache_lock);
1181         struct inode *inode = hashtable_search(sb->s_icache, (void*)ino);
1182         if (inode)
1183                 if (!kref_get_not_zero(&inode->i_kref, 1))
1184                         inode = 0;
1185         spin_unlock(&sb->s_icache_lock);
1186         return inode;
1187 }
1188
1189 void icache_put(struct super_block *sb, struct inode *inode)
1190 {
1191         spin_lock(&sb->s_icache_lock);
1192         /* there's a race in load_ino() that could trigger this */
1193         assert(!hashtable_search(sb->s_icache, (void*)inode->i_ino));
1194         hashtable_insert(sb->s_icache, (void*)inode->i_ino, inode);
1195         spin_unlock(&sb->s_icache_lock);
1196 }
1197
1198 struct inode *icache_remove(struct super_block *sb, unsigned long ino)
1199 {
1200         struct inode *inode;
1201         /* Presumably these hashtable removals could be easier since callers
1202          * actually know who they are (same with the pid2proc hash) */
1203         spin_lock(&sb->s_icache_lock);
1204         inode = hashtable_remove(sb->s_icache, (void*)ino);
1205         spin_unlock(&sb->s_icache_lock);
1206         assert(inode && !kref_refcnt(&inode->i_kref));
1207         return inode;
1208 }
1209
1210 /* File functions */
1211
1212 /* Read count bytes from the file into buf, starting at *offset, which is
1213  * increased accordingly, returning the number of bytes transfered.  Most
1214  * filesystems will use this function for their f_op->read.
1215  * Note, this uses the page cache. */
1216 ssize_t generic_file_read(struct file *file, char *buf, size_t count,
1217                           off64_t *offset)
1218 {
1219         struct page *page;
1220         int error;
1221         off64_t page_off;
1222         unsigned long first_idx, last_idx;
1223         size_t copy_amt;
1224         char *buf_end;
1225         /* read in offset, in case of a concurrent reader/writer, so we don't screw
1226          * up our math for count, the idxs, etc. */
1227         off64_t orig_off = ACCESS_ONCE(*offset);
1228
1229         /* Consider pushing some error checking higher in the VFS */
1230         if (!count)
1231                 return 0;
1232         if (!(file->f_flags & O_READ)) {
1233                 set_errno(EBADF);
1234                 return 0;
1235         }
1236         if (orig_off >= file->f_dentry->d_inode->i_size)
1237                 return 0; /* EOF */
1238         /* Make sure we don't go past the end of the file */
1239         if (orig_off + count > file->f_dentry->d_inode->i_size) {
1240                 count = file->f_dentry->d_inode->i_size - orig_off;
1241         }
1242         assert((long)count > 0);
1243         page_off = orig_off & (PGSIZE - 1);
1244         first_idx = orig_off >> PGSHIFT;
1245         last_idx = (orig_off + count) >> PGSHIFT;
1246         buf_end = buf + count;
1247         /* For each file page, make sure it's in the page cache, then copy it out.
1248          * TODO: will probably need to consider concurrently truncated files here.*/
1249         for (int i = first_idx; i <= last_idx; i++) {
1250                 error = pm_load_page(file->f_mapping, i, &page);
1251                 assert(!error); /* TODO: handle ENOMEM and friends */
1252                 copy_amt = MIN(PGSIZE - page_off, buf_end - buf);
1253                 /* TODO: (UMEM) think about this.  if it's a user buffer, we're relying
1254                  * on current to detect whose it is (which should work for async calls).
1255                  * Also, need to propagate errors properly...  Probably should do a
1256                  * user_mem_check, then free, and also to make a distinction between
1257                  * when the kernel wants a read/write (TODO: KFOP) */
1258                 if (current) {
1259                         memcpy_to_user(current, buf, page2kva(page) + page_off, copy_amt);
1260                 } else {
1261                         memcpy(buf, page2kva(page) + page_off, copy_amt);
1262                 }
1263                 buf += copy_amt;
1264                 page_off = 0;
1265                 pm_put_page(page);      /* it's still in the cache, we just don't need it */
1266         }
1267         assert(buf == buf_end);
1268         /* could have concurrent file ops that screw with offset, so userspace isn't
1269          * safe.  but at least it'll be a value that one of the concurrent ops could
1270          * have produced (compared to *offset_changed_concurrently += count. */
1271         *offset = orig_off + count;
1272         return count;
1273 }
1274
1275 /* Write count bytes from buf to the file, starting at *offset, which is
1276  * increased accordingly, returning the number of bytes transfered.  Most
1277  * filesystems will use this function for their f_op->write.  Note, this uses
1278  * the page cache.
1279  *
1280  * Changes don't get flushed to disc til there is an fsync, page cache eviction,
1281  * or other means of trying to writeback the pages. */
1282 ssize_t generic_file_write(struct file *file, const char *buf, size_t count,
1283                            off64_t *offset)
1284 {
1285         struct page *page;
1286         int error;
1287         off64_t page_off;
1288         unsigned long first_idx, last_idx;
1289         size_t copy_amt;
1290         const char *buf_end;
1291         off64_t orig_off = ACCESS_ONCE(*offset);
1292
1293         /* Consider pushing some error checking higher in the VFS */
1294         if (!count)
1295                 return 0;
1296         if (!(file->f_flags & O_WRITE)) {
1297                 set_errno(EBADF);
1298                 return 0;
1299         }
1300         if (file->f_flags & O_APPEND) {
1301                 spin_lock(&file->f_dentry->d_inode->i_lock);
1302                 orig_off = file->f_dentry->d_inode->i_size;
1303                 /* setting the filesize here, instead of during the extend-check, since
1304                  * we need to atomically reserve space and set our write position. */
1305                 file->f_dentry->d_inode->i_size += count;
1306                 spin_unlock(&file->f_dentry->d_inode->i_lock);
1307         } else {
1308                 if (orig_off + count > file->f_dentry->d_inode->i_size) {
1309                         /* lock for writes to i_size.  we allow lockless reads.  recheck
1310                          * i_size in case of concurrent writers since our orig check.  */
1311                         spin_lock(&file->f_dentry->d_inode->i_lock);
1312                         if (orig_off + count > file->f_dentry->d_inode->i_size)
1313                                 file->f_dentry->d_inode->i_size = orig_off + count;
1314                         spin_unlock(&file->f_dentry->d_inode->i_lock);
1315                 }
1316         }
1317         page_off = orig_off & (PGSIZE - 1);
1318         first_idx = orig_off >> PGSHIFT;
1319         last_idx = (orig_off + count) >> PGSHIFT;
1320         buf_end = buf + count;
1321         /* For each file page, make sure it's in the page cache, then write it.*/
1322         for (int i = first_idx; i <= last_idx; i++) {
1323                 error = pm_load_page(file->f_mapping, i, &page);
1324                 assert(!error); /* TODO: handle ENOMEM and friends */
1325                 copy_amt = MIN(PGSIZE - page_off, buf_end - buf);
1326                 /* TODO: (UMEM) (KFOP) think about this.  if it's a user buffer, we're
1327                  * relying on current to detect whose it is (which should work for async
1328                  * calls). */
1329                 if (current) {
1330                         memcpy_from_user(current, page2kva(page) + page_off, buf, copy_amt);
1331                 } else {
1332                         memcpy(page2kva(page) + page_off, buf, copy_amt);
1333                 }
1334                 buf += copy_amt;
1335                 page_off = 0;
1336                 atomic_or(&page->pg_flags, PG_DIRTY);
1337                 pm_put_page(page);      /* it's still in the cache, we just don't need it */
1338         }
1339         assert(buf == buf_end);
1340         *offset = orig_off + count;
1341         return count;
1342 }
1343
1344 /* Directories usually use this for their read method, which is the way glibc
1345  * currently expects us to do a readdir (short of doing linux's getdents).  Will
1346  * probably need work, based on whatever real programs want. */
1347 ssize_t generic_dir_read(struct file *file, char *u_buf, size_t count,
1348                          off64_t *offset)
1349 {
1350         struct kdirent dir_r = {0}, *dirent = &dir_r;
1351         int retval = 1;
1352         size_t amt_copied = 0;
1353         char *buf_end = u_buf + count;
1354
1355         if (!S_ISDIR(file->f_dentry->d_inode->i_mode)) {
1356                 set_errno(ENOTDIR);
1357                 return -1;
1358         }
1359         if (!count)
1360                 return 0;
1361         if (!(file->f_flags & O_READ)) {
1362                 set_errno(EBADF);
1363                 return 0;
1364         }
1365         /* start readdir from where it left off: */
1366         dirent->d_off = *offset;
1367         for (   ;
1368                 u_buf + sizeof(struct kdirent) <= buf_end;
1369                 u_buf += sizeof(struct kdirent)) {
1370                 /* TODO: UMEM/KFOP (pin the u_buf in the syscall, ditch the local copy,
1371                  * get rid of this memcpy and reliance on current, etc).  Might be
1372                  * tricky with the dirent->d_off and trust issues */
1373                 retval = file->f_op->readdir(file, dirent);
1374                 if (retval < 0) {
1375                         set_errno(-retval);
1376                         break;
1377                 }
1378                 /* Slight info exposure: could be extra crap after the name in the
1379                  * dirent (like the name of a deleted file) */
1380                 if (current) {
1381                         memcpy_to_user(current, u_buf, dirent, sizeof(struct dirent));
1382                 } else {
1383                         memcpy(u_buf, dirent, sizeof(struct dirent));
1384                 }
1385                 amt_copied += sizeof(struct dirent);
1386                 /* 0 signals end of directory */
1387                 if (retval == 0)
1388                         break;
1389         }
1390         /* Next time read is called, we pick up where we left off */
1391         *offset = dirent->d_off;        /* UMEM */
1392         /* important to tell them how much they got.  they often keep going til they
1393          * get 0 back (in the case of ls).  it's also how much has been read, but it
1394          * isn't how much the f_pos has moved (which is opaque to the VFS). */
1395         return amt_copied;
1396 }
1397
1398 /* Opens the file, using permissions from current for lack of a better option.
1399  * It will attempt to create the file if it does not exist and O_CREAT is
1400  * specified.  This will return 0 on failure, and set errno.  TODO: There's some
1401  * stuff that we don't do, esp related file truncating/creation.  flags are for
1402  * opening, the mode is for creating.  The flags related to how to create
1403  * (O_CREAT_FLAGS) are handled in this function, not in create_file().
1404  *
1405  * It's tempting to split this into a do_file_create and a do_file_open, based
1406  * on the O_CREAT flag, but the O_CREAT flag can be ignored if the file exists
1407  * already and O_EXCL isn't specified.  We could have open call create if it
1408  * fails, but for now we'll keep it as is. */
1409 struct file *do_file_open(char *path, int flags, int mode)
1410 {
1411         struct file *file = 0;
1412         struct dentry *file_d;
1413         struct inode *parent_i;
1414         struct nameidata nd_r = {0}, *nd = &nd_r;
1415         int error;
1416         unsigned long nr_pages;
1417
1418         /* The file might exist, lets try to just open it right away */
1419         nd->intent = LOOKUP_OPEN;
1420         error = path_lookup(path, LOOKUP_FOLLOW, nd);
1421         if (!error) {
1422                 if (S_ISDIR(nd->dentry->d_inode->i_mode) && (flags & O_WRITE)) {
1423                         set_errno(EISDIR);
1424                         goto out_path_only;
1425                 }
1426                 /* Also need to make sure we didn't want to O_EXCL create */
1427                 if ((flags & O_CREAT) && (flags & O_EXCL)) {
1428                         set_errno(EEXIST);
1429                         goto out_path_only;
1430                 }
1431                 file_d = nd->dentry;
1432                 kref_get(&file_d->d_kref, 1);
1433                 goto open_the_file;
1434         }
1435         if (!(flags & O_CREAT)) {
1436                 set_errno(-error);
1437                 goto out_path_only;
1438         }
1439         /* So it didn't already exist, release the path from the previous lookup,
1440          * and then we try to create it. */
1441         path_release(nd);       
1442         /* get the parent, following links.  this means you get the parent of the
1443          * final link (which may not be in 'path' in the first place. */
1444         nd->intent = LOOKUP_CREATE;
1445         error = path_lookup(path, LOOKUP_PARENT | LOOKUP_FOLLOW, nd);
1446         if (error) {
1447                 set_errno(-error);
1448                 goto out_path_only;
1449         }
1450         /* see if the target is there (shouldn't be), and handle accordingly */
1451         file_d = do_lookup(nd->dentry, nd->last.name); 
1452         if (!file_d) {
1453                 if (!(flags & O_CREAT)) {
1454                         warn("Extremely unlikely race, probably a bug");
1455                         set_errno(ENOENT);
1456                         goto out_path_only;
1457                 }
1458                 /* Create the inode/file.  get a fresh dentry too: */
1459                 file_d = get_dentry(nd->dentry->d_sb, nd->dentry, nd->last.name);
1460                 if (!file_d)
1461                         goto out_path_only;
1462                 parent_i = nd->dentry->d_inode;
1463                 /* Note that the mode technically should only apply to future opens,
1464                  * but we apply it immediately. */
1465                 if (create_file(parent_i, file_d, mode))        /* sets errno */
1466                         goto out_file_d;
1467                 dcache_put(file_d->d_sb, file_d);
1468         } else {        /* something already exists */
1469                 /* this can happen due to concurrent access, but needs to be thought
1470                  * through */
1471                 panic("File shouldn't be here!");
1472                 if ((flags & O_CREAT) && (flags & O_EXCL)) {
1473                         /* wanted to create, not open, bail out */
1474                         set_errno(EEXIST);
1475                         goto out_file_d;
1476                 }
1477         }
1478 open_the_file:
1479         /* now open the file (freshly created or if it already existed).  At this
1480          * point, file_d is a refcnt'd dentry, regardless of which branch we took.*/
1481         if (flags & O_TRUNC) {
1482                 spin_lock(&file_d->d_inode->i_lock);
1483                 nr_pages = ROUNDUP(file_d->d_inode->i_size, PGSIZE) >> PGSHIFT;
1484                 file_d->d_inode->i_size = 0;
1485                 spin_unlock(&file_d->d_inode->i_lock);
1486                 pm_remove_contig(file_d->d_inode->i_mapping, 0, nr_pages);
1487         }
1488         file = dentry_open(file_d, flags);                              /* sets errno */
1489         /* Note the fall through to the exit paths.  File is 0 by default and if
1490          * dentry_open fails. */
1491 out_file_d:
1492         kref_put(&file_d->d_kref);
1493 out_path_only:
1494         path_release(nd);
1495         return file;
1496 }
1497
1498 /* Path is the location of the symlink, sometimes called the "new path", and
1499  * symname is who we link to, sometimes called the "old path". */
1500 int do_symlink(char *path, const char *symname, int mode)
1501 {
1502         struct dentry *sym_d;
1503         struct inode *parent_i;
1504         struct nameidata nd_r = {0}, *nd = &nd_r;
1505         int error;
1506         int retval = -1;
1507
1508         nd->intent = LOOKUP_CREATE;
1509         /* get the parent, but don't follow links */
1510         error = path_lookup(path, LOOKUP_PARENT, nd);
1511         if (error) {
1512                 set_errno(-error);
1513                 goto out_path_only;
1514         }
1515         /* see if the target is already there, handle accordingly */
1516         sym_d = do_lookup(nd->dentry, nd->last.name); 
1517         if (sym_d) {
1518                 set_errno(EEXIST);
1519                 goto out_sym_d;
1520         }
1521         /* Doesn't already exist, let's try to make it: */
1522         sym_d = get_dentry(nd->dentry->d_sb, nd->dentry, nd->last.name);
1523         if (!sym_d)
1524                 goto out_path_only;
1525         parent_i = nd->dentry->d_inode;
1526         if (create_symlink(parent_i, sym_d, symname, mode))
1527                 goto out_sym_d;
1528         dcache_put(sym_d->d_sb, sym_d);
1529         retval = 0;                             /* Note the fall through to the exit paths */
1530 out_sym_d:
1531         kref_put(&sym_d->d_kref);
1532 out_path_only:
1533         path_release(nd);
1534         return retval;
1535 }
1536
1537 /* Makes a hard link for the file behind old_path to new_path */
1538 int do_link(char *old_path, char *new_path)
1539 {
1540         struct dentry *link_d, *old_d;
1541         struct inode *inode, *parent_dir;
1542         struct nameidata nd_r = {0}, *nd = &nd_r;
1543         int error;
1544         int retval = -1;
1545
1546         nd->intent = LOOKUP_CREATE;
1547         /* get the absolute parent of the new_path */
1548         error = path_lookup(new_path, LOOKUP_PARENT | LOOKUP_FOLLOW, nd);
1549         if (error) {
1550                 set_errno(-error);
1551                 goto out_path_only;
1552         }
1553         parent_dir = nd->dentry->d_inode;
1554         /* see if the new target is already there, handle accordingly */
1555         link_d = do_lookup(nd->dentry, nd->last.name); 
1556         if (link_d) {
1557                 set_errno(EEXIST);
1558                 goto out_link_d;
1559         }
1560         /* Doesn't already exist, let's try to make it.  Still need to stitch it to
1561          * an inode and set its FS-specific stuff after this.*/
1562         link_d = get_dentry(nd->dentry->d_sb, nd->dentry, nd->last.name);
1563         if (!link_d)
1564                 goto out_path_only;
1565         /* Now let's get the old_path target */
1566         old_d = lookup_dentry(old_path, LOOKUP_FOLLOW);
1567         if (!old_d)                                     /* errno set by lookup_dentry */
1568                 goto out_link_d;
1569         /* For now, can only link to files */
1570         if (!S_ISREG(old_d->d_inode->i_mode)) {
1571                 set_errno(EPERM);
1572                 goto out_both_ds;
1573         }
1574         /* Must be on the same FS */
1575         if (old_d->d_sb != link_d->d_sb) {
1576                 set_errno(EXDEV);
1577                 goto out_both_ds;
1578         }
1579         /* Do whatever FS specific stuff there is first (which is also a chance to
1580          * bail out). */
1581         error = parent_dir->i_op->link(old_d, parent_dir, link_d);
1582         if (error) {
1583                 set_errno(-error);
1584                 goto out_both_ds;
1585         }
1586         /* Finally stitch it up */
1587         inode = old_d->d_inode;
1588         kref_get(&inode->i_kref, 1);
1589         link_d->d_inode = inode;
1590         inode->i_nlink++;
1591         TAILQ_INSERT_TAIL(&inode->i_dentry, link_d, d_alias);   /* weak ref */
1592         dcache_put(link_d->d_sb, link_d);
1593         retval = 0;                             /* Note the fall through to the exit paths */
1594 out_both_ds:
1595         kref_put(&old_d->d_kref);
1596 out_link_d:
1597         kref_put(&link_d->d_kref);
1598 out_path_only:
1599         path_release(nd);
1600         return retval;
1601 }
1602
1603 /* Unlinks path from the directory tree.  Read the Documentation for more info.
1604  */
1605 int do_unlink(char *path)
1606 {
1607         struct dentry *dentry;
1608         struct inode *parent_dir;
1609         struct nameidata nd_r = {0}, *nd = &nd_r;
1610         int error;
1611         int retval = -1;
1612
1613         /* get the parent of the target, and don't follow a final link */
1614         error = path_lookup(path, LOOKUP_PARENT, nd);
1615         if (error) {
1616                 set_errno(-error);
1617                 goto out_path_only;
1618         }
1619         parent_dir = nd->dentry->d_inode;
1620         /* make sure the target is there */
1621         dentry = do_lookup(nd->dentry, nd->last.name); 
1622         if (!dentry) {
1623                 set_errno(ENOENT);
1624                 goto out_path_only;
1625         }
1626         /* Make sure the target is not a directory */
1627         if (S_ISDIR(dentry->d_inode->i_mode)) {
1628                 set_errno(EISDIR);
1629                 goto out_dentry;
1630         }
1631         /* Remove the dentry from its parent */
1632         error = parent_dir->i_op->unlink(parent_dir, dentry);
1633         if (error) {
1634                 set_errno(-error);
1635                 goto out_dentry;
1636         }
1637         /* Now that our parent doesn't track us, we need to make sure we aren't
1638          * findable via the dentry cache.  DYING, so we will be freed in
1639          * dentry_release() */
1640         dentry->d_flags |= DENTRY_DYING;
1641         dcache_remove(dentry->d_sb, dentry);
1642         dentry->d_inode->i_nlink--;     /* TODO: race here, esp with a decref */
1643         /* At this point, the dentry is unlinked from the FS, and the inode has one
1644          * less link.  When the in-memory objects (dentry, inode) are going to be
1645          * released (after all open files are closed, and maybe after entries are
1646          * evicted from the cache), then nlinks will get checked and the FS-file
1647          * will get removed from the disk */
1648         retval = 0;                             /* Note the fall through to the exit paths */
1649 out_dentry:
1650         kref_put(&dentry->d_kref);
1651 out_path_only:
1652         path_release(nd);
1653         return retval;
1654 }
1655
1656 /* Checks to see if path can be accessed via mode.  Need to actually send the
1657  * mode along somehow, so this doesn't do much now.  This is an example of
1658  * decent error propagation from the lower levels via int retvals. */
1659 int do_access(char *path, int mode)
1660 {
1661         struct nameidata nd_r = {0}, *nd = &nd_r;
1662         int retval = 0;
1663         nd->intent = LOOKUP_ACCESS;
1664         retval = path_lookup(path, 0, nd);
1665         path_release(nd);       
1666         return retval;
1667 }
1668
1669 int do_file_chmod(struct file *file, int mode)
1670 {
1671         int old_mode_ftype = file->f_dentry->d_inode->i_mode & __S_IFMT;
1672         #if 0
1673         /* TODO: when we have notions of uid, check for the proc's uid */
1674         if (file->f_dentry->d_inode->i_uid != UID_OF_ME)
1675                 retval = -EPERM;
1676         else
1677         #endif
1678                 file->f_dentry->d_inode->i_mode = (mode & S_PMASK) | old_mode_ftype;
1679         return 0;
1680 }
1681
1682 /* Make a directory at path with mode.  Returns -1 and sets errno on errors */
1683 int do_mkdir(char *path, int mode)
1684 {
1685         struct dentry *dentry;
1686         struct inode *parent_i;
1687         struct nameidata nd_r = {0}, *nd = &nd_r;
1688         int error;
1689         int retval = -1;
1690
1691         /* The dir might exist and might be /, so we can't look for the parent */
1692         nd->intent = LOOKUP_OPEN;
1693         error = path_lookup(path, LOOKUP_FOLLOW, nd);
1694         path_release(nd);
1695         if (!error) {
1696                 set_errno(EEXIST);
1697                 return -1;
1698         }
1699         nd->intent = LOOKUP_CREATE;
1700         /* get the parent, but don't follow links */
1701         error = path_lookup(path, LOOKUP_PARENT, nd);
1702         if (error) {
1703                 set_errno(-error);
1704                 goto out_path_only;
1705         }
1706         /* Doesn't already exist, let's try to make it: */
1707         dentry = get_dentry(nd->dentry->d_sb, nd->dentry, nd->last.name);
1708         if (!dentry)
1709                 goto out_path_only;
1710         parent_i = nd->dentry->d_inode;
1711         if (create_dir(parent_i, dentry, mode))
1712                 goto out_dentry;
1713         dcache_put(dentry->d_sb, dentry);
1714         retval = 0;                             /* Note the fall through to the exit paths */
1715 out_dentry:
1716         kref_put(&dentry->d_kref);
1717 out_path_only:
1718         path_release(nd);
1719         return retval;
1720 }
1721
1722 int do_rmdir(char *path)
1723 {
1724         struct dentry *dentry;
1725         struct inode *parent_i;
1726         struct nameidata nd_r = {0}, *nd = &nd_r;
1727         int error;
1728         int retval = -1;
1729
1730         /* get the parent, following links (probably want this), and we must get a
1731          * directory.  Note, current versions of path_lookup can't handle both
1732          * PARENT and DIRECTORY, at least, it doesn't check that *path is a
1733          * directory. */
1734         error = path_lookup(path, LOOKUP_PARENT | LOOKUP_FOLLOW | LOOKUP_DIRECTORY,
1735                             nd);
1736         if (error) {
1737                 set_errno(-error);
1738                 goto out_path_only;
1739         }
1740         /* make sure the target is already there, handle accordingly */
1741         dentry = do_lookup(nd->dentry, nd->last.name); 
1742         if (!dentry) {
1743                 set_errno(ENOENT);
1744                 goto out_path_only;
1745         }
1746         if (!S_ISDIR(dentry->d_inode->i_mode)) {
1747                 set_errno(ENOTDIR);
1748                 goto out_dentry;
1749         }
1750         if (dentry->d_mount_point) {
1751                 set_errno(EBUSY);
1752                 goto out_dentry;
1753         }
1754         /* TODO: make sure we aren't a mount or processes root (EBUSY) */
1755         /* Now for the removal.  the FSs will check if they are empty */
1756         parent_i = nd->dentry->d_inode;
1757         error = parent_i->i_op->rmdir(parent_i, dentry);
1758         if (error < 0) {
1759                 set_errno(-error);
1760                 goto out_dentry;
1761         }
1762         /* Now that our parent doesn't track us, we need to make sure we aren't
1763          * findable via the dentry cache.  DYING, so we will be freed in
1764          * dentry_release() */
1765         dentry->d_flags |= DENTRY_DYING;
1766         dcache_remove(dentry->d_sb, dentry);
1767         /* Decref ourselves, so inode_release() knows we are done */
1768         dentry->d_inode->i_nlink--;
1769         TAILQ_REMOVE(&nd->dentry->d_subdirs, dentry, d_subdirs_link);
1770         parent_i->i_nlink--;            /* TODO: race on this, esp since its a decref */
1771         /* we still have d_parent and a kref on our parent, which will go away when
1772          * the in-memory dentry object goes away. */
1773         retval = 0;                             /* Note the fall through to the exit paths */
1774 out_dentry:
1775         kref_put(&dentry->d_kref);
1776 out_path_only:
1777         path_release(nd);
1778         return retval;
1779 }
1780
1781 /* Pipes: Doing a simple buffer with reader and writer offsets.  Size is power
1782  * of two, so we can easily compute its status and whatnot. */
1783
1784 #define PIPE_SZ                                 (1 << PGSHIFT)
1785
1786 static size_t pipe_get_rd_idx(struct pipe_inode_info *pii)
1787 {
1788         return pii->p_rd_off & (PIPE_SZ - 1);
1789 }
1790
1791 static size_t pipe_get_wr_idx(struct pipe_inode_info *pii)
1792 {
1793
1794         return pii->p_wr_off & (PIPE_SZ - 1);
1795 }
1796
1797 static bool pipe_is_empty(struct pipe_inode_info *pii)
1798 {
1799         return __ring_empty(pii->p_wr_off, pii->p_rd_off);
1800 }
1801
1802 static bool pipe_is_full(struct pipe_inode_info *pii)
1803 {
1804         return __ring_full(PIPE_SZ, pii->p_wr_off, pii->p_rd_off);
1805 }
1806
1807 static size_t pipe_nr_full(struct pipe_inode_info *pii)
1808 {
1809         return __ring_nr_full(pii->p_wr_off, pii->p_rd_off);
1810 }
1811
1812 static size_t pipe_nr_empty(struct pipe_inode_info *pii)
1813 {
1814         return __ring_nr_empty(PIPE_SZ, pii->p_wr_off, pii->p_rd_off);
1815 }
1816
1817 ssize_t pipe_file_read(struct file *file, char *buf, size_t count,
1818                        off64_t *offset)
1819 {
1820         struct pipe_inode_info *pii = file->f_dentry->d_inode->i_pipe;
1821         size_t copy_amt, amt_copied = 0;
1822
1823         cv_lock(&pii->p_cv);
1824         while (pipe_is_empty(pii)) {
1825                 /* We wait til the pipe is drained before sending EOF if there are no
1826                  * writers (instead of aborting immediately) */
1827                 if (!pii->p_nr_writers) {
1828                         cv_unlock(&pii->p_cv);
1829                         return 0;
1830                 }
1831                 if (file->f_flags & O_NONBLOCK) {
1832                         cv_unlock(&pii->p_cv);
1833                         set_errno(EAGAIN);
1834                         return -1;
1835                 }
1836                 cv_wait(&pii->p_cv);
1837                 cpu_relax();
1838         }
1839         /* We might need to wrap-around with our copy, so we'll do the copy in two
1840          * passes.  This will copy up to the end of the buffer, then on the next
1841          * pass will copy the rest to the beginning of the buffer (if necessary) */
1842         for (int i = 0; i < 2; i++) {
1843                 copy_amt = MIN(PIPE_SZ - pipe_get_rd_idx(pii),
1844                                MIN(pipe_nr_full(pii), count));
1845                 assert(current);        /* shouldn't pipe from the kernel */
1846                 memcpy_to_user(current, buf, pii->p_buf + pipe_get_rd_idx(pii),
1847                                copy_amt);
1848                 buf += copy_amt;
1849                 count -= copy_amt;
1850                 pii->p_rd_off += copy_amt;
1851                 amt_copied += copy_amt;
1852         }
1853         /* Just using one CV for both readers and writers.  We should rarely have
1854          * multiple readers or writers. */
1855         if (amt_copied)
1856                 __cv_broadcast(&pii->p_cv);
1857         cv_unlock(&pii->p_cv);
1858         return amt_copied;
1859 }
1860
1861 /* Note: we're not dealing with PIPE_BUF and minimum atomic chunks, unless I
1862  * have to later. */
1863 ssize_t pipe_file_write(struct file *file, const char *buf, size_t count,
1864                         off64_t *offset)
1865 {
1866         struct pipe_inode_info *pii = file->f_dentry->d_inode->i_pipe;
1867         size_t copy_amt, amt_copied = 0;
1868
1869         cv_lock(&pii->p_cv);
1870         /* Write aborts right away if there are no readers, regardless of pipe
1871          * status. */
1872         if (!pii->p_nr_readers) {
1873                 cv_unlock(&pii->p_cv);
1874                 set_errno(EPIPE);
1875                 return -1;
1876         }
1877         while (pipe_is_full(pii)) {
1878                 if (file->f_flags & O_NONBLOCK) {
1879                         cv_unlock(&pii->p_cv);
1880                         set_errno(EAGAIN);
1881                         return -1;
1882                 }
1883                 cv_wait(&pii->p_cv);
1884                 cpu_relax();
1885                 /* Still need to check in the loop, in case the last reader left while
1886                  * we slept. */
1887                 if (!pii->p_nr_readers) {
1888                         cv_unlock(&pii->p_cv);
1889                         set_errno(EPIPE);
1890                         return -1;
1891                 }
1892         }
1893         /* We might need to wrap-around with our copy, so we'll do the copy in two
1894          * passes.  This will copy up to the end of the buffer, then on the next
1895          * pass will copy the rest to the beginning of the buffer (if necessary) */
1896         for (int i = 0; i < 2; i++) {
1897                 copy_amt = MIN(PIPE_SZ - pipe_get_wr_idx(pii),
1898                                MIN(pipe_nr_empty(pii), count));
1899                 assert(current);        /* shouldn't pipe from the kernel */
1900                 memcpy_from_user(current, pii->p_buf + pipe_get_wr_idx(pii), buf,
1901                                  copy_amt);
1902                 buf += copy_amt;
1903                 count -= copy_amt;
1904                 pii->p_wr_off += copy_amt;
1905                 amt_copied += copy_amt;
1906         }
1907         /* Just using one CV for both readers and writers.  We should rarely have
1908          * multiple readers or writers. */
1909         if (amt_copied)
1910                 __cv_broadcast(&pii->p_cv);
1911         cv_unlock(&pii->p_cv);
1912         return amt_copied;
1913 }
1914
1915 /* In open and release, we need to track the number of readers and writers,
1916  * which we can differentiate by the file flags. */
1917 int pipe_open(struct inode *inode, struct file *file)
1918 {
1919         struct pipe_inode_info *pii = inode->i_pipe;
1920         cv_lock(&pii->p_cv);
1921         /* Ugliness due to not using flags for O_RDONLY and friends... */
1922         if (file->f_mode == S_IRUSR) {
1923                 pii->p_nr_readers++;
1924         } else if (file->f_mode == S_IWUSR) {
1925                 pii->p_nr_writers++;
1926         } else {
1927                 warn("Bad pipe file flags 0x%x\n", file->f_flags);
1928         }
1929         cv_unlock(&pii->p_cv);
1930         return 0;
1931 }
1932
1933 int pipe_release(struct inode *inode, struct file *file)
1934 {
1935         struct pipe_inode_info *pii = inode->i_pipe;
1936         cv_lock(&pii->p_cv);
1937         /* Ugliness due to not using flags for O_RDONLY and friends... */
1938         if (file->f_mode == S_IRUSR) {
1939                 pii->p_nr_readers--;
1940         } else if (file->f_mode == S_IWUSR) {
1941                 pii->p_nr_writers--;
1942         } else {
1943                 warn("Bad pipe file flags 0x%x\n", file->f_flags);
1944         }
1945         /* need to wake up any sleeping readers/writers, since we might be done */
1946         __cv_broadcast(&pii->p_cv);
1947         cv_unlock(&pii->p_cv);
1948         return 0;
1949 }
1950
1951 struct file_operations pipe_f_op = {
1952         .read = pipe_file_read,
1953         .write = pipe_file_write,
1954         .open = pipe_open,
1955         .release = pipe_release,
1956         0
1957 };
1958
1959 void pipe_debug(struct file *f)
1960 {
1961         struct pipe_inode_info *pii = f->f_dentry->d_inode->i_pipe;
1962         assert(pii);
1963         printk("PIPE %p\n", pii);
1964         printk("\trdoff %p\n", pii->p_rd_off);
1965         printk("\twroff %p\n", pii->p_wr_off);
1966         printk("\tnr_rds %d\n", pii->p_nr_readers);
1967         printk("\tnr_wrs %d\n", pii->p_nr_writers);
1968         printk("\tcv waiters %d\n", pii->p_cv.nr_waiters);
1969
1970 }
1971
1972 /* General plan: get a dentry/inode to represent the pipe.  We'll alloc it from
1973  * the default_ns SB, but won't actually link it anywhere.  It'll only be held
1974  * alive by the krefs, til all the FDs are closed. */
1975 int do_pipe(struct file **pipe_files, int flags)
1976 {
1977         struct dentry *pipe_d;
1978         struct inode *pipe_i;
1979         struct file *pipe_f_read, *pipe_f_write;
1980         struct super_block *def_sb = default_ns.root->mnt_sb;
1981         struct pipe_inode_info *pii;
1982
1983         pipe_d = get_dentry(def_sb, 0, "pipe");
1984         if (!pipe_d)
1985                 return -1;
1986         pipe_d->d_op = &dummy_d_op;
1987         pipe_i = get_inode(pipe_d);
1988         if (!pipe_i)
1989                 goto error_post_dentry;
1990         /* preemptively mark the dentry for deletion.  we have an unlinked dentry
1991          * right off the bat, held in only by the kref chain (pipe_d is the ref). */
1992         pipe_d->d_flags |= DENTRY_DYING;
1993         /* pipe_d->d_inode still has one ref to pipe_i, keeping the inode alive */
1994         kref_put(&pipe_i->i_kref);
1995         /* init inode fields.  note we're using the dummy ops for i_op and d_op */
1996         pipe_i->i_mode = S_IRWXU | S_IRWXG | S_IRWXO;
1997         SET_FTYPE(pipe_i->i_mode, __S_IFIFO);   /* using type == FIFO */
1998         pipe_i->i_nlink = 1;                    /* one for the dentry */
1999         pipe_i->i_uid = 0;
2000         pipe_i->i_gid = 0;
2001         pipe_i->i_size = PGSIZE;
2002         pipe_i->i_blocks = 0;
2003         pipe_i->i_atime.tv_sec = 0;
2004         pipe_i->i_atime.tv_nsec = 0;
2005         pipe_i->i_mtime.tv_sec = 0;
2006         pipe_i->i_mtime.tv_nsec = 0;
2007         pipe_i->i_ctime.tv_sec = 0;
2008         pipe_i->i_ctime.tv_nsec = 0;
2009         pipe_i->i_fs_info = 0;
2010         pipe_i->i_op = &dummy_i_op;
2011         pipe_i->i_fop = &pipe_f_op;
2012         pipe_i->i_socket = FALSE;
2013         /* Actually build the pipe.  We're using one page, hanging off the
2014          * pipe_inode_info struct.  When we release the inode, we free the pipe
2015          * memory too */
2016         pipe_i->i_pipe = kmalloc(sizeof(struct pipe_inode_info), KMALLOC_WAIT);
2017         pii = pipe_i->i_pipe;
2018         if (!pii) {
2019                 set_errno(ENOMEM);
2020                 goto error_kmalloc;
2021         }
2022         pii->p_buf = kpage_zalloc_addr();
2023         if (!pii->p_buf) {
2024                 set_errno(ENOMEM);
2025                 goto error_kpage;
2026         }
2027         pii->p_rd_off = 0;
2028         pii->p_wr_off = 0;
2029         pii->p_nr_readers = 0;
2030         pii->p_nr_writers = 0;
2031         cv_init(&pii->p_cv);    /* must do this before dentry_open / pipe_open */
2032         /* Now we have an inode for the pipe.  We need two files for the read and
2033          * write ends of the pipe. */
2034         flags &= ~(O_ACCMODE);  /* avoid user bugs */
2035         pipe_f_read = dentry_open(pipe_d, flags | O_RDONLY);
2036         if (!pipe_f_read)
2037                 goto error_f_read;
2038         pipe_f_write = dentry_open(pipe_d, flags | O_WRONLY);
2039         if (!pipe_f_write)
2040                 goto error_f_write;
2041         pipe_files[0] = pipe_f_read;
2042         pipe_files[1] = pipe_f_write;
2043         return 0;
2044
2045 error_f_write:
2046         kref_put(&pipe_f_read->f_kref);
2047 error_f_read:
2048         page_decref(kva2page(pii->p_buf));
2049 error_kpage:
2050         kfree(pipe_i->i_pipe);
2051 error_kmalloc:
2052         /* We don't need to free the pipe_i; putting the dentry will free it */
2053 error_post_dentry:
2054         /* Note we only free the dentry on failure. */
2055         kref_put(&pipe_d->d_kref);
2056         return -1;
2057 }
2058
2059 int do_rename(char *old_path, char *new_path)
2060 {
2061         struct nameidata nd_old = {0}, *nd_o = &nd_old;
2062         struct nameidata nd_new = {0}, *nd_n = &nd_new;
2063         struct dentry *old_dir_d, *new_dir_d;
2064         struct inode *old_dir_i, *new_dir_i;
2065         struct dentry *old_d, *new_d, *unlink_d;
2066         int error;
2067         int retval = 0;
2068         uint64_t now;
2069
2070         nd_o->intent = LOOKUP_ACCESS; /* maybe, might need another type */
2071
2072         /* get the parent, but don't follow links */
2073         error = path_lookup(old_path, LOOKUP_PARENT | LOOKUP_DIRECTORY, nd_o);
2074         if (error) {
2075                 set_errno(-error);
2076                 retval = -1;
2077                 goto out_old_path;
2078         }
2079         old_dir_d = nd_o->dentry;
2080         old_dir_i = old_dir_d->d_inode;
2081
2082         old_d = do_lookup(old_dir_d, nd_o->last.name);
2083         if (!old_d) {
2084                 set_errno(ENOENT);
2085                 retval = -1;
2086                 goto out_old_path;
2087         }
2088
2089         nd_n->intent = LOOKUP_CREATE;
2090         error = path_lookup(new_path, LOOKUP_PARENT | LOOKUP_DIRECTORY, nd_n);
2091         if (error) {
2092                 set_errno(-error);
2093                 retval = -1;
2094                 goto out_paths_and_src;
2095         }
2096         new_dir_d = nd_n->dentry;
2097         new_dir_i = new_dir_d->d_inode;
2098         /* TODO if new_dir == old_dir, we might be able to simplify things */
2099
2100         if (new_dir_i->i_sb != old_dir_i->i_sb) {
2101                 set_errno(EXDEV);
2102                 retval = -1;
2103                 goto out_paths_and_src;
2104         }
2105         /* TODO: check_perms is lousy, want to just say "writable" here */
2106         if (check_perms(old_dir_i, S_IWUSR) || check_perms(new_dir_i, S_IWUSR)) {
2107                 set_errno(EPERM);
2108                 retval = -1;
2109                 goto out_paths_and_src;
2110         }
2111         /* TODO: if we're doing a rename that moves a directory, we need to make
2112          * sure the new_path doesn't include the old_path.  it's not as simple as
2113          * just checking, since there could be a concurrent rename that breaks the
2114          * check later.  e.g. what if new_dir's parent is being moved into a child
2115          * of old_dir?
2116          *
2117          * linux has a per-fs rename mutex for these scenarios, so only one can
2118          * proceed at a time.  i don't see another way to deal with it either.
2119          * maybe something like flagging all dentries on the new_path with "do not
2120          * move". */
2121
2122         /* TODO: this is all very racy.  right after we do a new_d lookup, someone
2123          * else could create or unlink new_d.  need to lock here, or else push this
2124          * into the sub-FS.
2125          *
2126          * For any locking scheme, we probably need to lock both the old and new
2127          * dirs.  To prevent deadlock, we need a total ordering of all inodes (or
2128          * dentries, if we locking them instead).  inode number or struct inode*
2129          * will work for this. */
2130         new_d = do_lookup(new_dir_d, nd_n->last.name);
2131         if (new_d) {
2132                 if (new_d->d_inode == old_d->d_inode)
2133                         goto out_paths_and_refs;        /* rename does nothing */
2134                 /* TODO: Here's a bunch of other racy checks we need to do, maybe in the
2135                  * sub-FS:
2136                  *
2137                  * if src is a dir, dst must be an empty dir if it exists (RACYx2)
2138                  *              racing on dst being created and it getting new entries
2139                  * if src is a file, dst must be a file if it exists (RACY)
2140                  *              racing on dst being created and still being a file
2141                  *              racing on dst being unlinked and a new one being added
2142                  */
2143                 /* TODO: we should allow empty dirs */
2144                 if (S_ISDIR(new_d->d_inode->i_mode)) {
2145                         set_errno(EISDIR);
2146                         retval = -1;
2147                         goto out_paths_and_refs;
2148                 }
2149                 /* TODO: need this to be atomic with rename */
2150                 error = new_dir_i->i_op->unlink(new_dir_i, new_d);
2151                 if (error) {
2152                         set_errno(-error);
2153                         retval = -1;
2154                         goto out_paths_and_refs;
2155                 }
2156                 new_d->d_flags |= DENTRY_DYING;
2157                 /* TODO: racy with other lookups on new_d */
2158                 dcache_remove(new_d->d_sb, new_d);
2159                 new_d->d_inode->i_nlink--;  /* TODO: race here, esp with a decref */
2160                 kref_put(&new_d->d_kref);
2161         }
2162         /* new_d is just a vessel for the name.  somewhat lousy. */
2163         new_d = get_dentry(new_dir_d->d_sb, new_dir_d, nd_n->last.name);
2164
2165         /* TODO: more races.  need to remove old_d from the dcache, since we're
2166          * about to change its parentage.  could be readded concurrently. */
2167         dcache_remove(old_dir_d->d_sb, old_d);
2168         error = new_dir_i->i_op->rename(old_dir_i, old_d, new_dir_i, new_d);
2169         if (error) {
2170                 /* TODO: oh crap, we already unlinked!  now we're screwed, and violated
2171                  * our atomicity requirements. */
2172                 printk("[kernel] rename failed, you might have lost data\n");
2173                 set_errno(-error);
2174                 retval = -1;
2175                 goto out_paths_and_refs;
2176         }
2177
2178         /* old_dir loses old_d, new_dir gains old_d, renamed to new_d.  this is
2179          * particularly cumbersome since there are two levels here: the FS has its
2180          * info about where things are, and the VFS has its dentry tree.  and it's
2181          * all racy (TODO). */
2182         dentry_set_name(old_d, new_d->d_name.name);
2183         old_d->d_parent = new_d->d_parent;
2184         if (S_ISDIR(old_d->d_inode->i_mode)) {
2185                 TAILQ_REMOVE(&old_dir_d->d_subdirs, old_d, d_subdirs_link);
2186                 old_dir_i->i_nlink--; /* TODO: racy, etc */
2187                 TAILQ_INSERT_TAIL(&new_dir_d->d_subdirs, old_d, d_subdirs_link);
2188                 new_dir_i->i_nlink--; /* TODO: racy, etc */
2189         }
2190
2191         /* and then the third level: dcache stuff.  we could have old versions of
2192          * old_d or negative versions of new_d sitting around.  dcache_put should
2193          * replace a potentially negative dentry for new_d (now called old_d) */
2194         dcache_put(old_dir_d->d_sb, old_d);
2195
2196         /* TODO could have a helper for this, but it's going away soon */
2197         now = epoch_sec();
2198         old_dir_i->i_ctime.tv_sec = now;
2199         old_dir_i->i_mtime.tv_sec = now;
2200         old_dir_i->i_ctime.tv_nsec = 0;
2201         old_dir_i->i_mtime.tv_nsec = 0;
2202         new_dir_i->i_ctime.tv_sec = now;
2203         new_dir_i->i_mtime.tv_sec = now;
2204         new_dir_i->i_ctime.tv_nsec = 0;
2205         new_dir_i->i_mtime.tv_nsec = 0;
2206
2207         /* fall-through */
2208 out_paths_and_refs:
2209         kref_put(&new_d->d_kref);
2210 out_paths_and_src:
2211         kref_put(&old_d->d_kref);
2212 out_paths:
2213         path_release(nd_n);
2214 out_old_path:
2215         path_release(nd_o);
2216         return retval;
2217 }
2218
2219 int do_truncate(struct inode *inode, off64_t len)
2220 {
2221         off64_t old_len;
2222         uint64_t now;
2223         if (len < 0) {
2224                 set_errno(EINVAL);
2225                 return -1;
2226         }
2227         if (len > PiB) {
2228                 printk("[kernel] truncate for > petabyte, probably a bug\n");
2229                 /* continuing, not too concerned.  could set EINVAL or EFBIG */
2230         }
2231         spin_lock(&inode->i_lock);
2232         old_len = inode->i_size;
2233         if (old_len == len) {
2234                 spin_unlock(&inode->i_lock);
2235                 return 0;
2236         }
2237         inode->i_size = len;
2238         /* truncate can't block, since we're holding the spinlock.  but it can rely
2239          * on that lock being held */
2240         inode->i_op->truncate(inode);
2241         spin_unlock(&inode->i_lock);
2242
2243         if (old_len < len) {
2244                 pm_remove_contig(inode->i_mapping, old_len >> PGSHIFT,
2245                                  (len >> PGSHIFT) - (old_len >> PGSHIFT));
2246         }
2247         now = epoch_sec();
2248         inode->i_ctime.tv_sec = now;
2249         inode->i_mtime.tv_sec = now;
2250         inode->i_ctime.tv_nsec = 0;
2251         inode->i_mtime.tv_nsec = 0;
2252         return 0;
2253 }
2254
2255 struct file *alloc_file(void)
2256 {
2257         struct file *file = kmem_cache_alloc(file_kcache, 0);
2258         if (!file) {
2259                 set_errno(ENOMEM);
2260                 return 0;
2261         }
2262         /* one for the ref passed out*/
2263         kref_init(&file->f_kref, file_release, 1);
2264         return file;
2265 }
2266
2267 /* Opens and returns the file specified by dentry */
2268 struct file *dentry_open(struct dentry *dentry, int flags)
2269 {
2270         struct inode *inode;
2271         struct file *file;
2272         int desired_mode;
2273         inode = dentry->d_inode;
2274         /* f_mode stores how the OS file is open, which can be more restrictive than
2275          * the i_mode */
2276         desired_mode = omode_to_rwx(flags & O_ACCMODE);
2277         if (check_perms(inode, desired_mode))
2278                 goto error_access;
2279         file = alloc_file();
2280         if (!file)
2281                 return 0;
2282         file->f_mode = desired_mode;
2283         /* Add to the list of all files of this SB */
2284         TAILQ_INSERT_TAIL(&inode->i_sb->s_files, file, f_list);
2285         kref_get(&dentry->d_kref, 1);
2286         file->f_dentry = dentry;
2287         kref_get(&inode->i_sb->s_mount->mnt_kref, 1);
2288         file->f_vfsmnt = inode->i_sb->s_mount;          /* saving a ref to the vmnt...*/
2289         file->f_op = inode->i_fop;
2290         /* Don't store creation flags */
2291         file->f_flags = flags & ~O_CREAT_FLAGS;
2292         file->f_pos = 0;
2293         file->f_uid = inode->i_uid;
2294         file->f_gid = inode->i_gid;
2295         file->f_error = 0;
2296 //      struct event_poll_tailq         f_ep_links;
2297         spinlock_init(&file->f_ep_lock);
2298         file->f_privdata = 0;                                           /* prob overriden by the fs */
2299         file->f_mapping = inode->i_mapping;
2300         file->f_op->open(inode, file);
2301         return file;
2302 error_access:
2303         set_errno(EACCES);
2304         return 0;
2305 }
2306
2307 /* Closes a file, fsync, whatever else is necessary.  Called when the kref hits
2308  * 0.  Note that the file is not refcounted on the s_files list, nor is the
2309  * f_mapping refcounted (it is pinned by the i_mapping). */
2310 void file_release(struct kref *kref)
2311 {
2312         struct file *file = container_of(kref, struct file, f_kref);
2313
2314         struct super_block *sb = file->f_dentry->d_sb;
2315         spin_lock(&sb->s_lock);
2316         TAILQ_REMOVE(&sb->s_files, file, f_list);
2317         spin_unlock(&sb->s_lock);
2318
2319         /* TODO: fsync (BLK).  also, we may want to parallelize the blocking that
2320          * could happen in here (spawn kernel threads)... */
2321         file->f_op->release(file->f_dentry->d_inode, file);
2322         /* Clean up the other refs we hold */
2323         kref_put(&file->f_dentry->d_kref);
2324         kref_put(&file->f_vfsmnt->mnt_kref);
2325         kmem_cache_free(file_kcache, file);
2326 }
2327
2328 ssize_t kread_file(struct file *file, void *buf, size_t sz)
2329 {
2330         /* TODO: (KFOP) (VFS kernel read/writes need to have no proc current) */
2331         uintptr_t old_proc = switch_to(0);
2332         off64_t dummy = 0;
2333         ssize_t cpy_amt = file->f_op->read(file, buf, sz, &dummy);
2334
2335         switch_back(0, old_proc);
2336         return cpy_amt;
2337 }
2338
2339 /* Reads the contents of an entire file into a buffer, returning that buffer.
2340  * On error, prints something useful and returns 0 */
2341 void *kread_whole_file(struct file *file)
2342 {
2343         size_t size;
2344         void *contents;
2345         ssize_t cpy_amt;
2346
2347         size = file->f_dentry->d_inode->i_size;
2348         contents = kmalloc(size, KMALLOC_WAIT);
2349         cpy_amt = kread_file(file, contents, size);
2350         if (cpy_amt < 0) {
2351                 printk("Error %d reading file %s\n", get_errno(), file_name(file));
2352                 kfree(contents);
2353                 return 0;
2354         }
2355         if (cpy_amt != size) {
2356                 printk("Read %d, needed %d for file %s\n", cpy_amt, size,
2357                        file_name(file));
2358                 kfree(contents);
2359                 return 0;
2360         }
2361         return contents;
2362 }
2363
2364 /* Process-related File management functions */
2365
2366 /* Given any FD, get the appropriate object, 0 o/w.  Set vfs if you're looking
2367  * for a file, o/w a chan.  Set incref if you want a reference count (which is a
2368  * 9ns thing, you can't use the pointer if you didn't incref). */
2369 void *lookup_fd(struct fd_table *fdt, int fd, bool incref, bool vfs)
2370 {
2371         void *retval = 0;
2372         if (fd < 0)
2373                 return 0;
2374         spin_lock(&fdt->lock);
2375         if (fdt->closed) {
2376                 spin_unlock(&fdt->lock);
2377                 return 0;
2378         }
2379         if (fd < fdt->max_fdset) {
2380                 if (GET_BITMASK_BIT(fdt->open_fds->fds_bits, fd)) {
2381                         /* while max_files and max_fdset might not line up, we should never
2382                          * have a valid fdset higher than files */
2383                         assert(fd < fdt->max_files);
2384                         if (vfs)
2385                                 retval = fdt->fd[fd].fd_file;
2386                         else
2387                                 retval = fdt->fd[fd].fd_chan;
2388                         /* retval could be 0 if we asked for the wrong one (e.g. it's a
2389                          * file, but we asked for a chan) */
2390                         if (retval && incref) {
2391                                 if (vfs)
2392                                         kref_get(&((struct file*)retval)->f_kref, 1);
2393                                 else
2394                                         chan_incref((struct chan*)retval);
2395                         }
2396                 }
2397         }
2398         spin_unlock(&fdt->lock);
2399         return retval;
2400 }
2401
2402 /* Given any FD, get the appropriate file, 0 o/w */
2403 struct file *get_file_from_fd(struct fd_table *open_files, int file_desc)
2404 {
2405         return lookup_fd(open_files, file_desc, TRUE, TRUE);
2406 }
2407
2408 /* Grow the vfs fd set */
2409 static int grow_fd_set(struct fd_table *open_files)
2410 {
2411         int n;
2412         struct file_desc *nfd, *ofd;
2413
2414         /* Only update open_fds once. If currently pointing to open_fds_init, then
2415          * update it to point to a newly allocated fd_set with space for
2416          * NR_FILE_DESC_MAX */
2417         if (open_files->open_fds == (struct fd_set*)&open_files->open_fds_init) {
2418                 open_files->open_fds = kzmalloc(sizeof(struct fd_set), 0);
2419                 memmove(open_files->open_fds, &open_files->open_fds_init,
2420                         sizeof(struct small_fd_set));
2421         }
2422
2423         /* Grow the open_files->fd array in increments of NR_OPEN_FILES_DEFAULT */
2424         n = open_files->max_files + NR_OPEN_FILES_DEFAULT;
2425         if (n > NR_FILE_DESC_MAX)
2426                 return -EMFILE;
2427         nfd = kzmalloc(n * sizeof(struct file_desc), 0);
2428         if (nfd == NULL)
2429                 return -ENOMEM;
2430
2431         /* Move the old array on top of the new one */
2432         ofd = open_files->fd;
2433         memmove(nfd, ofd, open_files->max_files * sizeof(struct file_desc));
2434
2435         /* Update the array and the maxes for both max_files and max_fdset */
2436         open_files->fd = nfd;
2437         open_files->max_files = n;
2438         open_files->max_fdset = n;
2439
2440         /* Only free the old one if it wasn't pointing to open_files->fd_array */
2441         if (ofd != open_files->fd_array)
2442                 kfree(ofd);
2443         return 0;
2444 }
2445
2446 /* Free the vfs fd set if necessary */
2447 static void free_fd_set(struct fd_table *open_files)
2448 {
2449         void *free_me;
2450         if (open_files->open_fds != (struct fd_set*)&open_files->open_fds_init) {
2451                 assert(open_files->fd != open_files->fd_array);
2452                 /* need to reset the pointers to the internal addrs, in case we take a
2453                  * look while debugging.  0 them out, since they have old data.  our
2454                  * current versions should all be closed. */
2455                 memset(&open_files->open_fds_init, 0, sizeof(struct small_fd_set));
2456                 memset(&open_files->fd_array, 0, sizeof(open_files->fd_array));
2457
2458                 free_me = open_files->open_fds;
2459                 open_files->open_fds = (struct fd_set*)&open_files->open_fds_init;
2460                 kfree(free_me);
2461
2462                 free_me = open_files->fd;
2463                 open_files->fd = open_files->fd_array;
2464                 kfree(free_me);
2465         }
2466 }
2467
2468 /* If FD is in the group, remove it, decref it, and return TRUE. */
2469 bool close_fd(struct fd_table *fdt, int fd)
2470 {
2471         struct file *file = 0;
2472         struct chan *chan = 0;
2473         struct fd_tap *tap = 0;
2474         bool ret = FALSE;
2475         if (fd < 0)
2476                 return FALSE;
2477         spin_lock(&fdt->lock);
2478         if (fd < fdt->max_fdset) {
2479                 if (GET_BITMASK_BIT(fdt->open_fds->fds_bits, fd)) {
2480                         /* while max_files and max_fdset might not line up, we should never
2481                          * have a valid fdset higher than files */
2482                         assert(fd < fdt->max_files);
2483                         file = fdt->fd[fd].fd_file;
2484                         chan = fdt->fd[fd].fd_chan;
2485                         tap = fdt->fd[fd].fd_tap;
2486                         fdt->fd[fd].fd_file = 0;
2487                         fdt->fd[fd].fd_chan = 0;
2488                         fdt->fd[fd].fd_tap = 0;
2489                         CLR_BITMASK_BIT(fdt->open_fds->fds_bits, fd);
2490                         if (fd < fdt->hint_min_fd)
2491                                 fdt->hint_min_fd = fd;
2492                         ret = TRUE;
2493                 }
2494         }
2495         spin_unlock(&fdt->lock);
2496         /* Need to decref/cclose outside of the lock; they could sleep */
2497         if (file)
2498                 kref_put(&file->f_kref);
2499         else
2500                 cclose(chan);
2501         if (tap)
2502                 kref_put(&tap->kref);
2503         return ret;
2504 }
2505
2506 void put_file_from_fd(struct fd_table *open_files, int file_desc)
2507 {
2508         close_fd(open_files, file_desc);
2509 }
2510
2511 static int __get_fd(struct fd_table *open_files, int low_fd, bool must_use_low)
2512 {
2513         int slot = -1;
2514         int error;
2515         bool update_hint = TRUE;
2516         if ((low_fd < 0) || (low_fd > NR_FILE_DESC_MAX))
2517                 return -EINVAL;
2518         if (open_files->closed)
2519                 return -EINVAL; /* won't matter, they are dying */
2520         if (must_use_low && GET_BITMASK_BIT(open_files->open_fds->fds_bits, low_fd))
2521                 return -ENFILE;
2522         if (low_fd > open_files->hint_min_fd)
2523                 update_hint = FALSE;
2524         else
2525                 low_fd = open_files->hint_min_fd;
2526         /* Loop until we have a valid slot (we grow the fd_array at the bottom of
2527          * the loop if we haven't found a slot in the current array */
2528         while (slot == -1) {
2529                 for (low_fd; low_fd < open_files->max_fdset; low_fd++) {
2530                         if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, low_fd))
2531                                 continue;
2532                         slot = low_fd;
2533                         SET_BITMASK_BIT(open_files->open_fds->fds_bits, slot);
2534                         assert(slot < open_files->max_files &&
2535                                open_files->fd[slot].fd_file == 0);
2536                         /* We know slot >= hint, since we started with the hint */
2537                         if (update_hint)
2538                                 open_files->hint_min_fd = slot + 1;
2539                         break;
2540                 }
2541                 if (slot == -1) {
2542                         if ((error = grow_fd_set(open_files)))
2543                                 return error;
2544                 }
2545         }
2546         return slot;
2547 }
2548
2549 /* Insert a file or chan (obj, chosen by vfs) into the fd group with fd_flags.
2550  * If must_use_low, then we have to insert at FD = low_fd.  o/w we start looking
2551  * for empty slots at low_fd. */
2552 int insert_obj_fdt(struct fd_table *fdt, void *obj, int low_fd, int fd_flags,
2553                    bool must_use_low, bool vfs)
2554 {
2555         int slot;
2556         spin_lock(&fdt->lock);
2557         slot = __get_fd(fdt, low_fd, must_use_low);
2558         if (slot < 0) {
2559                 spin_unlock(&fdt->lock);
2560                 return slot;
2561         }
2562         assert(slot < fdt->max_files &&
2563                fdt->fd[slot].fd_file == 0);
2564         if (vfs) {
2565                 kref_get(&((struct file*)obj)->f_kref, 1);
2566                 fdt->fd[slot].fd_file = obj;
2567                 fdt->fd[slot].fd_chan = 0;
2568         } else {
2569                 chan_incref((struct chan*)obj);
2570                 fdt->fd[slot].fd_file = 0;
2571                 fdt->fd[slot].fd_chan = obj;
2572         }
2573         fdt->fd[slot].fd_flags = fd_flags;
2574         spin_unlock(&fdt->lock);
2575         return slot;
2576 }
2577
2578 /* Inserts the file in the fd_table, returning the corresponding new file
2579  * descriptor, or an error code.  We start looking for open fds from low_fd.
2580  *
2581  * Passing cloexec is a bit cheap, since we might want to expand it to support
2582  * more FD options in the future. */
2583 int insert_file(struct fd_table *open_files, struct file *file, int low_fd,
2584                 bool must, bool cloexec)
2585 {
2586         return insert_obj_fdt(open_files, file, low_fd, cloexec ? FD_CLOEXEC : 0,
2587                               must, TRUE);
2588 }
2589
2590 /* Closes all open files.  Mostly just a "put" for all files.  If cloexec, it
2591  * will only close the FDs with FD_CLOEXEC (opened with O_CLOEXEC or fcntld).
2592  *
2593  * Notes on concurrency:
2594  * - Can't hold spinlocks while we call cclose, since it might sleep eventually.
2595  * - We're called from proc_destroy, so we could have concurrent openers trying
2596  *   to add to the group (other syscalls), hence the "closed" flag.
2597  * - dot and slash chans are dealt with in proc_free.  its difficult to close
2598  *   and zero those with concurrent syscalls, since those are a source of krefs.
2599  * - Once we lock and set closed, no further additions can happen.  To simplify
2600  *   our closes, we also allow multiple calls to this func (though that should
2601  *   never happen with the current code). */
2602 void close_fdt(struct fd_table *fdt, bool cloexec)
2603 {
2604         struct file *file;
2605         struct chan *chan;
2606         struct file_desc *to_close;
2607         int idx = 0;
2608
2609         to_close = kzmalloc(sizeof(struct file_desc) * fdt->max_files,
2610                             KMALLOC_WAIT);
2611         spin_lock(&fdt->lock);
2612         if (fdt->closed) {
2613                 spin_unlock(&fdt->lock);
2614                 kfree(to_close);
2615                 return;
2616         }
2617         for (int i = 0; i < fdt->max_fdset; i++) {
2618                 if (GET_BITMASK_BIT(fdt->open_fds->fds_bits, i)) {
2619                         /* while max_files and max_fdset might not line up, we should never
2620                          * have a valid fdset higher than files */
2621                         assert(i < fdt->max_files);
2622                         if (cloexec && !(fdt->fd[i].fd_flags & FD_CLOEXEC))
2623                                 continue;
2624                         file = fdt->fd[i].fd_file;
2625                         chan = fdt->fd[i].fd_chan;
2626                         to_close[idx].fd_tap = fdt->fd[i].fd_tap;
2627                         fdt->fd[i].fd_tap = 0;
2628                         if (file) {
2629                                 fdt->fd[i].fd_file = 0;
2630                                 to_close[idx++].fd_file = file;
2631                         } else {
2632                                 fdt->fd[i].fd_chan = 0;
2633                                 to_close[idx++].fd_chan = chan;
2634                         }
2635                         CLR_BITMASK_BIT(fdt->open_fds->fds_bits, i);
2636                 }
2637         }
2638         /* it's just a hint, we can build back up from being 0 */
2639         fdt->hint_min_fd = 0;
2640         if (!cloexec) {
2641                 free_fd_set(fdt);
2642                 fdt->closed = TRUE;
2643         }
2644         spin_unlock(&fdt->lock);
2645         /* We go through some hoops to close/decref outside the lock.  Nice for not
2646          * holding the lock for a while; critical in case the decref/cclose sleeps
2647          * (it can) */
2648         for (int i = 0; i < idx; i++) {
2649                 if (to_close[i].fd_file)
2650                         kref_put(&to_close[i].fd_file->f_kref);
2651                 else
2652                         cclose(to_close[i].fd_chan);
2653                 if (to_close[i].fd_tap)
2654                         kref_put(&to_close[i].fd_tap->kref);
2655         }
2656         kfree(to_close);
2657 }
2658
2659 /* Inserts all of the files from src into dst, used by sys_fork(). */
2660 void clone_fdt(struct fd_table *src, struct fd_table *dst)
2661 {
2662         struct file *file;
2663         struct chan *chan;
2664         spin_lock(&src->lock);
2665         if (src->closed) {
2666                 spin_unlock(&src->lock);
2667                 return;
2668         }
2669         spin_lock(&dst->lock);
2670         if (dst->closed) {
2671                 warn("Destination closed before it opened");
2672                 spin_unlock(&dst->lock);
2673                 spin_unlock(&src->lock);
2674                 return;
2675         }
2676         for (int i = 0; i < src->max_fdset; i++) {
2677                 if (GET_BITMASK_BIT(src->open_fds->fds_bits, i)) {
2678                         /* while max_files and max_fdset might not line up, we should never
2679                          * have a valid fdset higher than files */
2680                         assert(i < src->max_files);
2681                         file = src->fd[i].fd_file;
2682                         chan = src->fd[i].fd_chan;
2683                         assert(i < dst->max_files && dst->fd[i].fd_file == 0);
2684                         SET_BITMASK_BIT(dst->open_fds->fds_bits, i);
2685                         dst->fd[i].fd_file = file;
2686                         dst->fd[i].fd_chan = chan;
2687                         if (file)
2688                                 kref_get(&file->f_kref, 1);
2689                         else
2690                                 chan_incref(chan);
2691                 }
2692         }
2693         dst->hint_min_fd = src->hint_min_fd;
2694         spin_unlock(&dst->lock);
2695         spin_unlock(&src->lock);
2696 }
2697
2698 static void __chpwd(struct fs_struct *fs_env, struct dentry *new_pwd)
2699 {
2700         struct dentry *old_pwd;
2701         kref_get(&new_pwd->d_kref, 1);
2702         /* writer lock, make sure we replace pwd with ours.  could also CAS.
2703          * readers don't lock at all, so they need to either loop, or we need to
2704          * delay releasing old_pwd til an RCU grace period. */
2705         spin_lock(&fs_env->lock);
2706         old_pwd = fs_env->pwd;
2707         fs_env->pwd = new_pwd;
2708         spin_unlock(&fs_env->lock);
2709         kref_put(&old_pwd->d_kref);
2710 }
2711
2712 /* Change the working directory of the given fs env (one per process, at this
2713  * point).  Returns 0 for success, sets errno and returns -1 otherwise. */
2714 int do_chdir(struct fs_struct *fs_env, char *path)
2715 {
2716         struct nameidata nd_r = {0}, *nd = &nd_r;
2717         int error;
2718         error = path_lookup(path, LOOKUP_DIRECTORY, nd);
2719         if (error) {
2720                 set_errno(-error);
2721                 path_release(nd);
2722                 return -1;
2723         }
2724         /* nd->dentry is the place we want our PWD to be */
2725         __chpwd(fs_env, nd->dentry);
2726         path_release(nd);
2727         return 0;
2728 }
2729
2730 int do_fchdir(struct fs_struct *fs_env, struct file *file)
2731 {
2732         if ((file->f_dentry->d_inode->i_mode & __S_IFMT) != __S_IFDIR) {
2733                 set_errno(ENOTDIR);
2734                 return -1;
2735         }
2736         __chpwd(fs_env, file->f_dentry);
2737         return 0;
2738 }
2739
2740 /* Returns a null-terminated string of up to length cwd_l containing the
2741  * absolute path of fs_env, (up to fs_env's root).  Be sure to kfree the char*
2742  * "kfree_this" when you are done with it.  We do this since it's easier to
2743  * build this string going backwards.  Note cwd_l is not a strlen, it's an
2744  * absolute size. */
2745 char *do_getcwd(struct fs_struct *fs_env, char **kfree_this, size_t cwd_l)
2746 {
2747         struct dentry *dentry = fs_env->pwd;
2748         size_t link_len;
2749         char *path_start, *kbuf;
2750
2751         if (cwd_l < 2) {
2752                 set_errno(ERANGE);
2753                 return 0;
2754         }
2755         kbuf = kmalloc(cwd_l, 0);
2756         if (!kbuf) {
2757                 set_errno(ENOMEM);
2758                 return 0;
2759         }
2760         *kfree_this = kbuf;
2761         kbuf[cwd_l - 1] = '\0';
2762         kbuf[cwd_l - 2] = '/';
2763         /* for each dentry in the path, all the way back to the root of fs_env, we
2764          * grab the dentry name, push path_start back enough, and write in the name,
2765          * using /'s to terminate.  We skip the root, since we don't want it's
2766          * actual name, just "/", which is set before each loop. */
2767         path_start = kbuf + cwd_l - 2;  /* the last byte written */
2768         while (dentry != fs_env->root) {
2769                 link_len = dentry->d_name.len;          /* this does not count the \0 */
2770                 if (path_start - (link_len + 2) < kbuf) {
2771                         kfree(kbuf);
2772                         set_errno(ERANGE);
2773                         return 0;
2774                 }
2775                 path_start -= link_len;
2776                 memmove(path_start, dentry->d_name.name, link_len);
2777                 path_start--;
2778                 *path_start = '/';
2779                 dentry = dentry->d_parent;      
2780         }
2781         return path_start;
2782 }
2783
2784 static void print_dir(struct dentry *dentry, char *buf, int depth)
2785 {
2786         struct dentry *child_d;
2787         struct dirent next = {0};
2788         struct file *dir;
2789         int retval;
2790
2791         if (!S_ISDIR(dentry->d_inode->i_mode)) {
2792                 warn("Thought this was only directories!!");
2793                 return;
2794         }
2795         /* Print this dentry */
2796         printk("%s%s/ nlink: %d\n", buf, dentry->d_name.name,
2797                dentry->d_inode->i_nlink);
2798         if (dentry->d_mount_point) {
2799                 dentry = dentry->d_mounted_fs->mnt_root;
2800         }
2801         if (depth >= 32)
2802                 return;
2803         /* Set buffer for our kids */
2804         buf[depth] = '\t';
2805         dir = dentry_open(dentry, 0);
2806         if (!dir)
2807                 panic("Filesystem seems inconsistent - unable to open a dir!");
2808         /* Process every child, recursing on directories */
2809         while (1) {
2810                 retval = dir->f_op->readdir(dir, &next);
2811                 if (retval >= 0) {
2812                         /* Skip .., ., and empty entries */
2813                         if (!strcmp("..", next.d_name) || !strcmp(".", next.d_name) ||
2814                             next.d_ino == 0)
2815                                 goto loop_next;
2816                         /* there is an entry, now get its dentry */
2817                         child_d = do_lookup(dentry, next.d_name);
2818                         if (!child_d)
2819                                 panic("Inconsistent FS, dirent doesn't have a dentry!");
2820                         /* Recurse for directories, or just print the name for others */
2821                         switch (child_d->d_inode->i_mode & __S_IFMT) {
2822                                 case (__S_IFDIR):
2823                                         print_dir(child_d, buf, depth + 1);
2824                                         break;
2825                                 case (__S_IFREG):
2826                                         printk("%s%s size(B): %d nlink: %d\n", buf, next.d_name,
2827                                                child_d->d_inode->i_size, child_d->d_inode->i_nlink);
2828                                         break;
2829                                 case (__S_IFLNK):
2830                                         printk("%s%s -> %s\n", buf, next.d_name,
2831                                                child_d->d_inode->i_op->readlink(child_d));
2832                                         break;
2833                                 case (__S_IFCHR):
2834                                         printk("%s%s (char device) nlink: %d\n", buf, next.d_name,
2835                                                child_d->d_inode->i_nlink);
2836                                         break;
2837                                 case (__S_IFBLK):
2838                                         printk("%s%s (block device) nlink: %d\n", buf, next.d_name,
2839                                                child_d->d_inode->i_nlink);
2840                                         break;
2841                                 default:
2842                                         warn("Look around you!  Unknown filetype!");
2843                         }
2844                         kref_put(&child_d->d_kref);     
2845                 }
2846 loop_next:
2847                 if (retval <= 0)
2848                         break;
2849         }
2850         /* Reset buffer to the way it was */
2851         buf[depth] = '\0';
2852         kref_put(&dir->f_kref);
2853 }
2854
2855 /* Debugging */
2856 int ls_dash_r(char *path)
2857 {
2858         struct nameidata nd_r = {0}, *nd = &nd_r;
2859         int error;
2860         char buf[32] = {0};
2861
2862         error = path_lookup(path, LOOKUP_ACCESS | LOOKUP_DIRECTORY, nd);
2863         if (error) {
2864                 path_release(nd);
2865                 return error;
2866         }
2867         print_dir(nd->dentry, buf, 0);
2868         path_release(nd);
2869         return 0;
2870 }
2871
2872 /* Dummy ops, to catch weird operations we weren't expecting */
2873 int dummy_create(struct inode *dir, struct dentry *dentry, int mode,
2874                  struct nameidata *nd)
2875 {
2876         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2877         return -1;
2878 }
2879
2880 struct dentry *dummy_lookup(struct inode *dir, struct dentry *dentry,
2881                           struct nameidata *nd)
2882 {
2883         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2884         return 0;
2885 }
2886
2887 int dummy_link(struct dentry *old_dentry, struct inode *dir,
2888              struct dentry *new_dentry)
2889 {
2890         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2891         return -1;
2892 }
2893
2894 int dummy_unlink(struct inode *dir, struct dentry *dentry)
2895 {
2896         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2897         return -1;
2898 }
2899
2900 int dummy_symlink(struct inode *dir, struct dentry *dentry, const char *symname)
2901 {
2902         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2903         return -1;
2904 }
2905
2906 int dummy_mkdir(struct inode *dir, struct dentry *dentry, int mode)
2907 {
2908         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2909         return -1;
2910 }
2911
2912 int dummy_rmdir(struct inode *dir, struct dentry *dentry)
2913 {
2914         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2915         return -1;
2916 }
2917
2918 int dummy_mknod(struct inode *dir, struct dentry *dentry, int mode, dev_t rdev)
2919 {
2920         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2921         return -1;
2922 }
2923
2924 int dummy_rename(struct inode *old_dir, struct dentry *old_dentry,
2925                struct inode *new_dir, struct dentry *new_dentry)
2926 {
2927         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2928         return -1;
2929 }
2930
2931 char *dummy_readlink(struct dentry *dentry)
2932 {
2933         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2934         return 0;
2935 }
2936
2937 void dummy_truncate(struct inode *inode)
2938 {
2939         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2940 }
2941
2942 int dummy_permission(struct inode *inode, int mode, struct nameidata *nd)
2943 {
2944         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2945         return -1;
2946 }
2947
2948 int dummy_d_revalidate(struct dentry *dir, struct nameidata *nd)
2949 {
2950         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2951         return -1;
2952 }
2953
2954 int dummy_d_hash(struct dentry *dentry, struct qstr *name)
2955 {
2956         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2957         return -1;
2958 }
2959
2960 int dummy_d_compare(struct dentry *dir, struct qstr *name1, struct qstr *name2)
2961 {
2962         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2963         return -1;
2964 }
2965
2966 int dummy_d_delete(struct dentry *dentry)
2967 {
2968         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2969         return -1;
2970 }
2971
2972 int dummy_d_release(struct dentry *dentry)
2973 {
2974         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2975         return -1;
2976 }
2977
2978 void dummy_d_iput(struct dentry *dentry, struct inode *inode)
2979 {
2980         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2981 }
2982
2983 struct inode_operations dummy_i_op = {
2984         dummy_create,
2985         dummy_lookup,
2986         dummy_link,
2987         dummy_unlink,
2988         dummy_symlink,
2989         dummy_mkdir,
2990         dummy_rmdir,
2991         dummy_mknod,
2992         dummy_rename,
2993         dummy_readlink,
2994         dummy_truncate,
2995         dummy_permission,
2996 };
2997
2998 struct dentry_operations dummy_d_op = {
2999         dummy_d_revalidate,
3000         dummy_d_hash,
3001         dummy_d_compare,
3002         dummy_d_delete,
3003         dummy_d_release,
3004         dummy_d_iput,
3005 };