3193b4528efec70e96420c3e6339524a3f1d6181
[akaros.git] / kern / src / vfs.c
1 /* Copyright (c) 2009, 2010 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * Default implementations and global values for the VFS. */
6
7 #include <vfs.h> // keep this first
8 #include <sys/queue.h>
9 #include <assert.h>
10 #include <stdio.h>
11 #include <atomic.h>
12 #include <slab.h>
13 #include <kmalloc.h>
14 #include <kfs.h>
15 #include <ext2fs.h>
16 #include <pmap.h>
17 #include <umem.h>
18 #include <smp.h>
19
20 struct sb_tailq super_blocks = TAILQ_HEAD_INITIALIZER(super_blocks);
21 spinlock_t super_blocks_lock = SPINLOCK_INITIALIZER;
22 struct fs_type_tailq file_systems = TAILQ_HEAD_INITIALIZER(file_systems);
23 struct namespace default_ns;
24
25 struct kmem_cache *dentry_kcache; // not to be confused with the dcache
26 struct kmem_cache *inode_kcache;
27 struct kmem_cache *file_kcache;
28
29 /* Mounts fs from dev_name at mnt_pt in namespace ns.  There could be no mnt_pt,
30  * such as with the root of (the default) namespace.  Not sure how it would work
31  * with multiple namespaces on the same FS yet.  Note if you mount the same FS
32  * multiple times, you only have one FS still (and one SB).  If we ever support
33  * that... */
34 struct vfsmount *__mount_fs(struct fs_type *fs, char *dev_name,
35                             struct dentry *mnt_pt, int flags,
36                             struct namespace *ns)
37 {
38         struct super_block *sb;
39         struct vfsmount *vmnt = kmalloc(sizeof(struct vfsmount), 0);
40
41         /* this first ref is stored in the NS tailq below */
42         kref_init(&vmnt->mnt_kref, fake_release, 1);
43         /* Build the vfsmount, if there is no mnt_pt, mnt is the root vfsmount (for
44          * now).  fields related to the actual FS, like the sb and the mnt_root are
45          * set in the fs-specific get_sb() call. */
46         if (!mnt_pt) {
47                 vmnt->mnt_parent = NULL;
48                 vmnt->mnt_mountpoint = NULL;
49         } else { /* common case, but won't be tested til we try to mount another FS */
50                 mnt_pt->d_mount_point = TRUE;
51                 mnt_pt->d_mounted_fs = vmnt;
52                 kref_get(&vmnt->mnt_kref, 1); /* held by mnt_pt */
53                 vmnt->mnt_parent = mnt_pt->d_sb->s_mount;
54                 vmnt->mnt_mountpoint = mnt_pt;
55         }
56         TAILQ_INIT(&vmnt->mnt_child_mounts);
57         vmnt->mnt_flags = flags;
58         vmnt->mnt_devname = dev_name;
59         vmnt->mnt_namespace = ns;
60         kref_get(&ns->kref, 1); /* held by vmnt */
61
62         /* Read in / create the SB */
63         sb = fs->get_sb(fs, flags, dev_name, vmnt);
64         if (!sb)
65                 panic("You're FS sucks");
66
67         /* TODO: consider moving this into get_sb or something, in case the SB
68          * already exists (mounting again) (if we support that) */
69         spin_lock(&super_blocks_lock);
70         TAILQ_INSERT_TAIL(&super_blocks, sb, s_list); /* storing a ref here... */
71         spin_unlock(&super_blocks_lock);
72
73         /* Update holding NS */
74         spin_lock(&ns->lock);
75         TAILQ_INSERT_TAIL(&ns->vfsmounts, vmnt, mnt_list);
76         spin_unlock(&ns->lock);
77         /* note to self: so, right after this point, the NS points to the root FS
78          * mount (we return the mnt, which gets assigned), the root mnt has a dentry
79          * for /, backed by an inode, with a SB prepped and in memory. */
80         return vmnt;
81 }
82
83 void vfs_init(void)
84 {
85         struct fs_type *fs;
86
87         dentry_kcache = kmem_cache_create("dentry", sizeof(struct dentry),
88                                           __alignof__(struct dentry), 0, 0, 0);
89         inode_kcache = kmem_cache_create("inode", sizeof(struct inode),
90                                          __alignof__(struct inode), 0, 0, 0);
91         file_kcache = kmem_cache_create("file", sizeof(struct file),
92                                         __alignof__(struct file), 0, 0, 0);
93         /* default NS never dies, +1 to exist */
94         kref_init(&default_ns.kref, fake_release, 1);
95         spinlock_init(&default_ns.lock);
96         default_ns.root = NULL;
97         TAILQ_INIT(&default_ns.vfsmounts);
98
99         /* build list of all FS's in the system.  put yours here.  if this is ever
100          * done on the fly, we'll need to lock. */
101         TAILQ_INSERT_TAIL(&file_systems, &kfs_fs_type, list);
102 #ifdef CONFIG_EXT2FS
103         TAILQ_INSERT_TAIL(&file_systems, &ext2_fs_type, list);
104 #endif
105         TAILQ_FOREACH(fs, &file_systems, list)
106                 printk("Supports the %s Filesystem\n", fs->name);
107
108         /* mounting KFS at the root (/), pending root= parameters */
109         // TODO: linux creates a temp root_fs, then mounts the real root onto that
110         default_ns.root = __mount_fs(&kfs_fs_type, "RAM", NULL, 0, &default_ns);
111
112         printk("vfs_init() completed\n");
113 }
114
115 /* Builds / populates the qstr of a dentry based on its d_iname.  If there is an
116  * l_name, (long), it will use that instead of the inline name.  This will
117  * probably change a bit. */
118 void qstr_builder(struct dentry *dentry, char *l_name)
119 {
120         dentry->d_name.name = l_name ? l_name : dentry->d_iname;
121         // TODO: pending what we actually do in d_hash
122         //dentry->d_name.hash = dentry->d_op->d_hash(dentry, &dentry->d_name); 
123         dentry->d_name.hash = 0xcafebabe;
124         dentry->d_name.len = strnlen(dentry->d_name.name, MAX_FILENAME_SZ);
125 }
126
127 /* Useful little helper - return the string ptr for a given file */
128 char *file_name(struct file *file)
129 {
130         return file->f_dentry->d_name.name;
131 }
132
133 /* Some issues with this, coupled closely to fs_lookup.
134  *
135  * Note the use of __dentry_free, instead of kref_put.  In those cases, we don't
136  * want to treat it like a kref and we have the only reference to it, so it is
137  * okay to do this.  It makes dentry_release() easier too. */
138 static struct dentry *do_lookup(struct dentry *parent, char *name)
139 {
140         struct dentry *result, *query;
141         query = get_dentry(parent->d_sb, parent, name);
142         if (!query) {
143                 warn("OOM in do_lookup(), probably wasn't expected\n");
144                 return 0;
145         }
146         result = dcache_get(parent->d_sb, query); 
147         if (result) {
148                 __dentry_free(query);
149                 return result;
150         }
151         /* No result, check for negative */
152         if (query->d_flags & DENTRY_NEGATIVE) {
153                 __dentry_free(query);
154                 return 0;
155         }
156         /* not in the dcache at all, need to consult the FS */
157         result = parent->d_inode->i_op->lookup(parent->d_inode, query, 0);
158         if (!result) {
159                 /* Note the USED flag will get turned off when this gets added to the
160                  * LRU in dentry_release().  There's a slight race here that we'll panic
161                  * on, but I want to catch it (in dcache_put()) for now. */
162                 query->d_flags |= DENTRY_NEGATIVE;
163                 dcache_put(parent->d_sb, query);
164                 kref_put(&query->d_kref);
165                 return 0;
166         }
167         dcache_put(parent->d_sb, result);
168         /* This is because KFS doesn't return the same dentry, but ext2 does.  this
169          * is ugly and needs to be fixed. (TODO) */
170         if (result != query)
171                 __dentry_free(query);
172
173         /* TODO: if the following are done by us, how do we know the i_ino?
174          * also need to handle inodes that are already read in!  For now, we're
175          * going to have the FS handle it in it's lookup() method: 
176          * - get a new inode
177          * - read in the inode
178          * - put in the inode cache */
179         return result;
180 }
181
182 /* Update ND such that it represents having followed dentry.  IAW the nd
183  * refcnting rules, we need to decref any references that were in there before
184  * they get clobbered. */
185 static int next_link(struct dentry *dentry, struct nameidata *nd)
186 {
187         assert(nd->dentry && nd->mnt);
188         /* update the dentry */
189         kref_get(&dentry->d_kref, 1);
190         kref_put(&nd->dentry->d_kref);
191         nd->dentry = dentry;
192         /* update the mount, if we need to */
193         if (dentry->d_sb->s_mount != nd->mnt) {
194                 kref_get(&dentry->d_sb->s_mount->mnt_kref, 1);
195                 kref_put(&nd->mnt->mnt_kref);
196                 nd->mnt = dentry->d_sb->s_mount;
197         }
198         return 0;
199 }
200
201 /* Walk up one directory, being careful of mountpoints, namespaces, and the top
202  * of the FS */
203 static int climb_up(struct nameidata *nd)
204 {
205         printd("CLIMB_UP, from %s\n", nd->dentry->d_name.name);
206         /* Top of the world, just return.  Should also check for being at the top of
207          * the current process's namespace (TODO) */
208         if (!nd->dentry->d_parent || (nd->dentry->d_parent == nd->dentry))
209                 return -1;
210         /* Check if we are at the top of a mount, if so, we need to follow
211          * backwards, and then climb_up from that one.  We might need to climb
212          * multiple times if we mount multiple FSs at the same spot (highly
213          * unlikely).  This is completely untested.  Might recurse instead. */
214         while (nd->mnt->mnt_root == nd->dentry) {
215                 if (!nd->mnt->mnt_parent) {
216                         warn("Might have expected a parent vfsmount (dentry had a parent)");
217                         return -1;
218                 }
219                 next_link(nd->mnt->mnt_mountpoint, nd);
220         }
221         /* Backwards walk (no mounts or any other issues now). */
222         next_link(nd->dentry->d_parent, nd);
223         printd("CLIMB_UP, to   %s\n", nd->dentry->d_name.name);
224         return 0;
225 }
226
227 /* nd->dentry might be on a mount point, so we need to move on to the child
228  * mount's root. */
229 static int follow_mount(struct nameidata *nd)
230 {
231         if (!nd->dentry->d_mount_point)
232                 return 0;
233         next_link(nd->dentry->d_mounted_fs->mnt_root, nd);
234         return 0;
235 }
236
237 static int link_path_walk(char *path, struct nameidata *nd);
238
239 /* When nd->dentry is for a symlink, this will recurse and follow that symlink,
240  * so that nd contains the results of following the symlink (dentry and mnt).
241  * Returns when it isn't a symlink, 1 on following a link, and < 0 on error. */
242 static int follow_symlink(struct nameidata *nd)
243 {
244         int retval;
245         char *symname;
246         if (!S_ISLNK(nd->dentry->d_inode->i_mode))
247                 return 0;
248         if (nd->depth > MAX_SYMLINK_DEPTH)
249                 return -ELOOP;
250         printd("Following symlink for dentry %p %s\n", nd->dentry,
251                nd->dentry->d_name.name);
252         nd->depth++;
253         symname = nd->dentry->d_inode->i_op->readlink(nd->dentry);
254         /* We need to pin in nd->dentry (the dentry of the symlink), since we need
255          * it's symname's storage to stay in memory throughout the upcoming
256          * link_path_walk().  The last_sym gets decreffed when we path_release() or
257          * follow another symlink. */
258         if (nd->last_sym)
259                 kref_put(&nd->last_sym->d_kref);
260         kref_get(&nd->dentry->d_kref, 1);
261         nd->last_sym = nd->dentry;
262         /* If this an absolute path in the symlink, we need to free the old path and
263          * start over, otherwise, we continue from the PARENT of nd (the symlink) */
264         if (symname[0] == '/') {
265                 path_release(nd);
266                 if (!current)
267                         nd->dentry = default_ns.root->mnt_root;
268                 else
269                         nd->dentry = current->fs_env.root;      
270                 nd->mnt = nd->dentry->d_sb->s_mount;
271                 kref_get(&nd->mnt->mnt_kref, 1);
272                 kref_get(&nd->dentry->d_kref, 1);
273         } else {
274                 climb_up(nd);
275         }
276         /* either way, keep on walking in the free world! */
277         retval = link_path_walk(symname, nd);
278         return (retval == 0 ? 1 : retval);
279 }
280
281 /* Little helper, to make it easier to break out of the nested loops.  Will also
282  * '\0' out the first slash if it's slashes all the way down.  Or turtles. */
283 static bool packed_trailing_slashes(char *first_slash)
284 {
285         for (char *i = first_slash; *i == '/'; i++) {
286                 if (*(i + 1) == '\0') {
287                         *first_slash = '\0';
288                         return TRUE;
289                 }
290         }
291         return FALSE;
292 }
293
294 /* Simple helper to set nd to track it's last name to be Name.  Also be careful
295  * with the storage of name.  Don't use and nd's name past the lifetime of the
296  * string used in the path_lookup()/link_path_walk/whatever.  Consider replacing
297  * parts of this with a qstr builder.  Note this uses the dentry's d_op, which
298  * might not be the dentry we care about. */
299 static void stash_nd_name(struct nameidata *nd, char *name)
300 {
301         nd->last.name = name;
302         nd->last.len = strlen(name);
303         nd->last.hash = nd->dentry->d_op->d_hash(nd->dentry, &nd->last);
304 }
305
306 /* Resolves the links in a basic path walk.  0 for success, -EWHATEVER
307  * otherwise.  The final lookup is returned via nd. */
308 static int link_path_walk(char *path, struct nameidata *nd)
309 {
310         struct dentry *link_dentry;
311         struct inode *link_inode, *nd_inode;
312         char *next_slash;
313         char *link = path;
314         int error;
315
316         /* Prevent crazy recursion */
317         if (nd->depth > MAX_SYMLINK_DEPTH)
318                 return -ELOOP;
319         /* skip all leading /'s */
320         while (*link == '/')
321                 link++;
322         /* if there's nothing left (null terminated), we're done.  This should only
323          * happen for "/", which if we wanted a PARENT, should fail (there is no
324          * parent). */
325         if (*link == '\0') {
326                 if (nd->flags & LOOKUP_PARENT) {
327                         set_errno(ENOENT);
328                         return -1;
329                 }
330                 /* o/w, we're good */
331                 return 0;
332         }
333         /* iterate through each intermediate link of the path.  in general, nd
334          * tracks where we are in the path, as far as dentries go.  once we have the
335          * next dentry, we try to update nd based on that dentry.  link is the part
336          * of the path string that we are looking up */
337         while (1) {
338                 nd_inode = nd->dentry->d_inode;
339                 if ((error = check_perms(nd_inode, nd->intent)))
340                         return error;
341                 /* find the next link, break out if it is the end */
342                 next_slash = strchr(link, '/');
343                 if (!next_slash) {
344                         break;
345                 } else {
346                         if (packed_trailing_slashes(next_slash)) {
347                                 nd->flags |= LOOKUP_DIRECTORY;
348                                 break;
349                         }
350                 }
351                 /* skip over any interim ./ */
352                 if (!strncmp("./", link, 2))
353                         goto next_loop;
354                 /* Check for "../", walk up */
355                 if (!strncmp("../", link, 3)) {
356                         climb_up(nd);
357                         goto next_loop;
358                 }
359                 *next_slash = '\0';
360                 link_dentry = do_lookup(nd->dentry, link);
361                 *next_slash = '/';
362                 if (!link_dentry)
363                         return -ENOENT;
364                 /* make link_dentry the current step/answer */
365                 next_link(link_dentry, nd);
366                 kref_put(&link_dentry->d_kref); /* do_lookup gave us a refcnt dentry */
367                 /* we could be on a mountpoint or a symlink - need to follow them */
368                 follow_mount(nd);
369                 if ((error = follow_symlink(nd)) < 0)
370                         return error;
371                 /* Turn off a possible DIRECTORY lookup, which could have been set
372                  * during the follow_symlink (a symlink could have had a directory at
373                  * the end), though it was in the middle of the real path. */
374                 nd->flags &= ~LOOKUP_DIRECTORY;
375                 if (!S_ISDIR(nd->dentry->d_inode->i_mode))
376                         return -ENOTDIR;
377 next_loop:
378                 /* move through the path string to the next entry */
379                 link = next_slash + 1;
380                 /* advance past any other interim slashes.  we know we won't hit the end
381                  * due to the for loop check above */
382                 while (*link == '/')
383                         link++;
384         }
385         /* Now, we're on the last link of the path.  We need to deal with with . and
386          * .. .  This might be weird with PARENT lookups - not sure what semantics
387          * we want exactly.  This will give the parent of whatever the PATH was
388          * supposed to look like.  Note that ND currently points to the parent of
389          * the last item (link). */
390         if (!strcmp(".", link)) {
391                 if (nd->flags & LOOKUP_PARENT) {
392                         assert(nd->dentry->d_name.name);
393                         stash_nd_name(nd, nd->dentry->d_name.name);
394                         climb_up(nd);
395                 }
396                 return 0;
397         }
398         if (!strcmp("..", link)) {
399                 climb_up(nd);
400                 if (nd->flags & LOOKUP_PARENT) {
401                         assert(nd->dentry->d_name.name);
402                         stash_nd_name(nd, nd->dentry->d_name.name);
403                         climb_up(nd);
404                 }
405                 return 0;
406         }
407         /* need to attempt to look it up, in case it's a symlink */
408         link_dentry = do_lookup(nd->dentry, link);
409         if (!link_dentry) {
410                 /* if there's no dentry, we are okay if we are looking for the parent */
411                 if (nd->flags & LOOKUP_PARENT) {
412                         assert(strcmp(link, ""));
413                         stash_nd_name(nd, link);
414                         return 0;
415                 } else {
416                         return -ENOENT;
417                 }
418         }
419         next_link(link_dentry, nd);
420         kref_put(&link_dentry->d_kref); /* do_lookup gave us a refcnt'd dentry */
421         /* at this point, nd is on the final link, but it might be a symlink */
422         if (nd->flags & LOOKUP_FOLLOW) {
423                 error = follow_symlink(nd);
424                 if (error < 0)
425                         return error;
426                 /* if we actually followed a symlink, then nd is set and we're done */
427                 if (error > 0)
428                         return 0;
429         }
430         /* One way or another, nd is on the last element of the path, symlinks and
431          * all.  Now we need to climb up to set nd back on the parent, if that's
432          * what we wanted */
433         if (nd->flags & LOOKUP_PARENT) {
434                 assert(nd->dentry->d_name.name);
435                 stash_nd_name(nd, link_dentry->d_name.name);
436                 climb_up(nd);
437                 return 0;
438         }
439         /* now, we have the dentry set, and don't want the parent, but might be on a
440          * mountpoint still.  FYI: this hasn't been thought through completely. */
441         follow_mount(nd);
442         /* If we wanted a directory, but didn't get one, error out */
443         if ((nd->flags & LOOKUP_DIRECTORY) && !S_ISDIR(nd->dentry->d_inode->i_mode))
444                 return -ENOTDIR;
445         return 0;
446 }
447
448 /* Given path, return the inode for the final dentry.  The ND should be
449  * initialized for the first call - specifically, we need the intent. 
450  * LOOKUP_PARENT and friends go in the flags var, which is not the intent.
451  *
452  * If path_lookup wants a PARENT, but hits the top of the FS (root or
453  * otherwise), we want it to error out.  It's still unclear how we want to
454  * handle processes with roots that aren't root, but at the very least, we don't
455  * want to think we have the parent of /, but have / itself.  Due to the way
456  * link_path_walk works, if that happened, we probably don't have a
457  * nd->last.name.  This needs more thought (TODO).
458  *
459  * Need to be careful too.  While the path has been copied-in to the kernel,
460  * it's still user input.  */
461 int path_lookup(char *path, int flags, struct nameidata *nd)
462 {
463         int retval;
464         printd("Path lookup for %s\n", path);
465         /* we allow absolute lookups with no process context */
466         /* TODO: RCU read lock on pwd or kref_not_zero in a loop.  concurrent chdir
467          * could decref nd->dentry before we get to incref it below. */
468         if (path[0] == '/') {                   /* absolute lookup */
469                 if (!current)
470                         nd->dentry = default_ns.root->mnt_root;
471                 else
472                         nd->dentry = current->fs_env.root;      
473         } else {                                                /* relative lookup */
474                 assert(current);
475                 /* Don't need to lock on the fs_env since we're reading one item */
476                 nd->dentry = current->fs_env.pwd;       
477         }
478         nd->mnt = nd->dentry->d_sb->s_mount;
479         /* Whenever references get put in the nd, incref them.  Whenever they are
480          * removed, decref them. */
481         kref_get(&nd->mnt->mnt_kref, 1);
482         kref_get(&nd->dentry->d_kref, 1);
483         nd->flags = flags;
484         nd->depth = 0;                                  /* used in symlink following */
485         retval =  link_path_walk(path, nd);     
486         /* make sure our PARENT lookup worked */
487         if (!retval && (flags & LOOKUP_PARENT))
488                 assert(nd->last.name);
489         return retval;
490 }
491
492 /* Call this after any use of path_lookup when you are done with its results,
493  * regardless of whether it succeeded or not.  It will free any references */
494 void path_release(struct nameidata *nd)
495 {
496         kref_put(&nd->dentry->d_kref);
497         kref_put(&nd->mnt->mnt_kref);
498         /* Free the last symlink dentry used, if there was one */
499         if (nd->last_sym) {
500                 kref_put(&nd->last_sym->d_kref);
501                 nd->last_sym = 0;                       /* catch reuse bugs */
502         }
503 }
504
505 /* External version of mount, only call this after having a / mount */
506 int mount_fs(struct fs_type *fs, char *dev_name, char *path, int flags)
507 {
508         struct nameidata nd_r = {0}, *nd = &nd_r;
509         int retval = 0;
510         retval = path_lookup(path, LOOKUP_DIRECTORY, nd);
511         if (retval)
512                 goto out;
513         /* taking the namespace of the vfsmount of path */ 
514         if (!__mount_fs(fs, dev_name, nd->dentry, flags, nd->mnt->mnt_namespace))
515                 retval = -EINVAL;
516 out:
517         path_release(nd);
518         return retval;
519 }
520
521 /* Superblock functions */
522
523 /* Dentry "hash" function for the hash table to use.  Since we already have the
524  * hash in the qstr, we don't need to rehash.  Also, note we'll be using the
525  * dentry in question as both the key and the value. */
526 static size_t __dcache_hash(void *k)
527 {
528         return (size_t)((struct dentry*)k)->d_name.hash;
529 }
530
531 /* Dentry cache hashtable equality function.  This means we need to pass in some
532  * minimal dentry when doing a lookup. */
533 static ssize_t __dcache_eq(void *k1, void *k2)
534 {
535         if (((struct dentry*)k1)->d_parent != ((struct dentry*)k2)->d_parent)
536                 return 0;
537         /* TODO: use the FS-specific string comparison */
538         return !strcmp(((struct dentry*)k1)->d_name.name,
539                        ((struct dentry*)k2)->d_name.name);
540 }
541
542 /* Helper to alloc and initialize a generic superblock.  This handles all the
543  * VFS related things, like lists.  Each FS will need to handle its own things
544  * in it's *_get_sb(), usually involving reading off the disc. */
545 struct super_block *get_sb(void)
546 {
547         struct super_block *sb = kmalloc(sizeof(struct super_block), 0);
548         sb->s_dirty = FALSE;
549         spinlock_init(&sb->s_lock);
550         kref_init(&sb->s_kref, fake_release, 1); /* for the ref passed out */
551         TAILQ_INIT(&sb->s_inodes);
552         TAILQ_INIT(&sb->s_dirty_i);
553         TAILQ_INIT(&sb->s_io_wb);
554         TAILQ_INIT(&sb->s_lru_d);
555         TAILQ_INIT(&sb->s_files);
556         sb->s_dcache = create_hashtable(100, __dcache_hash, __dcache_eq);
557         sb->s_icache = create_hashtable(100, __generic_hash, __generic_eq);
558         spinlock_init(&sb->s_lru_lock);
559         spinlock_init(&sb->s_dcache_lock);
560         spinlock_init(&sb->s_icache_lock);
561         sb->s_fs_info = 0; // can override somewhere else
562         return sb;
563 }
564
565 /* Final stages of initializing a super block, including creating and linking
566  * the root dentry, root inode, vmnt, and sb.  The d_op and root_ino are
567  * FS-specific, but otherwise it's FS-independent, tricky, and not worth having
568  * around multiple times.
569  *
570  * Not the world's best interface, so it's subject to change, esp since we're
571  * passing (now 3) FS-specific things. */
572 void init_sb(struct super_block *sb, struct vfsmount *vmnt,
573              struct dentry_operations *d_op, unsigned long root_ino,
574              void *d_fs_info)
575 {
576         /* Build and init the first dentry / inode.  The dentry ref is stored later
577          * by vfsmount's mnt_root.  The parent is dealt with later. */
578         struct dentry *d_root = get_dentry(sb, 0,  "/");        /* probably right */
579
580         if (!d_root)
581                 panic("OOM!  init_sb() can't fail yet!");
582         /* a lot of here on down is normally done in lookup() or create, since
583          * get_dentry isn't a fully usable dentry.  The two FS-specific settings are
584          * normally inherited from a parent within the same FS in get_dentry, but we
585          * have none here. */
586         d_root->d_op = d_op;
587         d_root->d_fs_info = d_fs_info;
588         struct inode *inode = get_inode(d_root);
589         if (!inode)
590                 panic("This FS sucks!");
591         inode->i_ino = root_ino;
592         /* TODO: add the inode to the appropriate list (off i_list) */
593         /* TODO: do we need to read in the inode?  can we do this on demand? */
594         /* if this FS is already mounted, we'll need to do something different. */
595         sb->s_op->read_inode(inode);
596         icache_put(sb, inode);
597         /* Link the dentry and SB to the VFS mount */
598         vmnt->mnt_root = d_root;                                /* ref comes from get_dentry */
599         vmnt->mnt_sb = sb;
600         /* If there is no mount point, there is no parent.  This is true only for
601          * the rootfs. */
602         if (vmnt->mnt_mountpoint) {
603                 kref_get(&vmnt->mnt_mountpoint->d_kref, 1);     /* held by d_root */
604                 d_root->d_parent = vmnt->mnt_mountpoint;        /* dentry of the root */
605         } else {
606                 d_root->d_parent = d_root;                      /* set root as its own parent */
607         }
608         /* insert the dentry into the dentry cache.  when's the earliest we can?
609          * when's the earliest we should?  what about concurrent accesses to the
610          * same dentry?  should be locking the dentry... */
611         dcache_put(sb, d_root);
612         kref_put(&inode->i_kref);               /* give up the ref from get_inode() */
613 }
614
615 /* Dentry Functions */
616
617 static void dentry_set_name(struct dentry *dentry, char *name)
618 {
619         size_t name_len = strnlen(name, MAX_FILENAME_SZ);       /* not including \0! */
620         char *l_name = 0;
621         if (name_len < DNAME_INLINE_LEN) {
622                 strncpy(dentry->d_iname, name, name_len);
623                 dentry->d_iname[name_len] = '\0';
624                 qstr_builder(dentry, 0);
625         } else {
626                 l_name = kmalloc(name_len + 1, 0);
627                 assert(l_name);
628                 strncpy(l_name, name, name_len);
629                 l_name[name_len] = '\0';
630                 qstr_builder(dentry, l_name);
631         }
632 }
633
634 /* Helper to alloc and initialize a generic dentry.  The following needs to be
635  * set still: d_op (if no parent), d_fs_info (opt), d_inode, connect the inode
636  * to the dentry (and up the d_kref again), maybe dcache_put().  The inode
637  * stitching is done in get_inode() or lookup (depending on the FS).
638  * The setting of the d_op might be problematic when dealing with mounts.  Just
639  * overwrite it.
640  *
641  * If the name is longer than the inline name, it will kmalloc a buffer, so
642  * don't worry about the storage for *name after calling this. */
643 struct dentry *get_dentry(struct super_block *sb, struct dentry *parent,
644                           char *name)
645 {
646         assert(name);
647         struct dentry *dentry = kmem_cache_alloc(dentry_kcache, 0);
648
649         if (!dentry) {
650                 set_errno(ENOMEM);
651                 return 0;
652         }
653         //memset(dentry, 0, sizeof(struct dentry));
654         kref_init(&dentry->d_kref, dentry_release, 1);  /* this ref is returned */
655         spinlock_init(&dentry->d_lock);
656         TAILQ_INIT(&dentry->d_subdirs);
657         dentry->d_time = 0;
658         kref_get(&sb->s_kref, 1);
659         dentry->d_sb = sb;                                      /* storing a ref here... */
660         dentry->d_mount_point = FALSE;
661         dentry->d_mounted_fs = 0;
662         if (parent)     {                                               /* no parent for rootfs mount */
663                 kref_get(&parent->d_kref, 1);
664                 dentry->d_op = parent->d_op;    /* d_op set in init_sb for parentless */
665         }
666         dentry->d_parent = parent;
667         dentry->d_flags = DENTRY_USED;
668         dentry->d_fs_info = 0;
669         dentry_set_name(dentry, name);
670         /* Catch bugs by aggressively zeroing this (o/w we use old stuff) */
671         dentry->d_inode = 0;
672         return dentry;
673 }
674
675 /* Called when the dentry is unreferenced (after kref == 0).  This works closely
676  * with the resurrection in dcache_get().
677  *
678  * The dentry is still in the dcache, but needs to be un-USED and added to the
679  * LRU dentry list.  Even dentries that were used in a failed lookup need to be
680  * cached - they ought to be the negative dentries.  Note that all dentries have
681  * parents, even negative ones (it is needed to find it in the dcache). */
682 void dentry_release(struct kref *kref)
683 {
684         struct dentry *dentry = container_of(kref, struct dentry, d_kref);
685
686         printd("'Releasing' dentry %p: %s\n", dentry, dentry->d_name.name);
687         /* DYING dentries (recently unlinked / rmdir'd) just get freed */
688         if (dentry->d_flags & DENTRY_DYING) {
689                 __dentry_free(dentry);
690                 return;
691         }
692         /* This lock ensures the USED state and the TAILQ membership is in sync.
693          * Also used to check the refcnt, though that might not be necessary. */
694         spin_lock(&dentry->d_lock);
695         /* While locked, we need to double check the kref, in case someone already
696          * reup'd it.  Re-up? you're crazy!  Reee-up, you're outta yo mind! */
697         if (!kref_refcnt(&dentry->d_kref)) {
698                 /* Note this is where negative dentries get set UNUSED */
699                 if (dentry->d_flags & DENTRY_USED) {
700                         dentry->d_flags &= ~DENTRY_USED;
701                         spin_lock(&dentry->d_sb->s_lru_lock);
702                         TAILQ_INSERT_TAIL(&dentry->d_sb->s_lru_d, dentry, d_lru);
703                         spin_unlock(&dentry->d_sb->s_lru_lock);
704                 } else {
705                         /* and make sure it wasn't USED, then UNUSED again */
706                         /* TODO: think about issues with this */
707                         warn("This should be rare.  Tell brho this happened.");
708                 }
709         }
710         spin_unlock(&dentry->d_lock);
711 }
712
713 /* Called when we really dealloc and get rid of a dentry (like when it is
714  * removed from the dcache, either for memory or correctness reasons)
715  *
716  * This has to handle two types of dentries: full ones (ones that had been used)
717  * and ones that had been just for lookups - hence the check for d_inode.
718  *
719  * Note that dentries pin and kref their inodes.  When all the dentries are
720  * gone, we want the inode to be released via kref.  The inode has internal /
721  * weak references to the dentry, which are not refcounted. */
722 void __dentry_free(struct dentry *dentry)
723 {
724         if (dentry->d_inode)
725                 printd("Freeing dentry %p: %s\n", dentry, dentry->d_name.name);
726         assert(dentry->d_op);   /* catch bugs.  a while back, some lacked d_op */
727         dentry->d_op->d_release(dentry);
728         /* TODO: check/test the boundaries on this. */
729         if (dentry->d_name.len > DNAME_INLINE_LEN)
730                 kfree((void*)dentry->d_name.name);
731         kref_put(&dentry->d_sb->s_kref);
732         if (dentry->d_parent)
733                 kref_put(&dentry->d_parent->d_kref);
734         if (dentry->d_mounted_fs)
735                 kref_put(&dentry->d_mounted_fs->mnt_kref);
736         if (dentry->d_inode) {
737                 TAILQ_REMOVE(&dentry->d_inode->i_dentry, dentry, d_alias);
738                 kref_put(&dentry->d_inode->i_kref);     /* dentries kref inodes */
739         }
740         kmem_cache_free(dentry_kcache, dentry);
741 }
742
743 /* Looks up the dentry for the given path, returning a refcnt'd dentry (or 0).
744  * Permissions are applied for the current user, which is quite a broken system
745  * at the moment.  Flags are lookup flags. */
746 struct dentry *lookup_dentry(char *path, int flags)
747 {
748         struct dentry *dentry;
749         struct nameidata nd_r = {0}, *nd = &nd_r;
750         int error;
751
752         error = path_lookup(path, flags, nd);
753         if (error) {
754                 path_release(nd);
755                 set_errno(-error);
756                 return 0;
757         }
758         dentry = nd->dentry;
759         kref_get(&dentry->d_kref, 1);
760         path_release(nd);
761         return dentry;
762 }
763
764 /* Get a dentry from the dcache.  At a minimum, we need the name hash and parent
765  * in what_i_want, though most uses will probably be from a get_dentry() call.
766  * We pass in the SB in the off chance that we don't want to use a get'd dentry.
767  *
768  * The unusual variable name (instead of just "key" or something) is named after
769  * ex-SPC Castro's porn folder.  Caller deals with the memory for what_i_want.
770  *
771  * If the dentry is negative, we don't return the actual result - instead, we
772  * set the negative flag in 'what i want'.  The reason is we don't want to
773  * kref_get() and then immediately put (causing dentry_release()).  This also
774  * means that dentry_release() should never get someone who wasn't USED (barring
775  * the race, which it handles).  And we don't need to ever have a dentry set as
776  * USED and NEGATIVE (which is always wrong, but would be needed for a cleaner
777  * dentry_release()).
778  *
779  * This is where we do the "kref resurrection" - we are returning a kref'd
780  * object, even if it wasn't kref'd before.  This means the dcache does NOT hold
781  * krefs (it is a weak/internal ref), but it is a source of kref generation.  We
782  * sync up with the possible freeing of the dentry by locking the table.  See
783  * Doc/kref for more info. */
784 struct dentry *dcache_get(struct super_block *sb, struct dentry *what_i_want)
785 {
786         struct dentry *found;
787         /* This lock protects the hash, as well as ensures the returned object
788          * doesn't get deleted/freed out from under us */
789         spin_lock(&sb->s_dcache_lock);
790         found = hashtable_search(sb->s_dcache, what_i_want);
791         if (found) {
792                 if (found->d_flags & DENTRY_NEGATIVE) {
793                         what_i_want->d_flags |= DENTRY_NEGATIVE;
794                         spin_unlock(&sb->s_dcache_lock);
795                         return 0;
796                 }
797                 spin_lock(&found->d_lock);
798                 __kref_get(&found->d_kref, 1);  /* prob could be done outside the lock*/
799                 /* If we're here (after kreffing) and it is not USED, we are the one who
800                  * should resurrect */
801                 if (!(found->d_flags & DENTRY_USED)) {
802                         found->d_flags |= DENTRY_USED;
803                         spin_lock(&sb->s_lru_lock);
804                         TAILQ_REMOVE(&sb->s_lru_d, found, d_lru);
805                         spin_unlock(&sb->s_lru_lock);
806                 }
807                 spin_unlock(&found->d_lock);
808         }
809         spin_unlock(&sb->s_dcache_lock);
810         return found;
811 }
812
813 /* Adds a dentry to the dcache.  Note the *dentry is both the key and the value.
814  * If the value was already in there (which can happen iff it was negative), for
815  * now we'll remove it and put the new one in there. */
816 void dcache_put(struct super_block *sb, struct dentry *key_val)
817 {
818         struct dentry *old;
819         int retval;
820         spin_lock(&sb->s_dcache_lock);
821         old = hashtable_remove(sb->s_dcache, key_val);
822         /* if it is old and non-negative, our caller lost a race with someone else
823          * adding the dentry.  but since we yanked it out, like a bunch of idiots,
824          * we still have to put it back.  should be fairly rare. */
825         if (old && (old->d_flags & DENTRY_NEGATIVE)) {
826                 /* This is possible, but rare for now (about to be put on the LRU) */
827                 assert(!(old->d_flags & DENTRY_USED));
828                 assert(!kref_refcnt(&old->d_kref));
829                 spin_lock(&sb->s_lru_lock);
830                 TAILQ_REMOVE(&sb->s_lru_d, old, d_lru);
831                 spin_unlock(&sb->s_lru_lock);
832                 /* TODO: this seems suspect.  isn't this the same memory as key_val?
833                  * in which case, we just adjust the flags (remove NEG) and reinsert? */
834                 assert(old != key_val); // checking TODO comment
835                 __dentry_free(old);
836         }
837         /* this returns 0 on failure (TODO: Fix this ghetto shit) */
838         retval = hashtable_insert(sb->s_dcache, key_val, key_val);
839         assert(retval);
840         spin_unlock(&sb->s_dcache_lock);
841 }
842
843 /* Will remove and return the dentry.  Caller deallocs the key, but the retval
844  * won't have a reference.  * Returns 0 if it wasn't found.  Callers can't
845  * assume much - they should not use the reference they *get back*, (if they
846  * already had one for key, they can use that).  There may be other users out
847  * there. */
848 struct dentry *dcache_remove(struct super_block *sb, struct dentry *key)
849 {
850         struct dentry *retval;
851         spin_lock(&sb->s_dcache_lock);
852         retval = hashtable_remove(sb->s_dcache, key);
853         spin_unlock(&sb->s_dcache_lock);
854         return retval;
855 }
856
857 /* This will clean out the LRU list, which are the unused dentries of the dentry
858  * cache.  This will optionally only free the negative ones.  Note that we grab
859  * the hash lock for the time we traverse the LRU list - this prevents someone
860  * from getting a kref from the dcache, which could cause us trouble (we rip
861  * someone off the list, who isn't unused, and they try to rip them off the
862  * list). */
863 void dcache_prune(struct super_block *sb, bool negative_only)
864 {
865         struct dentry *d_i, *temp;
866         struct dentry_tailq victims = TAILQ_HEAD_INITIALIZER(victims);
867
868         spin_lock(&sb->s_dcache_lock);
869         spin_lock(&sb->s_lru_lock);
870         TAILQ_FOREACH_SAFE(d_i, &sb->s_lru_d, d_lru, temp) {
871                 if (!(d_i->d_flags & DENTRY_USED)) {
872                         if (negative_only && !(d_i->d_flags & DENTRY_NEGATIVE))
873                                 continue;
874                         /* another place where we'd be better off with tools, not sol'ns */
875                         hashtable_remove(sb->s_dcache, d_i);
876                         TAILQ_REMOVE(&sb->s_lru_d, d_i, d_lru);
877                         TAILQ_INSERT_HEAD(&victims, d_i, d_lru);
878                 }
879         }
880         spin_unlock(&sb->s_lru_lock);
881         spin_unlock(&sb->s_dcache_lock);
882         /* Now do the actual freeing, outside of the hash/LRU list locks.  This is
883          * necessary since __dentry_free() will decref its parent, which may get
884          * released and try to add itself to the LRU. */
885         TAILQ_FOREACH_SAFE(d_i, &victims, d_lru, temp) {
886                 TAILQ_REMOVE(&victims, d_i, d_lru);
887                 assert(!kref_refcnt(&d_i->d_kref));
888                 __dentry_free(d_i);
889         }
890         /* It is possible at this point that there are new items on the LRU.  We
891          * could loop back until that list is empty, if we care about this. */
892 }
893
894 /* Inode Functions */
895
896 /* Creates and initializes a new inode.  Generic fields are filled in.
897  * FS-specific fields are filled in by the callout.  Specific fields are filled
898  * in in read_inode() based on what's on the disk for a given i_no, or when the
899  * inode is created (for new objects).
900  *
901  * i_no is set by the caller.  Note that this means this inode can be for an
902  * inode that is already on disk, or it can be used when creating. */
903 struct inode *get_inode(struct dentry *dentry)
904 {
905         struct super_block *sb = dentry->d_sb;
906         /* FS allocs and sets the following: i_op, i_fop, i_pm.pm_op, and any FS
907          * specific stuff. */
908         struct inode *inode = sb->s_op->alloc_inode(sb);
909         if (!inode) {
910                 set_errno(ENOMEM);
911                 return 0;
912         }
913         TAILQ_INSERT_HEAD(&sb->s_inodes, inode, i_sb_list);             /* weak inode ref */
914         TAILQ_INIT(&inode->i_dentry);
915         TAILQ_INSERT_TAIL(&inode->i_dentry, dentry, d_alias);   /* weak dentry ref*/
916         /* one for the dentry->d_inode, one passed out */
917         kref_init(&inode->i_kref, inode_release, 2);
918         dentry->d_inode = inode;
919         inode->i_ino = 0;                                       /* set by caller later */
920         inode->i_blksize = sb->s_blocksize;
921         spinlock_init(&inode->i_lock);
922         kref_get(&sb->s_kref, 1);                       /* could allow the dentry to pin it */
923         inode->i_sb = sb;
924         inode->i_rdev = 0;                                      /* this has no real meaning yet */
925         inode->i_bdev = sb->s_bdev;                     /* storing an uncounted ref */
926         inode->i_state = 0;                                     /* need real states, like I_NEW */
927         inode->dirtied_when = 0;
928         inode->i_flags = 0;
929         atomic_set(&inode->i_writecount, 0);
930         /* Set up the page_map structures.  Default is to use the embedded one.
931          * Might push some of this back into specific FSs.  For now, the FS tells us
932          * what pm_op they want via i_pm.pm_op, which we set again in pm_init() */
933         inode->i_mapping = &inode->i_pm;
934         pm_init(inode->i_mapping, inode->i_pm.pm_op, inode);
935         return inode;
936 }
937
938 /* Helper: loads/ reads in the inode numbered ino and attaches it to dentry */
939 void load_inode(struct dentry *dentry, unsigned long ino)
940 {
941         struct inode *inode;
942
943         /* look it up in the inode cache first */
944         inode = icache_get(dentry->d_sb, ino);
945         if (inode) {
946                 /* connect the dentry to its inode */
947                 TAILQ_INSERT_TAIL(&inode->i_dentry, dentry, d_alias);
948                 dentry->d_inode = inode;        /* storing the ref we got from icache_get */
949                 return;
950         }
951         /* otherwise, we need to do it manually */
952         inode = get_inode(dentry);
953         inode->i_ino = ino;
954         dentry->d_sb->s_op->read_inode(inode);
955         /* TODO: race here, two creators could miss in the cache, and then get here.
956          * need a way to sync across a blocking call.  needs to be either at this
957          * point in the code or per the ino (dentries could be different) */
958         icache_put(dentry->d_sb, inode);
959         kref_put(&inode->i_kref);
960 }
961
962 /* Helper op, used when creating regular files, directories, symlinks, etc.
963  * Note we make a distinction between the mode and the file type (for now).
964  * After calling this, call the FS specific version (create or mkdir), which
965  * will set the i_ino, the filetype, and do any other FS-specific stuff.  Also
966  * note that a lot of inode stuff was initialized in get_inode/alloc_inode.  The
967  * stuff here is pertinent to the specific creator (user), mode, and time.  Also
968  * note we don't pass this an nd, like Linux does... */
969 static struct inode *create_inode(struct dentry *dentry, int mode)
970 {
971         uint64_t now = epoch_seconds();
972         /* note it is the i_ino that uniquely identifies a file in the specific
973          * filesystem.  there's a diff between creating an inode (even for an in-use
974          * ino) and then filling it in, and vs creating a brand new one.
975          * get_inode() sets it to 0, and it should be filled in later in an
976          * FS-specific manner. */
977         struct inode *inode = get_inode(dentry);
978         if (!inode)
979                 return 0;
980         inode->i_mode = mode & S_PMASK; /* note that after this, we have no type */
981         inode->i_nlink = 1;
982         inode->i_size = 0;
983         inode->i_blocks = 0;
984         inode->i_atime.tv_sec = now;
985         inode->i_ctime.tv_sec = now;
986         inode->i_mtime.tv_sec = now;
987         inode->i_atime.tv_nsec = 0;
988         inode->i_ctime.tv_nsec = 0;
989         inode->i_mtime.tv_nsec = 0;
990         inode->i_bdev = inode->i_sb->s_bdev;
991         /* when we have notions of users, do something here: */
992         inode->i_uid = 0;
993         inode->i_gid = 0;
994         return inode;
995 }
996
997 /* Create a new disk inode in dir associated with dentry, with the given mode.
998  * called when creating a regular file.  dir is the directory/parent.  dentry is
999  * the dentry of the inode we are creating.  Note the lack of the nd... */
1000 int create_file(struct inode *dir, struct dentry *dentry, int mode)
1001 {
1002         struct inode *new_file = create_inode(dentry, mode);
1003         if (!new_file)
1004                 return -1;
1005         dir->i_op->create(dir, dentry, mode, 0);
1006         icache_put(new_file->i_sb, new_file);
1007         kref_put(&new_file->i_kref);
1008         return 0;
1009 }
1010
1011 /* Creates a new inode for a directory associated with dentry in dir with the
1012  * given mode. */
1013 int create_dir(struct inode *dir, struct dentry *dentry, int mode)
1014 {
1015         struct inode *new_dir = create_inode(dentry, mode);
1016         if (!new_dir)
1017                 return -1;
1018         dir->i_op->mkdir(dir, dentry, mode);
1019         dir->i_nlink++;         /* Directories get a hardlink for every child dir */
1020         /* Make sure my parent tracks me.  This is okay, since no directory (dir)
1021          * can have more than one dentry */
1022         struct dentry *parent = TAILQ_FIRST(&dir->i_dentry);
1023         assert(parent && parent == TAILQ_LAST(&dir->i_dentry, dentry_tailq));
1024         /* parent dentry tracks dentry as a subdir, weak reference */
1025         TAILQ_INSERT_TAIL(&parent->d_subdirs, dentry, d_subdirs_link);
1026         icache_put(new_dir->i_sb, new_dir);
1027         kref_put(&new_dir->i_kref);
1028         return 0;
1029 }
1030
1031 /* Creates a new inode for a symlink associated with dentry in dir, containing
1032  * the symlink symname */
1033 int create_symlink(struct inode *dir, struct dentry *dentry,
1034                    const char *symname, int mode)
1035 {
1036         struct inode *new_sym = create_inode(dentry, mode);
1037         if (!new_sym)
1038                 return -1;
1039         dir->i_op->symlink(dir, dentry, symname);
1040         icache_put(new_sym->i_sb, new_sym);
1041         kref_put(&new_sym->i_kref);
1042         return 0;
1043 }
1044
1045 /* Returns 0 if the given mode is acceptable for the inode, and an appropriate
1046  * error code if not.  Needs to be writen, based on some sensible rules, and
1047  * will also probably use 'current' */
1048 int check_perms(struct inode *inode, int access_mode)
1049 {
1050         return 0;       /* anything goes! */
1051 }
1052
1053 /* Called after all external refs are gone to clean up the inode.  Once this is
1054  * called, all dentries pointing here are already done (one of them triggered
1055  * this via kref_put(). */
1056 void inode_release(struct kref *kref)
1057 {
1058         struct inode *inode = container_of(kref, struct inode, i_kref);
1059         TAILQ_REMOVE(&inode->i_sb->s_inodes, inode, i_sb_list);
1060         icache_remove(inode->i_sb, inode->i_ino);
1061         /* Might need to write back or delete the file/inode */
1062         if (inode->i_nlink) {
1063                 if (inode->i_state & I_STATE_DIRTY)
1064                         inode->i_sb->s_op->write_inode(inode, TRUE);
1065         } else {
1066                 inode->i_sb->s_op->delete_inode(inode);
1067         }
1068         if (S_ISFIFO(inode->i_mode)) {
1069                 page_decref(kva2page(inode->i_pipe->p_buf));
1070                 kfree(inode->i_pipe);
1071         }
1072         /* TODO: (BDEV) */
1073         // kref_put(inode->i_bdev->kref); /* assuming it's a bdev, could be a pipe*/
1074         /* Either way, we dealloc the in-memory version */
1075         inode->i_sb->s_op->dealloc_inode(inode);        /* FS-specific clean-up */
1076         kref_put(&inode->i_sb->s_kref);
1077         /* TODO: clean this up */
1078         assert(inode->i_mapping == &inode->i_pm);
1079         kmem_cache_free(inode_kcache, inode);
1080 }
1081
1082 /* Fills in kstat with the stat information for the inode */
1083 void stat_inode(struct inode *inode, struct kstat *kstat)
1084 {
1085         kstat->st_dev = inode->i_sb->s_dev;
1086         kstat->st_ino = inode->i_ino;
1087         kstat->st_mode = inode->i_mode;
1088         kstat->st_nlink = inode->i_nlink;
1089         kstat->st_uid = inode->i_uid;
1090         kstat->st_gid = inode->i_gid;
1091         kstat->st_rdev = inode->i_rdev;
1092         kstat->st_size = inode->i_size;
1093         kstat->st_blksize = inode->i_blksize;
1094         kstat->st_blocks = inode->i_blocks;
1095         kstat->st_atime = inode->i_atime;
1096         kstat->st_mtime = inode->i_mtime;
1097         kstat->st_ctime = inode->i_ctime;
1098 }
1099
1100 void print_kstat(struct kstat *kstat)
1101 {
1102         printk("kstat info for %p:\n", kstat);
1103         printk("\tst_dev    : %p\n", kstat->st_dev);
1104         printk("\tst_ino    : %p\n", kstat->st_ino);
1105         printk("\tst_mode   : %p\n", kstat->st_mode);
1106         printk("\tst_nlink  : %p\n", kstat->st_nlink);
1107         printk("\tst_uid    : %p\n", kstat->st_uid);
1108         printk("\tst_gid    : %p\n", kstat->st_gid);
1109         printk("\tst_rdev   : %p\n", kstat->st_rdev);
1110         printk("\tst_size   : %p\n", kstat->st_size);
1111         printk("\tst_blksize: %p\n", kstat->st_blksize);
1112         printk("\tst_blocks : %p\n", kstat->st_blocks);
1113         printk("\tst_atime  : %p\n", kstat->st_atime);
1114         printk("\tst_mtime  : %p\n", kstat->st_mtime);
1115         printk("\tst_ctime  : %p\n", kstat->st_ctime);
1116 }
1117
1118 /* Inode Cache management.  In general, search on the ino, get a refcnt'd value
1119  * back.  Remove does not give you a reference back - it should only be called
1120  * in inode_release(). */
1121 struct inode *icache_get(struct super_block *sb, unsigned long ino)
1122 {
1123         /* This is the same style as in pid2proc, it's the "safely create a strong
1124          * reference from a weak one, so long as other strong ones exist" pattern */
1125         spin_lock(&sb->s_icache_lock);
1126         struct inode *inode = hashtable_search(sb->s_icache, (void*)ino);
1127         if (inode)
1128                 if (!kref_get_not_zero(&inode->i_kref, 1))
1129                         inode = 0;
1130         spin_unlock(&sb->s_icache_lock);
1131         return inode;
1132 }
1133
1134 void icache_put(struct super_block *sb, struct inode *inode)
1135 {
1136         spin_lock(&sb->s_icache_lock);
1137         /* there's a race in load_ino() that could trigger this */
1138         assert(!hashtable_search(sb->s_icache, (void*)inode->i_ino));
1139         hashtable_insert(sb->s_icache, (void*)inode->i_ino, inode);
1140         spin_unlock(&sb->s_icache_lock);
1141 }
1142
1143 struct inode *icache_remove(struct super_block *sb, unsigned long ino)
1144 {
1145         struct inode *inode;
1146         /* Presumably these hashtable removals could be easier since callers
1147          * actually know who they are (same with the pid2proc hash) */
1148         spin_lock(&sb->s_icache_lock);
1149         inode = hashtable_remove(sb->s_icache, (void*)ino);
1150         spin_unlock(&sb->s_icache_lock);
1151         assert(inode && !kref_refcnt(&inode->i_kref));
1152         return inode;
1153 }
1154
1155 /* File functions */
1156
1157 /* Read count bytes from the file into buf, starting at *offset, which is
1158  * increased accordingly, returning the number of bytes transfered.  Most
1159  * filesystems will use this function for their f_op->read.
1160  * Note, this uses the page cache. */
1161 ssize_t generic_file_read(struct file *file, char *buf, size_t count,
1162                           off64_t *offset)
1163 {
1164         struct page *page;
1165         int error;
1166         off64_t page_off;
1167         unsigned long first_idx, last_idx;
1168         size_t copy_amt;
1169         char *buf_end;
1170         /* read in offset, in case of a concurrent reader/writer, so we don't screw
1171          * up our math for count, the idxs, etc. */
1172         off64_t orig_off = ACCESS_ONCE(*offset);
1173
1174         /* Consider pushing some error checking higher in the VFS */
1175         if (!count)
1176                 return 0;
1177         if (orig_off >= file->f_dentry->d_inode->i_size)
1178                 return 0; /* EOF */
1179         /* Make sure we don't go past the end of the file */
1180         if (orig_off + count > file->f_dentry->d_inode->i_size) {
1181                 count = file->f_dentry->d_inode->i_size - orig_off;
1182         }
1183         assert((long)count > 0);
1184         page_off = orig_off & (PGSIZE - 1);
1185         first_idx = orig_off >> PGSHIFT;
1186         last_idx = (orig_off + count) >> PGSHIFT;
1187         buf_end = buf + count;
1188         /* For each file page, make sure it's in the page cache, then copy it out.
1189          * TODO: will probably need to consider concurrently truncated files here.*/
1190         for (int i = first_idx; i <= last_idx; i++) {
1191                 error = pm_load_page(file->f_mapping, i, &page);
1192                 assert(!error); /* TODO: handle ENOMEM and friends */
1193                 copy_amt = MIN(PGSIZE - page_off, buf_end - buf);
1194                 /* TODO: (UMEM) think about this.  if it's a user buffer, we're relying
1195                  * on current to detect whose it is (which should work for async calls).
1196                  * Also, need to propagate errors properly...  Probably should do a
1197                  * user_mem_check, then free, and also to make a distinction between
1198                  * when the kernel wants a read/write (TODO: KFOP) */
1199                 if (current) {
1200                         memcpy_to_user(current, buf, page2kva(page) + page_off, copy_amt);
1201                 } else {
1202                         memcpy(buf, page2kva(page) + page_off, copy_amt);
1203                 }
1204                 buf += copy_amt;
1205                 page_off = 0;
1206                 pm_put_page(page);      /* it's still in the cache, we just don't need it */
1207         }
1208         assert(buf == buf_end);
1209         /* could have concurrent file ops that screw with offset, so userspace isn't
1210          * safe.  but at least it'll be a value that one of the concurrent ops could
1211          * have produced (compared to *offset_changed_concurrently += count. */
1212         *offset = orig_off + count;
1213         return count;
1214 }
1215
1216 /* Write count bytes from buf to the file, starting at *offset, which is
1217  * increased accordingly, returning the number of bytes transfered.  Most
1218  * filesystems will use this function for their f_op->write.  Note, this uses
1219  * the page cache.
1220  *
1221  * Changes don't get flushed to disc til there is an fsync, page cache eviction,
1222  * or other means of trying to writeback the pages. */
1223 ssize_t generic_file_write(struct file *file, const char *buf, size_t count,
1224                            off64_t *offset)
1225 {
1226         struct page *page;
1227         int error;
1228         off64_t page_off;
1229         unsigned long first_idx, last_idx;
1230         size_t copy_amt;
1231         const char *buf_end;
1232         off64_t orig_off = ACCESS_ONCE(*offset);
1233
1234         /* Consider pushing some error checking higher in the VFS */
1235         if (!count)
1236                 return 0;
1237         /* Extend the file.  Should put more checks in here, and maybe do this per
1238          * page in the for loop below. */
1239         if (orig_off + count > file->f_dentry->d_inode->i_size) {
1240                 /* lock for writes to i_size.  we allow lockless reads.  checking the
1241                  * i_size again in case of concurrent writers since our orig check.  */
1242                 spin_lock(&file->f_dentry->d_inode->i_lock);
1243                 if (orig_off + count > file->f_dentry->d_inode->i_size)
1244                         file->f_dentry->d_inode->i_size = orig_off + count;
1245                 spin_unlock(&file->f_dentry->d_inode->i_lock);
1246         }
1247         page_off = orig_off & (PGSIZE - 1);
1248         first_idx = orig_off >> PGSHIFT;
1249         last_idx = (orig_off + count) >> PGSHIFT;
1250         buf_end = buf + count;
1251         /* For each file page, make sure it's in the page cache, then write it.*/
1252         for (int i = first_idx; i <= last_idx; i++) {
1253                 error = pm_load_page(file->f_mapping, i, &page);
1254                 assert(!error); /* TODO: handle ENOMEM and friends */
1255                 copy_amt = MIN(PGSIZE - page_off, buf_end - buf);
1256                 /* TODO: (UMEM) (KFOP) think about this.  if it's a user buffer, we're
1257                  * relying on current to detect whose it is (which should work for async
1258                  * calls). */
1259                 if (current) {
1260                         memcpy_from_user(current, page2kva(page) + page_off, buf, copy_amt);
1261                 } else {
1262                         memcpy(page2kva(page) + page_off, buf, copy_amt);
1263                 }
1264                 buf += copy_amt;
1265                 page_off = 0;
1266                 atomic_or(&page->pg_flags, PG_DIRTY);
1267                 pm_put_page(page);      /* it's still in the cache, we just don't need it */
1268         }
1269         assert(buf == buf_end);
1270         *offset = orig_off + count;
1271         return count;
1272 }
1273
1274 /* Directories usually use this for their read method, which is the way glibc
1275  * currently expects us to do a readdir (short of doing linux's getdents).  Will
1276  * probably need work, based on whatever real programs want. */
1277 ssize_t generic_dir_read(struct file *file, char *u_buf, size_t count,
1278                          off64_t *offset)
1279 {
1280         struct kdirent dir_r = {0}, *dirent = &dir_r;
1281         int retval = 1;
1282         size_t amt_copied = 0;
1283         char *buf_end = u_buf + count;
1284
1285         if (!S_ISDIR(file->f_dentry->d_inode->i_mode)) {
1286                 set_errno(ENOTDIR);
1287                 return -1;
1288         }
1289         if (!count)
1290                 return 0;
1291         /* start readdir from where it left off: */
1292         dirent->d_off = *offset;
1293         for (   ;
1294                 u_buf + sizeof(struct kdirent) <= buf_end;
1295                 u_buf += sizeof(struct kdirent)) {
1296                 /* TODO: UMEM/KFOP (pin the u_buf in the syscall, ditch the local copy,
1297                  * get rid of this memcpy and reliance on current, etc).  Might be
1298                  * tricky with the dirent->d_off and trust issues */
1299                 retval = file->f_op->readdir(file, dirent);
1300                 if (retval < 0) {
1301                         set_errno(-retval);
1302                         break;
1303                 }
1304                 /* Slight info exposure: could be extra crap after the name in the
1305                  * dirent (like the name of a deleted file) */
1306                 if (current) {
1307                         memcpy_to_user(current, u_buf, dirent, sizeof(struct dirent));
1308                 } else {
1309                         memcpy(u_buf, dirent, sizeof(struct dirent));
1310                 }
1311                 amt_copied += sizeof(struct dirent);
1312                 /* 0 signals end of directory */
1313                 if (retval == 0)
1314                         break;
1315         }
1316         /* Next time read is called, we pick up where we left off */
1317         *offset = dirent->d_off;        /* UMEM */
1318         /* important to tell them how much they got.  they often keep going til they
1319          * get 0 back (in the case of ls).  it's also how much has been read, but it
1320          * isn't how much the f_pos has moved (which is opaque to the VFS). */
1321         return amt_copied;
1322 }
1323
1324 /* Opens the file, using permissions from current for lack of a better option.
1325  * It will attempt to create the file if it does not exist and O_CREAT is
1326  * specified.  This will return 0 on failure, and set errno.  TODO: There's some
1327  * stuff that we don't do, esp related file truncating/creation.  flags are for
1328  * opening, the mode is for creating.  The flags related to how to create
1329  * (O_CREAT_FLAGS) are handled in this function, not in create_file().
1330  *
1331  * It's tempting to split this into a do_file_create and a do_file_open, based
1332  * on the O_CREAT flag, but the O_CREAT flag can be ignored if the file exists
1333  * already and O_EXCL isn't specified.  We could have open call create if it
1334  * fails, but for now we'll keep it as is. */
1335 struct file *do_file_open(char *path, int flags, int mode)
1336 {
1337         struct file *file = 0;
1338         struct dentry *file_d;
1339         struct inode *parent_i;
1340         struct nameidata nd_r = {0}, *nd = &nd_r;
1341         int error;
1342         unsigned long nr_pages;
1343
1344         /* The file might exist, lets try to just open it right away */
1345         nd->intent = LOOKUP_OPEN;
1346         error = path_lookup(path, LOOKUP_FOLLOW, nd);
1347         if (!error) {
1348                 /* If this is a directory, make sure we are opening with O_RDONLY.
1349                  * Unfortunately we can't just check for O_RDONLY directly because its
1350                  * value is 0x0.  We instead have to make sure it's not O_WRONLY and
1351                  * not O_RDWR explicitly. */
1352                 if (S_ISDIR(nd->dentry->d_inode->i_mode) &&
1353                     ((flags & O_WRONLY) || (flags & O_RDWR))) {
1354                         set_errno(EISDIR);
1355                         goto out_path_only;
1356                 }
1357                 /* Also need to make sure we didn't want to O_EXCL create */
1358                 if ((flags & O_CREAT) && (flags & O_EXCL)) {
1359                         set_errno(EEXIST);
1360                         goto out_path_only;
1361                 }
1362                 file_d = nd->dentry;
1363                 kref_get(&file_d->d_kref, 1);
1364                 goto open_the_file;
1365         }
1366         /* So it didn't already exist, release the path from the previous lookup,
1367          * and then we try to create it. */
1368         path_release(nd);       
1369         /* get the parent, following links.  this means you get the parent of the
1370          * final link (which may not be in 'path' in the first place. */
1371         nd->intent = LOOKUP_CREATE;
1372         error = path_lookup(path, LOOKUP_PARENT | LOOKUP_FOLLOW, nd);
1373         if (error) {
1374                 set_errno(-error);
1375                 goto out_path_only;
1376         }
1377         /* see if the target is there (shouldn't be), and handle accordingly */
1378         file_d = do_lookup(nd->dentry, nd->last.name); 
1379         if (!file_d) {
1380                 if (!(flags & O_CREAT)) {
1381                         set_errno(ENOENT);
1382                         goto out_path_only;
1383                 }
1384                 /* Create the inode/file.  get a fresh dentry too: */
1385                 file_d = get_dentry(nd->dentry->d_sb, nd->dentry, nd->last.name);
1386                 if (!file_d)
1387                         goto out_path_only;
1388                 parent_i = nd->dentry->d_inode;
1389                 /* Note that the mode technically should only apply to future opens,
1390                  * but we apply it immediately. */
1391                 if (create_file(parent_i, file_d, mode))        /* sets errno */
1392                         goto out_file_d;
1393                 dcache_put(file_d->d_sb, file_d);
1394         } else {        /* something already exists */
1395                 /* this can happen due to concurrent access, but needs to be thought
1396                  * through */
1397                 panic("File shouldn't be here!");
1398                 if ((flags & O_CREAT) && (flags & O_EXCL)) {
1399                         /* wanted to create, not open, bail out */
1400                         set_errno(EEXIST);
1401                         goto out_file_d;
1402                 }
1403         }
1404 open_the_file:
1405         /* now open the file (freshly created or if it already existed).  At this
1406          * point, file_d is a refcnt'd dentry, regardless of which branch we took.*/
1407         if (flags & O_TRUNC) {
1408                 spin_lock(&file_d->d_inode->i_lock);
1409                 nr_pages = ROUNDUP(file_d->d_inode->i_size, PGSIZE) >> PGSHIFT;
1410                 file_d->d_inode->i_size = 0;
1411                 spin_unlock(&file_d->d_inode->i_lock);
1412                 pm_remove_contig(file_d->d_inode->i_mapping, 0, nr_pages);
1413         }
1414         file = dentry_open(file_d, flags);                              /* sets errno */
1415         /* Note the fall through to the exit paths.  File is 0 by default and if
1416          * dentry_open fails. */
1417 out_file_d:
1418         kref_put(&file_d->d_kref);
1419 out_path_only:
1420         path_release(nd);
1421         return file;
1422 }
1423
1424 /* Path is the location of the symlink, sometimes called the "new path", and
1425  * symname is who we link to, sometimes called the "old path". */
1426 int do_symlink(char *path, const char *symname, int mode)
1427 {
1428         struct dentry *sym_d;
1429         struct inode *parent_i;
1430         struct nameidata nd_r = {0}, *nd = &nd_r;
1431         int error;
1432         int retval = -1;
1433
1434         nd->intent = LOOKUP_CREATE;
1435         /* get the parent, but don't follow links */
1436         error = path_lookup(path, LOOKUP_PARENT, nd);
1437         if (error) {
1438                 set_errno(-error);
1439                 goto out_path_only;
1440         }
1441         /* see if the target is already there, handle accordingly */
1442         sym_d = do_lookup(nd->dentry, nd->last.name); 
1443         if (sym_d) {
1444                 set_errno(EEXIST);
1445                 goto out_sym_d;
1446         }
1447         /* Doesn't already exist, let's try to make it: */
1448         sym_d = get_dentry(nd->dentry->d_sb, nd->dentry, nd->last.name);
1449         if (!sym_d)
1450                 goto out_path_only;
1451         parent_i = nd->dentry->d_inode;
1452         if (create_symlink(parent_i, sym_d, symname, mode))
1453                 goto out_sym_d;
1454         dcache_put(sym_d->d_sb, sym_d);
1455         retval = 0;                             /* Note the fall through to the exit paths */
1456 out_sym_d:
1457         kref_put(&sym_d->d_kref);
1458 out_path_only:
1459         path_release(nd);
1460         return retval;
1461 }
1462
1463 /* Makes a hard link for the file behind old_path to new_path */
1464 int do_link(char *old_path, char *new_path)
1465 {
1466         struct dentry *link_d, *old_d;
1467         struct inode *inode, *parent_dir;
1468         struct nameidata nd_r = {0}, *nd = &nd_r;
1469         int error;
1470         int retval = -1;
1471
1472         nd->intent = LOOKUP_CREATE;
1473         /* get the absolute parent of the new_path */
1474         error = path_lookup(new_path, LOOKUP_PARENT | LOOKUP_FOLLOW, nd);
1475         if (error) {
1476                 set_errno(-error);
1477                 goto out_path_only;
1478         }
1479         parent_dir = nd->dentry->d_inode;
1480         /* see if the new target is already there, handle accordingly */
1481         link_d = do_lookup(nd->dentry, nd->last.name); 
1482         if (link_d) {
1483                 set_errno(EEXIST);
1484                 goto out_link_d;
1485         }
1486         /* Doesn't already exist, let's try to make it.  Still need to stitch it to
1487          * an inode and set its FS-specific stuff after this.*/
1488         link_d = get_dentry(nd->dentry->d_sb, nd->dentry, nd->last.name);
1489         if (!link_d)
1490                 goto out_path_only;
1491         /* Now let's get the old_path target */
1492         old_d = lookup_dentry(old_path, LOOKUP_FOLLOW);
1493         if (!old_d)                                     /* errno set by lookup_dentry */
1494                 goto out_link_d;
1495         /* For now, can only link to files */
1496         if (!S_ISREG(old_d->d_inode->i_mode)) {
1497                 set_errno(EPERM);
1498                 goto out_both_ds;
1499         }
1500         /* Must be on the same FS */
1501         if (old_d->d_sb != link_d->d_sb) {
1502                 set_errno(EXDEV);
1503                 goto out_both_ds;
1504         }
1505         /* Do whatever FS specific stuff there is first (which is also a chance to
1506          * bail out). */
1507         error = parent_dir->i_op->link(old_d, parent_dir, link_d);
1508         if (error) {
1509                 set_errno(-error);
1510                 goto out_both_ds;
1511         }
1512         /* Finally stitch it up */
1513         inode = old_d->d_inode;
1514         kref_get(&inode->i_kref, 1);
1515         link_d->d_inode = inode;
1516         inode->i_nlink++;
1517         TAILQ_INSERT_TAIL(&inode->i_dentry, link_d, d_alias);   /* weak ref */
1518         dcache_put(link_d->d_sb, link_d);
1519         retval = 0;                             /* Note the fall through to the exit paths */
1520 out_both_ds:
1521         kref_put(&old_d->d_kref);
1522 out_link_d:
1523         kref_put(&link_d->d_kref);
1524 out_path_only:
1525         path_release(nd);
1526         return retval;
1527 }
1528
1529 /* Unlinks path from the directory tree.  Read the Documentation for more info.
1530  */
1531 int do_unlink(char *path)
1532 {
1533         struct dentry *dentry;
1534         struct inode *parent_dir;
1535         struct nameidata nd_r = {0}, *nd = &nd_r;
1536         int error;
1537         int retval = -1;
1538
1539         /* get the parent of the target, and don't follow a final link */
1540         error = path_lookup(path, LOOKUP_PARENT, nd);
1541         if (error) {
1542                 set_errno(-error);
1543                 goto out_path_only;
1544         }
1545         parent_dir = nd->dentry->d_inode;
1546         /* make sure the target is there */
1547         dentry = do_lookup(nd->dentry, nd->last.name); 
1548         if (!dentry) {
1549                 set_errno(ENOENT);
1550                 goto out_path_only;
1551         }
1552         /* Make sure the target is not a directory */
1553         if (S_ISDIR(dentry->d_inode->i_mode)) {
1554                 set_errno(EISDIR);
1555                 goto out_dentry;
1556         }
1557         /* Remove the dentry from its parent */
1558         error = parent_dir->i_op->unlink(parent_dir, dentry);
1559         if (error) {
1560                 set_errno(-error);
1561                 goto out_dentry;
1562         }
1563         /* Now that our parent doesn't track us, we need to make sure we aren't
1564          * findable via the dentry cache.  DYING, so we will be freed in
1565          * dentry_release() */
1566         dentry->d_flags |= DENTRY_DYING;
1567         dcache_remove(dentry->d_sb, dentry);
1568         dentry->d_inode->i_nlink--;     /* TODO: race here, esp with a decref */
1569         /* At this point, the dentry is unlinked from the FS, and the inode has one
1570          * less link.  When the in-memory objects (dentry, inode) are going to be
1571          * released (after all open files are closed, and maybe after entries are
1572          * evicted from the cache), then nlinks will get checked and the FS-file
1573          * will get removed from the disk */
1574         retval = 0;                             /* Note the fall through to the exit paths */
1575 out_dentry:
1576         kref_put(&dentry->d_kref);
1577 out_path_only:
1578         path_release(nd);
1579         return retval;
1580 }
1581
1582 /* Checks to see if path can be accessed via mode.  Need to actually send the
1583  * mode along somehow, so this doesn't do much now.  This is an example of
1584  * decent error propagation from the lower levels via int retvals. */
1585 int do_access(char *path, int mode)
1586 {
1587         struct nameidata nd_r = {0}, *nd = &nd_r;
1588         int retval = 0;
1589         nd->intent = LOOKUP_ACCESS;
1590         retval = path_lookup(path, 0, nd);
1591         path_release(nd);       
1592         return retval;
1593 }
1594
1595 int do_file_chmod(struct file *file, int mode)
1596 {
1597         int old_mode_ftype = file->f_dentry->d_inode->i_mode & __S_IFMT;
1598         #if 0
1599         /* TODO: when we have notions of uid, check for the proc's uid */
1600         if (file->f_dentry->d_inode->i_uid != UID_OF_ME)
1601                 retval = -EPERM;
1602         else
1603         #endif
1604                 file->f_dentry->d_inode->i_mode = (mode & S_PMASK) | old_mode_ftype;
1605         return 0;
1606 }
1607
1608 /* Make a directory at path with mode.  Returns -1 and sets errno on errors */
1609 int do_mkdir(char *path, int mode)
1610 {
1611         struct dentry *dentry;
1612         struct inode *parent_i;
1613         struct nameidata nd_r = {0}, *nd = &nd_r;
1614         int error;
1615         int retval = -1;
1616
1617         nd->intent = LOOKUP_CREATE;
1618         /* get the parent, but don't follow links */
1619         error = path_lookup(path, LOOKUP_PARENT, nd);
1620         if (error) {
1621                 set_errno(-error);
1622                 goto out_path_only;
1623         }
1624         /* see if the target is already there, handle accordingly */
1625         dentry = do_lookup(nd->dentry, nd->last.name); 
1626         if (dentry) {
1627                 set_errno(EEXIST);
1628                 goto out_dentry;
1629         }
1630         /* Doesn't already exist, let's try to make it: */
1631         dentry = get_dentry(nd->dentry->d_sb, nd->dentry, nd->last.name);
1632         if (!dentry)
1633                 goto out_path_only;
1634         parent_i = nd->dentry->d_inode;
1635         if (create_dir(parent_i, dentry, mode))
1636                 goto out_dentry;
1637         dcache_put(dentry->d_sb, dentry);
1638         retval = 0;                             /* Note the fall through to the exit paths */
1639 out_dentry:
1640         kref_put(&dentry->d_kref);
1641 out_path_only:
1642         path_release(nd);
1643         return retval;
1644 }
1645
1646 int do_rmdir(char *path)
1647 {
1648         struct dentry *dentry;
1649         struct inode *parent_i;
1650         struct nameidata nd_r = {0}, *nd = &nd_r;
1651         int error;
1652         int retval = -1;
1653
1654         /* get the parent, following links (probably want this), and we must get a
1655          * directory.  Note, current versions of path_lookup can't handle both
1656          * PARENT and DIRECTORY, at least, it doesn't check that *path is a
1657          * directory. */
1658         error = path_lookup(path, LOOKUP_PARENT | LOOKUP_FOLLOW | LOOKUP_DIRECTORY,
1659                             nd);
1660         if (error) {
1661                 set_errno(-error);
1662                 goto out_path_only;
1663         }
1664         /* make sure the target is already there, handle accordingly */
1665         dentry = do_lookup(nd->dentry, nd->last.name); 
1666         if (!dentry) {
1667                 set_errno(ENOENT);
1668                 goto out_path_only;
1669         }
1670         if (!S_ISDIR(dentry->d_inode->i_mode)) {
1671                 set_errno(ENOTDIR);
1672                 goto out_dentry;
1673         }
1674         if (dentry->d_mount_point) {
1675                 set_errno(EBUSY);
1676                 goto out_dentry;
1677         }
1678         /* TODO: make sure we aren't a mount or processes root (EBUSY) */
1679         /* Now for the removal.  the FSs will check if they are empty */
1680         parent_i = nd->dentry->d_inode;
1681         error = parent_i->i_op->rmdir(parent_i, dentry);
1682         if (error < 0) {
1683                 set_errno(-error);
1684                 goto out_dentry;
1685         }
1686         /* Now that our parent doesn't track us, we need to make sure we aren't
1687          * findable via the dentry cache.  DYING, so we will be freed in
1688          * dentry_release() */
1689         dentry->d_flags |= DENTRY_DYING;
1690         dcache_remove(dentry->d_sb, dentry);
1691         /* Decref ourselves, so inode_release() knows we are done */
1692         dentry->d_inode->i_nlink--;
1693         TAILQ_REMOVE(&nd->dentry->d_subdirs, dentry, d_subdirs_link);
1694         parent_i->i_nlink--;            /* TODO: race on this, esp since its a decref */
1695         /* we still have d_parent and a kref on our parent, which will go away when
1696          * the in-memory dentry object goes away. */
1697         retval = 0;                             /* Note the fall through to the exit paths */
1698 out_dentry:
1699         kref_put(&dentry->d_kref);
1700 out_path_only:
1701         path_release(nd);
1702         return retval;
1703 }
1704
1705 /* Pipes: Doing a simple buffer with reader and writer offsets.  Size is power
1706  * of two, so we can easily compute its status and whatnot. */
1707
1708 #define PIPE_SZ                                 (1 << PGSHIFT)
1709
1710 static size_t pipe_get_rd_idx(struct pipe_inode_info *pii)
1711 {
1712         return pii->p_rd_off & (PIPE_SZ - 1);
1713 }
1714
1715 static size_t pipe_get_wr_idx(struct pipe_inode_info *pii)
1716 {
1717
1718         return pii->p_wr_off & (PIPE_SZ - 1);
1719 }
1720
1721 static bool pipe_is_empty(struct pipe_inode_info *pii)
1722 {
1723         return __ring_empty(pii->p_wr_off, pii->p_rd_off);
1724 }
1725
1726 static bool pipe_is_full(struct pipe_inode_info *pii)
1727 {
1728         return __ring_full(PIPE_SZ, pii->p_wr_off, pii->p_rd_off);
1729 }
1730
1731 static size_t pipe_nr_full(struct pipe_inode_info *pii)
1732 {
1733         return __ring_nr_full(pii->p_wr_off, pii->p_rd_off);
1734 }
1735
1736 static size_t pipe_nr_empty(struct pipe_inode_info *pii)
1737 {
1738         return __ring_nr_empty(PIPE_SZ, pii->p_wr_off, pii->p_rd_off);
1739 }
1740
1741 ssize_t pipe_file_read(struct file *file, char *buf, size_t count,
1742                        off64_t *offset)
1743 {
1744         struct pipe_inode_info *pii = file->f_dentry->d_inode->i_pipe;
1745         size_t copy_amt, amt_copied = 0;
1746
1747         cv_lock(&pii->p_cv);
1748         while (pipe_is_empty(pii)) {
1749                 /* We wait til the pipe is drained before sending EOF if there are no
1750                  * writers (instead of aborting immediately) */
1751                 if (!pii->p_nr_writers) {
1752                         cv_unlock(&pii->p_cv);
1753                         return 0;
1754                 }
1755                 if (file->f_flags & O_NONBLOCK) {
1756                         cv_unlock(&pii->p_cv);
1757                         set_errno(EAGAIN);
1758                         return -1;
1759                 }
1760                 cv_wait(&pii->p_cv);
1761                 cpu_relax();
1762         }
1763         /* We might need to wrap-around with our copy, so we'll do the copy in two
1764          * passes.  This will copy up to the end of the buffer, then on the next
1765          * pass will copy the rest to the beginning of the buffer (if necessary) */
1766         for (int i = 0; i < 2; i++) {
1767                 copy_amt = MIN(PIPE_SZ - pipe_get_rd_idx(pii),
1768                                MIN(pipe_nr_full(pii), count));
1769                 assert(current);        /* shouldn't pipe from the kernel */
1770                 memcpy_to_user(current, buf, pii->p_buf + pipe_get_rd_idx(pii),
1771                                copy_amt);
1772                 buf += copy_amt;
1773                 count -= copy_amt;
1774                 pii->p_rd_off += copy_amt;
1775                 amt_copied += copy_amt;
1776         }
1777         /* Just using one CV for both readers and writers.  We should rarely have
1778          * multiple readers or writers. */
1779         if (amt_copied)
1780                 __cv_broadcast(&pii->p_cv);
1781         cv_unlock(&pii->p_cv);
1782         return amt_copied;
1783 }
1784
1785 /* Note: we're not dealing with PIPE_BUF and minimum atomic chunks, unless I
1786  * have to later. */
1787 ssize_t pipe_file_write(struct file *file, const char *buf, size_t count,
1788                         off64_t *offset)
1789 {
1790         struct pipe_inode_info *pii = file->f_dentry->d_inode->i_pipe;
1791         size_t copy_amt, amt_copied = 0;
1792
1793         cv_lock(&pii->p_cv);
1794         /* Write aborts right away if there are no readers, regardless of pipe
1795          * status. */
1796         if (!pii->p_nr_readers) {
1797                 cv_unlock(&pii->p_cv);
1798                 set_errno(EPIPE);
1799                 return -1;
1800         }
1801         while (pipe_is_full(pii)) {
1802                 if (file->f_flags & O_NONBLOCK) {
1803                         cv_unlock(&pii->p_cv);
1804                         set_errno(EAGAIN);
1805                         return -1;
1806                 }
1807                 cv_wait(&pii->p_cv);
1808                 cpu_relax();
1809                 /* Still need to check in the loop, in case the last reader left while
1810                  * we slept. */
1811                 if (!pii->p_nr_readers) {
1812                         cv_unlock(&pii->p_cv);
1813                         set_errno(EPIPE);
1814                         return -1;
1815                 }
1816         }
1817         /* We might need to wrap-around with our copy, so we'll do the copy in two
1818          * passes.  This will copy up to the end of the buffer, then on the next
1819          * pass will copy the rest to the beginning of the buffer (if necessary) */
1820         for (int i = 0; i < 2; i++) {
1821                 copy_amt = MIN(PIPE_SZ - pipe_get_wr_idx(pii),
1822                                MIN(pipe_nr_empty(pii), count));
1823                 assert(current);        /* shouldn't pipe from the kernel */
1824                 memcpy_from_user(current, pii->p_buf + pipe_get_wr_idx(pii), buf,
1825                                  copy_amt);
1826                 buf += copy_amt;
1827                 count -= copy_amt;
1828                 pii->p_wr_off += copy_amt;
1829                 amt_copied += copy_amt;
1830         }
1831         /* Just using one CV for both readers and writers.  We should rarely have
1832          * multiple readers or writers. */
1833         if (amt_copied)
1834                 __cv_broadcast(&pii->p_cv);
1835         cv_unlock(&pii->p_cv);
1836         return amt_copied;
1837 }
1838
1839 /* In open and release, we need to track the number of readers and writers,
1840  * which we can differentiate by the file flags. */
1841 int pipe_open(struct inode *inode, struct file *file)
1842 {
1843         struct pipe_inode_info *pii = inode->i_pipe;
1844         cv_lock(&pii->p_cv);
1845         /* Ugliness due to not using flags for O_RDONLY and friends... */
1846         if (file->f_mode == S_IRUSR) {
1847                 pii->p_nr_readers++;
1848         } else if (file->f_mode == S_IWUSR) {
1849                 pii->p_nr_writers++;
1850         } else {
1851                 warn("Bad pipe file flags 0x%x\n", file->f_flags);
1852         }
1853         cv_unlock(&pii->p_cv);
1854         return 0;
1855 }
1856
1857 int pipe_release(struct inode *inode, struct file *file)
1858 {
1859         struct pipe_inode_info *pii = inode->i_pipe;
1860         cv_lock(&pii->p_cv);
1861         /* Ugliness due to not using flags for O_RDONLY and friends... */
1862         if (file->f_mode == S_IRUSR) {
1863                 pii->p_nr_readers--;
1864         } else if (file->f_mode == S_IWUSR) {
1865                 pii->p_nr_writers--;
1866         } else {
1867                 warn("Bad pipe file flags 0x%x\n", file->f_flags);
1868         }
1869         /* need to wake up any sleeping readers/writers, since we might be done */
1870         __cv_broadcast(&pii->p_cv);
1871         cv_unlock(&pii->p_cv);
1872         return 0;
1873 }
1874
1875 struct file_operations pipe_f_op = {
1876         .read = pipe_file_read,
1877         .write = pipe_file_write,
1878         .open = pipe_open,
1879         .release = pipe_release,
1880         0
1881 };
1882
1883 void pipe_debug(struct file *f)
1884 {
1885         struct pipe_inode_info *pii = f->f_dentry->d_inode->i_pipe;
1886         assert(pii);
1887         printk("PIPE %p\n", pii);
1888         printk("\trdoff %p\n", pii->p_rd_off);
1889         printk("\twroff %p\n", pii->p_wr_off);
1890         printk("\tnr_rds %d\n", pii->p_nr_readers);
1891         printk("\tnr_wrs %d\n", pii->p_nr_writers);
1892         printk("\tcv waiters %d\n", pii->p_cv.nr_waiters);
1893
1894 }
1895
1896 /* General plan: get a dentry/inode to represent the pipe.  We'll alloc it from
1897  * the default_ns SB, but won't actually link it anywhere.  It'll only be held
1898  * alive by the krefs, til all the FDs are closed. */
1899 int do_pipe(struct file **pipe_files, int flags)
1900 {
1901         struct dentry *pipe_d;
1902         struct inode *pipe_i;
1903         struct file *pipe_f_read, *pipe_f_write;
1904         struct super_block *def_sb = default_ns.root->mnt_sb;
1905         struct pipe_inode_info *pii;
1906
1907         pipe_d = get_dentry(def_sb, 0, "pipe");
1908         if (!pipe_d)
1909                 return -1;
1910         pipe_d->d_op = &dummy_d_op;
1911         pipe_i = get_inode(pipe_d);
1912         if (!pipe_i)
1913                 goto error_post_dentry;
1914         /* preemptively mark the dentry for deletion.  we have an unlinked dentry
1915          * right off the bat, held in only by the kref chain (pipe_d is the ref). */
1916         pipe_d->d_flags |= DENTRY_DYING;
1917         /* pipe_d->d_inode still has one ref to pipe_i, keeping the inode alive */
1918         kref_put(&pipe_i->i_kref);
1919         /* init inode fields.  note we're using the dummy ops for i_op and d_op */
1920         pipe_i->i_mode = S_IRWXU | S_IRWXG | S_IRWXO;
1921         SET_FTYPE(pipe_i->i_mode, __S_IFIFO);   /* using type == FIFO */
1922         pipe_i->i_nlink = 1;                    /* one for the dentry */
1923         pipe_i->i_uid = 0;
1924         pipe_i->i_gid = 0;
1925         pipe_i->i_size = PGSIZE;
1926         pipe_i->i_blocks = 0;
1927         pipe_i->i_atime.tv_sec = 0;
1928         pipe_i->i_atime.tv_nsec = 0;
1929         pipe_i->i_mtime.tv_sec = 0;
1930         pipe_i->i_mtime.tv_nsec = 0;
1931         pipe_i->i_ctime.tv_sec = 0;
1932         pipe_i->i_ctime.tv_nsec = 0;
1933         pipe_i->i_fs_info = 0;
1934         pipe_i->i_op = &dummy_i_op;
1935         pipe_i->i_fop = &pipe_f_op;
1936         pipe_i->i_socket = FALSE;
1937         /* Actually build the pipe.  We're using one page, hanging off the
1938          * pipe_inode_info struct.  When we release the inode, we free the pipe
1939          * memory too */
1940         pipe_i->i_pipe = kmalloc(sizeof(struct pipe_inode_info), KMALLOC_WAIT);
1941         pii = pipe_i->i_pipe;
1942         if (!pii) {
1943                 set_errno(ENOMEM);
1944                 goto error_kmalloc;
1945         }
1946         pii->p_buf = kpage_zalloc_addr();
1947         if (!pii->p_buf) {
1948                 set_errno(ENOMEM);
1949                 goto error_kpage;
1950         }
1951         pii->p_rd_off = 0;
1952         pii->p_wr_off = 0;
1953         pii->p_nr_readers = 0;
1954         pii->p_nr_writers = 0;
1955         cv_init(&pii->p_cv);    /* must do this before dentry_open / pipe_open */
1956         /* Now we have an inode for the pipe.  We need two files for the read and
1957          * write ends of the pipe. */
1958         flags &= ~(O_ACCMODE);  /* avoid user bugs */
1959         pipe_f_read = dentry_open(pipe_d, flags | O_RDONLY);
1960         if (!pipe_f_read)
1961                 goto error_f_read;
1962         pipe_f_write = dentry_open(pipe_d, flags | O_WRONLY);
1963         if (!pipe_f_write)
1964                 goto error_f_write;
1965         pipe_files[0] = pipe_f_read;
1966         pipe_files[1] = pipe_f_write;
1967         return 0;
1968
1969 error_f_write:
1970         kref_put(&pipe_f_read->f_kref);
1971 error_f_read:
1972         page_decref(kva2page(pii->p_buf));
1973 error_kpage:
1974         kfree(pipe_i->i_pipe);
1975 error_kmalloc:
1976         /* We don't need to free the pipe_i; putting the dentry will free it */
1977 error_post_dentry:
1978         /* Note we only free the dentry on failure. */
1979         kref_put(&pipe_d->d_kref);
1980         return -1;
1981 }
1982
1983 int do_rename(char *old_path, char *new_path)
1984 {
1985         struct nameidata nd_old = {0}, *nd_o = &nd_old;
1986         struct nameidata nd_new = {0}, *nd_n = &nd_new;
1987         struct dentry *old_dir_d, *new_dir_d;
1988         struct inode *old_dir_i, *new_dir_i;
1989         struct dentry *old_d, *new_d, *unlink_d;
1990         int error;
1991         int retval = 0;
1992         uint64_t now;
1993
1994         nd_o->intent = LOOKUP_ACCESS; /* maybe, might need another type */
1995
1996         /* get the parent, but don't follow links */
1997         error = path_lookup(old_path, LOOKUP_PARENT | LOOKUP_DIRECTORY, nd_o);
1998         if (error) {
1999                 set_errno(-error);
2000                 retval = -1;
2001                 goto out_old_path;
2002         }
2003         old_dir_d = nd_o->dentry;
2004         old_dir_i = old_dir_d->d_inode;
2005
2006         old_d = do_lookup(old_dir_d, nd_o->last.name);
2007         if (!old_d) {
2008                 set_errno(ENOENT);
2009                 retval = -1;
2010                 goto out_old_path;
2011         }
2012
2013         nd_n->intent = LOOKUP_CREATE;
2014         error = path_lookup(new_path, LOOKUP_PARENT | LOOKUP_DIRECTORY, nd_n);
2015         if (error) {
2016                 set_errno(-error);
2017                 retval = -1;
2018                 goto out_paths_and_src;
2019         }
2020         new_dir_d = nd_n->dentry;
2021         new_dir_i = new_dir_d->d_inode;
2022         /* TODO if new_dir == old_dir, we might be able to simplify things */
2023
2024         if (new_dir_i->i_sb != old_dir_i->i_sb) {
2025                 set_errno(EXDEV);
2026                 retval = -1;
2027                 goto out_paths_and_src;
2028         }
2029         /* TODO: check_perms is lousy, want to just say "writable" here */
2030         if (check_perms(old_dir_i, S_IWUSR) || check_perms(new_dir_i, S_IWUSR)) {
2031                 set_errno(EPERM);
2032                 retval = -1;
2033                 goto out_paths_and_src;
2034         }
2035         /* TODO: if we're doing a rename that moves a directory, we need to make
2036          * sure the new_path doesn't include the old_path.  it's not as simple as
2037          * just checking, since there could be a concurrent rename that breaks the
2038          * check later.  e.g. what if new_dir's parent is being moved into a child
2039          * of old_dir?
2040          *
2041          * linux has a per-fs rename mutex for these scenarios, so only one can
2042          * proceed at a time.  i don't see another way to deal with it either.
2043          * maybe something like flagging all dentries on the new_path with "do not
2044          * move". */
2045
2046         /* TODO: this is all very racy.  right after we do a new_d lookup, someone
2047          * else could create or unlink new_d.  need to lock here, or else push this
2048          * into the sub-FS.
2049          *
2050          * For any locking scheme, we probably need to lock both the old and new
2051          * dirs.  To prevent deadlock, we need a total ordering of all inodes (or
2052          * dentries, if we locking them instead).  inode number or struct inode*
2053          * will work for this. */
2054         new_d = do_lookup(new_dir_d, nd_n->last.name);
2055         if (new_d) {
2056                 if (new_d->d_inode == old_d->d_inode)
2057                         goto out_paths_and_refs;        /* rename does nothing */
2058                 /* TODO: Here's a bunch of other racy checks we need to do, maybe in the
2059                  * sub-FS:
2060                  *
2061                  * if src is a dir, dst must be an empty dir if it exists (RACYx2)
2062                  *              racing on dst being created and it getting new entries
2063                  * if src is a file, dst must be a file if it exists (RACY)
2064                  *              racing on dst being created and still being a file
2065                  *              racing on dst being unlinked and a new one being added
2066                  */
2067                 /* TODO: we should allow empty dirs */
2068                 if (S_ISDIR(new_d->d_inode->i_mode)) {
2069                         set_errno(EISDIR);
2070                         retval = -1;
2071                         goto out_paths_and_refs;
2072                 }
2073                 /* TODO: need this to be atomic with rename */
2074                 error = new_dir_i->i_op->unlink(new_dir_i, new_d);
2075                 if (error) {
2076                         set_errno(-error);
2077                         retval = -1;
2078                         goto out_paths_and_refs;
2079                 }
2080                 new_d->d_flags |= DENTRY_DYING;
2081                 /* TODO: racy with other lookups on new_d */
2082                 dcache_remove(new_d->d_sb, new_d);
2083                 new_d->d_inode->i_nlink--;  /* TODO: race here, esp with a decref */
2084                 kref_put(&new_d->d_kref);
2085         }
2086         /* new_d is just a vessel for the name.  somewhat lousy. */
2087         new_d = get_dentry(new_dir_d->d_sb, new_dir_d, nd_n->last.name);
2088
2089         /* TODO: more races.  need to remove old_d from the dcache, since we're
2090          * about to change its parentage.  could be readded concurrently. */
2091         dcache_remove(old_dir_d->d_sb, old_d);
2092         error = new_dir_i->i_op->rename(old_dir_i, old_d, new_dir_i, new_d);
2093         if (error) {
2094                 /* TODO: oh crap, we already unlinked!  now we're screwed, and violated
2095                  * our atomicity requirements. */
2096                 printk("[kernel] rename failed, you might have lost data\n");
2097                 set_errno(-error);
2098                 retval = -1;
2099                 goto out_paths_and_refs;
2100         }
2101
2102         /* old_dir loses old_d, new_dir gains old_d, renamed to new_d.  this is
2103          * particularly cumbersome since there are two levels here: the FS has its
2104          * info about where things are, and the VFS has its dentry tree.  and it's
2105          * all racy (TODO). */
2106         dentry_set_name(old_d, new_d->d_name.name);
2107         old_d->d_parent = new_d->d_parent;
2108         if (S_ISDIR(old_d->d_inode->i_mode)) {
2109                 TAILQ_REMOVE(&old_dir_d->d_subdirs, old_d, d_subdirs_link);
2110                 old_dir_i->i_nlink--; /* TODO: racy, etc */
2111                 TAILQ_INSERT_TAIL(&new_dir_d->d_subdirs, old_d, d_subdirs_link);
2112                 new_dir_i->i_nlink--; /* TODO: racy, etc */
2113         }
2114
2115         /* and then the third level: dcache stuff.  we could have old versions of
2116          * old_d or negative versions of new_d sitting around.  dcache_put should
2117          * replace a potentially negative dentry for new_d (now called old_d) */
2118         dcache_put(old_dir_d->d_sb, old_d);
2119
2120         /* TODO could have a helper for this, but it's going away soon */
2121         now = epoch_seconds();
2122         old_dir_i->i_ctime.tv_sec = now;
2123         old_dir_i->i_mtime.tv_sec = now;
2124         old_dir_i->i_ctime.tv_nsec = 0;
2125         old_dir_i->i_mtime.tv_nsec = 0;
2126         new_dir_i->i_ctime.tv_sec = now;
2127         new_dir_i->i_mtime.tv_sec = now;
2128         new_dir_i->i_ctime.tv_nsec = 0;
2129         new_dir_i->i_mtime.tv_nsec = 0;
2130
2131         /* fall-through */
2132 out_paths_and_refs:
2133         kref_put(&new_d->d_kref);
2134 out_paths_and_src:
2135         kref_put(&old_d->d_kref);
2136 out_paths:
2137         path_release(nd_n);
2138 out_old_path:
2139         path_release(nd_o);
2140         return retval;
2141 }
2142
2143 int do_truncate(struct inode *inode, off64_t len)
2144 {
2145         off64_t old_len;
2146         uint64_t now;
2147         if (len < 0) {
2148                 set_errno(EINVAL);
2149                 return -1;
2150         }
2151         if (len > PiB) {
2152                 printk("[kernel] truncate for > petabyte, probably a bug\n");
2153                 /* continuing, not too concerned.  could set EINVAL or EFBIG */
2154         }
2155         spin_lock(&inode->i_lock);
2156         old_len = inode->i_size;
2157         if (old_len == len) {
2158                 spin_unlock(&inode->i_lock);
2159                 return 0;
2160         }
2161         inode->i_size = len;
2162         /* truncate can't block, since we're holding the spinlock.  but it can rely
2163          * on that lock being held */
2164         inode->i_op->truncate(inode);
2165         spin_unlock(&inode->i_lock);
2166
2167         if (old_len < len) {
2168                 pm_remove_contig(inode->i_mapping, old_len >> PGSHIFT,
2169                                  (len >> PGSHIFT) - (old_len >> PGSHIFT));
2170         }
2171         now = epoch_seconds();
2172         inode->i_ctime.tv_sec = now;
2173         inode->i_mtime.tv_sec = now;
2174         inode->i_ctime.tv_nsec = 0;
2175         inode->i_mtime.tv_nsec = 0;
2176         return 0;
2177 }
2178
2179 struct file *alloc_file(void)
2180 {
2181         struct file *file = kmem_cache_alloc(file_kcache, 0);
2182         if (!file) {
2183                 set_errno(ENOMEM);
2184                 return 0;
2185         }
2186         /* one for the ref passed out*/
2187         kref_init(&file->f_kref, file_release, 1);
2188         return file;
2189 }
2190
2191 /* Opens and returns the file specified by dentry */
2192 struct file *dentry_open(struct dentry *dentry, int flags)
2193 {
2194         struct inode *inode;
2195         struct file *file;
2196         int desired_mode;
2197         inode = dentry->d_inode;
2198         /* Do the mode first, since we can still error out.  f_mode stores how the
2199          * OS file is open, which can be more restrictive than the i_mode */
2200         switch (flags & (O_RDONLY | O_WRONLY | O_RDWR)) {
2201                 case O_RDONLY:
2202                         desired_mode = S_IRUSR;
2203                         break;
2204                 case O_WRONLY:
2205                         desired_mode = S_IWUSR;
2206                         break;
2207                 case O_RDWR:
2208                         desired_mode = S_IRUSR | S_IWUSR;
2209                         break;
2210                 default:
2211                         goto error_access;
2212         }
2213         if (check_perms(inode, desired_mode))
2214                 goto error_access;
2215         file = alloc_file();
2216         if (!file)
2217                 return 0;
2218         file->f_mode = desired_mode;
2219         /* Add to the list of all files of this SB */
2220         TAILQ_INSERT_TAIL(&inode->i_sb->s_files, file, f_list);
2221         kref_get(&dentry->d_kref, 1);
2222         file->f_dentry = dentry;
2223         kref_get(&inode->i_sb->s_mount->mnt_kref, 1);
2224         file->f_vfsmnt = inode->i_sb->s_mount;          /* saving a ref to the vmnt...*/
2225         file->f_op = inode->i_fop;
2226         /* Don't store creation flags */
2227         file->f_flags = flags & ~O_CREAT_FLAGS;
2228         file->f_pos = 0;
2229         file->f_uid = inode->i_uid;
2230         file->f_gid = inode->i_gid;
2231         file->f_error = 0;
2232 //      struct event_poll_tailq         f_ep_links;
2233         spinlock_init(&file->f_ep_lock);
2234         file->f_privdata = 0;                                           /* prob overriden by the fs */
2235         file->f_mapping = inode->i_mapping;
2236         file->f_op->open(inode, file);
2237         return file;
2238 error_access:
2239         set_errno(EACCES);
2240         return 0;
2241 }
2242
2243 /* Closes a file, fsync, whatever else is necessary.  Called when the kref hits
2244  * 0.  Note that the file is not refcounted on the s_files list, nor is the
2245  * f_mapping refcounted (it is pinned by the i_mapping). */
2246 void file_release(struct kref *kref)
2247 {
2248         struct file *file = container_of(kref, struct file, f_kref);
2249
2250         struct super_block *sb = file->f_dentry->d_sb;
2251         spin_lock(&sb->s_lock);
2252         TAILQ_REMOVE(&sb->s_files, file, f_list);
2253         spin_unlock(&sb->s_lock);
2254
2255         /* TODO: fsync (BLK).  also, we may want to parallelize the blocking that
2256          * could happen in here (spawn kernel threads)... */
2257         file->f_op->release(file->f_dentry->d_inode, file);
2258         /* Clean up the other refs we hold */
2259         kref_put(&file->f_dentry->d_kref);
2260         kref_put(&file->f_vfsmnt->mnt_kref);
2261         kmem_cache_free(file_kcache, file);
2262 }
2263
2264 /* Process-related File management functions */
2265
2266 /* Given any FD, get the appropriate file, 0 o/w */
2267 struct file *get_file_from_fd(struct files_struct *open_files, int file_desc)
2268 {
2269         struct file *retval = 0;
2270         if (file_desc < 0)
2271                 return 0;
2272         spin_lock(&open_files->lock);
2273         if (open_files->closed) {
2274                 spin_unlock(&open_files->lock);
2275                 return 0;
2276         }
2277         if (file_desc < open_files->max_fdset) {
2278                 if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc)) {
2279                         /* while max_files and max_fdset might not line up, we should never
2280                          * have a valid fdset higher than files */
2281                         assert(file_desc < open_files->max_files);
2282                         retval = open_files->fd[file_desc].fd_file;
2283                         /* 9ns might be using this one, in which case file == 0 */
2284                         if (retval)
2285                                 kref_get(&retval->f_kref, 1);
2286                 }
2287         }
2288         spin_unlock(&open_files->lock);
2289         return retval;
2290 }
2291
2292 /* Grow the vfs fd set */
2293 static int grow_fd_set(struct files_struct *open_files) {
2294         int n;
2295         struct file_desc *nfd, *ofd;
2296
2297         /* Only update open_fds once. If currently pointing to open_fds_init, then
2298          * update it to point to a newly allocated fd_set with space for
2299          * NR_FILE_DESC_MAX */
2300         if (open_files->open_fds == (struct fd_set*)&open_files->open_fds_init) {
2301                 open_files->open_fds = kzmalloc(sizeof(struct fd_set), 0);
2302                 memmove(open_files->open_fds, &open_files->open_fds_init,
2303                         sizeof(struct small_fd_set));
2304         }
2305
2306         /* Grow the open_files->fd array in increments of NR_OPEN_FILES_DEFAULT */
2307         n = open_files->max_files + NR_OPEN_FILES_DEFAULT;
2308         if (n > NR_FILE_DESC_MAX)
2309                 n = NR_FILE_DESC_MAX;
2310         nfd = kzmalloc(n * sizeof(struct file_desc), 0);
2311         if (nfd == NULL)
2312                 return -1;
2313
2314         /* Move the old array on top of the new one */
2315         ofd = open_files->fd;
2316         memmove(nfd, ofd, open_files->max_files * sizeof(struct file_desc));
2317
2318         /* Update the array and the maxes for both max_files and max_fdset */
2319         open_files->fd = nfd;
2320         open_files->max_files = n;
2321         open_files->max_fdset = n;
2322
2323         /* Only free the old one if it wasn't pointing to open_files->fd_array */
2324         if (ofd != open_files->fd_array)
2325                 kfree(ofd);
2326         return 0;
2327 }
2328
2329 /* Free the vfs fd set if necessary */
2330 static void free_fd_set(struct files_struct *open_files) {
2331         if (open_files->open_fds != (struct fd_set*)&open_files->open_fds_init) {
2332                 kfree(open_files->open_fds);
2333                 assert(open_files->fd != open_files->fd_array);
2334                 kfree(open_files->fd);
2335         }
2336 }
2337
2338 /* 9ns: puts back an FD from the VFS-FD-space. */
2339 int put_fd(struct files_struct *open_files, int file_desc)
2340 {
2341         if (file_desc < 0) {
2342                 warn("Negative FD!\n");
2343                 return 0;
2344         }
2345         spin_lock(&open_files->lock);
2346         if (file_desc < open_files->max_fdset) {
2347                 if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc)) {
2348                         /* while max_files and max_fdset might not line up, we should never
2349                          * have a valid fdset higher than files */
2350                         assert(file_desc < open_files->max_files);
2351                         CLR_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc);
2352                 }
2353         }
2354         spin_unlock(&open_files->lock);
2355         return 0;
2356 }
2357
2358 /* Remove FD from the open files, if it was there, and return f.  Currently,
2359  * this decref's f, so the return value is not consumable or even usable.  This
2360  * hasn't been thought through yet. */
2361 struct file *put_file_from_fd(struct files_struct *open_files, int file_desc)
2362 {
2363         struct file *file = 0;
2364         if (file_desc < 0)
2365                 return 0;
2366         spin_lock(&open_files->lock);
2367         if (file_desc < open_files->max_fdset) {
2368                 if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc)) {
2369                         /* while max_files and max_fdset might not line up, we should never
2370                          * have a valid fdset higher than files */
2371                         assert(file_desc < open_files->max_files);
2372                         file = open_files->fd[file_desc].fd_file;
2373                         open_files->fd[file_desc].fd_file = 0;
2374                         assert(file);   /* 9ns shouldn't call this put */
2375                         kref_put(&file->f_kref);
2376                         CLR_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc);
2377                 }
2378         }
2379         spin_unlock(&open_files->lock);
2380         return file;
2381 }
2382
2383 static int __get_fd(struct files_struct *open_files, int low_fd)
2384 {
2385         int slot = -1;
2386         if ((low_fd < 0) || (low_fd > NR_FILE_DESC_MAX))
2387                 return -EINVAL;
2388         if (open_files->closed)
2389                 return -EINVAL; /* won't matter, they are dying */
2390
2391         /* Loop until we have a valid slot (we grow the fd_array at the bottom of
2392          * the loop if we haven't found a slot in the current array */
2393         while (slot == -1) {
2394                 for (low_fd; low_fd < open_files->max_fdset; low_fd++) {
2395                         if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, low_fd))
2396                                 continue;
2397                         slot = low_fd;
2398                         SET_BITMASK_BIT(open_files->open_fds->fds_bits, slot);
2399                         assert(slot < open_files->max_files &&
2400                                open_files->fd[slot].fd_file == 0);
2401                         if (slot >= open_files->next_fd)
2402                                 open_files->next_fd = slot + 1;
2403                         break;
2404                 }
2405                 if (slot == -1) {
2406                         /* Expand the FD array and fd_set */
2407                         if (grow_fd_set(open_files) == -1)
2408                                 return -ENOMEM;
2409                         /* loop after growing */
2410                 }
2411         }
2412         return slot;
2413 }
2414
2415 /* Gets and claims a free FD, used by 9ns.  < 0 == error. */
2416 int get_fd(struct files_struct *open_files, int low_fd)
2417 {
2418         int slot;
2419         spin_lock(&open_files->lock);
2420         slot = __get_fd(open_files, low_fd);
2421         spin_unlock(&open_files->lock);
2422         return slot;
2423 }
2424
2425 static int __claim_fd(struct files_struct *open_files, int file_desc)
2426 {
2427         if ((file_desc < 0) || (file_desc > NR_FILE_DESC_MAX))
2428                 return -EINVAL;
2429         if (open_files->closed)
2430                 return -EINVAL; /* won't matter, they are dying */
2431
2432         /* Grow the open_files->fd_set until the file_desc can fit inside it */
2433         while(file_desc >= open_files->max_files) {
2434                 grow_fd_set(open_files);
2435                 cpu_relax();
2436         }
2437
2438         /* If we haven't grown, this could be a problem, so check for it */
2439         if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc))
2440                 return -ENFILE; /* Should never really happen. Here to catch bugs. */
2441
2442         SET_BITMASK_BIT(open_files->open_fds->fds_bits, file_desc);
2443         assert(file_desc < open_files->max_files &&
2444                open_files->fd[file_desc].fd_file == 0);
2445         if (file_desc >= open_files->next_fd)
2446                 open_files->next_fd = file_desc + 1;
2447         return 0;
2448 }
2449
2450 /* Claims a specific FD when duping FDs. used by 9ns.  < 0 == error. */
2451 int claim_fd(struct files_struct *open_files, int file_desc)
2452 {
2453         int ret;
2454         spin_lock(&open_files->lock);
2455         ret = __claim_fd(open_files, file_desc);
2456         spin_unlock(&open_files->lock);
2457         return ret;
2458 }
2459
2460 /* Inserts the file in the files_struct, returning the corresponding new file
2461  * descriptor, or an error code.  We start looking for open fds from low_fd. */
2462 int insert_file(struct files_struct *open_files, struct file *file, int low_fd,
2463                 bool must)
2464 {
2465         int slot, ret;
2466         spin_lock(&open_files->lock);
2467         if (must) {
2468                 ret = __claim_fd(open_files, low_fd);
2469                 if (ret < 0) {
2470                         spin_unlock(&open_files->lock);
2471                         return ret;
2472                 }
2473                 assert(!ret);   /* issues with claim_fd returning status, not the fd */
2474                 slot = low_fd;
2475         } else {
2476                 slot = __get_fd(open_files, low_fd);
2477         }
2478
2479         if (slot < 0) {
2480                 spin_unlock(&open_files->lock);
2481                 return slot;
2482         }
2483         assert(slot < open_files->max_files &&
2484                open_files->fd[slot].fd_file == 0);
2485         kref_get(&file->f_kref, 1);
2486         open_files->fd[slot].fd_file = file;
2487         open_files->fd[slot].fd_flags = 0;
2488         spin_unlock(&open_files->lock);
2489         return slot;
2490 }
2491
2492 /* Closes all open files.  Mostly just a "put" for all files.  If cloexec, it
2493  * will only close files that are opened with O_CLOEXEC. */
2494 void close_all_files(struct files_struct *open_files, bool cloexec)
2495 {
2496         struct file *file;
2497         spin_lock(&open_files->lock);
2498         if (open_files->closed) {
2499                 spin_unlock(&open_files->lock);
2500                 return;
2501         }
2502         for (int i = 0; i < open_files->max_fdset; i++) {
2503                 if (GET_BITMASK_BIT(open_files->open_fds->fds_bits, i)) {
2504                         /* while max_files and max_fdset might not line up, we should never
2505                          * have a valid fdset higher than files */
2506                         assert(i < open_files->max_files);
2507                         file = open_files->fd[i].fd_file;
2508                         /* no file == 9ns uses the FD.  they will deal with it */
2509                         if (!file)
2510                                 continue;
2511                         if (cloexec && !(open_files->fd[i].fd_flags & O_CLOEXEC))
2512                                 continue;
2513                         /* Actually close the file */
2514                         open_files->fd[i].fd_file = 0;
2515                         assert(file);
2516                         kref_put(&file->f_kref);
2517                         CLR_BITMASK_BIT(open_files->open_fds->fds_bits, i);
2518                 }
2519         }
2520         if (!cloexec) {
2521                 free_fd_set(open_files);
2522                 open_files->closed = TRUE;
2523         }
2524         spin_unlock(&open_files->lock);
2525 }
2526
2527 /* Inserts all of the files from src into dst, used by sys_fork(). */
2528 void clone_files(struct files_struct *src, struct files_struct *dst)
2529 {
2530         struct file *file;
2531         spin_lock(&src->lock);
2532         if (src->closed) {
2533                 spin_unlock(&src->lock);
2534                 return;
2535         }
2536         spin_lock(&dst->lock);
2537         if (dst->closed) {
2538                 warn("Destination closed before it opened");
2539                 spin_unlock(&dst->lock);
2540                 spin_unlock(&src->lock);
2541                 return;
2542         }
2543         for (int i = 0; i < src->max_fdset; i++) {
2544                 if (GET_BITMASK_BIT(src->open_fds->fds_bits, i)) {
2545                         /* while max_files and max_fdset might not line up, we should never
2546                          * have a valid fdset higher than files */
2547                         assert(i < src->max_files);
2548                         file = src->fd[i].fd_file;
2549                         assert(i < dst->max_files && dst->fd[i].fd_file == 0);
2550                         SET_BITMASK_BIT(dst->open_fds->fds_bits, i);
2551                         dst->fd[i].fd_file = file;
2552                         /* no file means 9ns is using it, they clone separately */
2553                         if (file)
2554                                 kref_get(&file->f_kref, 1);
2555                         if (i >= dst->next_fd)
2556                                 dst->next_fd = i + 1;
2557                 }
2558         }
2559         spin_unlock(&dst->lock);
2560         spin_unlock(&src->lock);
2561 }
2562
2563 static void __chpwd(struct fs_struct *fs_env, struct dentry *new_pwd)
2564 {
2565         struct dentry *old_pwd;
2566         kref_get(&new_pwd->d_kref, 1);
2567         /* writer lock, make sure we replace pwd with ours.  could also CAS.
2568          * readers don't lock at all, so they need to either loop, or we need to
2569          * delay releasing old_pwd til an RCU grace period. */
2570         spin_lock(&fs_env->lock);
2571         old_pwd = fs_env->pwd;
2572         fs_env->pwd = new_pwd;
2573         spin_unlock(&fs_env->lock);
2574         kref_put(&old_pwd->d_kref);
2575 }
2576
2577 /* Change the working directory of the given fs env (one per process, at this
2578  * point).  Returns 0 for success, -ERROR for whatever error. */
2579 int do_chdir(struct fs_struct *fs_env, char *path)
2580 {
2581         struct nameidata nd_r = {0}, *nd = &nd_r;
2582         int retval;
2583         retval = path_lookup(path, LOOKUP_DIRECTORY, nd);
2584         if (!retval) {
2585                 /* nd->dentry is the place we want our PWD to be */
2586                 __chpwd(fs_env, nd->dentry);
2587         }
2588         path_release(nd);
2589         return retval;
2590 }
2591
2592 int do_fchdir(struct fs_struct *fs_env, struct file *file)
2593 {
2594         if ((file->f_dentry->d_inode->i_mode & __S_IFMT) != __S_IFDIR) {
2595                 set_errno(ENOTDIR);
2596                 return -1;
2597         }
2598         __chpwd(fs_env, file->f_dentry);
2599         return 0;
2600 }
2601
2602 /* Returns a null-terminated string of up to length cwd_l containing the
2603  * absolute path of fs_env, (up to fs_env's root).  Be sure to kfree the char*
2604  * "kfree_this" when you are done with it.  We do this since it's easier to
2605  * build this string going backwards.  Note cwd_l is not a strlen, it's an
2606  * absolute size. */
2607 char *do_getcwd(struct fs_struct *fs_env, char **kfree_this, size_t cwd_l)
2608 {
2609         struct dentry *dentry = fs_env->pwd;
2610         size_t link_len;
2611         char *path_start, *kbuf;
2612
2613         if (cwd_l < 2) {
2614                 set_errno(ERANGE);
2615                 return 0;
2616         }
2617         kbuf = kmalloc(cwd_l, 0);
2618         if (!kbuf) {
2619                 set_errno(ENOMEM);
2620                 return 0;
2621         }
2622         *kfree_this = kbuf;
2623         kbuf[cwd_l - 1] = '\0';
2624         kbuf[cwd_l - 2] = '/';
2625         /* for each dentry in the path, all the way back to the root of fs_env, we
2626          * grab the dentry name, push path_start back enough, and write in the name,
2627          * using /'s to terminate.  We skip the root, since we don't want it's
2628          * actual name, just "/", which is set before each loop. */
2629         path_start = kbuf + cwd_l - 2;  /* the last byte written */
2630         while (dentry != fs_env->root) {
2631                 link_len = dentry->d_name.len;          /* this does not count the \0 */
2632                 if (path_start - (link_len + 2) < kbuf) {
2633                         kfree(kbuf);
2634                         set_errno(ERANGE);
2635                         return 0;
2636                 }
2637                 path_start -= link_len;
2638                 strncpy(path_start, dentry->d_name.name, link_len);
2639                 path_start--;
2640                 *path_start = '/';
2641                 dentry = dentry->d_parent;      
2642         }
2643         return path_start;
2644 }
2645
2646 static void print_dir(struct dentry *dentry, char *buf, int depth)
2647 {
2648         struct dentry *child_d;
2649         struct dirent next = {0};
2650         struct file *dir;
2651         int retval;
2652
2653         if (!S_ISDIR(dentry->d_inode->i_mode)) {
2654                 warn("Thought this was only directories!!");
2655                 return;
2656         }
2657         /* Print this dentry */
2658         printk("%s%s/ nlink: %d\n", buf, dentry->d_name.name,
2659                dentry->d_inode->i_nlink);
2660         if (dentry->d_mount_point) {
2661                 dentry = dentry->d_mounted_fs->mnt_root;
2662         }
2663         if (depth >= 32)
2664                 return;
2665         /* Set buffer for our kids */
2666         buf[depth] = '\t';
2667         dir = dentry_open(dentry, 0);
2668         if (!dir)
2669                 panic("Filesystem seems inconsistent - unable to open a dir!");
2670         /* Process every child, recursing on directories */
2671         while (1) {
2672                 retval = dir->f_op->readdir(dir, &next);
2673                 if (retval >= 0) {
2674                         /* Skip .., ., and empty entries */
2675                         if (!strcmp("..", next.d_name) || !strcmp(".", next.d_name) ||
2676                             next.d_ino == 0)
2677                                 goto loop_next;
2678                         /* there is an entry, now get its dentry */
2679                         child_d = do_lookup(dentry, next.d_name);
2680                         if (!child_d)
2681                                 panic("Inconsistent FS, dirent doesn't have a dentry!");
2682                         /* Recurse for directories, or just print the name for others */
2683                         switch (child_d->d_inode->i_mode & __S_IFMT) {
2684                                 case (__S_IFDIR):
2685                                         print_dir(child_d, buf, depth + 1);
2686                                         break;
2687                                 case (__S_IFREG):
2688                                         printk("%s%s size(B): %d nlink: %d\n", buf, next.d_name,
2689                                                child_d->d_inode->i_size, child_d->d_inode->i_nlink);
2690                                         break;
2691                                 case (__S_IFLNK):
2692                                         printk("%s%s -> %s\n", buf, next.d_name,
2693                                                child_d->d_inode->i_op->readlink(child_d));
2694                                         break;
2695                                 case (__S_IFCHR):
2696                                         printk("%s%s (char device) nlink: %d\n", buf, next.d_name,
2697                                                child_d->d_inode->i_nlink);
2698                                         break;
2699                                 case (__S_IFBLK):
2700                                         printk("%s%s (block device) nlink: %d\n", buf, next.d_name,
2701                                                child_d->d_inode->i_nlink);
2702                                         break;
2703                                 default:
2704                                         warn("Look around you!  Unknown filetype!");
2705                         }
2706                         kref_put(&child_d->d_kref);     
2707                 }
2708 loop_next:
2709                 if (retval <= 0)
2710                         break;
2711         }
2712         /* Reset buffer to the way it was */
2713         buf[depth] = '\0';
2714         kref_put(&dir->f_kref);
2715 }
2716
2717 /* Debugging */
2718 int ls_dash_r(char *path)
2719 {
2720         struct nameidata nd_r = {0}, *nd = &nd_r;
2721         int error;
2722         char buf[32] = {0};
2723
2724         error = path_lookup(path, LOOKUP_ACCESS | LOOKUP_DIRECTORY, nd);
2725         if (error) {
2726                 path_release(nd);
2727                 return error;
2728         }
2729         print_dir(nd->dentry, buf, 0);
2730         path_release(nd);
2731         return 0;
2732 }
2733
2734 /* Dummy ops, to catch weird operations we weren't expecting */
2735 int dummy_create(struct inode *dir, struct dentry *dentry, int mode,
2736                  struct nameidata *nd)
2737 {
2738         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2739         return -1;
2740 }
2741
2742 struct dentry *dummy_lookup(struct inode *dir, struct dentry *dentry,
2743                           struct nameidata *nd)
2744 {
2745         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2746         return 0;
2747 }
2748
2749 int dummy_link(struct dentry *old_dentry, struct inode *dir,
2750              struct dentry *new_dentry)
2751 {
2752         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2753         return -1;
2754 }
2755
2756 int dummy_unlink(struct inode *dir, struct dentry *dentry)
2757 {
2758         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2759         return -1;
2760 }
2761
2762 int dummy_symlink(struct inode *dir, struct dentry *dentry, const char *symname)
2763 {
2764         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2765         return -1;
2766 }
2767
2768 int dummy_mkdir(struct inode *dir, struct dentry *dentry, int mode)
2769 {
2770         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2771         return -1;
2772 }
2773
2774 int dummy_rmdir(struct inode *dir, struct dentry *dentry)
2775 {
2776         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2777         return -1;
2778 }
2779
2780 int dummy_mknod(struct inode *dir, struct dentry *dentry, int mode, dev_t rdev)
2781 {
2782         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2783         return -1;
2784 }
2785
2786 int dummy_rename(struct inode *old_dir, struct dentry *old_dentry,
2787                struct inode *new_dir, struct dentry *new_dentry)
2788 {
2789         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2790         return -1;
2791 }
2792
2793 char *dummy_readlink(struct dentry *dentry)
2794 {
2795         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2796         return 0;
2797 }
2798
2799 void dummy_truncate(struct inode *inode)
2800 {
2801         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2802 }
2803
2804 int dummy_permission(struct inode *inode, int mode, struct nameidata *nd)
2805 {
2806         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2807         return -1;
2808 }
2809
2810 int dummy_d_revalidate(struct dentry *dir, struct nameidata *nd)
2811 {
2812         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2813         return -1;
2814 }
2815
2816 int dummy_d_hash(struct dentry *dentry, struct qstr *name)
2817 {
2818         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2819         return -1;
2820 }
2821
2822 int dummy_d_compare(struct dentry *dir, struct qstr *name1, struct qstr *name2)
2823 {
2824         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2825         return -1;
2826 }
2827
2828 int dummy_d_delete(struct dentry *dentry)
2829 {
2830         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2831         return -1;
2832 }
2833
2834 int dummy_d_release(struct dentry *dentry)
2835 {
2836         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2837         return -1;
2838 }
2839
2840 void dummy_d_iput(struct dentry *dentry, struct inode *inode)
2841 {
2842         printk("Dummy VFS function %s called!\n", __FUNCTION__);
2843 }
2844
2845 struct inode_operations dummy_i_op = {
2846         dummy_create,
2847         dummy_lookup,
2848         dummy_link,
2849         dummy_unlink,
2850         dummy_symlink,
2851         dummy_mkdir,
2852         dummy_rmdir,
2853         dummy_mknod,
2854         dummy_rename,
2855         dummy_readlink,
2856         dummy_truncate,
2857         dummy_permission,
2858 };
2859
2860 struct dentry_operations dummy_d_op = {
2861         dummy_d_revalidate,
2862         dummy_d_hash,
2863         dummy_d_compare,
2864         dummy_d_delete,
2865         dummy_d_release,
2866         dummy_d_iput,
2867 };