Added explicit errno reporting from error() API.
[akaros.git] / kern / drivers / dev / mnt.c
1 // INFERNO
2 #include <vfs.h>
3 #include <kfs.h>
4 #include <slab.h>
5 #include <kmalloc.h>
6 #include <kref.h>
7 #include <string.h>
8 #include <stdio.h>
9 #include <assert.h>
10 #include <error.h>
11 #include <cpio.h>
12 #include <pmap.h>
13 #include <smp.h>
14 #include <ip.h>
15 #include <smallidpool.h>
16
17 struct dev mntdevtab;
18
19 static char *devname(void)
20 {
21         return mntdevtab.name;
22 }
23
24 /*
25  * References are managed as follows:
26  * The channel to the server - a network connection or pipe - has one
27  * reference for every Chan open on the server.  The server channel has
28  * c->mux set to the Mnt used for muxing control to that server.  Mnts
29  * have no reference count; they go away when c goes away.
30  * Each channel derived from the mount point has mchan set to c,
31  * and increfs/decrefs mchan to manage references on the server
32  * connection.
33  */
34
35 #define MAXRPC (IOHDRSZ+8192)
36 #define MAXTAG MAX_U16_POOL_SZ
37
38 static __inline int isxdigit(int c)
39 {
40         if ((c >= '0') && (c <= '9'))
41                 return 1;
42         if ((c >= 'a') && (c <= 'f'))
43                 return 1;
44         if ((c >= 'A') && (c <= 'F'))
45                 return 1;
46         return 0;
47 }
48
49 struct mntrpc {
50         struct chan *c;                         /* Channel for whom we are working */
51         struct mntrpc *list;            /* Free/pending list */
52         struct fcall request;           /* Outgoing file system protocol message */
53         struct fcall reply;                     /* Incoming reply */
54         struct mnt *m;                          /* Mount device during rpc */
55         struct rendez r;                        /* Place to hang out */
56         uint8_t *rpc;                           /* I/O Data buffer */
57         unsigned int rpclen;            /* len of buffer */
58         struct block *b;                        /* reply blocks */
59         char done;                                      /* Rpc completed */
60         uint64_t stime;                         /* start time for mnt statistics */
61         uint32_t reqlen;                        /* request length for mnt statistics */
62         uint32_t replen;                        /* reply length for mnt statistics */
63         struct mntrpc *flushed;         /* message this one flushes */
64 };
65
66 /* Our TRUNC and remove on close differ from 9ps, so we'll need to translate.
67  * I got these flags from http://man.cat-v.org/plan_9/5/open */
68 #define MNT_9P_OPEN_OTRUNC              0x10
69 #define MNT_9P_OPEN_ORCLOSE             0x40
70
71 struct Mntalloc {
72         spinlock_t l;
73         struct mnt *list;                       /* Mount devices in use */
74         struct mnt *mntfree;            /* Free list */
75         struct mntrpc *rpcfree;
76         int nrpcfree;
77         int nrpcused;
78         uint32_t id;
79         struct u16_pool *tags;
80 } mntalloc;
81
82 void mattach(struct mnt *, struct chan *, char *unused_char_p_t);
83 struct mnt *mntchk(struct chan *);
84 void mntdirfix(uint8_t * unused_uint8_p_t, struct chan *);
85 struct mntrpc *mntflushalloc(struct mntrpc *, uint32_t);
86 void mntflushfree(struct mnt *, struct mntrpc *);
87 void mntfree(struct mntrpc *);
88 void mntgate(struct mnt *);
89 void mntpntfree(struct mnt *);
90 void mntqrm(struct mnt *, struct mntrpc *);
91 struct mntrpc *mntralloc(struct chan *, uint32_t);
92 long mntrdwr(int unused_int, struct chan *, void *, long, int64_t);
93 int mntrpcread(struct mnt *, struct mntrpc *);
94 void mountio(struct mnt *, struct mntrpc *);
95 void mountmux(struct mnt *, struct mntrpc *);
96 void mountrpc(struct mnt *, struct mntrpc *);
97 int rpcattn(void *);
98 struct chan *mntchan(void);
99
100 void (*mntstats) (int unused_int, struct chan *, uint64_t, uint32_t);
101
102 static void mntinit(void)
103 {
104         mntalloc.id = 1;
105         mntalloc.tags = create_u16_pool(MAXTAG);
106         (void) get_u16(mntalloc.tags);  /* don't allow 0 as a tag */
107         //fmtinstall('F', fcallfmt);
108 /*      fmtinstall('D', dirfmt); */
109 /*      fmtinstall('M', dirmodefmt);  */
110
111         cinit();
112 }
113
114 /*
115  * Version is not multiplexed: message sent only once per connection.
116  */
117 long mntversion(struct chan *c, char *version, int msize, int returnlen)
118 {
119         ERRSTACK(2);
120         struct fcall f;
121         uint8_t *msg;
122         struct mnt *m;
123         char *v;
124         long k, l;
125         uint64_t oo;
126         char buf[128];
127
128         qlock(&c->umqlock);     /* make sure no one else does this until we've established ourselves */
129         if (waserror()) {
130                 qunlock(&c->umqlock);
131                 nexterror();
132         }
133
134         /* defaults */
135         if (msize == 0)
136                 msize = MAXRPC;
137         if (msize > c->iounit && c->iounit != 0)
138                 msize = c->iounit;
139         v = version;
140         if (v == NULL || v[0] == '\0')
141                 v = VERSION9P;
142
143         /* validity */
144         if (msize < 0)
145                 error(EFAIL, "bad iounit in version call");
146         if (strncmp(v, VERSION9P, strlen(VERSION9P)) != 0)
147                 error(EFAIL, "bad 9P version specification");
148
149         m = c->mux;
150
151         if (m != NULL) {
152                 qunlock(&c->umqlock);
153                 poperror();
154
155                 strncpy(buf, m->version, sizeof buf);
156                 k = strlen(buf);
157                 if (strncmp(buf, v, k) != 0) {
158                         snprintf(buf, sizeof buf, "incompatible 9P versions %s %s",
159                                          m->version, v);
160                         error(EFAIL, buf);
161                 }
162                 if (returnlen > 0) {
163                         if (returnlen < k)
164                                 error(ENAMETOOLONG, NULL);
165                         memmove(version, buf, k);
166                 }
167                 return k;
168         }
169
170         f.type = Tversion;
171         f.tag = NOTAG;
172         f.msize = msize;
173         f.version = v;
174         msg = kzmalloc(8192 + IOHDRSZ, 0);
175         if (msg == NULL)
176                 exhausted("version memory");
177         if (waserror()) {
178                 kfree(msg);
179                 nexterror();
180         }
181         k = convS2M(&f, msg, 8192 + IOHDRSZ);
182         if (k == 0)
183                 error(EFAIL, "bad fversion conversion on send");
184
185         spin_lock(&c->lock);
186         oo = c->offset;
187         c->offset += k;
188         spin_unlock(&c->lock);
189
190         l = devtab[c->type].write(c, msg, k, oo);
191
192         if (l < k) {
193                 spin_lock(&c->lock);
194                 c->offset -= k - l;
195                 spin_unlock(&c->lock);
196                 error(EFAIL, "short write in fversion");
197         }
198
199         /* message sent; receive and decode reply */
200         k = devtab[c->type].read(c, msg, 8192 + IOHDRSZ, c->offset);
201         if (k <= 0)
202                 error(EFAIL, "EOF receiving fversion reply");
203
204         spin_lock(&c->lock);
205         c->offset += k;
206         spin_unlock(&c->lock);
207
208         l = convM2S(msg, k, &f);
209         if (l != k)
210                 error(EFAIL, "bad fversion conversion on reply");
211         if (f.type != Rversion) {
212                 if (f.type == Rerror)
213                         error(EFAIL, f.ename);
214                 error(EFAIL, "unexpected reply type in fversion");
215         }
216         if (f.msize > msize)
217                 error(EFAIL, "server tries to increase msize in fversion");
218         if (f.msize < 256 || f.msize > 1024 * 1024)
219                 error(EFAIL, "nonsense value of msize in fversion");
220         if (strncmp(f.version, v, strlen(f.version)) != 0)
221                 error(EFAIL, "bad 9P version returned from server");
222
223         /* now build Mnt associated with this connection */
224         spin_lock(&mntalloc.l);
225         m = mntalloc.mntfree;
226         if (m != 0)
227                 mntalloc.mntfree = m->list;
228         else {
229                 m = kzmalloc(sizeof(struct mnt), 0);
230                 if (m == 0) {
231                         spin_unlock(&mntalloc.l);
232                         exhausted("mount devices");
233                 }
234         }
235         m->list = mntalloc.list;
236         mntalloc.list = m;
237         m->version = NULL;
238         kstrdup(&m->version, f.version);
239         m->id = mntalloc.id++;
240         m->q = qopen(10 * MAXRPC, 0, NULL, NULL);
241         m->msize = f.msize;
242         spin_unlock(&mntalloc.l);
243
244         poperror();     /* msg */
245         kfree(msg);
246
247         spin_lock(&m->lock);
248         m->queue = 0;
249         m->rip = 0;
250
251         c->flag |= CMSG;
252         c->mux = m;
253         m->c = c;
254         spin_unlock(&m->lock);
255
256         poperror();     /* c */
257         qunlock(&c->umqlock);
258         k = strlen(f.version);
259         if (returnlen > 0) {
260                 if (returnlen < k)
261                         error(ENAMETOOLONG, NULL);
262                 memmove(version, f.version, k);
263         }
264
265         return k;
266 }
267
268 struct chan *mntauth(struct chan *c, char *spec)
269 {
270         ERRSTACK(2);
271         struct mnt *m;
272         struct mntrpc *r;
273
274         m = c->mux;
275
276         if (m == NULL) {
277                 mntversion(c, VERSION9P, MAXRPC, 0);
278                 m = c->mux;
279                 if (m == NULL)
280                         error(EINVAL, NULL);
281         }
282
283         c = mntchan();
284         if (waserror()) {
285                 /* Close must not be called since it will
286                  * call mnt recursively
287                  */
288                 chanfree(c);
289                 nexterror();
290         }
291
292         r = mntralloc(0, m->msize);
293
294         if (waserror()) {
295                 mntfree(r);
296                 nexterror();
297         }
298
299         r->request.type = Tauth;
300         r->request.afid = c->fid;
301         r->request.uname = current->user;
302         r->request.aname = spec;
303         mountrpc(m, r);
304
305         c->qid = r->reply.aqid;
306         c->mchan = m->c;
307         chan_incref(m->c);
308         c->mqid = c->qid;
309         c->mode = O_RDWR;
310
311         poperror();     /* r */
312         mntfree(r);
313
314         poperror();     /* c */
315
316         return c;
317
318 }
319
320 static struct chan *mntattach(char *muxattach)
321 {
322         ERRSTACK(2);
323         struct mnt *m;
324         struct chan *c;
325         struct mntrpc *r;
326         struct bogus {
327                 struct chan *chan;
328                 struct chan *authchan;
329                 char *spec;
330                 int flags;
331         } bogus;
332
333         bogus = *((struct bogus *)muxattach);
334         c = bogus.chan;
335
336         m = c->mux;
337
338         if (m == NULL) {
339                 mntversion(c, NULL, 0, 0);
340                 m = c->mux;
341                 if (m == NULL)
342                         error(EINVAL, NULL);
343         }
344
345         c = mntchan();
346         if (waserror()) {
347                 /* Close must not be called since it will
348                  * call mnt recursively
349                  */
350                 chanfree(c);
351                 nexterror();
352         }
353
354         r = mntralloc(0, m->msize);
355
356         if (waserror()) {
357                 mntfree(r);
358                 nexterror();
359         }
360
361         r->request.type = Tattach;
362         r->request.fid = c->fid;
363         if (bogus.authchan == NULL)
364                 r->request.afid = NOFID;
365         else
366                 r->request.afid = bogus.authchan->fid;
367         r->request.uname = current->user;
368         r->request.aname = bogus.spec;
369         mountrpc(m, r);
370
371         c->qid = r->reply.qid;
372         c->mchan = m->c;
373         chan_incref(m->c);
374         c->mqid = c->qid;
375
376         poperror();     /* r */
377         mntfree(r);
378
379         poperror();     /* c */
380
381         if (bogus.flags & MCACHE)
382                 c->flag |= CCACHE;
383         return c;
384 }
385
386 struct chan *mntchan(void)
387 {
388         struct chan *c;
389
390         c = devattach(devname(), 0);
391         spin_lock(&mntalloc.l);
392         c->dev = mntalloc.id++;
393         spin_unlock(&mntalloc.l);
394
395         if (c->mchan)
396                 panic("mntchan non-zero %p", c->mchan);
397         return c;
398 }
399
400 static struct walkqid *mntwalk(struct chan *c, struct chan *nc, char **name,
401                                                            int nname)
402 {
403         ERRSTACK(2);
404         volatile int alloc;
405         int i;
406         struct mnt *m;
407         struct mntrpc *r;
408         struct walkqid *wq;
409
410         if (nc != NULL)
411                 printd("mntwalk: nc != NULL\n");
412         if (nname > MAXWELEM)
413                 error(EFAIL, "devmnt: too many name elements");
414         alloc = 0;
415         wq = kzmalloc(sizeof(struct walkqid) + nname * sizeof(struct qid),
416                                   KMALLOC_WAIT);
417         if (waserror()) {
418                 if (alloc && wq->clone != NULL)
419                         cclose(wq->clone);
420                 kfree(wq);
421                 poperror();
422                 return NULL;
423         }
424
425         alloc = 0;
426         m = mntchk(c);
427         r = mntralloc(c, m->msize);
428         if (nc == NULL) {
429                 nc = devclone(c);
430                 /* Until the other side accepts this fid, we can't mntclose it.
431                  * Therefore set type to -1 for now.  inferno was setting this to 0,
432                  * assuming it was devroot.  lining up with chanrelease and newchan */
433                 nc->type = -1;
434                 alloc = 1;
435         }
436         wq->clone = nc;
437
438         if (waserror()) {
439                 mntfree(r);
440                 nexterror();
441         }
442         r->request.type = Twalk;
443         r->request.fid = c->fid;
444         r->request.newfid = nc->fid;
445         r->request.nwname = nname;
446         memmove(r->request.wname, name, nname * sizeof(char *));
447
448         mountrpc(m, r);
449
450         if (r->reply.nwqid > nname)
451                 error(EFAIL, "too many QIDs returned by walk");
452         if (r->reply.nwqid < nname) {
453                 if (alloc)
454                         cclose(nc);
455                 wq->clone = NULL;
456                 if (r->reply.nwqid == 0) {
457                         kfree(wq);
458                         wq = NULL;
459                         goto Return;
460                 }
461         }
462
463         /* move new fid onto mnt device and update its qid */
464         if (wq->clone != NULL) {
465                 if (wq->clone != c) {
466                         wq->clone->type = c->type;
467                         wq->clone->mchan = c->mchan;
468                         chan_incref(c->mchan);
469                 }
470                 if (r->reply.nwqid > 0)
471                         wq->clone->qid = r->reply.wqid[r->reply.nwqid - 1];
472         }
473         wq->nqid = r->reply.nwqid;
474         for (i = 0; i < wq->nqid; i++)
475                 wq->qid[i] = r->reply.wqid[i];
476
477 Return:
478         poperror();
479         mntfree(r);
480         poperror();
481         return wq;
482 }
483
484 static int mntstat(struct chan *c, uint8_t * dp, int n)
485 {
486         ERRSTACK(1);
487         struct mnt *m;
488         struct mntrpc *r;
489
490         if (n < BIT16SZ)
491                 error(EINVAL, NULL);
492         m = mntchk(c);
493         r = mntralloc(c, m->msize);
494         if (waserror()) {
495                 mntfree(r);
496                 nexterror();
497         }
498         r->request.type = Tstat;
499         r->request.fid = c->fid;
500         mountrpc(m, r);
501
502         if (r->reply.nstat > n) {
503                 /* doesn't fit; just patch the count and return */
504                 PBIT16((uint8_t *) dp, r->reply.nstat);
505                 n = BIT16SZ;
506         } else {
507                 n = r->reply.nstat;
508                 memmove(dp, r->reply.stat, n);
509                 validstat(dp, n, 0);
510                 mntdirfix(dp, c);
511         }
512         poperror();
513         mntfree(r);
514         return n;
515 }
516
517 static struct chan *mntopencreate(int type, struct chan *c, char *name,
518                                                                   int omode, uint32_t perm)
519 {
520         ERRSTACK(1);
521         struct mnt *m;
522         struct mntrpc *r;
523
524         m = mntchk(c);
525         r = mntralloc(c, m->msize);
526         if (waserror()) {
527                 mntfree(r);
528                 nexterror();
529         }
530         r->request.type = type;
531         r->request.fid = c->fid;
532         r->request.mode = omode_to_9p_accmode(omode);
533         if (omode & O_TRUNC)
534                 r->request.mode |= MNT_9P_OPEN_OTRUNC;
535         if (omode & O_REMCLO)
536                 r->request.mode |= MNT_9P_OPEN_ORCLOSE;
537         if (type == Tcreate) {
538                 r->request.perm = perm;
539                 r->request.name = name;
540         }
541         mountrpc(m, r);
542
543         c->qid = r->reply.qid;
544         c->offset = 0;
545         c->mode = openmode(omode);
546         c->iounit = r->reply.iounit;
547         if (c->iounit == 0 || c->iounit > m->msize - IOHDRSZ)
548                 c->iounit = m->msize - IOHDRSZ;
549         c->flag |= COPEN;
550         poperror();
551         mntfree(r);
552
553         if (c->flag & CCACHE)
554                 copen(c);
555
556         return c;
557 }
558
559 static struct chan *mntopen(struct chan *c, int omode)
560 {
561         return mntopencreate(Topen, c, NULL, omode, 0);
562 }
563
564 static void mntcreate(struct chan *c, char *name, int omode, uint32_t perm)
565 {
566         mntopencreate(Tcreate, c, name, omode, perm);
567 }
568
569 static void mntclunk(struct chan *c, int t)
570 {
571         ERRSTACK(1);
572         struct mnt *m;
573         struct mntrpc *r;
574
575         m = mntchk(c);
576         r = mntralloc(c, m->msize);
577         if (waserror()) {
578                 mntfree(r);
579                 nexterror();
580         }
581
582         r->request.type = t;
583         r->request.fid = c->fid;
584         mountrpc(m, r);
585         mntfree(r);
586         poperror();
587 }
588
589 void muxclose(struct mnt *m)
590 {
591         struct mntrpc *q, *r;
592
593         for (q = m->queue; q; q = r) {
594                 r = q->list;
595                 mntfree(q);
596         }
597         m->id = 0;
598         kfree(m->version);
599         m->version = NULL;
600         mntpntfree(m);
601 }
602
603 void mntpntfree(struct mnt *m)
604 {
605         struct mnt *f, **l;
606         struct queue *q;
607
608         spin_lock(&mntalloc.l);
609         l = &mntalloc.list;
610         for (f = *l; f; f = f->list) {
611                 if (f == m) {
612                         *l = m->list;
613                         break;
614                 }
615                 l = &f->list;
616         }
617         m->list = mntalloc.mntfree;
618         mntalloc.mntfree = m;
619         q = m->q;
620         spin_unlock(&mntalloc.l);
621
622         qfree(q);
623 }
624
625 static void mntclose(struct chan *c)
626 {
627         mntclunk(c, Tclunk);
628 }
629
630 static void mntremove(struct chan *c)
631 {
632         mntclunk(c, Tremove);
633 }
634
635 static int mntwstat(struct chan *c, uint8_t * dp, int n)
636 {
637         ERRSTACK(1);
638         struct mnt *m;
639         struct mntrpc *r;
640
641         m = mntchk(c);
642         r = mntralloc(c, m->msize);
643         if (waserror()) {
644                 mntfree(r);
645                 nexterror();
646         }
647         r->request.type = Twstat;
648         r->request.fid = c->fid;
649         r->request.nstat = n;
650         r->request.stat = dp;
651         mountrpc(m, r);
652         poperror();
653         mntfree(r);
654         return n;
655 }
656
657 /* the servers should either return units of whole directory entries
658  * OR support seeking to an arbitrary place. One or other.
659  * Both are fine, but at least one is a minimum.
660  * If the return a partial result, but more than one result,
661  * we'll return a shorter read and the next offset will be aligned
662  */
663 static long mntread(struct chan *c, void *buf, long n, int64_t off)
664 {
665         uint8_t *p, *e;
666         int nc, cache, isdir, dirlen;
667         int numdirent = 0;
668
669         isdir = 0;
670         cache = c->flag & CCACHE;
671         if (c->qid.type & QTDIR) {
672                 cache = 0;
673                 isdir = 1;
674         }
675
676         p = buf;
677         if (cache) {
678                 nc = cread(c, buf, n, off);
679                 if (nc > 0) {
680                         n -= nc;
681                         if (n == 0)
682                                 return nc;
683                         p += nc;
684                         off += nc;
685                 }
686                 n = mntrdwr(Tread, c, p, n, off);
687                 cupdate(c, p, n, off);
688                 return n + nc;
689         }
690
691         n = mntrdwr(Tread, c, buf, n, off);
692
693         if (isdir) {
694                 for (e = &p[n]; p + BIT16SZ < e; p += dirlen) {
695                         dirlen = BIT16SZ + GBIT16(p);
696                         if (p + dirlen > e){
697                                 break;
698                         }
699                         validstat(p, dirlen, 0);
700                         mntdirfix(p, c);
701                         numdirent += dirlen;
702                 }
703                 if (p != e) {
704                         //error(Esbadstat);
705                         /* not really. Maybe the server supports
706                          * arbitrary seek like go9p now does.
707                          */
708                         n = numdirent;
709                 }
710         }
711         return n;
712 }
713
714 static long mntwrite(struct chan *c, void *buf, long n, int64_t off)
715 {
716         return mntrdwr(Twrite, c, buf, n, off);
717 }
718
719 long mntrdwr(int type, struct chan *c, void *buf, long n, int64_t off)
720 {
721         ERRSTACK(1);
722         struct mnt *m;
723         struct mntrpc *r;                       /* TO DO: volatile struct { Mntrpc *r; } r; */
724         char *uba;
725         int cache;
726         uint32_t cnt, nr, nreq;
727
728         m = mntchk(c);
729         uba = buf;
730         cnt = 0;
731         cache = c->flag & CCACHE;
732         if (c->qid.type & QTDIR)
733                 cache = 0;
734         for (;;) {
735                 r = mntralloc(c, m->msize);
736                 if (waserror()) {
737                         mntfree(r);
738                         nexterror();
739                 }
740                 r->request.type = type;
741                 r->request.fid = c->fid;
742                 r->request.offset = off;
743                 r->request.data = uba;
744                 nr = n;
745                 if (nr > m->msize - IOHDRSZ)
746                         nr = m->msize - IOHDRSZ;
747                 r->request.count = nr;
748                 mountrpc(m, r);
749                 nreq = r->request.count;
750                 nr = r->reply.count;
751                 if (nr > nreq)
752                         nr = nreq;
753
754                 if (type == Tread)
755                         r->b = bl2mem((uint8_t *) uba, r->b, nr);
756                 else if (cache)
757                         cwrite(c, (uint8_t *) uba, nr, off);
758
759                 poperror();
760                 mntfree(r);
761                 off += nr;
762                 uba += nr;
763                 cnt += nr;
764                 n -= nr;
765                 if (nr != nreq || n == 0 /*|| current->killed */ )
766                         break;
767         }
768         return cnt;
769 }
770
771 void mountrpc(struct mnt *m, struct mntrpc *r)
772 {
773         char *sn, *cn;
774         int t;
775         char *e;
776
777         r->reply.tag = 0;
778         r->reply.type = Tmax;   /* can't ever be a valid message type */
779
780         mountio(m, r);
781
782         t = r->reply.type;
783         switch (t) {
784                 case Rerror:
785                         /* in Akaros mode, first four characters
786                          * are errno.
787                          */
788                         e = r->reply.ename;
789                         /* If it is in the format "XXXX <at least one char>" */
790                         if ((strlen(e) > 5) && isxdigit(e[0]) &&
791                                 isxdigit(e[1]) &&
792                                 isxdigit(e[2]) &&
793                                 isxdigit(e[3])) {
794
795                                 int errno = strtoul(e, NULL, 16);
796
797                                 error(errno, &r->reply.ename[5]);
798                         } else
799                                 error(EFAIL, r->reply.ename);
800                 case Rflush:
801                         error(EINTR, NULL);
802                 default:
803                         if (t == r->request.type + 1)
804                                 break;
805                         sn = "?";
806                         if (m->c->name != NULL)
807                                 sn = m->c->name->s;
808                         cn = "?";
809                         if (r->c != NULL && r->c->name != NULL)
810                                 cn = r->c->name->s;
811                         printd
812                                 ("mnt: proc %s %lu: mismatch from %s %s rep 0x%p tag %d fid %d T%d R%d rp %d\n",
813                                  "current->text", "current->pid", sn, cn, r, r->request.tag,
814                                  r->request.fid, r->request.type, r->reply.type, r->reply.tag);
815                         error(EPROTO, NULL);
816         }
817 }
818
819 void mountio(struct mnt *m, struct mntrpc *r)
820 {
821         ERRSTACK(1);
822         int n;
823
824         while (waserror()) {
825                 if (m->rip == current)
826                         mntgate(m);
827                 /* Syscall aborts are like Plan 9 Eintr.  For those, we need to change
828                  * the old request to a flsh (mntflushalloc) and try again.  We'll
829                  * always try to flush, and you can't get out until the flush either
830                  * succeeds or errors out with a non-abort/Eintr error. */
831                 if (strcmp(current_errstr(), "syscall aborted") &&
832                     strcmp(current_errstr(), Eintr)) {
833                         /* all other errors (not abort or Eintr) */
834                         mntflushfree(m, r);
835                         nexterror();
836                 }
837                 r = mntflushalloc(r, m->msize);
838                 /* need one for every waserror call (so this plus one outside) */
839                 poperror();
840         }
841
842         spin_lock(&m->lock);
843         r->m = m;
844         r->list = m->queue;
845         m->queue = r;
846         spin_unlock(&m->lock);
847
848         /* Transmit a file system rpc */
849         if (m->msize == 0)
850                 panic("msize");
851         n = convS2M(&r->request, r->rpc, m->msize);
852         if (n < 0)
853                 panic("bad message type in mountio");
854         if (devtab[m->c->type].write(m->c, r->rpc, n, 0) != n)
855                 error(EIO, NULL);
856 /*      r->stime = fastticks(NULL); */
857         r->reqlen = n;
858
859         /* Gate readers onto the mount point one at a time */
860         for (;;) {
861                 spin_lock(&m->lock);
862                 if (m->rip == 0)
863                         break;
864                 spin_unlock(&m->lock);
865                 rendez_sleep(&r->r, rpcattn, r);
866                 if (r->done) {
867                         poperror();
868                         mntflushfree(m, r);
869                         return;
870                 }
871         }
872         m->rip = current;
873         spin_unlock(&m->lock);
874         while (r->done == 0) {
875                 if (mntrpcread(m, r) < 0)
876                         error(EIO, NULL);
877                 mountmux(m, r);
878         }
879         mntgate(m);
880         poperror();
881         mntflushfree(m, r);
882 }
883
884 static int doread(struct mnt *m, int len)
885 {
886         struct block *b;
887
888         while (qlen(m->q) < len) {
889                 b = devtab[m->c->type].bread(m->c, m->msize, 0);
890                 if (b == NULL)
891                         return -1;
892                 if (blocklen(b) == 0) {
893                         freeblist(b);
894                         return -1;
895                 }
896                 qaddlist(m->q, b);
897         }
898         return 0;
899 }
900
901 int mntrpcread(struct mnt *m, struct mntrpc *r)
902 {
903         int i, t, len, hlen;
904         struct block *b, **l, *nb;
905
906         r->reply.type = 0;
907         r->reply.tag = 0;
908
909         /* read at least length, type, and tag and pullup to a single block */
910         if (doread(m, BIT32SZ + BIT8SZ + BIT16SZ) < 0)
911                 return -1;
912         nb = pullupqueue(m->q, BIT32SZ + BIT8SZ + BIT16SZ);
913
914         /* read in the rest of the message, avoid ridiculous (for now) message sizes */
915         len = GBIT32(nb->rp);
916         if (len > m->msize) {
917                 qdiscard(m->q, qlen(m->q));
918                 return -1;
919         }
920         if (doread(m, len) < 0)
921                 return -1;
922
923         /* pullup the header (i.e. everything except data) */
924         t = nb->rp[BIT32SZ];
925         switch (t) {
926                 case Rread:
927                         hlen = BIT32SZ + BIT8SZ + BIT16SZ + BIT32SZ;
928                         break;
929                 default:
930                         hlen = len;
931                         break;
932         }
933         nb = pullupqueue(m->q, hlen);
934
935         if (convM2S(nb->rp, len, &r->reply) <= 0) {
936                 /* bad message, dump it */
937                 printd("mntrpcread: convM2S failed\n");
938                 qdiscard(m->q, len);
939                 return -1;
940         }
941
942         /* hang the data off of the fcall struct */
943         l = &r->b;
944         *l = NULL;
945         do {
946                 b = qremove(m->q);
947                 /* TODO: have better block helpers for this and the memmove below */
948                 b = linearizeblock(b);
949                 if (hlen > 0) {
950                         b->rp += hlen;
951                         len -= hlen;
952                         hlen = 0;
953                 }
954                 i = BLEN(b);
955                 if (i <= len) {
956                         len -= i;
957                         *l = b;
958                         l = &(b->next);
959                 } else {
960                         /* split block and put unused bit back */
961                         nb = allocb(i - len);
962                         memmove(nb->wp, b->rp + len, i - len);
963                         b->wp = b->rp + len;
964                         nb->wp += i - len;
965                         qputback(m->q, nb);
966                         *l = b;
967                         return 0;
968                 }
969         } while (len > 0);
970
971         return 0;
972 }
973
974 void mntgate(struct mnt *m)
975 {
976         struct mntrpc *q;
977
978         spin_lock(&m->lock);
979         m->rip = 0;
980         for (q = m->queue; q; q = q->list) {
981                 if (q->done == 0)
982                         if (rendez_wakeup(&q->r))
983                                 break;
984         }
985         spin_unlock(&m->lock);
986 }
987
988 void mountmux(struct mnt *m, struct mntrpc *r)
989 {
990         struct mntrpc **l, *q;
991
992         spin_lock(&m->lock);
993         l = &m->queue;
994         for (q = *l; q; q = q->list) {
995                 /* look for a reply to a message */
996                 if (q->request.tag == r->reply.tag) {
997                         *l = q->list;
998                         if (q != r) {
999                                 /*
1000                                  * Completed someone else.
1001                                  * Trade pointers to receive buffer.
1002                                  */
1003                                 q->reply = r->reply;
1004                                 q->b = r->b;
1005                                 r->b = NULL;
1006                         }
1007                         q->done = 1;
1008                         spin_unlock(&m->lock);
1009                         if (mntstats != NULL)
1010                                 (*mntstats) (q->request.type,
1011                                                          m->c, q->stime, q->reqlen + r->replen);
1012                         if (q != r)
1013                                 rendez_wakeup(&q->r);
1014                         return;
1015                 }
1016                 l = &q->list;
1017         }
1018         spin_unlock(&m->lock);
1019         if (r->reply.type == Rerror) {
1020                 printd("unexpected reply tag %u; type %d (error %q)\n", r->reply.tag,
1021                            r->reply.type, r->reply.ename);
1022         } else {
1023                 printd("unexpected reply tag %u; type %d\n", r->reply.tag,
1024                            r->reply.type);
1025         }
1026 }
1027
1028 /*
1029  * Create a new flush request and chain the previous
1030  * requests from it
1031  */
1032 struct mntrpc *mntflushalloc(struct mntrpc *r, uint32_t iounit)
1033 {
1034         struct mntrpc *fr;
1035
1036         fr = mntralloc(0, iounit);
1037
1038         fr->request.type = Tflush;
1039         if (r->request.type == Tflush)
1040                 fr->request.oldtag = r->request.oldtag;
1041         else
1042                 fr->request.oldtag = r->request.tag;
1043         fr->flushed = r;
1044
1045         return fr;
1046 }
1047
1048 /*
1049  *  Free a chain of flushes.  Remove each unanswered
1050  *  flush and the original message from the unanswered
1051  *  request queue.  Mark the original message as done
1052  *  and if it hasn't been answered set the reply to to
1053  *  Rflush.
1054  */
1055 void mntflushfree(struct mnt *m, struct mntrpc *r)
1056 {
1057         struct mntrpc *fr;
1058
1059         while (r) {
1060                 fr = r->flushed;
1061                 if (!r->done) {
1062                         r->reply.type = Rflush;
1063                         mntqrm(m, r);
1064                 }
1065                 if (fr)
1066                         mntfree(r);
1067                 r = fr;
1068         }
1069 }
1070
1071 static int alloctag(void)
1072 {
1073         return get_u16(mntalloc.tags);
1074 }
1075
1076 static void freetag(int t)
1077 {
1078         put_u16(mntalloc.tags, t);
1079 }
1080
1081 struct mntrpc *mntralloc(struct chan *c, uint32_t msize)
1082 {
1083         struct mntrpc *new;
1084
1085         spin_lock(&mntalloc.l);
1086         new = mntalloc.rpcfree;
1087         if (new == NULL) {
1088                 new = kzmalloc(sizeof(struct mntrpc), 0);
1089                 if (new == NULL) {
1090                         spin_unlock(&mntalloc.l);
1091                         exhausted("mount rpc header");
1092                 }
1093                 rendez_init(&new->r);
1094                 /*
1095                  * The header is split from the data buffer as
1096                  * mountmux may swap the buffer with another header.
1097                  */
1098                 new->rpc = kzmalloc(msize, KMALLOC_WAIT);
1099                 if (new->rpc == NULL) {
1100                         kfree(new);
1101                         spin_unlock(&mntalloc.l);
1102                         exhausted("mount rpc buffer");
1103                 }
1104                 new->rpclen = msize;
1105                 new->request.tag = alloctag();
1106                 if (new->request.tag == NOTAG) {
1107                         kfree(new);
1108                         spin_unlock(&mntalloc.l);
1109                         exhausted("rpc tags");
1110                 }
1111         } else {
1112                 mntalloc.rpcfree = new->list;
1113                 mntalloc.nrpcfree--;
1114                 if (new->rpclen < msize) {
1115                         kfree(new->rpc);
1116                         new->rpc = kzmalloc(msize, KMALLOC_WAIT);
1117                         if (new->rpc == NULL) {
1118                                 kfree(new);
1119                                 mntalloc.nrpcused--;
1120                                 spin_unlock(&mntalloc.l);
1121                                 exhausted("mount rpc buffer");
1122                         }
1123                         new->rpclen = msize;
1124                 }
1125         }
1126         mntalloc.nrpcused++;
1127         spin_unlock(&mntalloc.l);
1128         new->c = c;
1129         new->done = 0;
1130         new->flushed = NULL;
1131         new->b = NULL;
1132         return new;
1133 }
1134
1135 void mntfree(struct mntrpc *r)
1136 {
1137         if (r->b != NULL)
1138                 freeblist(r->b);
1139         spin_lock(&mntalloc.l);
1140         if (mntalloc.nrpcfree >= 10) {
1141                 kfree(r->rpc);
1142                 freetag(r->request.tag);
1143                 kfree(r);
1144         } else {
1145                 r->list = mntalloc.rpcfree;
1146                 mntalloc.rpcfree = r;
1147                 mntalloc.nrpcfree++;
1148         }
1149         mntalloc.nrpcused--;
1150         spin_unlock(&mntalloc.l);
1151 }
1152
1153 void mntqrm(struct mnt *m, struct mntrpc *r)
1154 {
1155         struct mntrpc **l, *f;
1156
1157         spin_lock(&m->lock);
1158         r->done = 1;
1159
1160         l = &m->queue;
1161         for (f = *l; f; f = f->list) {
1162                 if (f == r) {
1163                         *l = r->list;
1164                         break;
1165                 }
1166                 l = &f->list;
1167         }
1168         spin_unlock(&m->lock);
1169 }
1170
1171 struct mnt *mntchk(struct chan *c)
1172 {
1173         struct mnt *m;
1174
1175         /* This routine is mostly vestiges of prior lives; now it's just sanity checking */
1176
1177         if (c->mchan == NULL)
1178                 panic("mntchk 1: NULL mchan c %s\n", /*c2name(c) */ "channame?");
1179
1180         m = c->mchan->mux;
1181
1182         if (m == NULL)
1183                 printd("mntchk 2: NULL mux c %s c->mchan %s \n", c2name(c),
1184                            c2name(c->mchan));
1185
1186         /*
1187          * Was it closed and reused (was error(Eshutdown); now, it can't happen)
1188          */
1189         if (m->id == 0 || m->id >= c->dev)
1190                 panic("mntchk 3: can't happen");
1191
1192         return m;
1193 }
1194
1195 /*
1196  * Rewrite channel type and dev for in-flight data to
1197  * reflect local values.  These entries are known to be
1198  * the first two in the Dir encoding after the count.
1199  */
1200 void mntdirfix(uint8_t * dirbuf, struct chan *c)
1201 {
1202         /* TODO: We used to use the device's char (dc), instead of the type.  not
1203          * sure about the effects one way or the other.  This might be the type[2]
1204          * and dev[4] in a D (struct dir, see 9p's stat
1205          * (http://man.cat-v.org/plan_9/5/stat).  In which case, those should be for
1206          * the kernel's use.  Hopefully our kernel. */
1207         dirbuf += BIT16SZ;      /* skip count */
1208         PBIT16(dirbuf, c->type);
1209         dirbuf += BIT16SZ;
1210         PBIT32(dirbuf, c->dev);
1211 }
1212
1213 int rpcattn(void *v)
1214 {
1215         struct mntrpc *r;
1216
1217         r = v;
1218         return r->done || r->m->rip == 0;
1219 }
1220
1221 struct dev mntdevtab __devtab = {
1222         "mnt",
1223
1224         devreset,
1225         mntinit,
1226         devshutdown,
1227         mntattach,
1228         mntwalk,
1229         mntstat,
1230         mntopen,
1231         mntcreate,
1232         mntclose,
1233         mntread,
1234         devbread,
1235         mntwrite,
1236         devbwrite,
1237         mntremove,
1238         mntwstat,
1239         devpower,
1240         devchaninfo,
1241 };