Merge branch 'master' into proc-work
[akaros.git] / kern / src / env.c
1 /* See COPYRIGHT for copyright information. */
2 #ifdef __DEPUTY__
3 //#pragma nodeputy
4 #pragma noasync
5 #endif
6
7 #include <arch/arch.h>
8 #include <arch/mmu.h>
9 #include <elf.h>
10 #include <smp.h>
11
12 #include <atomic.h>
13 #include <string.h>
14 #include <assert.h>
15 #include <process.h>
16 #include <pmap.h>
17 #include <trap.h>
18 #include <monitor.h>
19 #include <manager.h>
20
21 #include <ros/syscall.h>
22 #include <ros/error.h>
23
24 env_t *envs = NULL;             // All environments
25 atomic_t num_envs;
26 // TODO: make this a struct of info including the pointer and cacheline-align it
27 // This lets the kernel know what process is running on the core it traps into.
28 // A lot of the Env business, including this and its usage, will change when we
29 // redesign the env as a multi-process.
30 env_t* curenvs[MAX_NUM_CPUS] = {[0 ... (MAX_NUM_CPUS-1)] NULL};
31 static env_list_t env_free_list;        // Free list
32
33 #define ENVGENSHIFT     12              // >= LOGNENV
34
35 //
36 // Converts an envid to an env pointer.
37 //
38 // RETURNS
39 //   0 on success, -EBADENV on error.
40 //   On success, sets *env_store to the environment.
41 //   On error, sets *env_store to NULL.
42 //
43 int
44 envid2env(envid_t envid, env_t **env_store, bool checkperm)
45 {
46         env_t *e;
47
48         // If envid is zero, return the current environment.
49         if (envid == 0) {
50                 *env_store = current;
51                 return 0;
52         }
53
54         // Look up the Env structure via the index part of the envid,
55         // then check the env_id field in that env_t
56         // to ensure that the envid is not stale
57         // (i.e., does not refer to a _previous_ environment
58         // that used the same slot in the envs[] array).
59         e = &envs[ENVX(envid)];
60         if (e->state == ENV_FREE || e->env_id != envid) {
61                 *env_store = 0;
62                 return -EBADENV;
63         }
64
65         // Check that the calling environment has legitimate permission
66         // to manipulate the specified environment.
67         // If checkperm is set, the specified environment
68         // must be either the current environment
69         // or an immediate child of the current environment.
70         // TODO: should check for current being null
71         if (checkperm && e != current && e->env_parent_id != current->env_id) {
72                 *env_store = 0;
73                 return -EBADENV;
74         }
75
76         *env_store = e;
77         return 0;
78 }
79
80 //
81 // Mark all environments in 'envs' as free, set their env_ids to 0,
82 // and insert them into the env_free_list.
83 // Insert in reverse order, so that the first call to env_alloc()
84 // returns envs[0].
85 // TODO: get rid of this whole array bullshit
86 //
87 void
88 env_init(void)
89 {
90         int i;
91
92         atomic_init(&num_envs, 0);
93         LIST_INIT(&env_free_list);
94         assert(envs != NULL);
95         for (i = NENV-1; i >= 0; i--) { TRUSTEDBLOCK // asw ivy workaround
96                 // these should already be set from when i memset'd the array to 0
97                 envs[i].state = ENV_FREE;
98                 envs[i].env_id = 0;
99                 LIST_INSERT_HEAD(&env_free_list, &envs[i], env_link);
100         }
101 }
102
103 //
104 // Initialize the kernel virtual memory layout for environment e.
105 // Allocate a page directory, set e->env_pgdir and e->env_cr3 accordingly,
106 // and initialize the kernel portion of the new environment's address space.
107 // Do NOT (yet) map anything into the user portion
108 // of the environment's virtual address space.
109 //
110 // Returns 0 on success, < 0 on error.  Errors include:
111 //      -ENOMEM if page directory or table could not be allocated.
112 //
113 static int
114 env_setup_vm(env_t *e)
115 WRITES(e->env_pgdir, e->env_cr3, e->env_procinfo, e->env_syscallring,
116        e->env_syseventring, e->env_syscallbackring, e->env_syseventfrontring)
117 {
118         int i, r;
119         page_t *pgdir = NULL;
120         page_t *pginfo = NULL; 
121         page_t *pgsyscallring = NULL;
122         page_t *pgsyseventring = NULL;
123
124         /* 
125          * Allocate pages for the page directory, shared info, shared data, 
126          * and kernel message pages
127          */
128         r = page_alloc(&pgdir);
129         if(r < 0) return r;
130         r = page_alloc(&pginfo);
131         if (r < 0) {
132                 page_free(pgdir);
133                 return r;
134         }       
135         r = page_alloc(&pgsyscallring);
136         if (r < 0) {
137                 page_free(pgdir);
138                 page_free(pginfo);
139                 return r;
140         }
141         r = page_alloc(&pgsyseventring);
142         if (r < 0) {
143                 page_free(pgdir);
144                 page_free(pginfo);
145                 page_free(pgsyscallring);
146                 return r;
147         }
148
149         // Now, set e->env_pgdir and e->env_cr3,
150         // and initialize the page directory.
151         //
152         // Hint:
153         //    - The VA space of all envs is identical above UTOP
154         //      (except at VPT and UVPT, which we've set below).
155         //      (and not for UINFO either)
156         //      See inc/memlayout.h for permissions and layout.
157         //      Can you use boot_pgdir as a template?  Hint: Yes.
158         //      (Make sure you got the permissions right in Lab 2.)
159         //    - The initial VA below UTOP is empty.
160         //    - You do not need to make any more calls to page_alloc.
161         //    - Note: pp_ref is not maintained for most physical pages
162         //      mapped above UTOP -- but you do need to increment
163         //      env_pgdir's pp_ref!
164
165         // need to up pgdir's reference, since it will never be done elsewhere
166         pgdir->pp_ref++;
167         e->env_pgdir = page2kva(pgdir);
168         e->env_cr3 = page2pa(pgdir);
169         e->env_procinfo = page2kva(pginfo);
170         e->env_syscallring = page2kva(pgsyscallring);
171         e->env_syseventring = page2kva(pgsyseventring);
172
173         memset(page2kva(pgdir), 0, PGSIZE);
174         memset(e->env_procinfo, 0, PGSIZE);
175         memset((void*COUNT(PGSIZE)) TC(e->env_syscallring), 0, PGSIZE);
176         memset((void*COUNT(PGSIZE)) TC(e->env_syseventring), 0, PGSIZE);
177
178         // Initialize the generic syscall ring buffer
179         SHARED_RING_INIT(e->env_syscallring);
180         // Initialize the backend of the syscall ring buffer
181         BACK_RING_INIT(&e->env_syscallbackring, e->env_syscallring, PGSIZE);
182                        
183         // Initialize the generic sysevent ring buffer
184         SHARED_RING_INIT(e->env_syseventring);
185         // Initialize the frontend of the sysevent ring buffer
186         FRONT_RING_INIT(&e->env_syseventfrontring, e->env_syseventring, PGSIZE);
187
188         // should be able to do this so long as boot_pgdir never has
189         // anything put below UTOP
190         // TODO check on this!  had a nasty bug because of it
191         // this is a bit wonky, since if it's not PGSIZE, lots of other things are
192         // screwed up...
193         memcpy(e->env_pgdir, boot_pgdir, NPDENTRIES*sizeof(pde_t));
194
195         // something like this.  TODO, if you want
196         //memcpy(&e->env_pgdir[PDX(UTOP)], &boot_pgdir[PDX(UTOP)], PGSIZE - PDX(UTOP));
197         // check with
198         // assert(memcmp(e->env_pgdir, boot_pgdir, PGSIZE) == 0);
199
200         // VPT and UVPT map the env's own page table, with
201         // different permissions.
202         e->env_pgdir[PDX(VPT)]  = PTE(PPN(e->env_cr3), PTE_P | PTE_KERN_RW);
203         e->env_pgdir[PDX(UVPT)] = PTE(PPN(e->env_cr3), PTE_P | PTE_USER_RO);
204
205         // Insert the per-process info and ring buffer pages into this process's 
206         // pgdir.  I don't want to do these two pages later (like with the stack), 
207         // since the kernel wants to keep pointers to it easily.
208         // Could place all of this with a function that maps a shared memory page
209         // that can work between any two address spaces or something.
210         r = page_insert(e->env_pgdir, pginfo, (void*SNT)UINFO, PTE_USER_RO);
211         if (r < 0) {
212                 page_free(pgdir);
213                 page_free(pginfo);
214                 page_free(pgsyscallring);
215                 page_free(pgsyseventring);
216                 return r;
217         }
218         r = page_insert(e->env_pgdir, pgsyscallring, (void*SNT)USYSCALL, PTE_USER_RW);
219         if (r < 0) {
220                 // note that we can't currently deallocate the pages created by
221                 // pgdir_walk (inside insert).  should be able to gather them up when
222                 // we destroy environments and their page tables.
223                 page_free(pgdir);
224                 page_free(pginfo);
225                 page_free(pgsyscallring);
226                 page_free(pgsyseventring);
227                 return r;
228         }
229
230         /* Shared page for all processes.  Can't be trusted, but still very useful
231          * at this stage for us.  Consider removing when we have real processes.
232          * (TODO).  Note the page is alloced only the first time through
233          */
234         static page_t* shared_page = 0;
235         if (!shared_page)
236                 page_alloc(&shared_page);
237         // Up it, so it never goes away.  One per user, plus one from page_alloc
238         // This is necessary, since it's in the per-process range of memory that
239         // gets freed during page_free.
240         shared_page->pp_ref++;
241
242         // Inserted into every process's address space at UGDATA
243         page_insert(e->env_pgdir, shared_page, (void*SNT)UGDATA, PTE_USER_RW);
244
245         return 0;
246 }
247
248 //
249 // Allocates and initializes a new environment.
250 // On success, the new environment is stored in *newenv_store.
251 //
252 // Returns 0 on success, < 0 on failure.  Errors include:
253 //      -ENOFREEENV if all NENVS environments are allocated
254 //      -ENOMEM on memory exhaustion
255 //
256 int
257 env_alloc(env_t **newenv_store, envid_t parent_id)
258 {
259         int32_t generation;
260         int r;
261         env_t *e;
262
263         if (!(e = LIST_FIRST(&env_free_list)))
264                 return -ENOFREEENV;
265         
266     { INITSTRUCT(*e)
267
268         // Allocate and set up the page directory for this environment.
269         if ((r = env_setup_vm(e)) < 0)
270                 return r;
271
272         // Generate an env_id for this environment.
273         generation = (e->env_id + (1 << ENVGENSHIFT)) & ~(NENV - 1);
274         if (generation <= 0)    // Don't create a negative env_id.
275                 generation = 1 << ENVGENSHIFT;
276         e->env_id = generation | (e - envs);
277
278         // Set the basic status variables.
279     e->lock = 0;
280         e->env_parent_id = parent_id;
281         proc_set_state(e, PROC_CREATED);
282         e->env_runs = 0;
283         e->env_refcnt = 1;
284         e->env_flags = 0;
285
286         memset(&e->env_ancillary_state, 0, sizeof(e->env_ancillary_state));
287         memset(&e->env_tf, 0, sizeof(e->env_tf));
288         env_init_trapframe(e);
289
290         // commit the allocation
291         LIST_REMOVE(e, env_link);
292         *newenv_store = e;
293         atomic_inc(&num_envs);
294
295         printk("[%08x] new env %08x\n", current ? current->env_id : 0, e->env_id);
296         } // INIT_STRUCT
297         return 0;
298 }
299
300 //
301 // Allocate len bytes of physical memory for environment env,
302 // and map it at virtual address va in the environment's address space.
303 // Does not zero or otherwise initialize the mapped pages in any way.
304 // Pages should be writable by user and kernel.
305 // Panic if any allocation attempt fails.
306 //
307 static void
308 segment_alloc(env_t *e, void *SNT va, size_t len)
309 {
310         void *SNT start, *SNT end;
311         size_t num_pages;
312         int i, r;
313         page_t *page;
314         pte_t *pte;
315
316         start = ROUNDDOWN(va, PGSIZE);
317         end = ROUNDUP(va + len, PGSIZE);
318         if (start >= end)
319                 panic("Wrap-around in memory allocation addresses!");
320         if ((uintptr_t)end > UTOP)
321                 panic("Attempting to map above UTOP!");
322         // page_insert/pgdir_walk alloc a page and read/write to it via its address
323         // starting from pgdir (e's), so we need to be using e's pgdir
324         assert(e->env_cr3 == rcr3());
325         num_pages = PPN(end - start);
326
327         for (i = 0; i < num_pages; i++, start += PGSIZE) {
328                 // skip if a page is already mapped.  yes, page_insert will page_remove
329                 // whatever page was already there, but if we are seg allocing adjacent
330                 // regions, we don't want to destroy that old mapping/page
331                 // though later on we are told we can ignore this...
332                 pte = pgdir_walk(e->env_pgdir, start, 0);
333                 if (pte && *pte & PTE_P)
334                         continue;
335                 if ((r = page_alloc(&page)) < 0)
336                         panic("segment_alloc: %e", r);
337                 page_insert(e->env_pgdir, page, start, PTE_USER_RW);
338         }
339 }
340
341 //
342 // Set up the initial program binary, stack, and processor flags
343 // for a user process.
344 //
345 // This function loads all loadable segments from the ELF binary image
346 // into the environment's user memory, starting at the appropriate
347 // virtual addresses indicated in the ELF program header.
348 // At the same time it clears to zero any portions of these segments
349 // that are marked in the program header as being mapped
350 // but not actually present in the ELF file - i.e., the program's bss section.
351 //
352 // Finally, this function maps one page for the program's initial stack.
353 static void
354 load_icode(env_t *SAFE e, uint8_t *COUNT(size) binary, size_t size)
355 {
356         // asw: copy the headers because they might not be aligned.
357         elf_t elfhdr;
358         proghdr_t phdr;
359         memcpy(&elfhdr, binary, sizeof(elfhdr));
360
361         int i, r;
362
363         // is this an elf?
364         assert(elfhdr.e_magic == ELF_MAGIC);
365         // make sure we have proghdrs to load
366         assert(elfhdr.e_phnum);
367
368         // to actually access any pages alloc'd for this environment, we
369         // need to have the hardware use this environment's page tables.
370         uintreg_t old_cr3 = rcr3();
371         /*
372          * Even though we'll decref later and no one should be killing us at this
373          * stage, we're still going to wrap the lcr3s with incref/decref.
374          *
375          * Note we never decref on the old_cr3, since we aren't willing to let it
376          * die.  It's also not clear who the previous process is - sometimes it
377          * isn't even a process (when the kernel loads on its own, and not in
378          * response to a syscall).  Probably need to think more about this (TODO)
379          *
380          * This can get a bit tricky if this code blocks (will need to think about a
381          * decref then), if we try to change states, etc.
382          */
383         env_incref(e);
384         lcr3(e->env_cr3);
385
386         // TODO: how do we do a runtime COUNT?
387         {TRUSTEDBLOCK // zra: TRUSTEDBLOCK until validation is done.
388         for (i = 0; i < elfhdr.e_phnum; i++) {
389                 memcpy(&phdr, binary + elfhdr.e_phoff + i*sizeof(phdr), sizeof(phdr));
390                 if (phdr.p_type != ELF_PROG_LOAD)
391                         continue;
392         // TODO: validate elf header fields!
393                 // seg alloc creates PTE_U|PTE_W pages.  if you ever want to change
394                 // this, there will be issues with overlapping sections
395                 segment_alloc(e, (void*SNT)phdr.p_va, phdr.p_memsz);
396                 memcpy((void*)phdr.p_va, binary + phdr.p_offset, phdr.p_filesz);
397                 memset((void*)phdr.p_va + phdr.p_filesz, 0, phdr.p_memsz - phdr.p_filesz);
398         }}
399
400         env_set_program_counter(e, elfhdr.e_entry);
401
402         // Now map one page for the program's initial stack
403         // at virtual address USTACKTOP - PGSIZE.
404         segment_alloc(e, (void*SNT)(USTACKTOP - PGSIZE), PGSIZE);
405
406         // reload the original address space
407         lcr3(old_cr3);
408         env_decref(e);
409 }
410
411 //
412 // Allocates a new env and loads the named elf binary into it.
413 //
414 env_t* env_create(uint8_t *binary, size_t size)
415 {
416         env_t *e;
417         int r;
418         envid_t curid;
419         
420         curid = (current ? current->env_id : 0);        
421         if ((r = env_alloc(&e, curid)) < 0)
422                 panic("env_create: %e", r);
423         load_icode(e, binary, size);
424         return e;
425 }
426
427 //
428 // Frees env e and all memory it uses.
429 //
430 void
431 env_free(env_t *e)
432 {
433         physaddr_t pa;
434
435         // Note the environment's demise.
436         printk("[%08x] free env %08x\n", current ? current->env_id : 0, e->env_id);
437         // All parts of the kernel should have decref'd before env_free was called. 
438         assert(e->env_refcnt == 0);
439
440         // Flush all mapped pages in the user portion of the address space
441         env_user_mem_free(e);
442
443         // free the page directory
444         pa = e->env_cr3;
445         e->env_pgdir = 0;
446         e->env_cr3 = 0;
447         page_decref(pa2page(pa));
448
449         // return the environment to the free list
450         e->state = ENV_FREE;
451         LIST_INSERT_HEAD(&env_free_list, e, env_link);
452 }
453
454 /*
455  * The process refcnt is the number of places the process 'exists' in the
456  * system.  Creation counts as 1.  Having your page tables loaded somewhere
457  * (lcr3) counts as another 1.  A non-RUNNING_* process should have refcnt at
458  * least 1.  If the kernel is on another core and in a processes address space
459  * (like processing its backring), that counts as another 1.
460  *
461  * Note that the actual loading and unloading of cr3 is up to the caller, since
462  * that's not the only use for this (and decoupling is more flexible).
463  *
464  * The refcnt should always be greater than 0 for processes that aren't dying.
465  * When refcnt is 0, the process is dying and should not allow any more increfs.
466  * A process can be dying with a refcnt greater than 0, since it could be
467  * waiting for other cores to "get the message" to die, or a kernel core can be
468  * finishing work in the processes's address space.
469  *
470  * Implementation aside, the important thing is that we atomically increment
471  * only if it wasn't already 0.  If it was 0, then we shouldn't be attaching to
472  * the process, so we return an error, which should be handled however is
473  * appropriate.  We currently use spinlocks, but some sort of clever atomics
474  * would work too.
475  *
476  * Also, no one should ever update the refcnt outside of these functions.
477  * Eventually, we'll have Ivy support for this. (TODO)
478  */
479 error_t env_incref(env_t* e)
480 {
481         error_t retval = 0;
482         spin_lock_irqsave(&e->lock);
483         if (e->env_refcnt)
484                 e->env_refcnt++;
485         else
486                 retval = -EBADENV;
487         spin_unlock_irqsave(&e->lock);
488         return retval;
489 }
490
491 /*
492  * When the kernel is done with a process, it decrements its reference count.
493  * When the count hits 0, no one is using it and it should be freed.
494  * "Last one out" actually finalizes the death of the process.  This is tightly
495  * coupled with the previous function (incref)
496  * Be sure to load a different cr3 before calling this!
497  */
498 void env_decref(env_t* e)
499 {
500         spin_lock_irqsave(&e->lock);
501         e->env_refcnt--;
502         spin_unlock_irqsave(&e->lock);
503         // if we hit 0, no one else will increment and we can check outside the lock
504         if (e->env_refcnt == 0)
505                 env_free(e);
506 }
507
508
509 /*
510  * Destroys the given process.  Can be called by a different process (checked
511  * via current), though that's unable to handle an async call (TODO current does
512  * not work asyncly, though it could be made to in the async processing
513  * function. 
514  */
515 void
516 env_destroy(env_t *e)
517 {
518         // TODO: XME race condition with env statuses, esp when running / destroying
519         proc_set_state(e, PROC_DYING);
520
521         /*
522          * If we are currently running this address space on our core, we need a
523          * known good pgdir before releasing the old one.  This is currently the
524          * major practical implication of the kernel caring about a processes
525          * existence (the inc and decref).  This decref corresponds to the incref in
526          * proc_startcore (though it's not the only one).
527          */
528         if (current == e) {
529                 lcr3(boot_cr3);
530                 env_decref(e); // this decref is for the cr3
531         }
532         env_decref(e); // this decref is for the process in general
533         atomic_dec(&num_envs);
534
535         /*
536          * Could consider removing this from destroy and having the caller specify
537          * these actions
538          */
539         // for old envs that die on user cores.  since env run never returns, cores
540         // never get back to their old hlt/relaxed/spin state, so we need to force
541         // them back to an idle function.
542         uint32_t id = core_id();
543         // There is no longer a current process for this core. (TODO: Think about this.)
544         current = NULL;
545         if (id) {
546                 smp_idle();
547                 panic("should never see me");
548         }
549         // else we're core 0 and can do the usual
550
551         /* Instead of picking a new environment to run, or defaulting to the monitor
552          * like before, for now we'll hop into the manager() function, which
553          * dispatches jobs.  Note that for now we start the manager from the top,
554          * and not from where we left off the last time we called manager.  That
555          * would require us to save some context (and a stack to work on) here.
556          */
557         manager();
558         assert(0); // never get here
559 }
560
561 /* ugly, but for now just linearly search through all possible
562  * environments for a runnable one.
563  * the current *policy* is to round-robin the search
564  */
565 void schedule(void)
566 {
567         env_t *e;
568         static int last_picked = 0;
569         
570         for (int i = 0, j = last_picked + 1; i < NENV; i++, j = (j + 1) % NENV) {
571                 e = &envs[ENVX(j)];
572                 // TODO: XME race here, if another core is just about to start this env.
573                 // Fix it by setting the status in something like env_dispatch when
574                 // we have multi-contexted processes
575                 if (e && e->state == PROC_RUNNABLE_S) {
576                         last_picked = j;
577                         env_run(e);
578                 }
579         }
580
581         cprintf("Destroyed the only environment - nothing more to do!\n");
582         while (1)
583                 monitor(NULL);
584 }
585
586 //
587 // Context switch from curenv to env e.
588 // Note: if this is the first call to env_run, curenv is NULL.
589 //  (This function does not return.)
590 //
591 void
592 env_run(env_t *e)
593 {
594         // TODO: XME race here with env destroy on the status and refcnt
595         // Could up the refcnt and down it when a process is not running
596         
597         proc_set_state(e, PROC_RUNNING_S);
598         proc_startcore(e, &e->env_tf);
599 }
600
601 /* This is the top-half of an interrupt handler, where the bottom half is
602  * env_run (which never returns).  Just add it to the delayed work queue,
603  * which (incidentally) can only hold one item at this point.
604  */
605 void run_env_handler(trapframe_t *tf, void *data)
606 {
607         assert(data);
608         struct work job;
609         struct workqueue *workqueue = &per_cpu_info[core_id()].workqueue;
610         { TRUSTEDBLOCK // TODO: how do we make this func_t cast work?
611         job.func = (func_t)env_run;
612         job.data = data;
613         }
614         if (enqueue_work(workqueue, &job))
615                 panic("Failed to enqueue work!");
616 }