Reworked the user VM map and added sysevent queue
[akaros.git] / kern / src / env.c
1 /* See COPYRIGHT for copyright information. */
2 #ifdef __DEPUTY__
3 //#pragma nodeputy
4 #pragma noasync
5 #endif
6
7 #include <arch/arch.h>
8 #include <arch/mmu.h>
9 #include <elf.h>
10 #include <smp.h>
11
12 #include <atomic.h>
13 #include <string.h>
14 #include <assert.h>
15 #include <process.h>
16 #include <pmap.h>
17 #include <trap.h>
18 #include <monitor.h>
19 #include <manager.h>
20 #include <stdio.h>
21
22 #include <ros/syscall.h>
23 #include <ros/error.h>
24
25 env_t *envs = NULL;             // All environments
26 atomic_t num_envs;
27 // TODO: make this a struct of info including the pointer and cacheline-align it
28 // This lets the kernel know what process is running on the core it traps into.
29 // A lot of the Env business, including this and its usage, will change when we
30 // redesign the env as a multi-process.
31 env_t* curenvs[MAX_NUM_CPUS] = {[0 ... (MAX_NUM_CPUS-1)] NULL};
32 static env_list_t env_free_list;        // Free list
33
34 #define ENVGENSHIFT     12              // >= LOGNENV
35
36 //
37 // Converts an envid to an env pointer.
38 //
39 // RETURNS
40 //   0 on success, -EBADENV on error.
41 //   On success, sets *env_store to the environment.
42 //   On error, sets *env_store to NULL.
43 //
44 int
45 envid2env(envid_t envid, env_t **env_store, bool checkperm)
46 {
47         env_t *e;
48
49         // If envid is zero, return the current environment.
50         if (envid == 0) {
51                 *env_store = current;
52                 return 0;
53         }
54
55         // Look up the Env structure via the index part of the envid,
56         // then check the env_id field in that env_t
57         // to ensure that the envid is not stale
58         // (i.e., does not refer to a _previous_ environment
59         // that used the same slot in the envs[] array).
60         e = &envs[ENVX(envid)];
61         if (e->state == ENV_FREE || e->env_id != envid) {
62                 *env_store = 0;
63                 return -EBADENV;
64         }
65
66         // Check that the calling environment has legitimate permission
67         // to manipulate the specified environment.
68         // If checkperm is set, the specified environment
69         // must be either the current environment
70         // or an immediate child of the current environment.
71         // TODO: should check for current being null
72         if (checkperm && e != current && e->env_parent_id != current->env_id) {
73                 *env_store = 0;
74                 return -EBADENV;
75         }
76
77         *env_store = e;
78         return 0;
79 }
80
81 //
82 // Mark all environments in 'envs' as free, set their env_ids to 0,
83 // and insert them into the env_free_list.
84 // Insert in reverse order, so that the first call to env_alloc()
85 // returns envs[0].
86 // TODO: get rid of this whole array bullshit
87 //
88 void
89 env_init(void)
90 {
91         int i;
92
93         atomic_init(&num_envs, 0);
94         LIST_INIT(&env_free_list);
95         assert(envs != NULL);
96         for (i = NENV-1; i >= 0; i--) { TRUSTEDBLOCK // asw ivy workaround
97                 // these should already be set from when i memset'd the array to 0
98                 envs[i].state = ENV_FREE;
99                 envs[i].env_id = 0;
100                 LIST_INSERT_HEAD(&env_free_list, &envs[i], env_link);
101         }
102 }
103
104 //
105 // Initialize the kernel virtual memory layout for environment e.
106 // Allocate a page directory, set e->env_pgdir and e->env_cr3 accordingly,
107 // and initialize the kernel portion of the new environment's address space.
108 // Do NOT (yet) map anything into the user portion
109 // of the environment's virtual address space.
110 //
111 // Returns 0 on success, < 0 on error.  Errors include:
112 //      -ENOMEM if page directory or table could not be allocated.
113 //
114 static int
115 env_setup_vm(env_t *e)
116 WRITES(e->env_pgdir, e->env_cr3, e->env_procinfo, e->env_procdata)
117 {
118         int i, r;
119         page_t *pgdir = NULL;
120         page_t *pginfo[PROCINFO_NUM_PAGES] = {NULL}; 
121         page_t *pgdata[PROCDATA_NUM_PAGES] = {NULL};
122         static page_t* shared_page = 0;
123
124         /* 
125          * First, allocate a page for the pgdir of this process and up 
126          * its reference count since this will never be done elsewhere
127          */
128         r = page_alloc(&pgdir);
129         if(r < 0) return r;
130         pgdir->pp_ref++;
131
132         /* 
133          * Next, set up the e->env_pgdir and e->env_cr3 pointers to point
134          * to this newly allocated page and clear its contents
135          */
136         memset(page2kva(pgdir), 0, PGSIZE);
137         e->env_pgdir = (pde_t *COUNT(NPDENTRIES)) TC(page2kva(pgdir));
138         e->env_cr3 =   (physaddr_t) TC(page2pa(pgdir));
139
140         /* 
141          * Now start filling in the pgdir with mappings required by all newly
142          * created address spaces
143          */
144
145         // Map in the kernel to the top of every address space
146         // should be able to do this so long as boot_pgdir never has
147         // anything put below UTOP
148         // TODO check on this!  had a nasty bug because of it
149         // this is a bit wonky, since if it's not PGSIZE, lots of other things are
150         // screwed up...
151         memcpy(e->env_pgdir, boot_pgdir, NPDENTRIES*sizeof(pde_t));
152
153         // VPT and UVPT map the env's own page table, with
154         // different permissions.
155         e->env_pgdir[PDX(VPT)]  = PTE(PPN(e->env_cr3), PTE_P | PTE_KERN_RW);
156         e->env_pgdir[PDX(UVPT)] = PTE(PPN(e->env_cr3), PTE_P | PTE_USER_RO);
157
158         /*
159          * Now allocate and insert all pages required for the shared 
160          * procinfo structure into the page table
161          */
162         for(int i=0; i<PROCINFO_NUM_PAGES; i++) {
163                 if(page_alloc(&pginfo[i]) < 0) 
164                         goto env_setup_vm_error;
165                 if(page_insert(e->env_pgdir, pginfo[i], (void*SNT)(UINFO + i*PGSIZE), PTE_USER_RO) < 0)
166                         goto env_setup_vm_error;
167         }
168         
169         /*
170          * Now allocate and insert all pages required for the shared 
171          * procdata structure into the page table
172          */
173         for(int i=0; i<PROCDATA_NUM_PAGES; i++) {
174                 if(page_alloc(&pgdata[i]) < 0)
175                         goto env_setup_vm_error;
176                 if(page_insert(e->env_pgdir, pgdata[i], (void*SNT)(UDATA + i*PGSIZE), PTE_USER_RW) < 0)
177                         goto env_setup_vm_error;
178         }
179
180         /* 
181          * Now, set e->env_procinfo, and e->env_procdata to point to 
182          * the proper pages just allocated and clear them out.
183          */
184         e->env_procinfo = (procinfo_t *SAFE) TC(page2kva(pginfo[0]));
185         e->env_procdata = (procdata_t *SAFE) TC(page2kva(pgdata[0]));
186         
187         memset(e->env_procinfo, 0, sizeof(procinfo_t));
188         memset(e->env_procdata, 0, sizeof(procdata_t));
189         
190         /* Finally, set up the Global Shared Data page for all processes.  
191          * Can't be trusted, but still very useful at this stage for us.  
192          * Consider removing when we have real processes.
193          * (TODO).  Note the page is alloced only the first time through
194          */
195         if (!shared_page) {
196                 if(page_alloc(&shared_page) < 0)
197                         goto env_setup_vm_error;
198         // Up it, so it never goes away.  One per user, plus one from page_alloc
199         // This is necessary, since it's in the per-process range of memory that
200         // gets freed during page_free.
201         shared_page->pp_ref++;
202         }
203
204         // Inserted into every process's address space at UGDATA
205         if(page_insert(e->env_pgdir, shared_page, (void*SNT)UGDATA, PTE_USER_RW) < 0)
206                 goto env_setup_vm_error;
207
208         return 0;
209
210 env_setup_vm_error:     
211         page_free(shared_page);
212         for(int i=0; i< PROCDATA_NUM_PAGES; i++) {
213                 page_free(pgdata[i]);
214         }
215         for(int i=0; i< PROCINFO_NUM_PAGES; i++) {
216                 page_free(pginfo[i]);
217         }
218         env_user_mem_free(e);
219         page_free(pgdir);
220         return -ENOMEM;
221 }
222
223 //
224 // Allocates and initializes a new environment.
225 // On success, the new environment is stored in *newenv_store.
226 //
227 // Returns 0 on success, < 0 on failure.  Errors include:
228 //      -ENOFREEENV if all NENVS environments are allocated
229 //      -ENOMEM on memory exhaustion
230 //
231 int
232 env_alloc(env_t **newenv_store, envid_t parent_id)
233 {
234         int32_t generation;
235         int r;
236         env_t *e;
237
238         if (!(e = LIST_FIRST(&env_free_list)))
239                 return -ENOFREEENV;
240         
241     { INITSTRUCT(*e)
242
243         // Allocate and set up the page directory for this environment.
244         if ((r = env_setup_vm(e)) < 0)
245                 return r;
246
247         // Generate an env_id for this environment.
248         generation = (e->env_id + (1 << ENVGENSHIFT)) & ~(NENV - 1);
249         if (generation <= 0)    // Don't create a negative env_id.
250                 generation = 1 << ENVGENSHIFT;
251         e->env_id = generation | (e - envs);
252
253         // Set the basic status variables.
254     e->lock = 0;
255         e->env_parent_id = parent_id;
256         proc_set_state(e, PROC_CREATED);
257         e->env_runs = 0;
258         e->env_refcnt = 1;
259         e->env_flags = 0;
260
261
262         memset(&e->env_ancillary_state, 0, sizeof(e->env_ancillary_state));
263         memset(&e->env_tf, 0, sizeof(e->env_tf));
264         env_init_trapframe(e);
265
266         /* 
267          * Initialize the contents of the e->env_procinfo structure
268          */
269          e->env_procinfo->id = (e->env_id & 0x3FF);
270          
271         /* 
272          * Initialize the contents of the e->env_procdata structure
273          */
274         // Initialize the generic syscall ring buffer
275         SHARED_RING_INIT(&e->env_procdata->syscallring);
276         // Initialize the backend of the syscall ring buffer
277         BACK_RING_INIT(&e->syscallbackring, 
278                        &e->env_procdata->syscallring, 
279                        SYSCALLRINGSIZE);
280                        
281         // Initialize the generic sysevent ring buffer
282         SHARED_RING_INIT(&e->env_procdata->syseventring);
283         // Initialize the frontend of the sysevent ring buffer
284         FRONT_RING_INIT(&e->syseventfrontring, 
285                         &e->env_procdata->syseventring, 
286                         SYSEVENTRINGSIZE);
287
288         // commit the allocation
289         LIST_REMOVE(e, env_link);
290         *newenv_store = e;
291         atomic_inc(&num_envs);
292
293         printk("[%08x] new env %08x\n", current ? current->env_id : 0, e->env_id);
294         } // INIT_STRUCT
295         return 0;
296 }
297
298 //
299 // Allocate len bytes of physical memory for environment env,
300 // and map it at virtual address va in the environment's address space.
301 // Does not zero or otherwise initialize the mapped pages in any way.
302 // Pages should be writable by user and kernel.
303 // Panic if any allocation attempt fails.
304 //
305 static void
306 segment_alloc(env_t *e, void *SNT va, size_t len)
307 {
308         void *SNT start, *SNT end;
309         size_t num_pages;
310         int i, r;
311         page_t *page;
312         pte_t *pte;
313
314         start = ROUNDDOWN(va, PGSIZE);
315         end = ROUNDUP(va + len, PGSIZE);
316         if (start >= end)
317                 panic("Wrap-around in memory allocation addresses!");
318         if ((uintptr_t)end > UTOP)
319                 panic("Attempting to map above UTOP!");
320         // page_insert/pgdir_walk alloc a page and read/write to it via its address
321         // starting from pgdir (e's), so we need to be using e's pgdir
322         assert(e->env_cr3 == rcr3());
323         num_pages = PPN(end - start);
324
325         for (i = 0; i < num_pages; i++, start += PGSIZE) {
326                 // skip if a page is already mapped.  yes, page_insert will page_remove
327                 // whatever page was already there, but if we are seg allocing adjacent
328                 // regions, we don't want to destroy that old mapping/page
329                 // though later on we are told we can ignore this...
330                 pte = pgdir_walk(e->env_pgdir, start, 0);
331                 if (pte && *pte & PTE_P)
332                         continue;
333                 if ((r = page_alloc(&page)) < 0)
334                         panic("segment_alloc: %e", r);
335                 page_insert(e->env_pgdir, page, start, PTE_USER_RW);
336         }
337 }
338
339 //
340 // Set up the initial program binary, stack, and processor flags
341 // for a user process.
342 //
343 // This function loads all loadable segments from the ELF binary image
344 // into the environment's user memory, starting at the appropriate
345 // virtual addresses indicated in the ELF program header.
346 // At the same time it clears to zero any portions of these segments
347 // that are marked in the program header as being mapped
348 // but not actually present in the ELF file - i.e., the program's bss section.
349 //
350 // Finally, this function maps one page for the program's initial stack.
351 static void
352 load_icode(env_t *SAFE e, uint8_t *COUNT(size) binary, size_t size)
353 {
354         // asw: copy the headers because they might not be aligned.
355         elf_t elfhdr;
356         proghdr_t phdr;
357         memcpy(&elfhdr, binary, sizeof(elfhdr));
358
359         int i, r;
360
361         // is this an elf?
362         assert(elfhdr.e_magic == ELF_MAGIC);
363         // make sure we have proghdrs to load
364         assert(elfhdr.e_phnum);
365
366         // to actually access any pages alloc'd for this environment, we
367         // need to have the hardware use this environment's page tables.
368         uintreg_t old_cr3 = rcr3();
369         /*
370          * Even though we'll decref later and no one should be killing us at this
371          * stage, we're still going to wrap the lcr3s with incref/decref.
372          *
373          * Note we never decref on the old_cr3, since we aren't willing to let it
374          * die.  It's also not clear who the previous process is - sometimes it
375          * isn't even a process (when the kernel loads on its own, and not in
376          * response to a syscall).  Probably need to think more about this (TODO)
377          *
378          * This can get a bit tricky if this code blocks (will need to think about a
379          * decref then), if we try to change states, etc.
380          */
381         env_incref(e);
382         lcr3(e->env_cr3);
383
384         // TODO: how do we do a runtime COUNT?
385         {TRUSTEDBLOCK // zra: TRUSTEDBLOCK until validation is done.
386         for (i = 0; i < elfhdr.e_phnum; i++) {
387                 memcpy(&phdr, binary + elfhdr.e_phoff + i*sizeof(phdr), sizeof(phdr));
388                 if (phdr.p_type != ELF_PROG_LOAD)
389                         continue;
390         // TODO: validate elf header fields!
391                 // seg alloc creates PTE_U|PTE_W pages.  if you ever want to change
392                 // this, there will be issues with overlapping sections
393                 segment_alloc(e, (void*SNT)phdr.p_va, phdr.p_memsz);
394                 memcpy((void*)phdr.p_va, binary + phdr.p_offset, phdr.p_filesz);
395                 memset((void*)phdr.p_va + phdr.p_filesz, 0, phdr.p_memsz - phdr.p_filesz);
396         }}
397
398         env_set_program_counter(e, elfhdr.e_entry);
399
400         // Now map one page for the program's initial stack
401         // at virtual address USTACKTOP - PGSIZE.
402         segment_alloc(e, (void*SNT)(USTACKTOP - PGSIZE), PGSIZE);
403
404         // reload the original address space
405         lcr3(old_cr3);
406         env_decref(e);
407 }
408
409 //
410 // Allocates a new env and loads the named elf binary into it.
411 //
412 env_t* env_create(uint8_t *binary, size_t size)
413 {
414         env_t *e;
415         int r;
416         envid_t curid;
417         
418         curid = (current ? current->env_id : 0);        
419         if ((r = env_alloc(&e, curid)) < 0)
420                 panic("env_create: %e", r);
421         load_icode(e, binary, size);
422         return e;
423 }
424
425 //
426 // Frees env e and all memory it uses.
427 //
428 void
429 env_free(env_t *e)
430 {
431         physaddr_t pa;
432
433         // Note the environment's demise.
434         printk("[%08x] free env %08x\n", current ? current->env_id : 0, e->env_id);
435         // All parts of the kernel should have decref'd before env_free was called. 
436         assert(e->env_refcnt == 0);
437
438         // Flush all mapped pages in the user portion of the address space
439         env_user_mem_free(e);
440
441         // free the page directory
442         pa = e->env_cr3;
443         e->env_pgdir = 0;
444         e->env_cr3 = 0;
445         page_decref(pa2page(pa));
446
447         // return the environment to the free list
448         e->state = ENV_FREE;
449         LIST_INSERT_HEAD(&env_free_list, e, env_link);
450 }
451
452 /*
453  * The process refcnt is the number of places the process 'exists' in the
454  * system.  Creation counts as 1.  Having your page tables loaded somewhere
455  * (lcr3) counts as another 1.  A non-RUNNING_* process should have refcnt at
456  * least 1.  If the kernel is on another core and in a processes address space
457  * (like processing its backring), that counts as another 1.
458  *
459  * Note that the actual loading and unloading of cr3 is up to the caller, since
460  * that's not the only use for this (and decoupling is more flexible).
461  *
462  * The refcnt should always be greater than 0 for processes that aren't dying.
463  * When refcnt is 0, the process is dying and should not allow any more increfs.
464  * A process can be dying with a refcnt greater than 0, since it could be
465  * waiting for other cores to "get the message" to die, or a kernel core can be
466  * finishing work in the processes's address space.
467  *
468  * Implementation aside, the important thing is that we atomically increment
469  * only if it wasn't already 0.  If it was 0, then we shouldn't be attaching to
470  * the process, so we return an error, which should be handled however is
471  * appropriate.  We currently use spinlocks, but some sort of clever atomics
472  * would work too.
473  *
474  * Also, no one should ever update the refcnt outside of these functions.
475  * Eventually, we'll have Ivy support for this. (TODO)
476  */
477 error_t env_incref(env_t* e)
478 {
479         error_t retval = 0;
480         spin_lock_irqsave(&e->lock);
481         if (e->env_refcnt)
482                 e->env_refcnt++;
483         else
484                 retval = -EBADENV;
485         spin_unlock_irqsave(&e->lock);
486         return retval;
487 }
488
489 /*
490  * When the kernel is done with a process, it decrements its reference count.
491  * When the count hits 0, no one is using it and it should be freed.
492  * "Last one out" actually finalizes the death of the process.  This is tightly
493  * coupled with the previous function (incref)
494  * Be sure to load a different cr3 before calling this!
495  */
496 void env_decref(env_t* e)
497 {
498         spin_lock_irqsave(&e->lock);
499         e->env_refcnt--;
500         spin_unlock_irqsave(&e->lock);
501         // if we hit 0, no one else will increment and we can check outside the lock
502         if (e->env_refcnt == 0)
503                 env_free(e);
504 }
505
506
507 /*
508  * Destroys the given process.  Can be called by a different process (checked
509  * via current), though that's unable to handle an async call (TODO current does
510  * not work asyncly, though it could be made to in the async processing
511  * function. 
512  */
513 void
514 env_destroy(env_t *e)
515 {
516         // TODO: XME race condition with env statuses, esp when running / destroying
517         proc_set_state(e, PROC_DYING);
518
519         /*
520          * If we are currently running this address space on our core, we need a
521          * known good pgdir before releasing the old one.  This is currently the
522          * major practical implication of the kernel caring about a processes
523          * existence (the inc and decref).  This decref corresponds to the incref in
524          * proc_startcore (though it's not the only one).
525          */
526         if (current == e) {
527                 lcr3(boot_cr3);
528                 env_decref(e); // this decref is for the cr3
529         }
530         env_decref(e); // this decref is for the process in general
531         atomic_dec(&num_envs);
532
533         /*
534          * Could consider removing this from destroy and having the caller specify
535          * these actions
536          */
537         // for old envs that die on user cores.  since env run never returns, cores
538         // never get back to their old hlt/relaxed/spin state, so we need to force
539         // them back to an idle function.
540         uint32_t id = core_id();
541         // There is no longer a current process for this core. (TODO: Think about this.)
542         current = NULL;
543         if (id) {
544                 smp_idle();
545                 panic("should never see me");
546         }
547         // else we're core 0 and can do the usual
548
549         /* Instead of picking a new environment to run, or defaulting to the monitor
550          * like before, for now we'll hop into the manager() function, which
551          * dispatches jobs.  Note that for now we start the manager from the top,
552          * and not from where we left off the last time we called manager.  That
553          * would require us to save some context (and a stack to work on) here.
554          */
555         manager();
556         assert(0); // never get here
557 }
558
559 /* ugly, but for now just linearly search through all possible
560  * environments for a runnable one.
561  * the current *policy* is to round-robin the search
562  */
563 void schedule(void)
564 {
565         env_t *e;
566         static int last_picked = 0;
567         
568         for (int i = 0, j = last_picked + 1; i < NENV; i++, j = (j + 1) % NENV) {
569                 e = &envs[ENVX(j)];
570                 // TODO: XME race here, if another core is just about to start this env.
571                 // Fix it by setting the status in something like env_dispatch when
572                 // we have multi-contexted processes
573                 if (e && e->state == PROC_RUNNABLE_S) {
574                         last_picked = j;
575                         env_run(e);
576                 }
577         }
578
579         cprintf("Destroyed the only environment - nothing more to do!\n");
580         while (1)
581                 monitor(NULL);
582 }
583
584 //
585 // Context switch from curenv to env e.
586 // Note: if this is the first call to env_run, curenv is NULL.
587 //  (This function does not return.)
588 //
589 void
590 env_run(env_t *e)
591 {
592         // TODO: XME race here with env destroy on the status and refcnt
593         // Could up the refcnt and down it when a process is not running
594         
595         proc_set_state(e, PROC_RUNNING_S);
596         proc_startcore(e, &e->env_tf);
597 }
598
599 /* This is the top-half of an interrupt handler, where the bottom half is
600  * env_run (which never returns).  Just add it to the delayed work queue,
601  * which (incidentally) can only hold one item at this point.
602  */
603 void run_env_handler(trapframe_t *tf, void *data)
604 {
605         assert(data);
606         struct work job;
607         struct workqueue *workqueue = &per_cpu_info[core_id()].workqueue;
608         { TRUSTEDBLOCK // TODO: how do we make this func_t cast work?
609         job.func = (func_t)env_run;
610         job.data = data;
611         }
612         if (enqueue_work(workqueue, &job))
613                 panic("Failed to enqueue work!");
614 }