Merge branch 'master' into net-dev (with code changes listed below besides normal...
[akaros.git] / kern / src / env.c
1 /* See COPYRIGHT for copyright information. */
2
3 #include <arch/arch.h>
4 #include <arch/mmu.h>
5 #include <elf.h>
6 #include <smp.h>
7
8 #include <atomic.h>
9 #include <string.h>
10 #include <assert.h>
11 #include <process.h>
12 #include <pmap.h>
13 #include <trap.h>
14 #include <monitor.h>
15 #include <manager.h>
16 #include <stdio.h>
17 #include <schedule.h>
18
19 #include <ros/syscall.h>
20 #include <ros/error.h>
21
22 env_t *envs = NULL;             // All environments
23 atomic_t num_envs;
24 // TODO: make this a struct of info including the pointer and cacheline-align it
25 // This lets the kernel know what process is running on the core it traps into.
26 // A lot of the Env business, including this and its usage, will change when we
27 // redesign the env as a multi-process.
28 env_t* curenvs[MAX_NUM_CPUS] = {[0 ... (MAX_NUM_CPUS-1)] NULL};
29
30 #define ENVGENSHIFT     12              // >= LOGNENV
31
32 //
33 // Converts an envid to an env pointer.
34 //
35 // RETURNS
36 //   0 on success, -EBADENV on error.
37 //   On success, sets *env_store to the environment.
38 //   On error, sets *env_store to NULL.
39 //
40 int
41 envid2env(envid_t envid, env_t **env_store, bool checkperm)
42 {
43         env_t *e;
44
45         // If envid is zero, return the current environment.
46         if (envid == 0) {
47                 *env_store = current;
48                 return 0;
49         }
50
51         // Look up the Env structure via the index part of the envid,
52         // then check the env_id field in that env_t
53         // to ensure that the envid is not stale
54         // (i.e., does not refer to a _previous_ environment
55         // that used the same slot in the envs[] array).
56         e = &envs[ENVX(envid)];
57         if (e->state == ENV_FREE || e->env_id != envid) {
58                 *env_store = 0;
59                 return -EBADENV;
60         }
61
62         // Check that the calling environment has legitimate permission
63         // to manipulate the specified environment.
64         // If checkperm is set, the specified environment
65         // must be either the current environment
66         // or an immediate child of the current environment.
67         // TODO: should check for current being null
68         if (checkperm && e != current && e->env_parent_id != current->env_id) {
69                 *env_store = 0;
70                 return -EBADENV;
71         }
72
73         *env_store = e;
74         return 0;
75 }
76
77 //
78 // Mark all environments in 'envs' as free, set their env_ids to 0,
79 // and insert them into the proc_freelist.
80 // Insert in reverse order, so that the first call to env_alloc()
81 // returns envs[0].
82 // TODO: get rid of this whole array bullshit
83 //
84 void
85 env_init(void)
86 {
87         int i;
88
89         schedule_init();
90         atomic_init(&num_envs, 0);
91         TAILQ_INIT(&proc_freelist);
92         assert(envs != NULL);
93         for (i = NENV-1; i >= 0; i--) { TRUSTEDBLOCK // asw ivy workaround
94                 // these should already be set from when i memset'd the array to 0
95                 envs[i].state = ENV_FREE;
96                 envs[i].env_id = 0;
97                 TAILQ_INSERT_HEAD(&proc_freelist, &envs[i], proc_link);
98         }
99 }
100
101 //
102 // Initialize the kernel virtual memory layout for environment e.
103 // Allocate a page directory, set e->env_pgdir and e->env_cr3 accordingly,
104 // and initialize the kernel portion of the new environment's address space.
105 // Do NOT (yet) map anything into the user portion
106 // of the environment's virtual address space.
107 //
108 // Returns 0 on success, < 0 on error.  Errors include:
109 //      -ENOMEM if page directory or table could not be allocated.
110 //
111 static int
112 env_setup_vm(env_t *e)
113 WRITES(e->env_pgdir, e->env_cr3, e->env_procinfo, e->env_procdata)
114 {
115         int i, r;
116         page_t *pgdir = NULL;
117         page_t *pginfo[PROCINFO_NUM_PAGES] = {NULL};
118         page_t *pgdata[PROCDATA_NUM_PAGES] = {NULL};
119         static page_t* shared_page = 0;
120
121         /*
122          * First, allocate a page for the pgdir of this process and up
123          * its reference count since this will never be done elsewhere
124          */
125         r = page_alloc(&pgdir);
126         if(r < 0) return r;
127         page_incref(pgdir);
128
129         /*
130          * Next, set up the e->env_pgdir and e->env_cr3 pointers to point
131          * to this newly allocated page and clear its contents
132          */
133         memset(page2kva(pgdir), 0, PGSIZE);
134         e->env_pgdir = (pde_t *COUNT(NPDENTRIES)) TC(page2kva(pgdir));
135         e->env_cr3 =   (physaddr_t) TC(page2pa(pgdir));
136
137         /*
138          * Now start filling in the pgdir with mappings required by all newly
139          * created address spaces
140          */
141
142         // Map in the kernel to the top of every address space
143         // should be able to do this so long as boot_pgdir never has
144         // anything put below UTOP
145         // TODO check on this!  had a nasty bug because of it
146         // this is a bit wonky, since if it's not PGSIZE, lots of other things are
147         // screwed up...
148         memcpy(e->env_pgdir, boot_pgdir, NPDENTRIES*sizeof(pde_t));
149
150         // VPT and UVPT map the env's own page table, with
151         // different permissions.
152         e->env_pgdir[PDX(VPT)]  = PTE(PPN(e->env_cr3), PTE_P | PTE_KERN_RW);
153         e->env_pgdir[PDX(UVPT)] = PTE(PPN(e->env_cr3), PTE_P | PTE_USER_RO);
154
155         /*
156          * Now allocate and insert all pages required for the shared
157          * procinfo structure into the page table
158          */
159         for(int i=0; i<PROCINFO_NUM_PAGES; i++) {
160                 if(page_alloc(&pginfo[i]) < 0)
161                         goto env_setup_vm_error;
162                 if(page_insert(e->env_pgdir, pginfo[i], (void*SNT)(UINFO + i*PGSIZE), PTE_USER_RO) < 0)
163                         goto env_setup_vm_error;
164         }
165
166         /*
167          * Now allocate and insert all pages required for the shared
168          * procdata structure into the page table
169          */
170         for(int i=0; i<PROCDATA_NUM_PAGES; i++) {
171                 if(page_alloc(&pgdata[i]) < 0)
172                         goto env_setup_vm_error;
173                 if(page_insert(e->env_pgdir, pgdata[i], (void*SNT)(UDATA + i*PGSIZE), PTE_USER_RW) < 0)
174                         goto env_setup_vm_error;
175         }
176
177         /*
178          * Now, set e->env_procinfo, and e->env_procdata to point to
179          * the proper pages just allocated and clear them out.
180          */
181         e->env_procinfo = (procinfo_t *SAFE) TC(page2kva(pginfo[0]));
182         e->env_procdata = (procdata_t *SAFE) TC(page2kva(pgdata[0]));
183
184         memset(e->env_procinfo, 0, sizeof(procinfo_t));
185         memset(e->env_procdata, 0, sizeof(procdata_t));
186
187         /* Finally, set up the Global Shared Data page for all processes.
188          * Can't be trusted, but still very useful at this stage for us.
189          * Consider removing when we have real processes.
190          * (TODO).  Note the page is alloced only the first time through
191          */
192         if (!shared_page) {
193                 if(page_alloc(&shared_page) < 0)
194                         goto env_setup_vm_error;
195         // Up it, so it never goes away.  One per user, plus one from page_alloc
196         // This is necessary, since it's in the per-process range of memory that
197         // gets freed during page_free.
198         page_incref(shared_page);
199         }
200
201         // Inserted into every process's address space at UGDATA
202         if(page_insert(e->env_pgdir, shared_page, (void*SNT)UGDATA, PTE_USER_RW) < 0)
203                 goto env_setup_vm_error;
204
205         return 0;
206
207 env_setup_vm_error:
208         page_free(shared_page);
209         for(int i=0; i< PROCDATA_NUM_PAGES; i++) {
210                 page_free(pgdata[i]);
211         }
212         for(int i=0; i< PROCINFO_NUM_PAGES; i++) {
213                 page_free(pginfo[i]);
214         }
215         env_user_mem_free(e);
216         page_free(pgdir);
217         return -ENOMEM;
218 }
219
220 //
221 // Allocates and initializes a new environment.
222 // On success, the new environment is stored in *newenv_store.
223 //
224 // Returns 0 on success, < 0 on failure.  Errors include:
225 //      -ENOFREEENV if all NENVS environments are allocated
226 //      -ENOMEM on memory exhaustion
227 //
228 int
229 env_alloc(env_t **newenv_store, envid_t parent_id)
230 {
231         int32_t generation;
232         int r;
233         env_t *e;
234
235         spin_lock(&freelist_lock);
236         e = TAILQ_FIRST(&proc_freelist);
237         if (e) {
238                 TAILQ_REMOVE(&proc_freelist, e, proc_link);
239                 spin_unlock(&freelist_lock);
240         } else {
241                 spin_unlock(&freelist_lock);
242                 return -ENOFREEENV;
243         }
244
245     { INITSTRUCT(*e)
246
247         // Allocate and set up the page directory for this environment.
248         if ((r = env_setup_vm(e)) < 0) {
249                 spin_lock(&freelist_lock);
250                 TAILQ_INSERT_HEAD(&proc_freelist, e, proc_link);
251                 spin_unlock(&freelist_lock);
252                 return r;
253         }
254
255         // Generate an env_id for this environment.
256         generation = (e->env_id + (1 << ENVGENSHIFT)) & ~(NENV - 1);
257         if (generation <= 0)    // Don't create a negative env_id.
258                 generation = 1 << ENVGENSHIFT;
259         e->env_id = generation | (e - envs);
260
261         // Set the basic status variables.
262     e->proc_lock = 0;
263         e->env_parent_id = parent_id;
264         proc_set_state(e, PROC_CREATED);
265         e->env_runs = 0;
266         e->env_refcnt = 1;
267         e->env_flags = 0;
268
269
270         memset(&e->env_ancillary_state, 0, sizeof(e->env_ancillary_state));
271         memset(&e->env_tf, 0, sizeof(e->env_tf));
272         env_init_trapframe(e);
273
274         /*
275          * Initialize the contents of the e->env_procinfo structure
276          */
277          e->env_procinfo->id = (e->env_id & 0x3FF);
278
279         /*
280          * Initialize the contents of the e->env_procdata structure
281          */
282         // Initialize the generic syscall ring buffer
283         SHARED_RING_INIT(&e->env_procdata->syscallring);
284         // Initialize the backend of the syscall ring buffer
285         BACK_RING_INIT(&e->syscallbackring,
286                        &e->env_procdata->syscallring,
287                        SYSCALLRINGSIZE);
288
289         // Initialize the generic sysevent ring buffer
290         SHARED_RING_INIT(&e->env_procdata->syseventring);
291         // Initialize the frontend of the sysevent ring buffer
292         FRONT_RING_INIT(&e->syseventfrontring,
293                         &e->env_procdata->syseventring,
294                         SYSEVENTRINGSIZE);
295
296         *newenv_store = e;
297         atomic_inc(&num_envs);
298
299         printk("[%08x] new env %08x\n", current ? current->env_id : 0, e->env_id);
300         } // INIT_STRUCT
301         return 0;
302 }
303
304 //
305 // Allocate len bytes of physical memory for environment env,
306 // and map it at virtual address va in the environment's address space.
307 // Does not zero or otherwise initialize the mapped pages in any way.
308 // Pages should be writable by user and kernel.
309 // Panic if any allocation attempt fails.
310 //
311 static void
312 segment_alloc(env_t *e, void *SNT va, size_t len)
313 {
314         void *SNT start, *SNT end;
315         size_t num_pages;
316         int i, r;
317         page_t *page;
318         pte_t *pte;
319
320         start = ROUNDDOWN(va, PGSIZE);
321         end = ROUNDUP(va + len, PGSIZE);
322         if (start >= end)
323                 panic("Wrap-around in memory allocation addresses!");
324         if ((uintptr_t)end > UTOP)
325                 panic("Attempting to map above UTOP!");
326         // page_insert/pgdir_walk alloc a page and read/write to it via its address
327         // starting from pgdir (e's), so we need to be using e's pgdir
328         assert(e->env_cr3 == rcr3());
329         num_pages = PPN(end - start);
330
331         for (i = 0; i < num_pages; i++, start += PGSIZE) {
332                 // skip if a page is already mapped.  yes, page_insert will page_remove
333                 // whatever page was already there, but if we are seg allocing adjacent
334                 // regions, we don't want to destroy that old mapping/page
335                 // though later on we are told we can ignore this...
336                 pte = pgdir_walk(e->env_pgdir, start, 0);
337                 if (pte && *pte & PTE_P)
338                         continue;
339                 if ((r = page_alloc(&page)) < 0)
340                         panic("segment_alloc: %e", r);
341                 page_insert(e->env_pgdir, page, start, PTE_USER_RW);
342         }
343 }
344
345 //
346 // Set up the initial program binary, stack, and processor flags
347 // for a user process.
348 //
349 // This function loads all loadable segments from the ELF binary image
350 // into the environment's user memory, starting at the appropriate
351 // virtual addresses indicated in the ELF program header.
352 // At the same time it clears to zero any portions of these segments
353 // that are marked in the program header as being mapped
354 // but not actually present in the ELF file - i.e., the program's bss section.
355 //
356 // Finally, this function maps one page for the program's initial stack.
357 static void
358 load_icode(env_t *SAFE e, uint8_t *COUNT(size) binary, size_t size)
359 {
360         // asw: copy the headers because they might not be aligned.
361         elf_t elfhdr;
362         proghdr_t phdr;
363         memcpy(&elfhdr, binary, sizeof(elfhdr));
364
365         int i, r;
366
367         // is this an elf?
368         assert(elfhdr.e_magic == ELF_MAGIC);
369         // make sure we have proghdrs to load
370         assert(elfhdr.e_phnum);
371
372         // to actually access any pages alloc'd for this environment, we
373         // need to have the hardware use this environment's page tables.
374         uintreg_t old_cr3 = rcr3();
375         /*
376          * Even though we'll decref later and no one should be killing us at this
377          * stage, we're still going to wrap the lcr3s with incref/decref.
378          *
379          * Note we never decref on the old_cr3, since we aren't willing to let it
380          * die.  It's also not clear who the previous process is - sometimes it
381          * isn't even a process (when the kernel loads on its own, and not in
382          * response to a syscall).  Probably need to think more about this (TODO)
383          *
384          * This can get a bit tricky if this code blocks (will need to think about a
385          * decref then), if we try to change states, etc.
386          */
387         proc_incref(e);
388         lcr3(e->env_cr3);
389
390         // TODO: how do we do a runtime COUNT?
391         {TRUSTEDBLOCK // zra: TRUSTEDBLOCK until validation is done.
392         for (i = 0; i < elfhdr.e_phnum; i++) {
393                 memcpy(&phdr, binary + elfhdr.e_phoff + i*sizeof(phdr), sizeof(phdr));
394                 if (phdr.p_type != ELF_PROG_LOAD)
395                         continue;
396         // TODO: validate elf header fields!
397                 // seg alloc creates PTE_U|PTE_W pages.  if you ever want to change
398                 // this, there will be issues with overlapping sections
399                 segment_alloc(e, (void*SNT)phdr.p_va, phdr.p_memsz);
400                 memcpy((void*)phdr.p_va, binary + phdr.p_offset, phdr.p_filesz);
401                 memset((void*)phdr.p_va + phdr.p_filesz, 0, phdr.p_memsz - phdr.p_filesz);
402         }}
403
404         env_set_program_counter(e, elfhdr.e_entry);
405
406         // Now map one page for the program's initial stack
407         // at virtual address USTACKTOP - PGSIZE.
408         segment_alloc(e, (void*SNT)(USTACKTOP - PGSIZE), PGSIZE);
409
410         // reload the original address space
411         lcr3(old_cr3);
412         proc_decref(e);
413 }
414
415 //
416 // Allocates a new env and loads the named elf binary into it.
417 //
418 env_t* env_create(uint8_t *binary, size_t size)
419 {
420         env_t *e;
421         int r;
422         envid_t curid;
423
424         curid = (current ? current->env_id : 0);
425         if ((r = env_alloc(&e, curid)) < 0)
426                 panic("env_create: %e", r);
427         load_icode(e, binary, size);
428         return e;
429 }
430
431 //
432 // Frees env e and all memory it uses.
433 //
434 void
435 env_free(env_t *e)
436 {
437         physaddr_t pa;
438
439         // Note the environment's demise.
440         printk("[%08x] free env %08x\n", current ? current->env_id : 0, e->env_id);
441         // All parts of the kernel should have decref'd before env_free was called.
442         assert(e->env_refcnt == 0);
443
444         // Flush all mapped pages in the user portion of the address space
445         env_user_mem_free(e);
446
447         // free the page directory
448         pa = e->env_cr3;
449         e->env_pgdir = 0;
450         e->env_cr3 = 0;
451         page_decref(pa2page(pa));
452
453         // return the environment to the free list
454         e->state = ENV_FREE;
455         TAILQ_INSERT_HEAD(&proc_freelist, e, proc_link);
456 }
457
458 /* This is the top-half of an interrupt handler, where the bottom half is
459  * proc_run (which never returns).  Just add it to the delayed work queue,
460  * which (incidentally) can only hold one item at this point.
461  *
462  * Note this is rather old, and meant to run a RUNNABLE_S on a worker core.
463  */
464 void run_env_handler(trapframe_t *tf, env_t *data)
465 {
466         assert(data);
467         struct work TP(env_t *) job;
468         struct workqueue *workqueue = &per_cpu_info[core_id()].workqueue;
469         { //TRUSTEDBLOCK TODO: how do we make this func_t cast work?
470         job.func = proc_run;
471         job.data = data;
472         }
473         if (enqueue_work(workqueue, &job))
474                 panic("Failed to enqueue work!");
475 }