Multi-cored process changes
[akaros.git] / kern / src / env.c
1 /* See COPYRIGHT for copyright information. */
2
3 #ifdef __SHARC__
4 #pragma nosharc
5 #endif
6
7 #include <arch/arch.h>
8 #include <arch/mmu.h>
9 #include <elf.h>
10 #include <smp.h>
11
12 #include <atomic.h>
13 #include <string.h>
14 #include <assert.h>
15 #include <process.h>
16 #include <pmap.h>
17 #include <trap.h>
18 #include <monitor.h>
19 #include <manager.h>
20 #include <stdio.h>
21 #include <schedule.h>
22
23 #include <ros/syscall.h>
24 #include <ros/error.h>
25
26 env_t *envs = NULL;             // All environments
27 atomic_t num_envs;
28
29 #define ENVGENSHIFT     12              // >= LOGNENV
30
31 //
32 // Converts an envid to an env pointer.
33 //
34 // RETURNS
35 //   0 on success, -EBADENV on error.
36 //   On success, sets *env_store to the environment.
37 //   On error, sets *env_store to NULL.
38 //
39 int
40 envid2env(envid_t envid, env_t **env_store, bool checkperm)
41 {
42         env_t *e;
43
44         // If envid is zero, return the current environment.
45         if (envid == 0) {
46                 *env_store = current;
47                 return 0;
48         }
49
50         // Look up the Env structure via the index part of the envid,
51         // then check the env_id field in that env_t
52         // to ensure that the envid is not stale
53         // (i.e., does not refer to a _previous_ environment
54         // that used the same slot in the envs[] array).
55         e = &envs[ENVX(envid)];
56         if (e->state == ENV_FREE || e->env_id != envid) {
57                 *env_store = 0;
58                 return -EBADENV;
59         }
60
61         // Check that the calling environment has legitimate permission
62         // to manipulate the specified environment.
63         // If checkperm is set, the specified environment
64         // must be either the current environment
65         // or an immediate child of the current environment.
66         // TODO: should check for current being null
67         if (checkperm && e != current && e->env_parent_id != current->env_id) {
68                 *env_store = 0;
69                 return -EBADENV;
70         }
71
72         *env_store = e;
73         return 0;
74 }
75
76 //
77 // Mark all environments in 'envs' as free, set their env_ids to 0,
78 // and insert them into the proc_freelist.
79 // Insert in reverse order, so that the first call to env_alloc()
80 // returns envs[0].
81 // TODO: get rid of this whole array bullshit
82 //
83 void
84 env_init(void)
85 {
86         int i;
87
88         schedule_init();
89         // core 0 is not idle, all others are (for now)
90         spin_lock(&idle_lock);
91         num_idlecores = num_cpus - 1;
92         for (i = 0; i < num_idlecores; i++)
93                 idlecoremap[i] = i + 1;
94         spin_unlock(&idle_lock);
95         atomic_init(&num_envs, 0);
96         TAILQ_INIT(&proc_freelist);
97         assert(envs != NULL);
98         for (i = NENV-1; i >= 0; i--) {
99                 // these should already be set from when i memset'd the array to 0
100                 envs[i].state = ENV_FREE;
101                 envs[i].env_id = 0;
102                 TAILQ_INSERT_HEAD(&proc_freelist, &envs[i], proc_link);
103         }
104
105 }
106
107 //
108 // Initialize the kernel virtual memory layout for environment e.
109 // Allocate a page directory, set e->env_pgdir and e->env_cr3 accordingly,
110 // and initialize the kernel portion of the new environment's address space.
111 // Do NOT (yet) map anything into the user portion
112 // of the environment's virtual address space.
113 //
114 // Returns 0 on success, < 0 on error.  Errors include:
115 //      -ENOMEM if page directory or table could not be allocated.
116 //
117 static int
118 env_setup_vm(env_t *e)
119 WRITES(e->env_pgdir, e->env_cr3, e->env_procinfo, e->env_procdata)
120 {
121         int i, r;
122         page_t *pgdir = NULL;
123         page_t *pginfo[PROCINFO_NUM_PAGES] = {NULL};
124         page_t *pgdata[PROCDATA_NUM_PAGES] = {NULL};
125         static page_t * RO shared_page = 0;
126
127         /*
128          * First, allocate a page for the pgdir of this process and up
129          * its reference count since this will never be done elsewhere
130          */
131         r = page_alloc(&pgdir);
132         if(r < 0) return r;
133         page_incref(pgdir);
134
135         /*
136          * Next, set up the e->env_pgdir and e->env_cr3 pointers to point
137          * to this newly allocated page and clear its contents
138          */
139         memset(page2kva(pgdir), 0, PGSIZE);
140         e->env_pgdir = (pde_t *COUNT(NPDENTRIES)) TC(page2kva(pgdir));
141         e->env_cr3 =   (physaddr_t) TC(page2pa(pgdir));
142
143         /*
144          * Now start filling in the pgdir with mappings required by all newly
145          * created address spaces
146          */
147
148         // Map in the kernel to the top of every address space
149         // should be able to do this so long as boot_pgdir never has
150         // anything put below UTOP
151         // TODO check on this!  had a nasty bug because of it
152         // this is a bit wonky, since if it's not PGSIZE, lots of other things are
153         // screwed up...
154         memcpy(e->env_pgdir, boot_pgdir, NPDENTRIES*sizeof(pde_t));
155
156         // VPT and UVPT map the env's own page table, with
157         // different permissions.
158         e->env_pgdir[PDX(VPT)]  = PTE(PPN(e->env_cr3), PTE_P | PTE_KERN_RW);
159         e->env_pgdir[PDX(UVPT)] = PTE(PPN(e->env_cr3), PTE_P | PTE_USER_RO);
160
161         /*
162          * Now allocate and insert all pages required for the shared
163          * procinfo structure into the page table
164          */
165         for(int i=0; i<PROCINFO_NUM_PAGES; i++) {
166                 if(page_alloc(&pginfo[i]) < 0)
167                         goto env_setup_vm_error;
168                 if(page_insert(e->env_pgdir, pginfo[i], (void*SNT)(UINFO + i*PGSIZE),
169                                PTE_USER_RO) < 0)
170                         goto env_setup_vm_error;
171         }
172
173         /*
174          * Now allocate and insert all pages required for the shared
175          * procdata structure into the page table
176          */
177         for(int i=0; i<PROCDATA_NUM_PAGES; i++) {
178                 if(page_alloc(&pgdata[i]) < 0)
179                         goto env_setup_vm_error;
180                 if(page_insert(e->env_pgdir, pgdata[i], (void*SNT)(UDATA + i*PGSIZE),
181                                PTE_USER_RW) < 0)
182                         goto env_setup_vm_error;
183         }
184
185         /*
186          * Now, set e->env_procinfo, and e->env_procdata to point to
187          * the proper pages just allocated and clear them out.
188          */
189         e->env_procinfo = (procinfo_t *SAFE) TC(page2kva(pginfo[0]));
190         e->env_procdata = (procdata_t *SAFE) TC(page2kva(pgdata[0]));
191
192         memset(e->env_procinfo, 0, sizeof(procinfo_t));
193         memset(e->env_procdata, 0, sizeof(procdata_t));
194
195         /* Finally, set up the Global Shared Data page for all processes.
196          * Can't be trusted, but still very useful at this stage for us.
197          * Consider removing when we have real processes.
198          * (TODO).  Note the page is alloced only the first time through
199          */
200         if (!shared_page) {
201                 if(page_alloc(&shared_page) < 0)
202                         goto env_setup_vm_error;
203                 // Up it, so it never goes away.  One per user, plus one from page_alloc
204                 // This is necessary, since it's in the per-process range of memory that
205                 // gets freed during page_free.
206                 page_incref(shared_page);
207         }
208
209         // Inserted into every process's address space at UGDATA
210         if(page_insert(e->env_pgdir, shared_page, (void*SNT)UGDATA, PTE_USER_RW) < 0)
211                 goto env_setup_vm_error;
212
213         return 0;
214
215 env_setup_vm_error:
216         page_free(shared_page);
217         for(int i=0; i< PROCDATA_NUM_PAGES; i++) {
218                 page_free(pgdata[i]);
219         }
220         for(int i=0; i< PROCINFO_NUM_PAGES; i++) {
221                 page_free(pginfo[i]);
222         }
223         env_user_mem_free(e);
224         page_free(pgdir);
225         return -ENOMEM;
226 }
227
228 //
229 // Allocates and initializes a new environment.
230 // On success, the new environment is stored in *newenv_store.
231 //
232 // Returns 0 on success, < 0 on failure.  Errors include:
233 //      -ENOFREEENV if all NENVS environments are allocated
234 //      -ENOMEM on memory exhaustion
235 //
236 int
237 env_alloc(env_t **newenv_store, envid_t parent_id)
238 {
239         int32_t generation;
240         int r;
241         env_t *e;
242
243         spin_lock(&freelist_lock);
244         e = TAILQ_FIRST(&proc_freelist);
245         if (e) {
246                 TAILQ_REMOVE(&proc_freelist, e, proc_link);
247                 spin_unlock(&freelist_lock);
248         } else {
249                 spin_unlock(&freelist_lock);
250                 return -ENOFREEENV;
251         }
252
253     { INITSTRUCT(*e)
254
255         // Allocate and set up the page directory for this environment.
256         if ((r = env_setup_vm(e)) < 0) {
257                 spin_lock(&freelist_lock);
258                 TAILQ_INSERT_HEAD(&proc_freelist, e, proc_link);
259                 spin_unlock(&freelist_lock);
260                 return r;
261         }
262
263         // Generate an env_id for this environment.
264         generation = (e->env_id + (1 << ENVGENSHIFT)) & ~(NENV - 1);
265         if (generation <= 0)    // Don't create a negative env_id.
266                 generation = 1 << ENVGENSHIFT;
267         e->env_id = generation | (e - envs);
268
269         // Set the basic status variables.
270     spinlock_init(&e->proc_lock);
271         e->env_parent_id = parent_id;
272         proc_set_state(e, PROC_CREATED);
273         e->env_runs = 0;
274         e->env_refcnt = 1;
275         e->env_flags = 0;
276         e->env_entry = 0; // cheating.  this really gets set in load_icode
277         e->num_vcores = 0;
278         memset(&e->vcoremap, -1, sizeof(e->vcoremap));
279         //for (int i = 0; i < MAX_NUM_CPUS; i++)
280                 //e->vcoremap[i] = -1;
281         memset(&e->resources, 0, sizeof(e->resources));
282
283         memset(&e->env_ancillary_state, 0, sizeof(e->env_ancillary_state));
284         memset(&e->env_tf, 0, sizeof(e->env_tf));
285         proc_init_trapframe(&e->env_tf);
286
287         /*
288          * Initialize the contents of the e->env_procinfo structure
289          */
290          e->env_procinfo->id = (e->env_id & 0x3FF);
291
292         /*
293          * Initialize the contents of the e->env_procdata structure
294          */
295         // Initialize the generic syscall ring buffer
296         SHARED_RING_INIT(&e->env_procdata->syscallring);
297         // Initialize the backend of the syscall ring buffer
298         BACK_RING_INIT(&e->syscallbackring,
299                        &e->env_procdata->syscallring,
300                        SYSCALLRINGSIZE);
301
302         // Initialize the generic sysevent ring buffer
303         SHARED_RING_INIT(&e->env_procdata->syseventring);
304         // Initialize the frontend of the sysevent ring buffer
305         FRONT_RING_INIT(&e->syseventfrontring,
306                         &e->env_procdata->syseventring,
307                         SYSEVENTRINGSIZE);
308
309         *newenv_store = e;
310         atomic_inc(&num_envs);
311
312         printk("[%08x] new env %08x\n", current ? current->env_id : 0, e->env_id);
313         } // INIT_STRUCT
314         return 0;
315 }
316
317 //
318 // Allocate len bytes of physical memory for environment env,
319 // and map it at virtual address va in the environment's address space.
320 // Does not zero or otherwise initialize the mapped pages in any way.
321 // Pages should be writable by user and kernel.
322 // Panic if any allocation attempt fails.
323 //
324 static void
325 segment_alloc(env_t *e, void *SNT va, size_t len)
326 {
327         void *SNT start, *SNT end;
328         size_t num_pages;
329         int i, r;
330         page_t *page;
331         pte_t *pte;
332
333         start = ROUNDDOWN(va, PGSIZE);
334         end = ROUNDUP(va + len, PGSIZE);
335         if (start >= end)
336                 panic("Wrap-around in memory allocation addresses!");
337         if ((uintptr_t)end > UTOP)
338                 panic("Attempting to map above UTOP!");
339         // page_insert/pgdir_walk alloc a page and read/write to it via its address
340         // starting from pgdir (e's), so we need to be using e's pgdir
341         assert(e->env_cr3 == rcr3());
342         num_pages = PPN(end - start);
343
344         for (i = 0; i < num_pages; i++, start += PGSIZE) {
345                 // skip if a page is already mapped.  yes, page_insert will page_remove
346                 // whatever page was already there, but if we are seg allocing adjacent
347                 // regions, we don't want to destroy that old mapping/page
348                 // though later on we are told we can ignore this...
349                 pte = pgdir_walk(e->env_pgdir, start, 0);
350                 if (pte && *pte & PTE_P)
351                         continue;
352                 if ((r = page_alloc(&page)) < 0)
353                         panic("segment_alloc: %e", r);
354                 page_insert(e->env_pgdir, page, start, PTE_USER_RW);
355         }
356 }
357
358 //
359 // Set up the initial program binary, stack, and processor flags
360 // for a user process.
361 //
362 // This function loads all loadable segments from the ELF binary image
363 // into the environment's user memory, starting at the appropriate
364 // virtual addresses indicated in the ELF program header.
365 // At the same time it clears to zero any portions of these segments
366 // that are marked in the program header as being mapped
367 // but not actually present in the ELF file - i.e., the program's bss section.
368 //
369 // Finally, this function maps one page for the program's initial stack.
370 static void
371 load_icode(env_t *SAFE e, uint8_t *COUNT(size) binary, size_t size)
372 {
373         // asw: copy the headers because they might not be aligned.
374         elf_t elfhdr;
375         proghdr_t phdr;
376         memcpy(&elfhdr, binary, sizeof(elfhdr));
377
378         int i, r;
379
380         // is this an elf?
381         assert(elfhdr.e_magic == ELF_MAGIC);
382         // make sure we have proghdrs to load
383         assert(elfhdr.e_phnum);
384
385         // to actually access any pages alloc'd for this environment, we
386         // need to have the hardware use this environment's page tables.
387         uintreg_t old_cr3 = rcr3();
388         /*
389          * Even though we'll decref later and no one should be killing us at this
390          * stage, we're still going to wrap the lcr3s with incref/decref.
391          *
392          * Note we never decref on the old_cr3, since we aren't willing to let it
393          * die.  It's also not clear who the previous process is - sometimes it
394          * isn't even a process (when the kernel loads on its own, and not in
395          * response to a syscall).  Probably need to think more about this (TODO)
396          *
397          * This can get a bit tricky if this code blocks (will need to think about a
398          * decref then), if we try to change states, etc.
399          */
400         proc_incref(e);
401         lcr3(e->env_cr3);
402
403         // TODO: how do we do a runtime COUNT?
404         {TRUSTEDBLOCK // zra: TRUSTEDBLOCK until validation is done.
405         for (i = 0; i < elfhdr.e_phnum; i++) {
406                 memcpy(&phdr, binary + elfhdr.e_phoff + i*sizeof(phdr), sizeof(phdr));
407                 if (phdr.p_type != ELF_PROG_LOAD)
408                         continue;
409         // TODO: validate elf header fields!
410                 // seg alloc creates PTE_U|PTE_W pages.  if you ever want to change
411                 // this, there will be issues with overlapping sections
412                 segment_alloc(e, (void*SNT)phdr.p_va, phdr.p_memsz);
413                 memcpy((void*)phdr.p_va, binary + phdr.p_offset, phdr.p_filesz);
414                 memset((void*)phdr.p_va + phdr.p_filesz, 0, phdr.p_memsz - phdr.p_filesz);
415         }}
416
417         proc_set_program_counter(&e->env_tf, elfhdr.e_entry);
418         e->env_entry = elfhdr.e_entry;
419
420         // Now map one page for the program's initial stack
421         // at virtual address USTACKTOP - PGSIZE.
422         segment_alloc(e, (void*SNT)(USTACKTOP - PGSIZE), PGSIZE);
423
424         // reload the original address space
425         lcr3(old_cr3);
426         proc_decref(e);
427 }
428
429 //
430 // Allocates a new env and loads the named elf binary into it.
431 //
432 env_t* env_create(uint8_t *binary, size_t size)
433 {
434         env_t *e;
435         int r;
436         envid_t curid;
437
438         curid = (current ? current->env_id : 0);
439         if ((r = env_alloc(&e, curid)) < 0)
440                 panic("env_create: %e", r);
441         load_icode(e, binary, size);
442         return e;
443 }
444
445 //
446 // Frees env e and all memory it uses.
447 //
448 void
449 env_free(env_t *e)
450 {
451         physaddr_t pa;
452
453         // Note the environment's demise.
454         printk("[%08x] free env %08x\n", current ? current->env_id : 0, e->env_id);
455         // All parts of the kernel should have decref'd before env_free was called.
456         assert(e->env_refcnt == 0);
457
458         // Flush all mapped pages in the user portion of the address space
459         env_user_mem_free(e);
460
461         // free the page directory
462         pa = e->env_cr3;
463         e->env_pgdir = 0;
464         e->env_cr3 = 0;
465         page_decref(pa2page(pa));
466
467         // return the environment to the free list
468         e->state = ENV_FREE;
469         spin_lock(&freelist_lock);
470         TAILQ_INSERT_HEAD(&proc_freelist, e, proc_link);
471         spin_unlock(&freelist_lock);
472 }
473
474
475 #define PER_CPU_THING(type,name)\
476 type SLOCKED(name##_lock) * RWPROTECT name;\
477 type SLOCKED(name##_lock) *\
478 (get_per_cpu_##name)()\
479 {\
480         { R_PERMITTED(global(name))\
481                 return &name[core_id()];\
482         }\
483 }
484
485
486 /* This is the top-half of an interrupt handler, where the bottom half is
487  * proc_run (which never returns).  Just add it to the delayed work queue,
488  * which (incidentally) can only hold one item at this point.
489  *
490  * Note this is rather old, and meant to run a RUNNABLE_S on a worker core.
491  */
492 #ifdef __IVY__
493 void run_env_handler(trapframe_t *tf, env_t * data)
494 #else
495 void run_env_handler(trapframe_t *tf, void * data)
496 #endif
497 {
498         assert(data);
499         struct work TP(env_t *) job;
500         struct workqueue TP(env_t *) *CT(1) workqueue =
501             TC(&per_cpu_info[core_id()].workqueue);
502         // this doesn't work, and making it a TP(env_t) is wrong
503         // zra: When you want to use other types, let me know, and I can help
504     // make something that Ivy is happy with. 
505 #ifdef __IVY__
506         job.func = proc_run;
507 #else
508         job.func = (func_t)proc_run;
509 #endif
510         job.data = data;
511         if (enqueue_work(workqueue, &job))
512                 panic("Failed to enqueue work!");
513 }