Bare support for dispatching parallel processes
[akaros.git] / kern / src / env.c
1 /* See COPYRIGHT for copyright information. */
2
3 #ifdef __SHARC__
4 #pragma nosharc
5 #endif
6
7 #include <arch/arch.h>
8 #include <arch/mmu.h>
9 #include <elf.h>
10 #include <smp.h>
11
12 #include <atomic.h>
13 #include <string.h>
14 #include <assert.h>
15 #include <process.h>
16 #include <pmap.h>
17 #include <trap.h>
18 #include <monitor.h>
19 #include <manager.h>
20 #include <stdio.h>
21 #include <schedule.h>
22
23 #include <ros/syscall.h>
24 #include <ros/error.h>
25
26 env_t *envs = NULL;             // All environments
27 atomic_t num_envs;
28 // TODO: make this a struct of info including the pointer and cacheline-align it
29 // This lets the kernel know what process is running on the core it traps into.
30 // A lot of the Env business, including this and its usage, will change when we
31 // redesign the env as a multi-process.
32 env_t* curenvs[MAX_NUM_CPUS] = {[0 ... (MAX_NUM_CPUS-1)] NULL};
33
34 #define ENVGENSHIFT     12              // >= LOGNENV
35
36 //
37 // Converts an envid to an env pointer.
38 //
39 // RETURNS
40 //   0 on success, -EBADENV on error.
41 //   On success, sets *env_store to the environment.
42 //   On error, sets *env_store to NULL.
43 //
44 int
45 envid2env(envid_t envid, env_t **env_store, bool checkperm)
46 {
47         env_t *e;
48
49         // If envid is zero, return the current environment.
50         if (envid == 0) {
51                 *env_store = current;
52                 return 0;
53         }
54
55         // Look up the Env structure via the index part of the envid,
56         // then check the env_id field in that env_t
57         // to ensure that the envid is not stale
58         // (i.e., does not refer to a _previous_ environment
59         // that used the same slot in the envs[] array).
60         e = &envs[ENVX(envid)];
61         if (e->state == ENV_FREE || e->env_id != envid) {
62                 *env_store = 0;
63                 return -EBADENV;
64         }
65
66         // Check that the calling environment has legitimate permission
67         // to manipulate the specified environment.
68         // If checkperm is set, the specified environment
69         // must be either the current environment
70         // or an immediate child of the current environment.
71         // TODO: should check for current being null
72         if (checkperm && e != current && e->env_parent_id != current->env_id) {
73                 *env_store = 0;
74                 return -EBADENV;
75         }
76
77         *env_store = e;
78         return 0;
79 }
80
81 //
82 // Mark all environments in 'envs' as free, set their env_ids to 0,
83 // and insert them into the proc_freelist.
84 // Insert in reverse order, so that the first call to env_alloc()
85 // returns envs[0].
86 // TODO: get rid of this whole array bullshit
87 //
88 void
89 env_init(void)
90 {
91         int i;
92
93         schedule_init();
94         atomic_init(&num_envs, 0);
95         TAILQ_INIT(&proc_freelist);
96         assert(envs != NULL);
97         for (i = NENV-1; i >= 0; i--) {
98                 // these should already be set from when i memset'd the array to 0
99                 envs[i].state = ENV_FREE;
100                 envs[i].env_id = 0;
101                 TAILQ_INSERT_HEAD(&proc_freelist, &envs[i], proc_link);
102         }
103
104 }
105
106 //
107 // Initialize the kernel virtual memory layout for environment e.
108 // Allocate a page directory, set e->env_pgdir and e->env_cr3 accordingly,
109 // and initialize the kernel portion of the new environment's address space.
110 // Do NOT (yet) map anything into the user portion
111 // of the environment's virtual address space.
112 //
113 // Returns 0 on success, < 0 on error.  Errors include:
114 //      -ENOMEM if page directory or table could not be allocated.
115 //
116 static int
117 env_setup_vm(env_t *e)
118 WRITES(e->env_pgdir, e->env_cr3, e->env_procinfo, e->env_procdata)
119 {
120         int i, r;
121         page_t *pgdir = NULL;
122         page_t *pginfo[PROCINFO_NUM_PAGES] = {NULL};
123         page_t *pgdata[PROCDATA_NUM_PAGES] = {NULL};
124         static page_t* shared_page = 0;
125
126         /*
127          * First, allocate a page for the pgdir of this process and up
128          * its reference count since this will never be done elsewhere
129          */
130         r = page_alloc(&pgdir);
131         if(r < 0) return r;
132         page_incref(pgdir);
133
134         /*
135          * Next, set up the e->env_pgdir and e->env_cr3 pointers to point
136          * to this newly allocated page and clear its contents
137          */
138         memset(page2kva(pgdir), 0, PGSIZE);
139         e->env_pgdir = (pde_t *COUNT(NPDENTRIES)) TC(page2kva(pgdir));
140         e->env_cr3 =   (physaddr_t) TC(page2pa(pgdir));
141
142         /*
143          * Now start filling in the pgdir with mappings required by all newly
144          * created address spaces
145          */
146
147         // Map in the kernel to the top of every address space
148         // should be able to do this so long as boot_pgdir never has
149         // anything put below UTOP
150         // TODO check on this!  had a nasty bug because of it
151         // this is a bit wonky, since if it's not PGSIZE, lots of other things are
152         // screwed up...
153         memcpy(e->env_pgdir, boot_pgdir, NPDENTRIES*sizeof(pde_t));
154
155         // VPT and UVPT map the env's own page table, with
156         // different permissions.
157         e->env_pgdir[PDX(VPT)]  = PTE(PPN(e->env_cr3), PTE_P | PTE_KERN_RW);
158         e->env_pgdir[PDX(UVPT)] = PTE(PPN(e->env_cr3), PTE_P | PTE_USER_RO);
159
160         /*
161          * Now allocate and insert all pages required for the shared
162          * procinfo structure into the page table
163          */
164         for(int i=0; i<PROCINFO_NUM_PAGES; i++) {
165                 if(page_alloc(&pginfo[i]) < 0)
166                         goto env_setup_vm_error;
167                 if(page_insert(e->env_pgdir, pginfo[i], (void*SNT)(UINFO + i*PGSIZE),
168                                PTE_USER_RO) < 0)
169                         goto env_setup_vm_error;
170         }
171
172         /*
173          * Now allocate and insert all pages required for the shared
174          * procdata structure into the page table
175          */
176         for(int i=0; i<PROCDATA_NUM_PAGES; i++) {
177                 if(page_alloc(&pgdata[i]) < 0)
178                         goto env_setup_vm_error;
179                 if(page_insert(e->env_pgdir, pgdata[i], (void*SNT)(UDATA + i*PGSIZE),
180                                PTE_USER_RW) < 0)
181                         goto env_setup_vm_error;
182         }
183
184         /*
185          * Now, set e->env_procinfo, and e->env_procdata to point to
186          * the proper pages just allocated and clear them out.
187          */
188         e->env_procinfo = (procinfo_t *SAFE) TC(page2kva(pginfo[0]));
189         e->env_procdata = (procdata_t *SAFE) TC(page2kva(pgdata[0]));
190
191         memset(e->env_procinfo, 0, sizeof(procinfo_t));
192         memset(e->env_procdata, 0, sizeof(procdata_t));
193
194         /* Finally, set up the Global Shared Data page for all processes.
195          * Can't be trusted, but still very useful at this stage for us.
196          * Consider removing when we have real processes.
197          * (TODO).  Note the page is alloced only the first time through
198          */
199         if (!shared_page) {
200                 if(page_alloc(&shared_page) < 0)
201                         goto env_setup_vm_error;
202         // Up it, so it never goes away.  One per user, plus one from page_alloc
203         // This is necessary, since it's in the per-process range of memory that
204         // gets freed during page_free.
205         page_incref(shared_page);
206         }
207
208         // Inserted into every process's address space at UGDATA
209         if(page_insert(e->env_pgdir, shared_page, (void*SNT)UGDATA, PTE_USER_RW) < 0)
210                 goto env_setup_vm_error;
211
212         return 0;
213
214 env_setup_vm_error:
215         page_free(shared_page);
216         for(int i=0; i< PROCDATA_NUM_PAGES; i++) {
217                 page_free(pgdata[i]);
218         }
219         for(int i=0; i< PROCINFO_NUM_PAGES; i++) {
220                 page_free(pginfo[i]);
221         }
222         env_user_mem_free(e);
223         page_free(pgdir);
224         return -ENOMEM;
225 }
226
227 //
228 // Allocates and initializes a new environment.
229 // On success, the new environment is stored in *newenv_store.
230 //
231 // Returns 0 on success, < 0 on failure.  Errors include:
232 //      -ENOFREEENV if all NENVS environments are allocated
233 //      -ENOMEM on memory exhaustion
234 //
235 int
236 env_alloc(env_t **newenv_store, envid_t parent_id)
237 {
238         int32_t generation;
239         int r;
240         env_t *e;
241
242         spin_lock(&freelist_lock);
243         e = TAILQ_FIRST(&proc_freelist);
244         if (e) {
245                 TAILQ_REMOVE(&proc_freelist, e, proc_link);
246                 spin_unlock(&freelist_lock);
247         } else {
248                 spin_unlock(&freelist_lock);
249                 return -ENOFREEENV;
250         }
251
252     { INITSTRUCT(*e)
253
254         // Allocate and set up the page directory for this environment.
255         if ((r = env_setup_vm(e)) < 0) {
256                 spin_lock(&freelist_lock);
257                 TAILQ_INSERT_HEAD(&proc_freelist, e, proc_link);
258                 spin_unlock(&freelist_lock);
259                 return r;
260         }
261
262         // Generate an env_id for this environment.
263         generation = (e->env_id + (1 << ENVGENSHIFT)) & ~(NENV - 1);
264         if (generation <= 0)    // Don't create a negative env_id.
265                 generation = 1 << ENVGENSHIFT;
266         e->env_id = generation | (e - envs);
267
268         // Set the basic status variables.
269     e->proc_lock = 0;
270         e->env_parent_id = parent_id;
271         proc_set_state(e, PROC_CREATED);
272         e->env_runs = 0;
273         e->env_refcnt = 1;
274         e->env_flags = 0;
275         e->env_entry = 0; // cheating.  this really gets set in load_icode
276
277 #ifdef __SHARC__
278         /* init SharC state */
279         sharC_env_init(&e->sharC_env);
280 #endif
281
282         memset(&e->env_ancillary_state, 0, sizeof(e->env_ancillary_state));
283         memset(&e->env_tf, 0, sizeof(e->env_tf));
284         env_init_trapframe(&e->env_tf);
285
286         /*
287          * Initialize the contents of the e->env_procinfo structure
288          */
289          e->env_procinfo->id = (e->env_id & 0x3FF);
290
291         /*
292          * Initialize the contents of the e->env_procdata structure
293          */
294         // Initialize the generic syscall ring buffer
295         SHARED_RING_INIT(&e->env_procdata->syscallring);
296         // Initialize the backend of the syscall ring buffer
297         BACK_RING_INIT(&e->syscallbackring,
298                        &e->env_procdata->syscallring,
299                        SYSCALLRINGSIZE);
300
301         // Initialize the generic sysevent ring buffer
302         SHARED_RING_INIT(&e->env_procdata->syseventring);
303         // Initialize the frontend of the sysevent ring buffer
304         FRONT_RING_INIT(&e->syseventfrontring,
305                         &e->env_procdata->syseventring,
306                         SYSEVENTRINGSIZE);
307
308         *newenv_store = e;
309         atomic_inc(&num_envs);
310
311         printk("[%08x] new env %08x\n", current ? current->env_id : 0, e->env_id);
312         } // INIT_STRUCT
313         return 0;
314 }
315
316 //
317 // Allocate len bytes of physical memory for environment env,
318 // and map it at virtual address va in the environment's address space.
319 // Does not zero or otherwise initialize the mapped pages in any way.
320 // Pages should be writable by user and kernel.
321 // Panic if any allocation attempt fails.
322 //
323 static void
324 segment_alloc(env_t *e, void *SNT va, size_t len)
325 {
326         void *SNT start, *SNT end;
327         size_t num_pages;
328         int i, r;
329         page_t *page;
330         pte_t *pte;
331
332         start = ROUNDDOWN(va, PGSIZE);
333         end = ROUNDUP(va + len, PGSIZE);
334         if (start >= end)
335                 panic("Wrap-around in memory allocation addresses!");
336         if ((uintptr_t)end > UTOP)
337                 panic("Attempting to map above UTOP!");
338         // page_insert/pgdir_walk alloc a page and read/write to it via its address
339         // starting from pgdir (e's), so we need to be using e's pgdir
340         assert(e->env_cr3 == rcr3());
341         num_pages = PPN(end - start);
342
343         for (i = 0; i < num_pages; i++, start += PGSIZE) {
344                 // skip if a page is already mapped.  yes, page_insert will page_remove
345                 // whatever page was already there, but if we are seg allocing adjacent
346                 // regions, we don't want to destroy that old mapping/page
347                 // though later on we are told we can ignore this...
348                 pte = pgdir_walk(e->env_pgdir, start, 0);
349                 if (pte && *pte & PTE_P)
350                         continue;
351                 if ((r = page_alloc(&page)) < 0)
352                         panic("segment_alloc: %e", r);
353                 page_insert(e->env_pgdir, page, start, PTE_USER_RW);
354         }
355 }
356
357 //
358 // Set up the initial program binary, stack, and processor flags
359 // for a user process.
360 //
361 // This function loads all loadable segments from the ELF binary image
362 // into the environment's user memory, starting at the appropriate
363 // virtual addresses indicated in the ELF program header.
364 // At the same time it clears to zero any portions of these segments
365 // that are marked in the program header as being mapped
366 // but not actually present in the ELF file - i.e., the program's bss section.
367 //
368 // Finally, this function maps one page for the program's initial stack.
369 static void
370 load_icode(env_t *SAFE e, uint8_t *COUNT(size) binary, size_t size)
371 {
372         // asw: copy the headers because they might not be aligned.
373         elf_t elfhdr;
374         proghdr_t phdr;
375         memcpy(&elfhdr, binary, sizeof(elfhdr));
376
377         int i, r;
378
379         // is this an elf?
380         assert(elfhdr.e_magic == ELF_MAGIC);
381         // make sure we have proghdrs to load
382         assert(elfhdr.e_phnum);
383
384         // to actually access any pages alloc'd for this environment, we
385         // need to have the hardware use this environment's page tables.
386         uintreg_t old_cr3 = rcr3();
387         /*
388          * Even though we'll decref later and no one should be killing us at this
389          * stage, we're still going to wrap the lcr3s with incref/decref.
390          *
391          * Note we never decref on the old_cr3, since we aren't willing to let it
392          * die.  It's also not clear who the previous process is - sometimes it
393          * isn't even a process (when the kernel loads on its own, and not in
394          * response to a syscall).  Probably need to think more about this (TODO)
395          *
396          * This can get a bit tricky if this code blocks (will need to think about a
397          * decref then), if we try to change states, etc.
398          */
399         proc_incref(e);
400         lcr3(e->env_cr3);
401
402         // TODO: how do we do a runtime COUNT?
403         {TRUSTEDBLOCK // zra: TRUSTEDBLOCK until validation is done.
404         for (i = 0; i < elfhdr.e_phnum; i++) {
405                 memcpy(&phdr, binary + elfhdr.e_phoff + i*sizeof(phdr), sizeof(phdr));
406                 if (phdr.p_type != ELF_PROG_LOAD)
407                         continue;
408         // TODO: validate elf header fields!
409                 // seg alloc creates PTE_U|PTE_W pages.  if you ever want to change
410                 // this, there will be issues with overlapping sections
411                 segment_alloc(e, (void*SNT)phdr.p_va, phdr.p_memsz);
412                 memcpy((void*)phdr.p_va, binary + phdr.p_offset, phdr.p_filesz);
413                 memset((void*)phdr.p_va + phdr.p_filesz, 0, phdr.p_memsz - phdr.p_filesz);
414         }}
415
416         env_set_program_counter(e, elfhdr.e_entry);
417         e->env_entry = elfhdr.e_entry;
418
419         // Now map one page for the program's initial stack
420         // at virtual address USTACKTOP - PGSIZE.
421         segment_alloc(e, (void*SNT)(USTACKTOP - PGSIZE), PGSIZE);
422
423         // reload the original address space
424         lcr3(old_cr3);
425         proc_decref(e);
426 }
427
428 //
429 // Allocates a new env and loads the named elf binary into it.
430 //
431 env_t* env_create(uint8_t *binary, size_t size)
432 {
433         env_t *e;
434         int r;
435         envid_t curid;
436
437         curid = (current ? current->env_id : 0);
438         if ((r = env_alloc(&e, curid)) < 0)
439                 panic("env_create: %e", r);
440         load_icode(e, binary, size);
441         return e;
442 }
443
444 //
445 // Frees env e and all memory it uses.
446 //
447 void
448 env_free(env_t *e)
449 {
450         physaddr_t pa;
451
452         // Note the environment's demise.
453         printk("[%08x] free env %08x\n", current ? current->env_id : 0, e->env_id);
454         // All parts of the kernel should have decref'd before env_free was called.
455         assert(e->env_refcnt == 0);
456
457         // Flush all mapped pages in the user portion of the address space
458         env_user_mem_free(e);
459
460         // free the page directory
461         pa = e->env_cr3;
462         e->env_pgdir = 0;
463         e->env_cr3 = 0;
464         page_decref(pa2page(pa));
465
466         // return the environment to the free list
467         e->state = ENV_FREE;
468         TAILQ_INSERT_HEAD(&proc_freelist, e, proc_link);
469 }
470
471
472 #define PER_CPU_THING(type,name)\
473 type SLOCKED(name##_lock) * RWPROTECT name;\
474 type SLOCKED(name##_lock) *\
475 (get_per_cpu_##name)()\
476 {\
477         { R_PERMITTED(global(name))\
478                 return &name[core_id()];\
479         }\
480 }
481
482
483 /* This is the top-half of an interrupt handler, where the bottom half is
484  * proc_run (which never returns).  Just add it to the delayed work queue,
485  * which (incidentally) can only hold one item at this point.
486  *
487  * Note this is rather old, and meant to run a RUNNABLE_S on a worker core.
488  */
489 void run_env_handler(trapframe_t *tf, env_t *data)
490 {
491         assert(data);
492         struct work TP(env_t *) job;
493         struct workqueue *workqueue = &per_cpu_info[core_id()].workqueue;
494         {
495         job.func = proc_run;
496         job.data = data;
497         }
498         if (enqueue_work(workqueue, &job))
499                 panic("Failed to enqueue work!");
500 }