More verbose multicore debugging
[akaros.git] / kern / src / env.c
1 /* See COPYRIGHT for copyright information. */
2
3 #ifdef __SHARC__
4 #pragma nosharc
5 #endif
6
7 #include <arch/arch.h>
8 #include <arch/mmu.h>
9 #include <arch/bitmask.h>
10 #include <elf.h>
11 #include <smp.h>
12
13 #include <atomic.h>
14 #include <string.h>
15 #include <assert.h>
16 #include <process.h>
17 #include <pmap.h>
18 #include <trap.h>
19 #include <monitor.h>
20 #include <manager.h>
21 #include <stdio.h>
22 #include <schedule.h>
23 #include <kmalloc.h>
24
25 #include <ros/syscall.h>
26 #include <ros/error.h>
27
28 env_t *envs = NULL;             // All environments
29 atomic_t num_envs;
30 // TODO: make this a struct of info including the pointer and cacheline-align it
31 // This lets the kernel know what process is running on the core it traps into.
32 // A lot of the Env business, including this and its usage, will change when we
33 // redesign the env as a multi-process.
34 env_t* (RO curenvs)[MAX_NUM_CPUS] = {[0 ... (MAX_NUM_CPUS-1)] NULL};
35
36 #define ENVGENSHIFT     12              // >= LOGNENV
37
38 //
39 // Converts an envid to an env pointer.
40 //
41 // RETURNS
42 //   0 on success, -EBADENV on error.
43 //   On success, sets *env_store to the environment.
44 //   On error, sets *env_store to NULL.
45 //
46 int
47 envid2env(envid_t envid, env_t **env_store, bool checkperm)
48 {
49         env_t *e;
50
51         // If envid is zero, return the current environment.
52         if (envid == 0) {
53                 *env_store = current;
54                 return 0;
55         }
56
57         // Look up the Env structure via the index part of the envid,
58         // then check the env_id field in that env_t
59         // to ensure that the envid is not stale
60         // (i.e., does not refer to a _previous_ environment
61         // that used the same slot in the envs[] array).
62         e = &envs[ENVX(envid)];
63         if (e->state == ENV_FREE || e->env_id != envid) {
64                 *env_store = 0;
65                 return -EBADENV;
66         }
67
68         // Check that the calling environment has legitimate permission
69         // to manipulate the specified environment.
70         // If checkperm is set, the specified environment
71         // must be either the current environment
72         // or an immediate child of the current environment.
73         // TODO: should check for current being null
74         if (checkperm && e != current && e->env_parent_id != current->env_id) {
75                 *env_store = 0;
76                 return -EBADENV;
77         }
78
79         *env_store = e;
80         return 0;
81 }
82
83 //
84 // Mark all environments in 'envs' as free, set their env_ids to 0,
85 // and insert them into the proc_freelist.
86 // Insert in reverse order, so that the first call to env_alloc()
87 // returns envs[0].
88 // TODO: get rid of this whole array bullshit
89 //
90 void
91 env_init(void)
92 {
93         int i;
94
95         schedule_init();
96         // core 0 is not idle, all others are (for now)
97         spin_lock(&idle_lock);
98         num_idlecores = num_cpus - 1;
99         for (i = 0; i < num_idlecores; i++)
100                 idlecoremap[i] = i + 1;
101         spin_unlock(&idle_lock);
102         atomic_init(&num_envs, 0);
103         TAILQ_INIT(&proc_freelist);
104         assert(envs != NULL);
105         for (i = NENV-1; i >= 0; i--) {
106                 // these should already be set from when i memset'd the array to 0
107                 envs[i].state = ENV_FREE;
108                 envs[i].end_text_segment = (void*)UTEXT;
109                 envs[i].end_data_segment = (void*)UTEXT;
110                 envs[i].env_id = 0;
111                 TAILQ_INSERT_HEAD(&proc_freelist, &envs[i], proc_link);
112         }
113 }
114
115 //
116 // Initialize the kernel virtual memory layout for environment e.
117 // Allocate a page directory, set e->env_pgdir and e->env_cr3 accordingly,
118 // and initialize the kernel portion of the new environment's address space.
119 // Do NOT (yet) map anything into the user portion
120 // of the environment's virtual address space.
121 //
122 // Returns 0 on success, < 0 on error.  Errors include:
123 //      -ENOMEM if page directory or table could not be allocated.
124 //
125 static int
126 env_setup_vm(env_t *e)
127 WRITES(e->env_pgdir, e->env_cr3, e->env_procinfo, e->env_procdata)
128 {
129         int i, r;
130         page_t *pgdir = NULL;
131         page_t *pginfo[PROCINFO_NUM_PAGES] = {NULL};
132         page_t *pgdata[PROCDATA_NUM_PAGES] = {NULL};
133         static page_t * RO shared_page = 0;
134
135         /*
136          * First, allocate a page for the pgdir of this process and up
137          * its reference count since this will never be done elsewhere
138          */
139         r = kpage_alloc(&pgdir);
140         if(r < 0) return r;
141
142         /*
143          * Next, set up the e->env_pgdir and e->env_cr3 pointers to point
144          * to this newly allocated page and clear its contents
145          */
146         memset(page2kva(pgdir), 0, PGSIZE);
147         e->env_pgdir = (pde_t *COUNT(NPDENTRIES)) TC(page2kva(pgdir));
148         e->env_cr3 =   (physaddr_t) TC(page2pa(pgdir));
149
150         /*
151          * Now start filling in the pgdir with mappings required by all newly
152          * created address spaces
153          */
154
155         // Map in the kernel to the top of every address space
156         // should be able to do this so long as boot_pgdir never has
157         // anything put below UTOP
158         // TODO check on this!  had a nasty bug because of it
159         // this is a bit wonky, since if it's not PGSIZE, lots of other things are
160         // screwed up...
161         memcpy(e->env_pgdir, boot_pgdir, NPDENTRIES*sizeof(pde_t));
162
163         // VPT and UVPT map the env's own page table, with
164         // different permissions.
165         e->env_pgdir[PDX(VPT)]  = PTE(LA2PPN(e->env_cr3), PTE_P | PTE_KERN_RW);
166         e->env_pgdir[PDX(UVPT)] = PTE(LA2PPN(e->env_cr3), PTE_P | PTE_USER_RO);
167
168         /*
169          * Now allocate and insert all pages required for the shared
170          * procinfo structure into the page table
171          */
172         for(int i=0; i<PROCINFO_NUM_PAGES; i++) {
173                 if(upage_alloc(e, &pginfo[i]) < 0)
174                         goto env_setup_vm_error;
175                 if(page_insert(e->env_pgdir, pginfo[i], (void*SNT)(UINFO + i*PGSIZE),
176                                PTE_USER_RO) < 0)
177                         goto env_setup_vm_error;
178         }
179
180         /*
181          * Now allocate and insert all pages required for the shared
182          * procdata structure into the page table
183          */
184         for(int i=0; i<PROCDATA_NUM_PAGES; i++) {
185                 if(upage_alloc(e, &pgdata[i]) < 0)
186                         goto env_setup_vm_error;
187                 if(page_insert(e->env_pgdir, pgdata[i], (void*SNT)(UDATA + i*PGSIZE),
188                                PTE_USER_RW) < 0)
189                         goto env_setup_vm_error;
190         }
191
192         /*
193          * Now, set e->env_procinfo, and e->env_procdata to point to
194          * the proper pages just allocated and clear them out.
195          */
196         e->env_procinfo = (procinfo_t *SAFE) TC(page2kva(pginfo[0]));
197         e->env_procdata = (procdata_t *SAFE) TC(page2kva(pgdata[0]));
198
199         memset(e->env_procinfo, 0, sizeof(procinfo_t));
200         memset(e->env_procdata, 0, sizeof(procdata_t));
201
202         /* Finally, set up the Global Shared Data page for all processes.
203          * Can't be trusted, but still very useful at this stage for us.
204          * Consider removing when we have real processes.
205          * (TODO).  Note the page is alloced only the first time through
206          */
207         if (!shared_page) {
208                 if(upage_alloc(e, &shared_page) < 0)
209                         goto env_setup_vm_error;
210                 // Up it, so it never goes away.  One per user, plus one from page_alloc
211                 // This is necessary, since it's in the per-process range of memory that
212                 // gets freed during page_free.
213                 page_incref(shared_page);
214         }
215
216         // Inserted into every process's address space at UGDATA
217         if(page_insert(e->env_pgdir, shared_page, (void*SNT)UGDATA, PTE_USER_RW) < 0)
218                 goto env_setup_vm_error;
219
220         return 0;
221
222 env_setup_vm_error:
223         page_free(shared_page);
224         for(int i=0; i< PROCDATA_NUM_PAGES; i++) {
225                 page_free(pgdata[i]);
226         }
227         for(int i=0; i< PROCINFO_NUM_PAGES; i++) {
228                 page_free(pginfo[i]);
229         }
230         env_user_mem_free(e);
231         page_free(pgdir);
232         return -ENOMEM;
233 }
234
235 static void
236 proc_init_procinfo(struct proc* p)
237 {
238         p->env_procinfo->id = (p->env_id & 0x3FF);
239
240         // TODO: maybe do something smarter here
241         p->env_procinfo->max_harts = MAX(1,num_cpus-1);
242 }
243
244 // Sets up argc/argv in procinfo.  Returns number of
245 // args successfully imported (because of size restrictions).
246 // The procinfo pages must have been mapped into the user's
247 // address space before this function can be called.
248 static size_t
249 proc_init_argc_argv_v(struct proc* p, size_t nargs, va_list args)
250 {
251         // TODO: right now we assume procinfo can be directly addressed
252         // by the kernel (i.e. it's continguous.
253         static_assert(sizeof(struct procinfo) <= PGSIZE);
254
255         if(nargs > PROCINFO_MAX_ARGC)
256                 nargs = PROCINFO_MAX_ARGC;
257
258         char* argv[PROCINFO_MAX_ARGC] = {0};
259         static_assert(sizeof(argv) == sizeof(p->env_procinfo->argv));
260
261         size_t size = 0, argc;
262         for(argc = 0; argc < nargs; argc++)
263         {
264                 const char* arg = va_arg(args,const char*);
265                 size_t len = strnlen(arg,PROCINFO_MAX_ARGV_SIZE);
266                 if(size+len+1 > PROCINFO_MAX_ARGV_SIZE)
267                         break;
268                 memcpy(&p->env_procinfo->argv_buf[size],arg,len+1);
269                 argv[argc] = (char*)(UINFO+offsetof(struct procinfo,argv_buf)+size);
270                 size += len+1;
271         }
272
273         p->env_procinfo->argc = argc;
274         memcpy(p->env_procinfo->argv,argv,sizeof(argv));
275
276         return argc;
277 }
278
279 size_t
280 proc_init_argc_argv(struct proc* p, size_t nargs, ...)
281 {
282         size_t ret;
283
284         va_list list;
285         va_start(list,nargs);
286
287         ret = proc_init_argc_argv_v(p,nargs,list);
288
289         va_end(list);
290
291         return ret;
292 }
293
294 //
295 // Allocates and initializes a new environment.
296 // On success, the new environment is stored in *newenv_store.
297 //
298 // Returns 0 on success, < 0 on failure.  Errors include:
299 //      -ENOFREEENV if all NENVS environments are allocated
300 //      -ENOMEM on memory exhaustion
301 //
302 int
303 env_alloc(env_t **newenv_store, envid_t parent_id)
304 {
305         int32_t generation;
306         int r;
307         env_t *e;
308
309         spin_lock(&freelist_lock);
310         e = TAILQ_FIRST(&proc_freelist);
311         if (e) {
312                 TAILQ_REMOVE(&proc_freelist, e, proc_link);
313                 spin_unlock(&freelist_lock);
314         } else {
315                 spin_unlock(&freelist_lock);
316                 return -ENOFREEENV;
317         }
318
319     { INITSTRUCT(*e)
320
321         // Setup the default map of where to get cache colors from
322         e->cache_colors_map = global_cache_colors_map;
323         e->next_cache_color = 0;
324
325         // Allocate and set up the page directory for this environment.
326         if ((r = env_setup_vm(e)) < 0) {
327                 spin_lock(&freelist_lock);
328                 TAILQ_INSERT_HEAD(&proc_freelist, e, proc_link);
329                 spin_unlock(&freelist_lock);
330                 return r;
331         }
332
333         // Generate an env_id for this environment.
334         generation = (e->env_id + (1 << ENVGENSHIFT)) & ~(NENV - 1);
335         if (generation <= 0)    // Don't create a negative env_id.
336                 generation = 1 << ENVGENSHIFT;
337         e->env_id = generation | (e - envs);
338
339         // Set the basic status variables.
340         e->proc_lock = 0;
341         e->env_parent_id = parent_id;
342         proc_set_state(e, PROC_CREATED);
343         e->env_runs = 0;
344         e->env_refcnt = 1;
345         e->env_flags = 0;
346         e->env_entry = 0; // cheating.  this really gets set in load_icode
347         e->num_vcores = 0;
348         for (int i = 0; i < MAX_NUM_CPUS; i++)
349                 e->vcoremap[i] = -1;
350         memset(&e->resources, 0, sizeof(e->resources));
351
352         memset(&e->env_ancillary_state, 0, sizeof(e->env_ancillary_state));
353         memset(&e->env_tf, 0, sizeof(e->env_tf));
354         proc_init_trapframe(&e->env_tf);
355
356         proc_init_procinfo(e);
357
358         /*
359          * Initialize the contents of the e->env_procdata structure
360          */
361         // Initialize the generic syscall ring buffer
362         SHARED_RING_INIT(&e->env_procdata->syscallring);
363         // Initialize the backend of the syscall ring buffer
364         BACK_RING_INIT(&e->syscallbackring,
365                        &e->env_procdata->syscallring,
366                        SYSCALLRINGSIZE);
367
368         // Initialize the generic sysevent ring buffer
369         SHARED_RING_INIT(&e->env_procdata->syseventring);
370         // Initialize the frontend of the sysevent ring buffer
371         FRONT_RING_INIT(&e->syseventfrontring,
372                         &e->env_procdata->syseventring,
373                         SYSEVENTRINGSIZE);
374
375         *newenv_store = e;
376         atomic_inc(&num_envs);
377
378         printk("[%08x] new env %08x\n", current ? current->env_id : 0, e->env_id);
379         } // INIT_STRUCT
380         return 0;
381 }
382
383 //
384 // Allocate len bytes of physical memory for environment env,
385 // and map it at virtual address va in the environment's address space.
386 // Pages are zeroed by upage_alloc.
387 // Pages should be writable by user and kernel.
388 // Panic if any allocation attempt fails.
389 //
390 void
391 env_segment_alloc(env_t *e, void *SNT va, size_t len)
392 {
393         void *SNT start, *SNT end;
394         size_t num_pages;
395         int i, r;
396         page_t *page;
397         pte_t *pte;
398
399         start = ROUNDDOWN(va, PGSIZE);
400         end = ROUNDUP(va + len, PGSIZE);
401         if (start >= end)
402                 panic("Wrap-around in memory allocation addresses!");
403         if ((uintptr_t)end > UTOP)
404                 panic("Attempting to map above UTOP!");
405         num_pages = LA2PPN(end - start);
406
407         for (i = 0; i < num_pages; i++, start += PGSIZE) {
408                 // skip if a page is already mapped.  yes, page_insert will page_remove
409                 // whatever page was already there, but if we are seg allocing adjacent
410                 // regions, we don't want to destroy that old mapping/page
411                 // though later on we are told we can ignore this...
412                 pte = pgdir_walk(e->env_pgdir, start, 0);
413                 if (pte && *pte & PTE_P)
414                         continue;
415                 if ((r = upage_alloc(e, &page)) < 0)
416                         panic("env_segment_alloc: %e", r);
417                 page_insert(e->env_pgdir, page, start, PTE_USER_RW);
418         }
419 }
420
421 void
422 env_segment_free(env_t *e, void *SNT va, size_t len)
423 {
424         void *SNT start, *SNT end;
425         size_t num_pages;
426         page_t *page;
427         pte_t *pte;
428
429         // Round this up this time so we don't free the page that va is actually on
430         start = ROUNDUP(va, PGSIZE);
431         end = ROUNDUP(va + len, PGSIZE);
432         if (start >= end)
433                 panic("Wrap-around in memory free addresses!");
434         if ((uintptr_t)end > UTOP)
435                 panic("Attempting to unmap above UTOP!");
436         // page_insert/pgdir_walk alloc a page and read/write to it via its address
437         // starting from pgdir (e's), so we need to be using e's pgdir
438         assert(e->env_cr3 == rcr3());
439         num_pages = LA2PPN(end - start);
440
441         for (int i = 0; i < num_pages; i++, start += PGSIZE) {
442                 // skip if a page is already unmapped. 
443                 pte = pgdir_walk(e->env_pgdir, start, 0);
444                 if (pte && *pte & PTE_P)
445                         page_remove(e->env_pgdir,start);
446         }
447 }
448
449 // this helper function handles all cases of copying to/from user/kernel
450 // or between two users.
451 static error_t
452 load_icode_memcpy(env_t* e, env_t* binary_env, void* dest, const void* src, size_t len)
453 {
454         if(src < (void*)UTOP)
455         {
456                 if(binary_env == NULL)
457                         return -EFAULT;
458
459                 if(e == NULL)
460                         return memcpy_from_user(binary_env,dest,src,len);
461                 else
462                 {
463                         // TODO: do something more elegant & faster here.
464                         // e.g. a memcpy_from_user_to_user
465                         uint8_t kbuf[1024];
466                         while(len > 0)
467                         {
468                                 size_t thislen = MIN(len,sizeof(kbuf));
469                                 if(memcpy_from_user(binary_env,kbuf,src,thislen))
470                                         return -EFAULT;
471                                 if(memcpy_to_user(e,dest,kbuf,thislen))
472                                         panic("destination env isn't mapped!");
473                                 len -= thislen;
474                                 src += thislen;
475                                 dest += thislen;
476                         }
477                         return ESUCCESS;
478                 }
479
480         }
481         else
482         {
483                 if(binary_env != NULL)
484                         return -EFAULT;
485
486                 if(e == NULL)
487                         memcpy(dest,src,len);
488                 else if(memcpy_to_user(e,dest,src,len))
489                         panic("destination env isn't mapped!");
490
491                 return ESUCCESS;
492         }
493 }
494
495 //
496 // Set up the initial program binary, stack, and processor flags
497 // for a user process.
498 //
499 // This function loads all loadable segments from the ELF binary image
500 // into the environment's user memory, starting at the appropriate
501 // virtual addresses indicated in the ELF program header.
502 // At the same time it clears to zero any portions of these segments
503 // that are marked in the program header as being mapped
504 // but not actually present in the ELF file - i.e., the program's bss section.
505 //
506 // Finally, this function maps one page for the program's initial stack.
507 static void*
508 load_icode(env_t *SAFE e, env_t* binary_env, uint8_t *COUNT(size) binary, size_t size)
509 {
510         // asw: copy the headers because they might not be aligned.
511         elf_t elfhdr;
512         proghdr_t phdr;
513         void* _end = 0;
514
515         assert(load_icode_memcpy(NULL,binary_env,&elfhdr, binary, sizeof(elfhdr)) == ESUCCESS);
516
517         int i, r;
518
519         // is this an elf?
520         assert(elfhdr.e_magic == ELF_MAGIC);
521         // make sure we have proghdrs to load
522         assert(elfhdr.e_phnum);
523
524         // TODO: how do we do a runtime COUNT?
525         {TRUSTEDBLOCK // zra: TRUSTEDBLOCK until validation is done.
526         for (i = 0; i < elfhdr.e_phnum; i++) {
527                 // copy phdr to kernel mem
528                 assert(load_icode_memcpy(NULL,binary_env,&phdr, binary + elfhdr.e_phoff + i*sizeof(phdr), sizeof(phdr)) == ESUCCESS);
529
530                 if (phdr.p_type != ELF_PROG_LOAD)
531                         continue;
532                 // TODO: validate elf header fields!
533                 // seg alloc creates PTE_U|PTE_W pages.  if you ever want to change
534                 // this, there will be issues with overlapping sections
535                 _end = MAX(_end, (void*)(phdr.p_va + phdr.p_memsz));
536                 env_segment_alloc(e, (void*SNT)phdr.p_va, phdr.p_memsz);
537
538                 // copy section to user mem
539                 assert(load_icode_memcpy(e,binary_env,(void*)phdr.p_va, binary + phdr.p_offset, phdr.p_filesz) == ESUCCESS);
540
541                 //no need to memclr the remaining p_memsz-p_filesz bytes
542                 //because upage_alloc'd pages are zeroed
543         }}
544
545         proc_set_program_counter(&e->env_tf, elfhdr.e_entry);
546         e->env_entry = elfhdr.e_entry;
547
548         // Now map USTACK_NUM_PAGES pages for the program's initial stack
549         // starting at virtual address USTACKTOP - USTACK_NUM_PAGES*PGSIZE.
550         env_segment_alloc(e, (void*SNT)(USTACKTOP - USTACK_NUM_PAGES*PGSIZE), 
551                           USTACK_NUM_PAGES*PGSIZE);
552         
553         return _end;
554 }
555
556 //
557 // Allocates a new env and loads the named elf binary into it.
558 //
559 env_t* env_create()
560 {
561         env_t *e;
562         int r;
563         envid_t curid;
564
565         curid = (current ? current->env_id : 0);
566         if ((r = env_alloc(&e, curid)) < 0)
567                 panic("env_create: %e", r);
568
569         // default PC: will cause page fault if not otherwise set.
570         proc_set_program_counter(&e->env_tf, 0);
571         e->end_text_segment = 0;
572         e->end_data_segment = 0;
573
574         return e;
575 }
576
577 void env_load_icode(env_t* e, env_t* binary_env, uint8_t* binary, size_t size)
578 {
579         /* Load the binary and set the current locations of the elf segments.
580          * All end-of-segment pointers are page aligned (invariant) */
581         e->end_text_segment = load_icode(e, binary_env, binary, size);
582         e->end_data_segment = e->end_text_segment;
583 }
584
585 //
586 // Frees env e and all memory it uses.
587 //
588 void
589 env_free(env_t *e)
590 {
591         physaddr_t pa;
592
593         // Note the environment's demise.
594         printk("[%08x] free env %08x\n", current ? current->env_id : 0, e->env_id);
595         // All parts of the kernel should have decref'd before env_free was called.
596         assert(e->env_refcnt == 0);
597
598         // Free any colors allocated to this process
599         if(e->cache_colors_map != global_cache_colors_map) {
600                 for(int i=0; i<llc_cache->num_colors; i++)
601                         cache_color_free(llc_cache, e->cache_colors_map);
602                 cache_colors_map_free(e->cache_colors_map);
603         }
604
605         // Flush all mapped pages in the user portion of the address space
606         env_user_mem_free(e);
607
608         // free the page directory
609         pa = e->env_cr3;
610         e->env_pgdir = 0;
611         e->env_cr3 = 0;
612         page_decref(pa2page(pa));
613
614         // return the environment to the free list
615         e->state = ENV_FREE;
616         spin_lock(&freelist_lock);
617         TAILQ_INSERT_HEAD(&proc_freelist, e, proc_link);
618         spin_unlock(&freelist_lock);
619 }
620
621
622 #define PER_CPU_THING(type,name)\
623 type SLOCKED(name##_lock) * RWPROTECT name;\
624 type SLOCKED(name##_lock) *\
625 (get_per_cpu_##name)()\
626 {\
627         { R_PERMITTED(global(name))\
628                 return &name[core_id()];\
629         }\
630 }
631
632
633 /* This is the top-half of an interrupt handler, where the bottom half is
634  * proc_run (which never returns).  Just add it to the delayed work queue,
635  * which (incidentally) can only hold one item at this point.
636  *
637  * Note this is rather old, and meant to run a RUNNABLE_S on a worker core.
638  */
639 #ifdef __IVY__
640 void run_env_handler(trapframe_t *tf, env_t * data)
641 #else
642 void run_env_handler(trapframe_t *tf, void * data)
643 #endif
644 {
645         assert(data);
646         struct work TP(env_t *) job;
647         struct workqueue TP(env_t *) *CT(1) workqueue =
648             TC(&per_cpu_info[core_id()].workqueue);
649         // this doesn't work, and making it a TP(env_t) is wrong
650         // zra: When you want to use other types, let me know, and I can help
651     // make something that Ivy is happy with. 
652 #ifdef __IVY__
653         job.func = proc_run;
654 #else
655         job.func = (func_t)proc_run;
656 #endif
657         job.data = data;
658         if (enqueue_work(workqueue, &job))
659                 panic("Failed to enqueue work!");
660 }