Revised system call forwarding for multiple processes
[akaros.git] / kern / src / env.c
1 /* See COPYRIGHT for copyright information. */
2
3 #ifdef __SHARC__
4 #pragma nosharc
5 #endif
6
7 #include <arch/arch.h>
8 #include <arch/mmu.h>
9 #include <arch/bitmask.h>
10 #include <elf.h>
11 #include <smp.h>
12
13 #include <atomic.h>
14 #include <string.h>
15 #include <assert.h>
16 #include <process.h>
17 #include <pmap.h>
18 #include <trap.h>
19 #include <monitor.h>
20 #include <manager.h>
21 #include <stdio.h>
22 #include <schedule.h>
23 #include <kmalloc.h>
24
25 #include <ros/syscall.h>
26 #include <ros/error.h>
27
28 atomic_t num_envs;
29
30 // Initialize the kernel virtual memory layout for environment e.
31 // Allocate a page directory, set e->env_pgdir and e->env_cr3 accordingly,
32 // and initialize the kernel portion of the new environment's address space.
33 // Do NOT (yet) map anything into the user portion
34 // of the environment's virtual address space.
35 //
36 // Returns 0 on success, < 0 on error.  Errors include:
37 //      -ENOMEM if page directory or table could not be allocated.
38 //
39 int env_setup_vm(env_t *e)
40 WRITES(e->env_pgdir, e->env_cr3, e->env_procinfo, e->env_procdata)
41 {
42         int i, r;
43         page_t *pgdir = NULL;
44         page_t *pginfo[PROCINFO_NUM_PAGES] = {NULL};
45         page_t *pgdata[PROCDATA_NUM_PAGES] = {NULL};
46         static page_t * RO shared_page = 0;
47
48         /*
49          * First, allocate a page for the pgdir of this process and up
50          * its reference count since this will never be done elsewhere
51          */
52         r = kpage_alloc(&pgdir);
53         if(r < 0) return r;
54
55         /*
56          * Next, set up the e->env_pgdir and e->env_cr3 pointers to point
57          * to this newly allocated page and clear its contents
58          */
59         memset(page2kva(pgdir), 0, PGSIZE);
60         e->env_pgdir = (pde_t *COUNT(NPDENTRIES)) TC(page2kva(pgdir));
61         e->env_cr3 =   (physaddr_t) TC(page2pa(pgdir));
62
63         /*
64          * Now start filling in the pgdir with mappings required by all newly
65          * created address spaces
66          */
67
68         // Map in the kernel to the top of every address space
69         // should be able to do this so long as boot_pgdir never has
70         // anything put below UTOP
71         // TODO check on this!  had a nasty bug because of it
72         // this is a bit wonky, since if it's not PGSIZE, lots of other things are
73         // screwed up...
74         memcpy(e->env_pgdir, boot_pgdir, NPDENTRIES*sizeof(pde_t));
75
76         // VPT and UVPT map the env's own page table, with
77         // different permissions.
78         e->env_pgdir[PDX(VPT)]  = PTE(LA2PPN(e->env_cr3), PTE_P | PTE_KERN_RW);
79         e->env_pgdir[PDX(UVPT)] = PTE(LA2PPN(e->env_cr3), PTE_P | PTE_USER_RO);
80
81         /*
82          * Now allocate and insert all pages required for the shared
83          * procinfo structure into the page table
84          */
85         for(int i=0; i<PROCINFO_NUM_PAGES; i++) {
86                 if(upage_alloc(e, &pginfo[i]) < 0)
87                         goto env_setup_vm_error;
88                 if(page_insert(e->env_pgdir, pginfo[i], (void*SNT)(UINFO + i*PGSIZE),
89                                PTE_USER_RO) < 0)
90                         goto env_setup_vm_error;
91         }
92
93         /*
94          * Now allocate and insert all pages required for the shared
95          * procdata structure into the page table
96          */
97         for(int i=0; i<PROCDATA_NUM_PAGES; i++) {
98                 if(upage_alloc(e, &pgdata[i]) < 0)
99                         goto env_setup_vm_error;
100                 if(page_insert(e->env_pgdir, pgdata[i], (void*SNT)(UDATA + i*PGSIZE),
101                                PTE_USER_RW) < 0)
102                         goto env_setup_vm_error;
103         }
104
105         /*
106          * Now, set e->env_procinfo, and e->env_procdata to point to
107          * the proper pages just allocated and clear them out.
108          */
109         e->env_procinfo = (procinfo_t *SAFE) TC(page2kva(pginfo[0]));
110         e->env_procdata = (procdata_t *SAFE) TC(page2kva(pgdata[0]));
111
112         memset(e->env_procinfo, 0, sizeof(procinfo_t));
113         memset(e->env_procdata, 0, sizeof(procdata_t));
114
115         /* Finally, set up the Global Shared Data page for all processes.
116          * Can't be trusted, but still very useful at this stage for us.
117          * Consider removing when we have real processes.
118          * (TODO).  Note the page is alloced only the first time through
119          */
120         if (!shared_page) {
121                 if(upage_alloc(e, &shared_page) < 0)
122                         goto env_setup_vm_error;
123                 // Up it, so it never goes away.  One per user, plus one from page_alloc
124                 // This is necessary, since it's in the per-process range of memory that
125                 // gets freed during page_free.
126                 page_incref(shared_page);
127         }
128
129         // Inserted into every process's address space at UGDATA
130         if(page_insert(e->env_pgdir, shared_page, (void*SNT)UGDATA, PTE_USER_RW) < 0)
131                 goto env_setup_vm_error;
132
133         return 0;
134
135 env_setup_vm_error:
136         page_free(shared_page);
137         for(int i=0; i< PROCDATA_NUM_PAGES; i++) {
138                 page_free(pgdata[i]);
139         }
140         for(int i=0; i< PROCINFO_NUM_PAGES; i++) {
141                 page_free(pginfo[i]);
142         }
143         env_user_mem_free(e);
144         page_free(pgdir);
145         return -ENOMEM;
146 }
147
148 static void
149 proc_init_procinfo(struct proc* p)
150 {
151         p->env_procinfo->pid = p->pid;
152         p->env_procinfo->tsc_freq = system_timing.tsc_freq;
153         // TODO: maybe do something smarter here
154         p->env_procinfo->max_harts = MAX(1,num_cpus); // hack to use all cores
155 }
156
157 // Sets up argc/argv in procinfo.  Returns number of
158 // args successfully imported (because of size restrictions).
159 // The procinfo pages must have been mapped into the user's
160 // address space before this function can be called.
161 size_t
162 proc_init_argc_argv(struct proc* p, size_t nargs, const char** args)
163 {
164         // TODO: right now we assume procinfo can be directly addressed
165         // by the kernel (i.e. it's continguous.
166         static_assert(sizeof(struct procinfo) <= PGSIZE);
167
168         if(nargs > PROCINFO_MAX_ARGC)
169                 nargs = PROCINFO_MAX_ARGC;
170
171         char* argv[PROCINFO_MAX_ARGC] = {0};
172         static_assert(sizeof(argv) == sizeof(p->env_procinfo->argv));
173
174         size_t size = 0, argc;
175         for(argc = 0; argc < nargs; argc++)
176         {
177                 size_t len = strnlen(args[argc],PROCINFO_MAX_ARGV_SIZE);
178                 if(size+len+1 > PROCINFO_MAX_ARGV_SIZE)
179                         break;
180                 memcpy(&p->env_procinfo->argv_buf[size],args[argc],len+1);
181                 argv[argc] = (char*)(UINFO+offsetof(struct procinfo,argv_buf)+size);
182                 size += len+1;
183         }
184
185         p->env_procinfo->argc = argc;
186         memcpy(p->env_procinfo->argv,argv,sizeof(argv));
187
188         return argc;
189 }
190
191 // Allocate len bytes of physical memory for environment env,
192 // and map it at virtual address va in the environment's address space.
193 // Pages are zeroed by upage_alloc.
194 // Pages should be writable by user and kernel.
195 // Panic if any allocation attempt fails.
196 //
197 void
198 env_segment_alloc(env_t *e, void *SNT va, size_t len)
199 {
200         void *SNT start, *SNT end;
201         size_t num_pages;
202         int i, r;
203         page_t *page;
204         pte_t *pte;
205
206         start = ROUNDDOWN(va, PGSIZE);
207         end = ROUNDUP(va + len, PGSIZE);
208         if (start >= end)
209                 panic("Wrap-around in memory allocation addresses!");
210         if ((uintptr_t)end > UTOP)
211                 panic("Attempting to map above UTOP!");
212         num_pages = LA2PPN(end - start);
213
214         for (i = 0; i < num_pages; i++, start += PGSIZE) {
215                 // skip if a page is already mapped.  yes, page_insert will page_remove
216                 // whatever page was already there, but if we are seg allocing adjacent
217                 // regions, we don't want to destroy that old mapping/page
218                 // though later on we are told we can ignore this...
219                 pte = pgdir_walk(e->env_pgdir, start, 0);
220                 if (pte && *pte & PTE_P)
221                         continue;
222                 if ((r = upage_alloc(e, &page)) < 0)
223                         panic("env_segment_alloc: %e", r);
224                 page_insert(e->env_pgdir, page, start, PTE_USER_RW);
225         }
226 }
227
228 void
229 env_segment_free(env_t *e, void *SNT va, size_t len)
230 {
231         void *SNT start, *SNT end;
232         size_t num_pages;
233         page_t *page;
234         pte_t *pte;
235
236         // Round this up this time so we don't free the page that va is actually on
237         start = ROUNDUP(va, PGSIZE);
238         end = ROUNDUP(va + len, PGSIZE);
239         if (start >= end)
240                 panic("Wrap-around in memory free addresses!");
241         if ((uintptr_t)end > UTOP)
242                 panic("Attempting to unmap above UTOP!");
243         // page_insert/pgdir_walk alloc a page and read/write to it via its address
244         // starting from pgdir (e's), so we need to be using e's pgdir
245         assert(e->env_cr3 == rcr3());
246         num_pages = LA2PPN(end - start);
247
248         for (int i = 0; i < num_pages; i++, start += PGSIZE) {
249                 // skip if a page is already unmapped. 
250                 pte = pgdir_walk(e->env_pgdir, start, 0);
251                 if (pte && *pte & PTE_P)
252                         page_remove(e->env_pgdir,start);
253         }
254 }
255
256 // this helper function handles all cases of copying to/from user/kernel
257 // or between two users.
258 static error_t load_icode_memcpy(struct proc *dest_p, struct proc *src_p,
259                                  void* dest, const void* src, size_t len)
260 {
261         if(src < (void*)UTOP)
262         {
263                 if(src_p == NULL)
264                         return -EFAULT;
265
266                 if(dest_p == NULL)
267                         return memcpy_from_user(src_p, dest, src, len);
268                 else
269                 {
270                         // TODO: do something more elegant & faster here.
271                         // e.g. a memcpy_from_user_to_user
272                         uint8_t kbuf[1024];
273                         while(len > 0)
274                         {
275                                 size_t thislen = MIN(len,sizeof(kbuf));
276                                 if (memcpy_from_user(src_p, kbuf, src, thislen))
277                                         return -EFAULT;
278                                 if (memcpy_to_user(dest_p, dest, kbuf, thislen))
279                                         panic("destination env isn't mapped!");
280                                 len -= thislen;
281                                 src += thislen;
282                                 dest += thislen;
283                         }
284                         return ESUCCESS;
285                 }
286
287         }
288         else
289         {
290                 if(src_p != NULL)
291                         return -EFAULT;
292
293                 if(dest_p == NULL)
294                         memcpy(dest, src, len);
295                 else if(memcpy_to_user(dest_p, dest, src, len))
296                         panic("destination env isn't mapped!");
297
298                 return ESUCCESS;
299         }
300 }
301
302 //
303 // Set up the initial program binary, stack, and processor flags
304 // for a user process.
305 //
306 // This function loads all loadable segments from the ELF binary image
307 // into the environment's user memory, starting at the appropriate
308 // virtual addresses indicated in the ELF program header.
309 // At the same time it clears to zero any portions of these segments
310 // that are marked in the program header as being mapped
311 // but not actually present in the ELF file - i.e., the program's bss section.
312 //
313 // Finally, this function maps one page for the program's initial stack.
314 static void* load_icode(env_t *SAFE e, env_t* binary_env,
315                         uint8_t *COUNT(size) binary, size_t size)
316 {
317         // asw: copy the headers because they might not be aligned.
318         elf_t elfhdr;
319         proghdr_t phdr;
320         void* _end = 0;
321
322         assert(load_icode_memcpy(NULL,binary_env,&elfhdr, binary, sizeof(elfhdr))
323                == ESUCCESS);
324
325         int i, r;
326
327         // is this an elf?
328         assert(elfhdr.e_magic == ELF_MAGIC);
329         // make sure we have proghdrs to load
330         assert(elfhdr.e_phnum);
331
332         // TODO: how do we do a runtime COUNT?
333         {TRUSTEDBLOCK // zra: TRUSTEDBLOCK until validation is done.
334         for (i = 0; i < elfhdr.e_phnum; i++) {
335                 // copy phdr to kernel mem
336                 assert(load_icode_memcpy(NULL,binary_env,&phdr, binary + elfhdr.e_phoff + i*sizeof(phdr), sizeof(phdr)) == ESUCCESS);
337
338                 if (phdr.p_type != ELF_PROG_LOAD)
339                         continue;
340                 // TODO: validate elf header fields!
341                 // seg alloc creates PTE_U|PTE_W pages.  if you ever want to change
342                 // this, there will be issues with overlapping sections
343                 _end = MAX(_end, (void*)(phdr.p_va + phdr.p_memsz));
344                 env_segment_alloc(e, (void*SNT)phdr.p_va, phdr.p_memsz);
345
346                 // copy section to user mem
347                 assert(load_icode_memcpy(e,binary_env,(void*)phdr.p_va, binary + phdr.p_offset, phdr.p_filesz) == ESUCCESS);
348
349                 //no need to memclr the remaining p_memsz-p_filesz bytes
350                 //because upage_alloc'd pages are zeroed
351         }}
352
353         proc_set_program_counter(&e->env_tf, elfhdr.e_entry);
354         e->env_entry = elfhdr.e_entry;
355
356         // Now map USTACK_NUM_PAGES pages for the program's initial stack
357         // starting at virtual address USTACKTOP - USTACK_NUM_PAGES*PGSIZE.
358         env_segment_alloc(e, (void*SNT)(USTACKTOP - USTACK_NUM_PAGES*PGSIZE), 
359                           USTACK_NUM_PAGES*PGSIZE);
360         
361         return _end;
362 }
363
364 void env_load_icode(env_t* e, env_t* binary_env, uint8_t* binary, size_t size)
365 {
366         /* Load the binary and set the current locations of the elf segments.
367          * All end-of-segment pointers are page aligned (invariant) */
368         e->heap_bottom = load_icode(e, binary_env, binary, size);
369         e->heap_top = e->heap_bottom;
370 }
371
372 #define PER_CPU_THING(type,name)\
373 type SLOCKED(name##_lock) * RWPROTECT name;\
374 type SLOCKED(name##_lock) *\
375 (get_per_cpu_##name)()\
376 {\
377         { R_PERMITTED(global(name))\
378                 return &name[core_id()];\
379         }\
380 }
381
382 /* This is the top-half of an interrupt handler, where the bottom half is
383  * proc_run (which never returns).  Just add it to the delayed work queue,
384  * which (incidentally) can only hold one item at this point.
385  *
386  * Note this is rather old, and meant to run a RUNNABLE_S on a worker core.
387  */
388 #ifdef __IVY__
389 void run_env_handler(trapframe_t *tf, env_t * data)
390 #else
391 void run_env_handler(trapframe_t *tf, void * data)
392 #endif
393 {
394         assert(data);
395         struct work TP(env_t *) job;
396         struct workqueue TP(env_t *) *CT(1) workqueue =
397             TC(&per_cpu_info[core_id()].workqueue);
398         // this doesn't work, and making it a TP(env_t) is wrong
399         // zra: When you want to use other types, let me know, and I can help
400     // make something that Ivy is happy with. 
401 #ifdef __IVY__
402         job.func = proc_run;
403 #else
404         job.func = (func_t)proc_run;
405 #endif
406         job.data = data;
407         if (enqueue_work(workqueue, &job))
408                 panic("Failed to enqueue work!");
409 }