Fixes double-free when destroying a process
[akaros.git] / kern / src / env.c
1 /* See COPYRIGHT for copyright information. */
2
3 #ifdef __SHARC__
4 #pragma nosharc
5 #endif
6
7 #include <arch/arch.h>
8 #include <arch/mmu.h>
9 #include <arch/bitmask.h>
10 #include <elf.h>
11 #include <smp.h>
12
13 #include <atomic.h>
14 #include <string.h>
15 #include <assert.h>
16 #include <process.h>
17 #include <pmap.h>
18 #include <trap.h>
19 #include <monitor.h>
20 #include <manager.h>
21 #include <stdio.h>
22 #include <schedule.h>
23 #include <kmalloc.h>
24
25 #include <ros/syscall.h>
26 #include <ros/error.h>
27
28 atomic_t num_envs;
29
30 // Initialize the kernel virtual memory layout for environment e.
31 // Allocate a page directory, set e->env_pgdir and e->env_cr3 accordingly,
32 // and initialize the kernel portion of the new environment's address space.
33 // Do NOT (yet) map anything into the user portion
34 // of the environment's virtual address space.
35 //
36 // Returns 0 on success, < 0 on error.  Errors include:
37 //      -ENOMEM if page directory or table could not be allocated.
38 //
39 int env_setup_vm(env_t *e)
40 WRITES(e->env_pgdir, e->env_cr3, e->env_procinfo, e->env_procdata)
41 {
42         int i, r;
43         page_t *pgdir = NULL;
44         static page_t * RO shared_page = 0;
45
46         /*
47          * First, allocate a page for the pgdir of this process and up
48          * its reference count since this will never be done elsewhere
49          */
50         r = kpage_alloc(&pgdir);
51         if(r < 0) return r;
52
53         /*
54          * Next, set up the e->env_pgdir and e->env_cr3 pointers to point
55          * to this newly allocated page and clear its contents
56          */
57         memset(page2kva(pgdir), 0, PGSIZE);
58         e->env_pgdir = (pde_t *COUNT(NPDENTRIES)) TC(page2kva(pgdir));
59         e->env_cr3 =   (physaddr_t) TC(page2pa(pgdir));
60
61         /*
62          * Now start filling in the pgdir with mappings required by all newly
63          * created address spaces
64          */
65
66         // Map in the kernel to the top of every address space
67         // should be able to do this so long as boot_pgdir never has
68         // anything put below UTOP
69         // TODO check on this!  had a nasty bug because of it
70         // this is a bit wonky, since if it's not PGSIZE, lots of other things are
71         // screwed up...
72         memcpy(e->env_pgdir, boot_pgdir, NPDENTRIES*sizeof(pde_t));
73
74         // VPT and UVPT map the env's own page table, with
75         // different permissions.
76         e->env_pgdir[PDX(VPT)]  = PTE(LA2PPN(e->env_cr3), PTE_P | PTE_KERN_RW);
77         e->env_pgdir[PDX(UVPT)] = PTE(LA2PPN(e->env_cr3), PTE_P | PTE_USER_RO);
78
79         /* These need to be contiguous, so the kernel can alias them.  Note the
80          * pages return with a refcnt, but it's okay to insert them since we free
81          * them manually when the process is cleaned up. */
82         if (!(e->env_procinfo = get_cont_pages(LOG2_UP(PROCINFO_NUM_PAGES), 0)))
83                 goto env_setup_vm_error_i;
84         if (!(e->env_procdata = get_cont_pages(LOG2_UP(PROCDATA_NUM_PAGES), 0)))
85                 goto env_setup_vm_error_d;
86         for (int i = 0; i < PROCINFO_NUM_PAGES; i++) {
87                 if (page_insert(e->env_pgdir, kva2page((void*)e->env_procinfo + i *
88                                 PGSIZE), (void*SNT)(UINFO + i*PGSIZE), PTE_USER_RO) < 0)
89                         goto env_setup_vm_error;
90         }
91         for (int i = 0; i < PROCDATA_NUM_PAGES; i++) {
92                 if (page_insert(e->env_pgdir, kva2page((void*)e->env_procdata + i *
93                                 PGSIZE), (void*SNT)(UDATA + i*PGSIZE), PTE_USER_RW) < 0)
94                         goto env_setup_vm_error;
95         }
96         memset(e->env_procinfo, 0, sizeof(procinfo_t));
97         memset(e->env_procdata, 0, sizeof(procdata_t));
98
99         /* Finally, set up the Global Shared Data page for all processes.
100          * Can't be trusted, but still very useful at this stage for us.
101          * Consider removing when we have real processes.
102          * (TODO).  Note the page is alloced only the first time through
103          */
104         if (!shared_page) {
105                 if(upage_alloc(e, &shared_page,1) < 0)
106                         goto env_setup_vm_error;
107                 // Up it, so it never goes away.  One per user, plus one from page_alloc
108                 // This is necessary, since it's in the per-process range of memory that
109                 // gets freed during page_free.
110                 page_incref(shared_page);
111         }
112
113         // Inserted into every process's address space at UGDATA
114         if(page_insert(e->env_pgdir, shared_page, (void*SNT)UGDATA, PTE_USER_RW) < 0)
115                 goto env_setup_vm_error;
116
117         return 0;
118
119 env_setup_vm_error:
120         free_cont_pages(e->env_procdata, LOG2_UP(PROCDATA_NUM_PAGES));
121 env_setup_vm_error_d:
122         free_cont_pages(e->env_procinfo, LOG2_UP(PROCINFO_NUM_PAGES));
123 env_setup_vm_error_i:
124         page_decref(shared_page);
125         env_user_mem_free(e, 0, UVPT);
126         env_pagetable_free(e);
127         return -ENOMEM;
128 }
129
130 // Allocate len bytes of physical memory for environment env,
131 // and map it at virtual address va in the environment's address space.
132 // Pages are zeroed by upage_alloc.
133 // Pages should be writable by user and kernel.
134 // Panic if any allocation attempt fails.
135 //
136 void
137 env_segment_alloc(env_t *e, void *SNT va, size_t len)
138 {
139         void *SNT start, *SNT end;
140         size_t num_pages;
141         int i, r;
142         page_t *page;
143         pte_t *pte;
144
145         start = ROUNDDOWN(va, PGSIZE);
146         end = ROUNDUP(va + len, PGSIZE);
147         if (start >= end)
148                 panic("Wrap-around in memory allocation addresses!");
149         if ((uintptr_t)end > UTOP)
150                 panic("Attempting to map above UTOP!");
151         num_pages = LA2PPN(end - start);
152
153         for (i = 0; i < num_pages; i++, start += PGSIZE) {
154                 // skip if a page is already mapped.  yes, page_insert will page_remove
155                 // whatever page was already there, but if we are seg allocing adjacent
156                 // regions, we don't want to destroy that old mapping/page
157                 // though later on we are told we can ignore this...
158                 pte = pgdir_walk(e->env_pgdir, start, 0);
159                 if (pte && *pte & PTE_P)
160                         continue;
161                 if ((r = upage_alloc(e, &page, 1)) < 0)
162                         panic("env_segment_alloc: %e", r);
163                 page_insert(e->env_pgdir, page, start, PTE_USER_RW);
164         }
165 }
166
167 void
168 env_segment_free(env_t *e, void *SNT va, size_t len)
169 {
170         void *SNT start, *SNT end;
171         size_t num_pages;
172         page_t *page;
173         pte_t *pte;
174
175         // Round this up this time so we don't free the page that va is actually on
176         start = ROUNDUP(va, PGSIZE);
177         end = ROUNDUP(va + len, PGSIZE);
178         if (start >= end)
179                 panic("Wrap-around in memory free addresses!");
180         if ((uintptr_t)end > UTOP)
181                 panic("Attempting to unmap above UTOP!");
182         // page_insert/pgdir_walk alloc a page and read/write to it via its address
183         // starting from pgdir (e's), so we need to be using e's pgdir
184         assert(e->env_cr3 == rcr3());
185         num_pages = LA2PPN(end - start);
186
187         env_user_mem_free(e,start,(char*)end-(char*)start);
188 }
189
190 // this helper function handles all cases of copying to/from user/kernel
191 // or between two users.
192 static error_t load_icode_memcpy(struct proc *dest_p, struct proc *src_p,
193                                  void* dest, const void* src, size_t len)
194 {
195         if(src < (void*)UTOP)
196         {
197                 if(src_p == NULL)
198                         return -EFAULT;
199
200                 if(dest_p == NULL)
201                         return memcpy_from_user(src_p, dest, src, len);
202                 else
203                 {
204                         // TODO: do something more elegant & faster here.
205                         // e.g. a memcpy_from_user_to_user
206                         uint8_t kbuf[1024];
207                         while(len > 0)
208                         {
209                                 size_t thislen = MIN(len,sizeof(kbuf));
210                                 if (memcpy_from_user(src_p, kbuf, src, thislen))
211                                         return -EFAULT;
212                                 if (memcpy_to_user(dest_p, dest, kbuf, thislen))
213                                         panic("destination env isn't mapped!");
214                                 len -= thislen;
215                                 src += thislen;
216                                 dest += thislen;
217                         }
218                         return ESUCCESS;
219                 }
220
221         }
222         else
223         {
224                 if(src_p != NULL)
225                         return -EFAULT;
226
227                 if(dest_p == NULL)
228                         memcpy(dest, src, len);
229                 else if(memcpy_to_user(dest_p, dest, src, len))
230                         panic("destination env isn't mapped!");
231
232                 return ESUCCESS;
233         }
234 }
235
236 //
237 // Set up the initial program binary, stack, and processor flags
238 // for a user process.
239 //
240 // This function loads all loadable segments from the ELF binary image
241 // into the environment's user memory, starting at the appropriate
242 // virtual addresses indicated in the ELF program header.
243 // At the same time it clears to zero any portions of these segments
244 // that are marked in the program header as being mapped
245 // but not actually present in the ELF file - i.e., the program's bss section.
246 //
247 // Finally, this function maps one page for the program's initial stack.
248 static void* load_icode(env_t *SAFE e, env_t* binary_env,
249                         uint8_t *COUNT(size) binary, size_t size)
250 {
251         // asw: copy the headers because they might not be aligned.
252         elf_t elfhdr;
253         proghdr_t phdr;
254         void* _end = 0;
255
256         assert(load_icode_memcpy(NULL,binary_env,&elfhdr, binary,
257                                  sizeof(elfhdr)) == ESUCCESS);
258
259         int i, r;
260
261         // is this an elf?
262         assert(elfhdr.e_magic == ELF_MAGIC);
263         // make sure we have proghdrs to load
264         assert(elfhdr.e_phnum);
265
266         // TODO: how do we do a runtime COUNT?
267         {TRUSTEDBLOCK // zra: TRUSTEDBLOCK until validation is done.
268         for (i = 0; i < elfhdr.e_phnum; i++) {
269                 // copy phdr to kernel mem
270                 assert(load_icode_memcpy(NULL,binary_env,&phdr, binary + elfhdr.e_phoff + i*sizeof(phdr), sizeof(phdr)) == ESUCCESS);
271
272                 if (phdr.p_type != ELF_PROG_LOAD)
273                         continue;
274                 // TODO: validate elf header fields!
275                 // seg alloc creates PTE_U|PTE_W pages.  if you ever want to change
276                 // this, there will be issues with overlapping sections
277                 _end = MAX(_end, (void*)(phdr.p_va + phdr.p_memsz));
278                 env_segment_alloc(e, (void*SNT)phdr.p_va, phdr.p_memsz);
279
280                 // copy section to user mem
281                 assert(load_icode_memcpy(e,binary_env,(void*)phdr.p_va, binary + phdr.p_offset, phdr.p_filesz) == ESUCCESS);
282
283                 //no need to memclr the remaining p_memsz-p_filesz bytes
284                 //because upage_alloc'd pages are zeroed
285         }}
286
287         proc_set_program_counter(&e->env_tf, elfhdr.e_entry);
288         e->env_entry = elfhdr.e_entry;
289
290         // Now map USTACK_NUM_PAGES pages for the program's initial stack
291         // starting at virtual address USTACKTOP - USTACK_NUM_PAGES*PGSIZE.
292         env_segment_alloc(e, (void*SNT)(USTACKTOP - USTACK_NUM_PAGES*PGSIZE), 
293                           USTACK_NUM_PAGES*PGSIZE);
294         
295         return _end;
296 }
297
298 void env_load_icode(env_t* e, env_t* binary_env, uint8_t* binary, size_t size)
299 {
300         /* Load the binary and set the current locations of the elf segments.
301          * All end-of-segment pointers are page aligned (invariant) */
302         e->heap_bottom = load_icode(e, binary_env, binary, size);
303         e->heap_top = e->heap_bottom;
304 }
305
306 #define PER_CPU_THING(type,name)\
307 type SLOCKED(name##_lock) * RWPROTECT name;\
308 type SLOCKED(name##_lock) *\
309 (get_per_cpu_##name)()\
310 {\
311         { R_PERMITTED(global(name))\
312                 return &name[core_id()];\
313         }\
314 }
315
316 /* This is the top-half of an interrupt handler, where the bottom half is
317  * proc_run (which never returns).  Just add it to the delayed work queue,
318  * which (incidentally) can only hold one item at this point.
319  *
320  * Note this is rather old, and meant to run a RUNNABLE_S on a worker core.
321  */
322 #ifdef __IVY__
323 void run_env_handler(trapframe_t *tf, env_t * data)
324 #else
325 void run_env_handler(trapframe_t *tf, void * data)
326 #endif
327 {
328         assert(data);
329         struct work TP(env_t *) job;
330         struct workqueue TP(env_t *) *CT(1) workqueue =
331             TC(&per_cpu_info[core_id()].workqueue);
332         // this doesn't work, and making it a TP(env_t) is wrong
333         // zra: When you want to use other types, let me know, and I can help
334     // make something that Ivy is happy with. 
335 #ifdef __IVY__
336         job.func = proc_run;
337 #else
338         job.func = (func_t)proc_run;
339 #endif
340         job.data = data;
341         if (enqueue_work(workqueue, &job))
342                 panic("Failed to enqueue work!");
343 }
344
345 /* Frees (decrefs) all memory mapped in the given range */
346 void env_user_mem_free(env_t* e, void* start, size_t len)
347 {
348         assert((uintptr_t)start + len <= UVPT); //since this keeps fucking happening
349         int user_page_free(env_t* e, pte_t* pte, void* va, void* arg)
350         {
351                 page_t* page = ppn2page(PTE2PPN(*pte));
352                 *pte = 0;
353                 page_decref(page);
354                 return 0;
355         }
356
357         env_user_mem_walk(e,start,len,&user_page_free,NULL);
358         tlbflush();
359 }
360