Proc data structure management, env gutting
[akaros.git] / kern / src / env.c
1 /* See COPYRIGHT for copyright information. */
2
3 #ifdef __SHARC__
4 #pragma nosharc
5 #endif
6
7 #include <arch/arch.h>
8 #include <arch/mmu.h>
9 #include <elf.h>
10 #include <smp.h>
11
12 #include <atomic.h>
13 #include <string.h>
14 #include <assert.h>
15 #include <process.h>
16 #include <pmap.h>
17 #include <trap.h>
18 #include <monitor.h>
19 #include <manager.h>
20 #include <stdio.h>
21 #include <schedule.h>
22
23 #include <ros/syscall.h>
24 #include <ros/error.h>
25
26 atomic_t num_envs;
27
28 #define ENVGENSHIFT     12              // >= LOGNENV
29
30 //
31 // Initialize the kernel virtual memory layout for environment e.
32 // Allocate a page directory, set e->env_pgdir and e->env_cr3 accordingly,
33 // and initialize the kernel portion of the new environment's address space.
34 // Do NOT (yet) map anything into the user portion
35 // of the environment's virtual address space.
36 //
37 // Returns 0 on success, < 0 on error.  Errors include:
38 //      -ENOMEM if page directory or table could not be allocated.
39 //
40 int env_setup_vm(env_t *e)
41 WRITES(e->env_pgdir, e->env_cr3, e->env_procinfo, e->env_procdata)
42 {
43         int i, r;
44         page_t *pgdir = NULL;
45         page_t *pginfo[PROCINFO_NUM_PAGES] = {NULL};
46         page_t *pgdata[PROCDATA_NUM_PAGES] = {NULL};
47         static page_t * RO shared_page = 0;
48
49         /*
50          * First, allocate a page for the pgdir of this process and up
51          * its reference count since this will never be done elsewhere
52          */
53         r = page_alloc(&pgdir);
54         if(r < 0) return r;
55         page_incref(pgdir);
56
57         /*
58          * Next, set up the e->env_pgdir and e->env_cr3 pointers to point
59          * to this newly allocated page and clear its contents
60          */
61         memset(page2kva(pgdir), 0, PGSIZE);
62         e->env_pgdir = (pde_t *COUNT(NPDENTRIES)) TC(page2kva(pgdir));
63         e->env_cr3 =   (physaddr_t) TC(page2pa(pgdir));
64
65         /*
66          * Now start filling in the pgdir with mappings required by all newly
67          * created address spaces
68          */
69
70         // Map in the kernel to the top of every address space
71         // should be able to do this so long as boot_pgdir never has
72         // anything put below UTOP
73         // TODO check on this!  had a nasty bug because of it
74         // this is a bit wonky, since if it's not PGSIZE, lots of other things are
75         // screwed up...
76         memcpy(e->env_pgdir, boot_pgdir, NPDENTRIES*sizeof(pde_t));
77
78         // VPT and UVPT map the env's own page table, with
79         // different permissions.
80         e->env_pgdir[PDX(VPT)]  = PTE(PPN(e->env_cr3), PTE_P | PTE_KERN_RW);
81         e->env_pgdir[PDX(UVPT)] = PTE(PPN(e->env_cr3), PTE_P | PTE_USER_RO);
82
83         /*
84          * Now allocate and insert all pages required for the shared
85          * procinfo structure into the page table
86          */
87         for(int i=0; i<PROCINFO_NUM_PAGES; i++) {
88                 if(page_alloc(&pginfo[i]) < 0)
89                         goto env_setup_vm_error;
90                 if(page_insert(e->env_pgdir, pginfo[i], (void*SNT)(UINFO + i*PGSIZE),
91                                PTE_USER_RO) < 0)
92                         goto env_setup_vm_error;
93         }
94
95         /*
96          * Now allocate and insert all pages required for the shared
97          * procdata structure into the page table
98          */
99         for(int i=0; i<PROCDATA_NUM_PAGES; i++) {
100                 if(page_alloc(&pgdata[i]) < 0)
101                         goto env_setup_vm_error;
102                 if(page_insert(e->env_pgdir, pgdata[i], (void*SNT)(UDATA + i*PGSIZE),
103                                PTE_USER_RW) < 0)
104                         goto env_setup_vm_error;
105         }
106
107         /*
108          * Now, set e->env_procinfo, and e->env_procdata to point to
109          * the proper pages just allocated and clear them out.
110          */
111         e->env_procinfo = (procinfo_t *SAFE) TC(page2kva(pginfo[0]));
112         e->env_procdata = (procdata_t *SAFE) TC(page2kva(pgdata[0]));
113
114         memset(e->env_procinfo, 0, sizeof(procinfo_t));
115         memset(e->env_procdata, 0, sizeof(procdata_t));
116
117         /* Finally, set up the Global Shared Data page for all processes.
118          * Can't be trusted, but still very useful at this stage for us.
119          * Consider removing when we have real processes.
120          * (TODO).  Note the page is alloced only the first time through
121          */
122         if (!shared_page) {
123                 if(page_alloc(&shared_page) < 0)
124                         goto env_setup_vm_error;
125                 // Up it, so it never goes away.  One per user, plus one from page_alloc
126                 // This is necessary, since it's in the per-process range of memory that
127                 // gets freed during page_free.
128                 page_incref(shared_page);
129         }
130
131         // Inserted into every process's address space at UGDATA
132         if(page_insert(e->env_pgdir, shared_page, (void*SNT)UGDATA, PTE_USER_RW) < 0)
133                 goto env_setup_vm_error;
134
135         return 0;
136
137 env_setup_vm_error:
138         page_free(shared_page);
139         for(int i=0; i< PROCDATA_NUM_PAGES; i++) {
140                 page_free(pgdata[i]);
141         }
142         for(int i=0; i< PROCINFO_NUM_PAGES; i++) {
143                 page_free(pginfo[i]);
144         }
145         env_user_mem_free(e);
146         page_free(pgdir);
147         return -ENOMEM;
148 }
149
150 //
151 // Allocate len bytes of physical memory for environment env,
152 // and map it at virtual address va in the environment's address space.
153 // Does not zero or otherwise initialize the mapped pages in any way.
154 // Pages should be writable by user and kernel.
155 // Panic if any allocation attempt fails.
156 //
157 static void
158 segment_alloc(env_t *e, void *SNT va, size_t len)
159 {
160         void *SNT start, *SNT end;
161         size_t num_pages;
162         int i, r;
163         page_t *page;
164         pte_t *pte;
165
166         start = ROUNDDOWN(va, PGSIZE);
167         end = ROUNDUP(va + len, PGSIZE);
168         if (start >= end)
169                 panic("Wrap-around in memory allocation addresses!");
170         if ((uintptr_t)end > UTOP)
171                 panic("Attempting to map above UTOP!");
172         // page_insert/pgdir_walk alloc a page and read/write to it via its address
173         // starting from pgdir (e's), so we need to be using e's pgdir
174         assert(e->env_cr3 == rcr3());
175         num_pages = PPN(end - start);
176
177         for (i = 0; i < num_pages; i++, start += PGSIZE) {
178                 // skip if a page is already mapped.  yes, page_insert will page_remove
179                 // whatever page was already there, but if we are seg allocing adjacent
180                 // regions, we don't want to destroy that old mapping/page
181                 // though later on we are told we can ignore this...
182                 pte = pgdir_walk(e->env_pgdir, start, 0);
183                 if (pte && *pte & PTE_P)
184                         continue;
185                 if ((r = page_alloc(&page)) < 0)
186                         panic("segment_alloc: %e", r);
187                 page_insert(e->env_pgdir, page, start, PTE_USER_RW);
188         }
189 }
190
191 //
192 // Set up the initial program binary, stack, and processor flags
193 // for a user process.
194 //
195 // This function loads all loadable segments from the ELF binary image
196 // into the environment's user memory, starting at the appropriate
197 // virtual addresses indicated in the ELF program header.
198 // At the same time it clears to zero any portions of these segments
199 // that are marked in the program header as being mapped
200 // but not actually present in the ELF file - i.e., the program's bss section.
201 //
202 // Finally, this function maps one page for the program's initial stack.
203 void load_icode(env_t *SAFE e, uint8_t *COUNT(size) binary, size_t size)
204 {
205         // asw: copy the headers because they might not be aligned.
206         elf_t elfhdr;
207         proghdr_t phdr;
208         memcpy(&elfhdr, binary, sizeof(elfhdr));
209
210         int i, r;
211
212         // is this an elf?
213         assert(elfhdr.e_magic == ELF_MAGIC);
214         // make sure we have proghdrs to load
215         assert(elfhdr.e_phnum);
216
217         // to actually access any pages alloc'd for this environment, we
218         // need to have the hardware use this environment's page tables.
219         uintreg_t old_cr3 = rcr3();
220         /*
221          * Even though we'll decref later and no one should be killing us at this
222          * stage, we're still going to wrap the lcr3s with incref/decref.
223          *
224          * Note we never decref on the old_cr3, since we aren't willing to let it
225          * die.  It's also not clear who the previous process is - sometimes it
226          * isn't even a process (when the kernel loads on its own, and not in
227          * response to a syscall).  Probably need to think more about this (TODO)
228          *
229          * This can get a bit tricky if this code blocks (will need to think about a
230          * decref then), if we try to change states, etc.
231          */
232         proc_incref(e);
233         lcr3(e->env_cr3);
234
235         // TODO: how do we do a runtime COUNT?
236         {TRUSTEDBLOCK // zra: TRUSTEDBLOCK until validation is done.
237         for (i = 0; i < elfhdr.e_phnum; i++) {
238                 memcpy(&phdr, binary + elfhdr.e_phoff + i*sizeof(phdr), sizeof(phdr));
239                 if (phdr.p_type != ELF_PROG_LOAD)
240                         continue;
241         // TODO: validate elf header fields!
242                 // seg alloc creates PTE_U|PTE_W pages.  if you ever want to change
243                 // this, there will be issues with overlapping sections
244                 segment_alloc(e, (void*SNT)phdr.p_va, phdr.p_memsz);
245                 memcpy((void*)phdr.p_va, binary + phdr.p_offset, phdr.p_filesz);
246                 memset((void*)phdr.p_va + phdr.p_filesz, 0, phdr.p_memsz - phdr.p_filesz);
247         }}
248
249         proc_set_program_counter(&e->env_tf, elfhdr.e_entry);
250         e->env_entry = elfhdr.e_entry;
251
252         // Now map one page for the program's initial stack
253         // at virtual address USTACKTOP - PGSIZE.
254         segment_alloc(e, (void*SNT)(USTACKTOP - PGSIZE), PGSIZE);
255
256         // reload the original address space
257         lcr3(old_cr3);
258         proc_decref(e);
259 }
260
261 #define PER_CPU_THING(type,name)\
262 type SLOCKED(name##_lock) * RWPROTECT name;\
263 type SLOCKED(name##_lock) *\
264 (get_per_cpu_##name)()\
265 {\
266         { R_PERMITTED(global(name))\
267                 return &name[core_id()];\
268         }\
269 }
270
271 /* This is the top-half of an interrupt handler, where the bottom half is
272  * proc_run (which never returns).  Just add it to the delayed work queue,
273  * which (incidentally) can only hold one item at this point.
274  *
275  * Note this is rather old, and meant to run a RUNNABLE_S on a worker core.
276  */
277 #ifdef __IVY__
278 void run_env_handler(trapframe_t *tf, env_t * data)
279 #else
280 void run_env_handler(trapframe_t *tf, void * data)
281 #endif
282 {
283         assert(data);
284         struct work TP(env_t *) job;
285         struct workqueue TP(env_t *) *CT(1) workqueue =
286             TC(&per_cpu_info[core_id()].workqueue);
287         // this doesn't work, and making it a TP(env_t) is wrong
288         // zra: When you want to use other types, let me know, and I can help
289     // make something that Ivy is happy with. 
290 #ifdef __IVY__
291         job.func = proc_run;
292 #else
293         job.func = (func_t)proc_run;
294 #endif
295         job.data = data;
296         if (enqueue_work(workqueue, &job))
297                 panic("Failed to enqueue work!");
298 }