parlib: Expand our printf hacks
[akaros.git] / kern / src / env.c
1 /* See COPYRIGHT for copyright information. */
2
3 #include <arch/arch.h>
4 #include <arch/mmu.h>
5 #include <bitmask.h>
6 #include <elf.h>
7 #include <smp.h>
8 #include <atomic.h>
9 #include <string.h>
10 #include <assert.h>
11 #include <process.h>
12 #include <pmap.h>
13 #include <trap.h>
14 #include <monitor.h>
15 #include <manager.h>
16 #include <stdio.h>
17 #include <schedule.h>
18 #include <kmalloc.h>
19 #include <mm.h>
20
21 #include <ros/syscall.h>
22 #include <error.h>
23
24 atomic_t num_envs;
25
26 // Initialize the kernel virtual memory layout for environment e.
27 // Allocate a page directory, set e->env_pgdir and e->env_cr3 accordingly,
28 // and initialize the kernel portion of the new environment's address space.
29 // Do NOT (yet) map anything into the user portion
30 // of the environment's virtual address space.
31 //
32 // Returns 0 on success, < 0 on error.  Errors include:
33 //      -ENOMEM if page directory or table could not be allocated.
34 //
35 int env_setup_vm(env_t *e)
36 {
37         int i, ret;
38         static page_t *shared_page = 0;
39
40         if ((ret = arch_pgdir_setup(boot_pgdir, &e->env_pgdir)))
41                 return ret;
42         e->env_cr3 = arch_pgdir_get_cr3(e->env_pgdir);
43
44         /* These need to be contiguous, so the kernel can alias them.  Note the
45          * pages return with a refcnt, but it's okay to insert them since we free
46          * them manually when the process is cleaned up. */
47         if (!(e->procinfo = kpages_alloc(PROCINFO_NUM_PAGES * PGSIZE, MEM_WAIT)))
48                 goto env_setup_vm_error_i;
49         if (!(e->procdata = kpages_alloc(PROCDATA_NUM_PAGES * PGSIZE, MEM_WAIT)))
50                 goto env_setup_vm_error_d;
51         /* Normally we would 0 the pages here.  We handle it in proc_init_proc*.
52          * Do not start the process without calling those. */
53         for (int i = 0; i < PROCINFO_NUM_PAGES; i++) {
54                 if (page_insert(e->env_pgdir, kva2page((void*)e->procinfo + i *
55                                 PGSIZE), (void*)(UINFO + i*PGSIZE), PTE_USER_RO) < 0)
56                         goto env_setup_vm_error;
57         }
58         for (int i = 0; i < PROCDATA_NUM_PAGES; i++) {
59                 if (page_insert(e->env_pgdir, kva2page((void*)e->procdata + i *
60                                 PGSIZE), (void*)(UDATA + i*PGSIZE), PTE_USER_RW) < 0)
61                         goto env_setup_vm_error;
62         }
63         for (int i = 0; i < PROCGINFO_NUM_PAGES; i++) {
64                 if (page_insert(e->env_pgdir,
65                                 kva2page((void*)&__proc_global_info + i * PGSIZE),
66                                 (void*)(UGINFO + i * PGSIZE), PTE_USER_RO) < 0)
67                         goto env_setup_vm_error;
68         }
69         /* Finally, set up the Global Shared Data page for all processes.  Can't be
70          * trusted, but still very useful at this stage for us.  Consider removing
71          * when we have real processes (TODO).
72          *
73          * Note the page is alloced only the first time through, and its ref is
74          * stored in shared_page. */
75         if (!shared_page) {
76                 if (upage_alloc(e, &shared_page, 1) < 0)
77                         goto env_setup_vm_error;
78         }
79         if (page_insert(e->env_pgdir, shared_page, (void*)UGDATA, PTE_USER_RW) < 0)
80                 goto env_setup_vm_error;
81
82         return 0;
83
84 env_setup_vm_error:
85         kpages_free(e->procdata, PROCDATA_NUM_PAGES * PGSIZE);
86 env_setup_vm_error_d:
87         kpages_free(e->procinfo, PROCINFO_NUM_PAGES * PGSIZE);
88 env_setup_vm_error_i:
89         env_user_mem_free(e, 0, UVPT);
90         env_pagetable_free(e);
91         return -ENOMEM;
92 }
93
94 #define PER_CPU_THING(type,name)\
95 type SLOCKED(name##_lock) * RWPROTECT name;\
96 type SLOCKED(name##_lock) *\
97 (get_per_cpu_##name)()\
98 {\
99         { R_PERMITTED(global(name))\
100                 return &name[core_id()];\
101         }\
102 }
103
104 /* Frees (decrefs) all memory mapped in the given range */
105 void env_user_mem_free(env_t* e, void* start, size_t len)
106 {
107         assert((uintptr_t)start + len <= UVPT); //since this keeps fucking happening
108         int user_page_free(env_t* e, pte_t pte, void* va, void* arg)
109         {
110                 if (!pte_is_mapped(pte))
111                         return 0;
112                 page_t *page = pa2page(pte_get_paddr(pte));
113                 pte_clear(pte);
114                 page_decref(page);
115                 /* TODO: consider other states here (like !P, yet still tracking a page,
116                  * for VM tricks, page map stuff, etc.  Should be okay: once we're
117                  * freeing, everything else about this proc is dead. */
118                 return 0;
119         }
120
121         env_user_mem_walk(e,start,len,&user_page_free,NULL);
122         tlbflush();
123 }
124
125 void set_username(struct username *u, char *name)
126 {
127         ERRSTACK(1);
128
129         spin_lock(&u->name_lock);
130
131         if (waserror()) {
132                 spin_unlock(&u->name_lock);
133                 nexterror();
134         }
135
136         __set_username(u, name);
137
138         poperror();
139         spin_unlock(&u->name_lock);
140 }
141
142 /*
143  * This function exists so that you can do your own locking - do not use it
144  * without locking the username's spinlock yourself.
145  */
146 void __set_username(struct username *u, char *name)
147 {
148         if (!name)
149                 error(EINVAL, "New username is NULL");
150
151         if (strlen(name) > sizeof(u->name) - 1)
152                 error(EINVAL, "New username for process more than %d chars long",
153                       sizeof(u->name) - 1);
154
155         // 'backward' copy since reads aren't protected
156         u->name[0] = 0;
157         wmb(); // ensure user.name="" before writing the rest of the new name
158         strlcpy(&u->name[1], &name[1], sizeof(u->name));
159         wmb(); // ensure new name is written before writing first byte
160         u->name[0] = name[0];
161 }