Idenfity devices by name, not by char [1/3]
[akaros.git] / kern / src / elf.c
1 #include <mm.h>
2 #include <frontend.h>
3 #include <string.h>
4 #include <kmalloc.h>
5 #include <syscall.h>
6 #include <elf.h>
7 #include <pmap.h>
8 #include <smp.h>
9 #include <arch/arch.h>
10 #include <umem.h>
11
12 #ifdef CONFIG_64BIT
13 # define elf_field(obj, field) (elf64 ? (obj##64)->field : (obj##32)->field)
14 #else
15 # define elf_field(obj, field) ((obj##32)->field)
16 #endif
17
18 /* Check if the file is valid elf file (i.e. by checking for ELF_MAGIC in the
19  * header) */
20 bool is_valid_elf(struct file *f)
21 {
22         elf64_t h;
23         off64_t o = 0;
24         struct proc *c = switch_to(0);
25
26         if (f->f_op->read(f, (char*)&h, sizeof(elf64_t), &o) != sizeof(elf64_t)) {
27                 goto fail;
28         }
29         if (h.e_magic != ELF_MAGIC) {
30                 goto fail;
31         }
32 success:
33         switch_back(0, c);
34         return TRUE;
35 fail:
36         switch_back(0, c);
37         return FALSE;
38 }
39
40 static uintptr_t populate_stack(struct proc *p, int argc, char *argv[],
41                                                 int envc, char *envp[],
42                                                 int auxc, elf_aux_t auxv[])
43 {
44         /* Map in pages for p's stack. */
45         int flags = MAP_FIXED | MAP_ANONYMOUS;
46         uintptr_t stacksz = USTACK_NUM_PAGES*PGSIZE;
47         if (do_mmap(p, USTACKTOP-stacksz, stacksz, PROT_READ | PROT_WRITE,
48                     flags, NULL, 0) == MAP_FAILED)
49                 return 0;
50
51         /* Function to get the lengths of the argument and environment strings. */
52         int get_lens(int argc, char *argv[], int arg_lens[])
53         {
54                 int total = 0;
55                 for (int i = 0; i < argc; i++) {
56                         arg_lens[i] = strlen(argv[i]) + 1;
57                         total += arg_lens[i];
58                 }
59                 return total;
60         }
61
62         /* Function to help map the argument and environment strings, to their
63          * final location. */
64         int remap(int argc, char *argv[], char *new_argv[],
65               char new_argbuf[], int arg_lens[])
66         {
67                 int offset = 0;
68                 char *temp_argv[argc + 1];
69                 for(int i = 0; i < argc; i++) {
70                         if (memcpy_to_user(p, new_argbuf + offset, argv[i], arg_lens[i]))
71                                 return -1;
72                         temp_argv[i] = new_argbuf + offset;
73                         offset += arg_lens[i];
74                 }
75                 temp_argv[argc] = NULL;
76                 if (memcpy_to_user(p, new_argv, temp_argv, sizeof(temp_argv)))
77                         return -1;
78                 return offset;
79         }
80
81         /* Start tracking the size of the buffer necessary to hold all of our data
82          * on the stack. Preallocate space for argc, argv, envp, and auxv in this
83          * buffer. */
84         int bufsize = 0;
85         bufsize += 1 * sizeof(size_t);
86         bufsize += (auxc + 1) * sizeof(elf_aux_t);
87         bufsize += (envc + 1) * sizeof(char**);
88         bufsize += (argc + 1) * sizeof(char**);
89
90         /* Add in the size of the env and arg strings. */
91         int arg_lens[argc];
92         int env_lens[envc];
93         bufsize += get_lens(argc, argv, arg_lens);
94         bufsize += get_lens(envc, envp, env_lens);
95
96         /* Adjust bufsize so that our buffer will ultimately be 16 byte aligned. */
97         bufsize = ROUNDUP(bufsize, 16);
98
99         /* Set up pointers to all of the appropriate data regions we map to. */
100         size_t *new_argc = (size_t*)(USTACKTOP - bufsize);
101         char **new_argv = (char**)(new_argc + 1);
102         char **new_envp = new_argv + argc + 1;
103         elf_aux_t *new_auxv = (elf_aux_t*)(new_envp + envc + 1);
104         char *new_argbuf = (char*)(new_auxv + auxc + 1);
105
106         /* Verify that all data associated with our argv, envp, and auxv arrays
107          * (and any corresponding strings they point to) will fit in the space
108          * alloted. */
109         if (bufsize > ARG_MAX)
110                 return 0;
111
112         /* Map argc into its final location. */
113         if (memcpy_to_user(p, new_argc, &argc, sizeof(size_t)))
114                 return 0;
115
116         /* Map all data for argv and envp into its final location. */
117         int offset = 0;
118         offset = remap(argc, argv, new_argv, new_argbuf, arg_lens);
119         if (offset == -1)
120                 return 0;
121         offset = remap(envc, envp, new_envp, new_argbuf + offset, env_lens);
122         if (offset == -1)
123                 return 0;
124
125         /* Map auxv into its final location. */
126         elf_aux_t null_aux = {0, 0};
127         if (memcpy_to_user(p, new_auxv, auxv, auxc * sizeof(elf_aux_t)))
128                 return 0;
129         if (memcpy_to_user(p, new_auxv + auxc, &null_aux, sizeof(elf_aux_t)))
130                 return 0;
131
132         return USTACKTOP - bufsize;
133 }
134
135 /* We need the writable flag for ld.  Even though the elf header says it wants
136  * RX (and not W) for its main program header, it will page fault (eip 56f0,
137  * 46f0 after being relocated to 0x1000, va 0x20f4). */
138 static int load_one_elf(struct proc *p, struct file *f, uintptr_t pgoffset,
139                         elf_info_t *ei, bool writable)
140 {
141         int ret = -1;
142         ei->phdr = -1;
143         ei->dynamic = 0;
144         ei->highest_addr = 0;
145         off64_t f_off = 0;
146         void* phdrs = 0;
147         int mm_perms, mm_flags = MAP_FIXED;
148         
149         /* When reading on behalf of the kernel, we need to make sure no proc is
150          * "current".  This is a bit ghetto (TODO: KFOP) */
151         struct proc *old_proc = switch_to(0);
152
153         /* Read in ELF header. */
154         elf64_t elfhdr_storage;
155         elf32_t* elfhdr32 = (elf32_t*)&elfhdr_storage;
156         elf64_t* elfhdr64 = &elfhdr_storage;
157         if (f->f_op->read(f, (char*)elfhdr64, sizeof(elf64_t), &f_off)
158                 != sizeof(elf64_t)) {
159                 /* if you ever debug this, be sure to 0 out elfhrd_storage in advance */
160                 printk("[kernel] load_one_elf: failed to read file\n");
161                 goto fail;
162         }
163         if (elfhdr64->e_magic != ELF_MAGIC) {
164                 printk("[kernel] load_one_elf: file is not an elf!\n");
165                 goto fail;
166         }
167         bool elf32 = elfhdr32->e_ident[ELF_IDENT_CLASS] == ELFCLASS32;
168         bool elf64 = elfhdr64->e_ident[ELF_IDENT_CLASS] == ELFCLASS64;
169         if (elf64 == elf32) {
170                 printk("[kernel] load_one_elf: ID as both 32 and 64 bit\n");
171                 goto fail;
172         }
173         #ifndef CONFIG_64BIT
174         if (elf64) {
175                 printk("[kernel] load_one_elf: 64 bit elf on 32 bit kernel\n");
176                 goto fail;
177         }
178         #endif
179         /* Not sure what RISCV's 64 bit kernel can do here, so this check is x86
180          * only */
181         #ifdef CONFIG_X86
182         if (elf32) {
183                 printk("[kernel] load_one_elf: 32 bit elf on 64 bit kernel\n");
184                 goto fail;
185         }
186         #endif
187
188         size_t phsz = elf64 ? sizeof(proghdr64_t) : sizeof(proghdr32_t);
189         uint16_t e_phnum = elf_field(elfhdr, e_phnum);
190         uint16_t e_phoff = elf_field(elfhdr, e_phoff);
191
192         /* Read in program headers. */
193         if (e_phnum > 10000 || e_phoff % (elf32 ? 4 : 8) != 0) {
194                 printk("[kernel] load_one_elf: Bad program headers\n");
195                 goto fail;
196         }
197         phdrs = kmalloc(e_phnum * phsz, 0);
198         f_off = e_phoff;
199         if (!phdrs || f->f_op->read(f, phdrs, e_phnum * phsz, &f_off) !=
200                       e_phnum * phsz) {
201                 printk("[kernel] load_one_elf: could not get program headers\n");
202                 goto fail;
203         }
204         for (int i = 0; i < e_phnum; i++) {
205                 proghdr32_t* ph32 = (proghdr32_t*)phdrs + i;
206                 proghdr64_t* ph64 = (proghdr64_t*)phdrs + i;
207                 uint16_t p_type = elf_field(ph, p_type);
208                 uintptr_t p_va = elf_field(ph, p_va);
209                 uintptr_t p_offset = elf_field(ph, p_offset);
210                 uintptr_t p_align = elf_field(ph, p_align);
211                 uintptr_t p_memsz = elf_field(ph, p_memsz);
212                 uintptr_t p_filesz = elf_field(ph, p_filesz);
213                 uintptr_t p_flags = elf_field(ph, p_flags);
214
215                 /* Here's the ld hack, mentioned above */
216                 p_flags |= (writable ? ELF_PROT_WRITE : 0);
217                 /* All mmaps need to be fixed to their VAs.  If the program wants it to
218                  * be a writable region, we also need the region to be private. */
219                 mm_flags = MAP_FIXED | (p_flags & ELF_PROT_WRITE ? MAP_PRIVATE : 0);
220
221                 if (p_type == ELF_PROG_PHDR)
222                         ei->phdr = p_va;
223                 else if (p_type == ELF_PROG_INTERP) {
224                         f_off = p_offset;
225                         ssize_t maxlen = sizeof(ei->interp);
226                         ssize_t bytes = f->f_op->read(f, ei->interp, maxlen, &f_off);
227                         /* trying to catch errors.  don't know how big it could be, but it
228                          * should be at least 0. */
229                         if (bytes <= 0) {
230                                 printk("[kernel] load_one_elf: could not read ei->interp\n");
231                                 goto fail;
232                         }
233
234                         maxlen = MIN(maxlen, bytes);
235                         if (strnlen(ei->interp, maxlen) == maxlen) {
236                                 printk("[kernel] load_one_elf: interpreter name too long\n");
237                                 goto fail;
238                         }
239
240                         ei->dynamic = 1;
241                 }
242                 else if (p_type == ELF_PROG_LOAD && p_memsz) {
243                         if (p_align % PGSIZE) {
244                                 printk("[kernel] load_one_elf: not page aligned\n");
245                                 goto fail;
246                         }
247                         if (p_offset % PGSIZE != p_va % PGSIZE) {
248                                 printk("[kernel] load_one_elf: offset difference \n");
249                                 goto fail;
250                         }
251
252                         uintptr_t filestart = ROUNDDOWN(p_offset, PGSIZE);
253                         uintptr_t filesz = p_offset + p_filesz - filestart;
254
255                         uintptr_t memstart = ROUNDDOWN(p_va, PGSIZE);
256                         uintptr_t memsz = ROUNDUP(p_va + p_memsz, PGSIZE) - memstart;
257                         memstart += pgoffset * PGSIZE;
258
259                         if (memstart + memsz > ei->highest_addr)
260                                 ei->highest_addr = memstart + memsz;
261
262                         mm_perms = 0;
263                         mm_perms |= (p_flags & ELF_PROT_READ  ? PROT_READ : 0);
264                         mm_perms |= (p_flags & ELF_PROT_WRITE ? PROT_WRITE : 0);
265                         mm_perms |= (p_flags & ELF_PROT_EXEC  ? PROT_EXEC : 0);
266
267                         if (filesz) {
268                                 /* Due to elf-ghetto-ness, we need to zero the first part of
269                                  * the BSS from the last page of the data segment.  If we end
270                                  * on a partial page, we map it in separately with
271                                  * MAP_POPULATE so that we can zero the rest of it now. We
272                                  * translate to the KVA so we don't need to worry about using
273                                  * the proc's mapping */
274                                 uintptr_t partial = PGOFF(filesz);
275
276                                 if (filesz - partial) {
277                                         /* Map the complete pages. */
278                                         if (do_mmap(p, memstart, filesz - partial, mm_perms,
279                                                     mm_flags, f, filestart) == MAP_FAILED) {
280                                                 printk("[kernel] load_one_elf: complete mmap failed\n");
281                                                 goto fail;
282                                         }
283                                 }
284                                 /* Note that we (probably) only need to do this zeroing the end
285                                  * of a partial file page when we are dealing with
286                                  * ELF_PROT_WRITE-able PHs, and not for all cases.  */
287                                 if (partial) {
288                                         /* Need our own populated, private copy of the page so that
289                                          * we can zero the remainder - and not zero chunks of the
290                                          * real file in the page cache. */
291                                         mm_flags |= MAP_PRIVATE | MAP_POPULATE;
292
293                                         /* Map the final partial page. */
294                                         uintptr_t last_page = memstart + filesz - partial;
295                                         if (do_mmap(p, last_page, PGSIZE, mm_perms, mm_flags,
296                                                     f, filestart + filesz - partial) == MAP_FAILED) {
297                                                 printk("[kernel] load_one_elf: partial mmap failed\n");
298                                                 goto fail;
299                                         }
300
301                                         /* Zero the end of it.  This is a huge pain in the ass.  The
302                                          * filesystems should zero out the last bits of a page if
303                                          * the file doesn't fill the last page.  But we're dealing
304                                          * with windows into otherwise complete files. */
305                                         pte_t pte = pgdir_walk(p->env_pgdir, (void*)last_page, 0);
306                                         /* if we were able to get a PTE, then there is a real page
307                                          * backing the VMR, and we need to zero the excess.  if
308                                          * there isn't, then the page fault code should handle it.
309                                          * since we set populate above, we should have a PTE, except
310                                          * in cases where the offset + len window exceeded the file
311                                          * size.  in this case, we let them mmap it, but didn't
312                                          * populate it.  there will be a PF right away if someone
313                                          * tries to use this.  check out do_mmap for more info. */
314                                         if (pte_walk_okay(pte)) {
315                                                 void* last_page_kva = KADDR(pte_get_paddr(pte));
316                                                 memset(last_page_kva + partial, 0, PGSIZE - partial);
317                                         }
318
319                                         filesz = ROUNDUP(filesz, PGSIZE);
320                                 }
321                         }
322                         /* Any extra pages are mapped anonymously... (a bit weird) */
323                         if (filesz < memsz)
324                                 if (do_mmap(p, memstart + filesz, memsz-filesz,
325                                             PROT_READ | PROT_WRITE, MAP_PRIVATE,
326                                                 NULL, 0) == MAP_FAILED) {
327                                         printk("[kernel] load_one_elf: anon mmap failed\n");
328                                         goto fail;
329                                 }
330                 }
331         }
332         /* map in program headers anyway if not present in binary.
333          * useful for TLS in static programs. */
334         if (ei->phdr == -1) {
335                 uintptr_t filestart = ROUNDDOWN(e_phoff, PGSIZE);
336                 uintptr_t filesz = e_phoff + (e_phnum * phsz) - filestart;
337                 void *phdr_addr = do_mmap(p, 0, filesz, PROT_READ | PROT_WRITE,
338                                           MAP_PRIVATE, f, filestart);
339                 if (phdr_addr == MAP_FAILED) {
340                         printk("[kernel] load_one_elf: prog header mmap failed\n");
341                         goto fail;
342                 }
343                 ei->phdr = (long)phdr_addr + e_phoff;
344         }
345         ei->entry = elf_field(elfhdr, e_entry) + pgoffset*PGSIZE;
346         ei->phnum = e_phnum;
347         ei->elf64 = elf64;
348         ret = 0;
349         /* Fall-through */
350 fail:
351         if (phdrs)
352                 kfree(phdrs);
353         switch_back(0, old_proc);
354         return ret;
355 }
356
357 int load_elf(struct proc* p, struct file* f,
358              int argc, char *argv[], int envc, char *envp[])
359 {
360         elf_info_t ei, interp_ei;
361         if (load_one_elf(p, f, 0, &ei, FALSE))
362                 return -1;
363
364         if (ei.dynamic) {
365                 struct file *interp = do_file_open(ei.interp, O_READ, 0);
366                 if (!interp)
367                         return -1;
368                 /* Load dynamic linker at 1M. Obvious MIB joke avoided.
369                  * It used to be loaded at page 1, but the existence of valid addresses
370                  * that low masked bad derefs through NULL pointer structs. This in turn
371                  * helped us waste a full day debugging a bug in the Go runtime. True!
372                  * Note that MMAP_LOWEST_VA also has this value but we want to make this
373                  * explicit. */
374                 int error = load_one_elf(p, interp, MiB>>12, &interp_ei, TRUE);
375                 kref_put(&interp->f_kref);
376                 if (error)
377                         return -1;
378         }
379
380         /* Set up the auxiliary info for dynamic linker/runtime */
381         elf_aux_t auxv[] = {{ELF_AUX_PHDR, ei.phdr},
382                             {ELF_AUX_PHENT, sizeof(proghdr32_t)},
383                             {ELF_AUX_PHNUM, ei.phnum},
384                             {ELF_AUX_ENTRY, ei.entry}};
385         int auxc = sizeof(auxv)/sizeof(auxv[0]);
386
387         /* Populate the stack with the required info. */
388         uintptr_t stack_top = populate_stack(p, argc, argv, envc, envp, auxc, auxv);
389         if (!stack_top)
390                 return -1;
391
392         /* Initialize the process as an SCP. */
393         uintptr_t core0_entry = ei.dynamic ? interp_ei.entry : ei.entry;
394         proc_init_ctx(&p->scp_ctx, 0, core0_entry, stack_top, 0);
395
396         /* Set the heap bottom and top to just past where the text region has been
397          * loaded. */
398         p->heap_top = (void*)ei.highest_addr;
399         p->procinfo->heap_bottom = p->heap_top;
400
401         return 0;
402 }
403