Remove ONE_xBYTE #defines
[akaros.git] / kern / src / env.c
index 7d12633..0623f3e 100644 (file)
@@ -1,15 +1,10 @@
 /* See COPYRIGHT for copyright information. */
 
-#ifdef __SHARC__
-#pragma nosharc
-#endif
-
 #include <arch/arch.h>
 #include <arch/mmu.h>
-#include <arch/bitmask.h>
+#include <bitmask.h>
 #include <elf.h>
 #include <smp.h>
-
 #include <atomic.h>
 #include <string.h>
 #include <assert.h>
 #include <stdio.h>
 #include <schedule.h>
 #include <kmalloc.h>
+#include <mm.h>
 
 #include <ros/syscall.h>
-#include <ros/error.h>
+#include <error.h>
 
 atomic_t num_envs;
 
@@ -37,373 +33,119 @@ atomic_t num_envs;
 //     -ENOMEM if page directory or table could not be allocated.
 //
 int env_setup_vm(env_t *e)
-WRITES(e->env_pgdir, e->env_cr3, e->env_procinfo, e->env_procdata)
 {
-       int i, r;
-       page_t *pgdir = NULL;
-       page_t *pginfo[PROCINFO_NUM_PAGES] = {NULL};
-       page_t *pgdata[PROCDATA_NUM_PAGES] = {NULL};
-       static page_t * RO shared_page = 0;
-
-       /*
-        * First, allocate a page for the pgdir of this process and up
-        * its reference count since this will never be done elsewhere
-        */
-       r = kpage_alloc(&pgdir);
-       if(r < 0) return r;
-
-       /*
-        * Next, set up the e->env_pgdir and e->env_cr3 pointers to point
-        * to this newly allocated page and clear its contents
-        */
-       memset(page2kva(pgdir), 0, PGSIZE);
-       e->env_pgdir = (pde_t *COUNT(NPDENTRIES)) TC(page2kva(pgdir));
-       e->env_cr3 =   (physaddr_t) TC(page2pa(pgdir));
-
-       /*
-        * Now start filling in the pgdir with mappings required by all newly
-        * created address spaces
-        */
-
-       // Map in the kernel to the top of every address space
-       // should be able to do this so long as boot_pgdir never has
-       // anything put below UTOP
-       // TODO check on this!  had a nasty bug because of it
-       // this is a bit wonky, since if it's not PGSIZE, lots of other things are
-       // screwed up...
-       memcpy(e->env_pgdir, boot_pgdir, NPDENTRIES*sizeof(pde_t));
-
-       // VPT and UVPT map the env's own page table, with
-       // different permissions.
-       e->env_pgdir[PDX(VPT)]  = PTE(LA2PPN(e->env_cr3), PTE_P | PTE_KERN_RW);
-       e->env_pgdir[PDX(UVPT)] = PTE(LA2PPN(e->env_cr3), PTE_P | PTE_USER_RO);
-
-       /*
-        * Now allocate and insert all pages required for the shared
-        * procinfo structure into the page table
-        */
-       for(int i=0; i<PROCINFO_NUM_PAGES; i++) {
-               if(upage_alloc(e, &pginfo[i]) < 0)
-                       goto env_setup_vm_error;
-               if(page_insert(e->env_pgdir, pginfo[i], (void*SNT)(UINFO + i*PGSIZE),
-                              PTE_USER_RO) < 0)
+       int i, ret;
+       static page_t *shared_page = 0;
+
+       if ((ret = arch_pgdir_setup(boot_pgdir, &e->env_pgdir)))
+               return ret;
+       e->env_cr3 = arch_pgdir_get_cr3(e->env_pgdir);
+
+       /* These need to be contiguous, so the kernel can alias them.  Note the
+        * pages return with a refcnt, but it's okay to insert them since we free
+        * them manually when the process is cleaned up. */
+       if (!(e->procinfo = kpages_alloc(PROCINFO_NUM_PAGES * PGSIZE, MEM_WAIT)))
+               goto env_setup_vm_error_i;
+       if (!(e->procdata = kpages_alloc(PROCDATA_NUM_PAGES * PGSIZE, MEM_WAIT)))
+               goto env_setup_vm_error_d;
+       /* Normally we would 0 the pages here.  We handle it in proc_init_proc*.
+        * Do not start the process without calling those. */
+       for (int i = 0; i < PROCINFO_NUM_PAGES; i++) {
+               if (page_insert(e->env_pgdir, kva2page((void*)e->procinfo + i *
+                               PGSIZE), (void*)(UINFO + i*PGSIZE), PTE_USER_RO) < 0)
                        goto env_setup_vm_error;
        }
-
-       /*
-        * Now allocate and insert all pages required for the shared
-        * procdata structure into the page table
-        */
-       for(int i=0; i<PROCDATA_NUM_PAGES; i++) {
-               if(upage_alloc(e, &pgdata[i]) < 0)
+       for (int i = 0; i < PROCDATA_NUM_PAGES; i++) {
+               if (page_insert(e->env_pgdir, kva2page((void*)e->procdata + i *
+                               PGSIZE), (void*)(UDATA + i*PGSIZE), PTE_USER_RW) < 0)
                        goto env_setup_vm_error;
-               if(page_insert(e->env_pgdir, pgdata[i], (void*SNT)(UDATA + i*PGSIZE),
-                              PTE_USER_RW) < 0)
+       }
+       for (int i = 0; i < PROCGINFO_NUM_PAGES; i++) {
+               if (page_insert(e->env_pgdir,
+                               kva2page((void*)&__proc_global_info + i * PGSIZE),
+                               (void*)(UGINFO + i * PGSIZE), PTE_USER_RO) < 0)
                        goto env_setup_vm_error;
        }
-
-       /*
-        * Now, set e->env_procinfo, and e->env_procdata to point to
-        * the proper pages just allocated and clear them out.
-        */
-       e->env_procinfo = (procinfo_t *SAFE) TC(page2kva(pginfo[0]));
-       e->env_procdata = (procdata_t *SAFE) TC(page2kva(pgdata[0]));
-
-       memset(e->env_procinfo, 0, sizeof(procinfo_t));
-       memset(e->env_procdata, 0, sizeof(procdata_t));
-
-       /* Finally, set up the Global Shared Data page for all processes.
-        * Can't be trusted, but still very useful at this stage for us.
-        * Consider removing when we have real processes.
-        * (TODO).  Note the page is alloced only the first time through
-        */
+       /* Finally, set up the Global Shared Data page for all processes.  Can't be
+        * trusted, but still very useful at this stage for us.  Consider removing
+        * when we have real processes (TODO).
+        *
+        * Note the page is alloced only the first time through, and its ref is
+        * stored in shared_page. */
        if (!shared_page) {
-               if(upage_alloc(e, &shared_page) < 0)
+               if (upage_alloc(e, &shared_page, 1) < 0)
                        goto env_setup_vm_error;
-               // Up it, so it never goes away.  One per user, plus one from page_alloc
-               // This is necessary, since it's in the per-process range of memory that
-               // gets freed during page_free.
-               page_incref(shared_page);
        }
-
-       // Inserted into every process's address space at UGDATA
-       if(page_insert(e->env_pgdir, shared_page, (void*SNT)UGDATA, PTE_USER_RW) < 0)
+       if (page_insert(e->env_pgdir, shared_page, (void*)UGDATA, PTE_USER_RW) < 0)
                goto env_setup_vm_error;
 
        return 0;
 
 env_setup_vm_error:
-       page_free(shared_page);
-       for(int i=0; i< PROCDATA_NUM_PAGES; i++) {
-               page_free(pgdata[i]);
-       }
-       for(int i=0; i< PROCINFO_NUM_PAGES; i++) {
-               page_free(pginfo[i]);
-       }
-       env_user_mem_free(e);
-       page_free(pgdir);
+       kpages_free(e->procdata, PROCDATA_NUM_PAGES * PGSIZE);
+env_setup_vm_error_d:
+       kpages_free(e->procinfo, PROCINFO_NUM_PAGES * PGSIZE);
+env_setup_vm_error_i:
+       env_user_mem_free(e, 0, UVPT);
+       env_pagetable_free(e);
        return -ENOMEM;
 }
 
-static void
-proc_init_procinfo(struct proc* p)
-{
-       p->env_procinfo->pid = p->pid;
-
-       // TODO: maybe do something smarter here
-       p->env_procinfo->max_harts = MAX(1,num_cpus); // hack to use all cores
-}
-
-// Sets up argc/argv in procinfo.  Returns number of
-// args successfully imported (because of size restrictions).
-// The procinfo pages must have been mapped into the user's
-// address space before this function can be called.
-size_t
-proc_init_argc_argv(struct proc* p, size_t nargs, const char** args)
+/* Frees (decrefs) all memory mapped in the given range */
+void env_user_mem_free(env_t* e, void* start, size_t len)
 {
-       // TODO: right now we assume procinfo can be directly addressed
-       // by the kernel (i.e. it's continguous.
-       static_assert(sizeof(struct procinfo) <= PGSIZE);
-
-       if(nargs > PROCINFO_MAX_ARGC)
-               nargs = PROCINFO_MAX_ARGC;
-
-       char* argv[PROCINFO_MAX_ARGC] = {0};
-       static_assert(sizeof(argv) == sizeof(p->env_procinfo->argv));
-
-       size_t size = 0, argc;
-       for(argc = 0; argc < nargs; argc++)
+       assert((uintptr_t)start + len <= UVPT); //since this keeps fucking happening
+       int user_page_free(env_t* e, pte_t pte, void* va, void* arg)
        {
-               size_t len = strnlen(args[argc],PROCINFO_MAX_ARGV_SIZE);
-               if(size+len+1 > PROCINFO_MAX_ARGV_SIZE)
-                       break;
-               memcpy(&p->env_procinfo->argv_buf[size],args[argc],len+1);
-               argv[argc] = (char*)(UINFO+offsetof(struct procinfo,argv_buf)+size);
-               size += len+1;
+               if (!pte_is_mapped(pte))
+                       return 0;
+               page_t *page = pa2page(pte_get_paddr(pte));
+               pte_clear(pte);
+               page_decref(page);
+               /* TODO: consider other states here (like !P, yet still tracking a page,
+                * for VM tricks, page map stuff, etc.  Should be okay: once we're
+                * freeing, everything else about this proc is dead. */
+               return 0;
        }
 
-       p->env_procinfo->argc = argc;
-       memcpy(p->env_procinfo->argv,argv,sizeof(argv));
-
-       return argc;
+       env_user_mem_walk(e,start,len,&user_page_free,NULL);
+       tlbflush();
 }
 
-// Allocate len bytes of physical memory for environment env,
-// and map it at virtual address va in the environment's address space.
-// Pages are zeroed by upage_alloc.
-// Pages should be writable by user and kernel.
-// Panic if any allocation attempt fails.
-//
-void
-env_segment_alloc(env_t *e, void *SNT va, size_t len)
+void set_username(struct username *u, char *name)
 {
-       void *SNT start, *SNT end;
-       size_t num_pages;
-       int i, r;
-       page_t *page;
-       pte_t *pte;
+       ERRSTACK(1);
 
-       start = ROUNDDOWN(va, PGSIZE);
-       end = ROUNDUP(va + len, PGSIZE);
-       if (start >= end)
-               panic("Wrap-around in memory allocation addresses!");
-       if ((uintptr_t)end > UTOP)
-               panic("Attempting to map above UTOP!");
-       num_pages = LA2PPN(end - start);
+       spin_lock(&u->name_lock);
 
-       for (i = 0; i < num_pages; i++, start += PGSIZE) {
-               // skip if a page is already mapped.  yes, page_insert will page_remove
-               // whatever page was already there, but if we are seg allocing adjacent
-               // regions, we don't want to destroy that old mapping/page
-               // though later on we are told we can ignore this...
-               pte = pgdir_walk(e->env_pgdir, start, 0);
-               if (pte && *pte & PTE_P)
-                       continue;
-               if ((r = upage_alloc(e, &page)) < 0)
-                       panic("env_segment_alloc: %e", r);
-               page_insert(e->env_pgdir, page, start, PTE_USER_RW);
+       if (waserror()) {
+               spin_unlock(&u->name_lock);
+               nexterror();
        }
-}
 
-void
-env_segment_free(env_t *e, void *SNT va, size_t len)
-{
-       void *SNT start, *SNT end;
-       size_t num_pages;
-       page_t *page;
-       pte_t *pte;
-
-       // Round this up this time so we don't free the page that va is actually on
-       start = ROUNDUP(va, PGSIZE);
-       end = ROUNDUP(va + len, PGSIZE);
-       if (start >= end)
-               panic("Wrap-around in memory free addresses!");
-       if ((uintptr_t)end > UTOP)
-               panic("Attempting to unmap above UTOP!");
-       // page_insert/pgdir_walk alloc a page and read/write to it via its address
-       // starting from pgdir (e's), so we need to be using e's pgdir
-       assert(e->env_cr3 == rcr3());
-       num_pages = LA2PPN(end - start);
-
-       for (int i = 0; i < num_pages; i++, start += PGSIZE) {
-               // skip if a page is already unmapped. 
-               pte = pgdir_walk(e->env_pgdir, start, 0);
-               if (pte && *pte & PTE_P)
-                       page_remove(e->env_pgdir,start);
-       }
-}
-
-// this helper function handles all cases of copying to/from user/kernel
-// or between two users.
-static error_t load_icode_memcpy(struct proc *dest_p, struct proc *src_p,
-                                 void* dest, const void* src, size_t len)
-{
-       if(src < (void*)UTOP)
-       {
-               if(src_p == NULL)
-                       return -EFAULT;
-
-               if(dest_p == NULL)
-                       return memcpy_from_user(src_p, dest, src, len);
-               else
-               {
-                       // TODO: do something more elegant & faster here.
-                       // e.g. a memcpy_from_user_to_user
-                       uint8_t kbuf[1024];
-                       while(len > 0)
-                       {
-                               size_t thislen = MIN(len,sizeof(kbuf));
-                               if (memcpy_from_user(src_p, kbuf, src, thislen))
-                                       return -EFAULT;
-                               if (memcpy_to_user(dest_p, dest, kbuf, thislen))
-                                       panic("destination env isn't mapped!");
-                               len -= thislen;
-                               src += thislen;
-                               dest += thislen;
-                       }
-                       return ESUCCESS;
-               }
-
-       }
-       else
-       {
-               if(src_p != NULL)
-                       return -EFAULT;
-
-               if(dest_p == NULL)
-                       memcpy(dest, src, len);
-               else if(memcpy_to_user(dest_p, dest, src, len))
-                       panic("destination env isn't mapped!");
-
-               return ESUCCESS;
-       }
-}
-
-//
-// Set up the initial program binary, stack, and processor flags
-// for a user process.
-//
-// This function loads all loadable segments from the ELF binary image
-// into the environment's user memory, starting at the appropriate
-// virtual addresses indicated in the ELF program header.
-// At the same time it clears to zero any portions of these segments
-// that are marked in the program header as being mapped
-// but not actually present in the ELF file - i.e., the program's bss section.
-//
-// Finally, this function maps one page for the program's initial stack.
-static void* load_icode(env_t *SAFE e, env_t* binary_env,
-                        uint8_t *COUNT(size) binary, size_t size)
-{
-       // asw: copy the headers because they might not be aligned.
-       elf_t elfhdr;
-       proghdr_t phdr;
-       void* _end = 0;
-
-       assert(load_icode_memcpy(NULL,binary_env,&elfhdr, binary, sizeof(elfhdr))
-              == ESUCCESS);
-
-       int i, r;
-
-       // is this an elf?
-       assert(elfhdr.e_magic == ELF_MAGIC);
-       // make sure we have proghdrs to load
-       assert(elfhdr.e_phnum);
-
-       // TODO: how do we do a runtime COUNT?
-       {TRUSTEDBLOCK // zra: TRUSTEDBLOCK until validation is done.
-       for (i = 0; i < elfhdr.e_phnum; i++) {
-               // copy phdr to kernel mem
-               assert(load_icode_memcpy(NULL,binary_env,&phdr, binary + elfhdr.e_phoff + i*sizeof(phdr), sizeof(phdr)) == ESUCCESS);
-
-               if (phdr.p_type != ELF_PROG_LOAD)
-                       continue;
-               // TODO: validate elf header fields!
-               // seg alloc creates PTE_U|PTE_W pages.  if you ever want to change
-               // this, there will be issues with overlapping sections
-               _end = MAX(_end, (void*)(phdr.p_va + phdr.p_memsz));
-               env_segment_alloc(e, (void*SNT)phdr.p_va, phdr.p_memsz);
-
-               // copy section to user mem
-               assert(load_icode_memcpy(e,binary_env,(void*)phdr.p_va, binary + phdr.p_offset, phdr.p_filesz) == ESUCCESS);
-
-               //no need to memclr the remaining p_memsz-p_filesz bytes
-               //because upage_alloc'd pages are zeroed
-       }}
-
-       proc_set_program_counter(&e->env_tf, elfhdr.e_entry);
-       e->env_entry = elfhdr.e_entry;
-
-       // Now map USTACK_NUM_PAGES pages for the program's initial stack
-       // starting at virtual address USTACKTOP - USTACK_NUM_PAGES*PGSIZE.
-       env_segment_alloc(e, (void*SNT)(USTACKTOP - USTACK_NUM_PAGES*PGSIZE), 
-                         USTACK_NUM_PAGES*PGSIZE);
-       
-       return _end;
-}
-
-void env_load_icode(env_t* e, env_t* binary_env, uint8_t* binary, size_t size)
-{
-       /* Load the binary and set the current locations of the elf segments.
-        * All end-of-segment pointers are page aligned (invariant) */
-       e->heap_bottom = load_icode(e, binary_env, binary, size);
-       e->heap_top = e->heap_bottom;
-}
+       __set_username(u, name);
 
-#define PER_CPU_THING(type,name)\
-type SLOCKED(name##_lock) * RWPROTECT name;\
-type SLOCKED(name##_lock) *\
-(get_per_cpu_##name)()\
-{\
-       { R_PERMITTED(global(name))\
-               return &name[core_id()];\
-       }\
+       poperror();
+       spin_unlock(&u->name_lock);
 }
 
-/* This is the top-half of an interrupt handler, where the bottom half is
- * proc_run (which never returns).  Just add it to the delayed work queue,
- * which (incidentally) can only hold one item at this point.
- *
- * Note this is rather old, and meant to run a RUNNABLE_S on a worker core.
+/*
+ * This function exists so that you can do your own locking - do not use it
+ * without locking the username's spinlock yourself.
  */
-#ifdef __IVY__
-void run_env_handler(trapframe_t *tf, env_t * data)
-#else
-void run_env_handler(trapframe_t *tf, void * data)
-#endif
+void __set_username(struct username *u, char *name)
 {
-       assert(data);
-       struct work TP(env_t *) job;
-       struct workqueue TP(env_t *) *CT(1) workqueue =
-           TC(&per_cpu_info[core_id()].workqueue);
-       // this doesn't work, and making it a TP(env_t) is wrong
-       // zra: When you want to use other types, let me know, and I can help
-    // make something that Ivy is happy with. 
-#ifdef __IVY__
-       job.func = proc_run;
-#else
-       job.func = (func_t)proc_run;
-#endif
-       job.data = data;
-       if (enqueue_work(workqueue, &job))
-               panic("Failed to enqueue work!");
+       if (!name)
+               error(EINVAL, "New username is NULL");
+
+       if (strlen(name) > sizeof(u->name) - 1)
+               error(EINVAL, "New username for process more than %d chars long",
+                     sizeof(u->name) - 1);
+
+       // 'backward' copy since reads aren't protected
+       u->name[0] = 0;
+       wmb(); // ensure user.name="" before writing the rest of the new name
+       strlcpy(&u->name[1], &name[1], sizeof(u->name));
+       wmb(); // ensure new name is written before writing first byte
+       u->name[0] = name[0];
 }