Adds some event/uthread debugging code
[akaros.git] / kern / src / syscall.c
index d90cb46..3bf53ef 100644 (file)
@@ -72,10 +72,11 @@ static void finish_sysc(struct syscall *sysc, struct proc *p)
        atomic_and(&sysc->flags, ~SC_K_LOCK); 
 }
 
-/* Helper that "finishes" the current async syscall.  This should be used when
- * we are calling a function in a syscall that might not return and won't be
- * able to use the normal syscall return path, such as proc_yield().  Call this
- * from within syscall.c (I don't want it global).
+/* Helper that "finishes" the current async syscall.  This should be used with
+ * care when we are not using the normal syscall completion path.
+ *
+ * Do *NOT* complete the same syscall twice.  This is catastrophic for _Ms, and
+ * a bad idea for _S.
  *
  * It is possible for another user thread to see the syscall being done early -
  * they just need to be careful with the weird proc management calls (as in,
@@ -245,7 +246,7 @@ static uint32_t sys_getpcoreid(void)
 // this is removed from the user interface
 static size_t sys_getvcoreid(struct proc *p)
 {
-       return proc_get_vcoreid(p, core_id());
+       return proc_get_vcoreid(p);
 }
 
 /************** Process management syscalls **************/
@@ -312,24 +313,26 @@ static error_t sys_proc_run(struct proc *p, unsigned pid)
        struct proc *target = pid2proc(pid);
        error_t retval = 0;
 
-       if (!target)
-               return -EBADPROC;
-       // note we can get interrupted here. it's not bad.
-       spin_lock(&p->proc_lock);
-       // make sure we have access and it's in the right state to be activated
+       if (!target) {
+               set_errno(EBADPROC);
+               return -1;
+       }
+       /* make sure we have access and it's in the right state to be activated */
        if (!proc_controls(p, target)) {
-               proc_decref(target);
-               retval = -EPERM;
+               set_errno(EPERM);
+               goto out_error;
        } else if (target->state != PROC_CREATED) {
-               proc_decref(target);
-               retval = -EINVAL;
-       } else {
-               __proc_set_state(target, PROC_RUNNABLE_S);
-               schedule_scp(target);
+               set_errno(EINVAL);
+               goto out_error;
        }
-       spin_unlock(&p->proc_lock);
+       /* Note a proc can spam this for someone it controls.  Seems safe - if it
+        * isn't we can change it. */
+       proc_wakeup(target);
        proc_decref(target);
-       return retval;
+       return 0;
+out_error:
+       proc_decref(target);
+       return -1;
 }
 
 /* Destroy proc pid.  If this is called by the dying process, it will never
@@ -365,14 +368,18 @@ static error_t sys_proc_destroy(struct proc *p, pid_t pid, int exitcode)
 
 static int sys_proc_yield(struct proc *p, bool being_nice)
 {
+       struct per_cpu_info *pcpui = &per_cpu_info[core_id()];
        /* proc_yield() often doesn't return - we need to set the syscall retval
         * early.  If it doesn't return, it expects to eat our reference (for now).
         */
-       finish_current_sysc(0);
+       finish_sysc(pcpui->cur_sysc, pcpui->cur_proc);
+       pcpui->cur_sysc = 0;    /* don't touch sysc again */
        proc_incref(p, 1);
        proc_yield(p, being_nice);
        proc_decref(p);
-       return 0;
+       /* Shouldn't return, to prevent the chance of mucking with cur_sysc. */
+       smp_idle();
+       assert(0);
 }
 
 static void sys_change_vcore(struct proc *p, uint32_t vcoreid,
@@ -389,10 +396,12 @@ static void sys_change_vcore(struct proc *p, uint32_t vcoreid,
         * smp_idle will make sure we run the appropriate cur_tf (which will be the
         * new vcore for successful calls). */
        smp_idle();
+       assert(0);
 }
 
 static ssize_t sys_fork(env_t* e)
 {
+       struct proc *temp;
        int8_t state = 0;
        // TODO: right now we only support fork for single-core processes
        if (e->state != PROC_RUNNING_S) {
@@ -414,12 +423,6 @@ static ssize_t sys_fork(env_t* e)
        env->env_tf = *current_tf;
        enable_irqsave(&state);
 
-       /* We need to speculatively say the syscall worked before copying the memory
-        * out, since the 'forked' process's call never actually goes through the
-        * syscall return path, and will never think it is done.  This violates a
-        * few things.  Just be careful with fork. */
-       finish_current_sysc(0);
-
        env->cache_colors_map = cache_colors_map_alloc();
        for(int i=0; i < llc_cache->num_colors; i++)
                if(GET_BITMASK_BIT(e->cache_colors_map,i))
@@ -433,6 +436,13 @@ static ssize_t sys_fork(env_t* e)
                set_errno(ENOMEM);
                return -1;
        }
+       /* Switch to the new proc's address space and finish the syscall.  We'll
+        * never naturally finish this syscall for the new proc, since its memory
+        * is cloned before we return for the original process.  If we ever do CoW
+        * for forked memory, this will be the first place that gets CoW'd. */
+       temp = switch_to(env);
+       finish_current_sysc(0);
+       switch_back(env, temp);
 
        /* In general, a forked process should be a fresh process, and we copy over
         * whatever stuff is needed between procinfo/procdata. */
@@ -446,9 +456,9 @@ static ssize_t sys_fork(env_t* e)
        #endif
 
        clone_files(&e->open_files, &env->open_files);
+       /* FYI: once we call ready, the proc is open for concurrent usage */
        __proc_ready(env);
-       __proc_set_state(env, PROC_RUNNABLE_S);
-       schedule_scp(env);
+       proc_wakeup(env);
 
        // don't decref the new process.
        // that will happen when the parent waits for it.
@@ -546,12 +556,12 @@ mid_error:
 early_error:
        finish_current_sysc(-1);
 success:
-       /* Here's how we'll restart the new (or old) process: */
+       /* Here's how we restart the new (on success) or old (on failure) proc: */
        spin_lock(&p->proc_lock);
        __unmap_vcore(p, 0);    /* VC# keep in sync with proc_run_s */
-       __proc_set_state(p, PROC_RUNNABLE_S);
-       schedule_scp(p);
+       __proc_set_state(p, PROC_WAITING);      /* fake a yield */
        spin_unlock(&p->proc_lock);
+       proc_wakeup(p);
 all_out:
        /* we can't return, since we'd write retvals to the old location of the
         * syscall struct (which has been freed and is in the old userspace) (or has
@@ -1455,7 +1465,7 @@ intreg_t syscall(struct proc *p, uintreg_t sc_num, uintreg_t a0, uintreg_t a1,
        if (systrace_flags & SYSTRACE_ON) {
                if ((systrace_flags & SYSTRACE_ALLPROC) || (proc_is_traced(p))) {
                        coreid = core_id();
-                       vcoreid = proc_get_vcoreid(p, coreid);
+                       vcoreid = proc_get_vcoreid(p);
                        if (systrace_flags & SYSTRACE_LOUD) {
                                printk("[%16llu] Syscall %3d (%12s):(%08p, %08p, %08p, %08p, "
                                       "%08p, %08p) proc: %d core: %d vcore: %d\n", read_tsc(),
@@ -1495,6 +1505,7 @@ void run_local_syscall(struct syscall *sysc)
        struct per_cpu_info *pcpui = &per_cpu_info[core_id()];
 
        /* TODO: (UMEM) assert / pin the memory for the sysc */
+       assert(irq_is_enabled());       /* in case we proc destroy */
        user_mem_assert(pcpui->cur_proc, sysc, sizeof(struct syscall),
                        sizeof(uintptr_t), PTE_USER_RW);
        pcpui->cur_sysc = sysc;                 /* let the core know which sysc it is */