proc_destroy() refcnting issues dealt with
[akaros.git] / kern / arch / i686 / trap.c
index 1fd56a8..2b6aaca 100644 (file)
@@ -90,7 +90,12 @@ void set_stack_top(uintptr_t stacktop)
 /* Note the check implies we only are on a one page stack (or the first page) */
 uintptr_t get_stack_top(void)
 {
-       uintptr_t stacktop = per_cpu_info[core_id()].tss->ts_esp0;
+       struct per_cpu_info *pcpui = &per_cpu_info[core_id()];
+       uintptr_t stacktop;
+       /* so we can check this in interrupt handlers (before smp_boot()) */
+       if (!pcpui->tss)
+               return ROUNDUP(read_esp(), PGSIZE);
+       stacktop = pcpui->tss->ts_esp0;
        if (stacktop != ROUNDUP(read_esp(), PGSIZE))
                panic("Bad stacktop: %08p esp one is %08p\n", stacktop,
                      ROUNDUP(read_esp(), PGSIZE));
@@ -233,13 +238,9 @@ trap_dispatch(trapframe_t *tf)
                case T_SYSCALL:
                        // check for userspace, for now
                        assert(tf->tf_cs != GD_KT);
-                       struct per_cpu_info* coreinfo = &per_cpu_info[core_id()];
-                       coreinfo->tf_retval_loc = &(tf->tf_regs.reg_eax);
                        /* Set up and run the async calls */
                        prep_syscalls(current, (struct syscall*)tf->tf_regs.reg_eax,
                                      tf->tf_regs.reg_edx);
-                       run_local_syscall();
-                       warn("No syscalls on a trap!");
                        break;
                default:
                        // Unexpected trap: The user process or the kernel has a bug.
@@ -248,8 +249,9 @@ trap_dispatch(trapframe_t *tf)
                                panic("Damn Damn!  Unhandled trap in the kernel!");
                        else {
                                warn("Unexpected trap from userspace");
-                               kref_get(&current->kref, 1);
+                               proc_incref(current, 1);
                                proc_destroy(current);
+                               assert(0);
                                return;
                        }
        }
@@ -269,17 +271,24 @@ env_pop_ancillary_state(env_t* e)
        // Here's where you'll restore FP/MMX/XMM regs
 }
 
+/* Helper.  For now, this copies out the TF to pcpui, and sets the tf to use it.
+ * Eventually, we ought to do this in trapentry.S */
+static void set_current_tf(struct per_cpu_info *pcpui, struct trapframe **tf)
+{
+       pcpui->actual_tf = **tf;
+       pcpui->cur_tf = &pcpui->actual_tf;
+       *tf = &pcpui->actual_tf;
+}
+
 void trap(struct trapframe *tf)
 {
+       struct per_cpu_info *pcpui = &per_cpu_info[core_id()];
+       /* Copy out the TF for now, set tf to point to it.  */
+       if (!in_kernel(tf))
+               set_current_tf(pcpui, &tf);
+
        printd("Incoming TRAP %d on core %d, TF at %p\n", tf->tf_trapno, core_id(),
               tf);
-       /* Note we are not preemptively saving the TF in the env_tf.  We do maintain
-        * a reference to it in current_tf (a per-cpu pointer).
-        * In general, only save the tf and any silly state once you know it
-        * is necessary (blocking).  And only save it in env_tf when you know you
-        * are single core (PROC_RUNNING_S) */
-       if (!in_kernel(tf))
-               set_current_tf(tf);
        if ((tf->tf_cs & ~3) != GD_UT && (tf->tf_cs & ~3) != GD_KT) {
                print_trapframe(tf);
                panic("Trapframe with invalid CS!");
@@ -289,15 +298,18 @@ void trap(struct trapframe *tf)
         * kernel, we should just return naturally.  Note that current and tf need
         * to still be okay (might not be after blocking) */
        if (in_kernel(tf))
-               return;
-       proc_restartcore(current, tf);
+               return; /* TODO: think about this, might want a helper instead. */
+       proc_restartcore();
        assert(0);
 }
 
 void irq_handler(struct trapframe *tf)
 {
+       struct per_cpu_info *pcpui = &per_cpu_info[core_id()];
+       /* Copy out the TF for now, set tf to point to it. */
        if (!in_kernel(tf))
-               set_current_tf(tf);
+               set_current_tf(pcpui, &tf);
+
        //if (core_id())
                printd("Incoming IRQ, ISR: %d on core %d\n", tf->tf_trapno, core_id());
 
@@ -319,7 +331,8 @@ void irq_handler(struct trapframe *tf)
        // For now, only 235-255 are available
        assert(tf->tf_trapno >= 32); // slows us down, but we should never have this
 
-#ifndef __CONFIG_DISABLE_MPTABLES__
+#ifdef __CONFIG_ENABLE_MPTABLES__
+       /* TODO: this should be for any IOAPIC EOI, not just MPTABLES */
        lapic_send_eoi();
 #else
        //Old PIC relatd code. Should be gone for good, but leaving it just incase.
@@ -332,8 +345,8 @@ void irq_handler(struct trapframe *tf)
         * kernel, we should just return naturally.  Note that current and tf need
         * to still be okay (might not be after blocking) */
        if (in_kernel(tf))
-               return;
-       proc_restartcore(current, tf);
+               return; /* TODO: think about this, might want a helper instead. */
+       proc_restartcore();
        assert(0);
 }
 
@@ -362,8 +375,9 @@ void page_fault_handler(struct trapframe *tf)
                       current->pid, prot & PROT_READ ? "READ" : "WRITE", fault_va,
                       tf->tf_eip, core_id(), err);
                print_trapframe(tf);
-               kref_get(&current->kref, 1);
+               proc_incref(current, 1);
                proc_destroy(current);
+               assert(0);
        }
 }
 
@@ -377,21 +391,17 @@ void sysenter_init(void)
 /* This is called from sysenter's asm, with the tf on the kernel stack. */
 void sysenter_callwrapper(struct trapframe *tf)
 {
-       struct per_cpu_info* coreinfo = &per_cpu_info[core_id()];
+       struct per_cpu_info *pcpui = &per_cpu_info[core_id()];
+       /* Copy out the TF for now, set tf to point to it. */
+       if (!in_kernel(tf))
+               set_current_tf(pcpui, &tf);
+
        if (in_kernel(tf))
                panic("sysenter from a kernel TF!!");
-       coreinfo->cur_tf = tf;
-       coreinfo->tf_retval_loc = &(tf->tf_regs.reg_eax);
        /* Set up and run the async calls */
        prep_syscalls(current, (struct syscall*)tf->tf_regs.reg_eax,
                      tf->tf_regs.reg_esi);
-       run_local_syscall();            /* alternatively, we can call smp_idle() */
-       warn("No syscalls on a sysenter!");
-       /* careful here - we need to make sure that this current is the right
-        * process, which could be weird if the syscall blocked.  it would need to
-        * restore the proper value in current before returning to here.
-        * likewise, tf could be pointing to random gibberish. */
-       proc_restartcore(current, tf);
+       proc_restartcore();
 }
 
 struct kmem_cache *kernel_msg_cache;
@@ -427,9 +437,11 @@ uint32_t send_kernel_message(uint32_t dst, amr_t pc, TV(a0t) arg0, TV(a1t) arg1,
                default:
                        panic("Unknown type of kernel message!");
        }
-       // since we touched memory the other core will touch (the lock), we don't
-       // need an wmb_f()
-       send_ipi(get_hw_coreid(dst), I_KERNEL_MSG);
+       /* since we touched memory the other core will touch (the lock), we don't
+        * need an wmb_f() */
+       /* if we're sending a routine message locally, we don't want/need an IPI */
+       if ((dst != k_msg->srcid) || (type == KMSG_IMMEDIATE))
+               send_ipi(get_hw_coreid(dst), I_KERNEL_MSG);
        return 0;
 }
 
@@ -461,6 +473,10 @@ void __kernel_message(struct trapframe *tf)
        per_cpu_info_t *myinfo = &per_cpu_info[core_id()];
        kernel_message_t msg_cp, *k_msg;
 
+       /* Copy out the TF for now, set tf to point to it. */
+       if (!in_kernel(tf))
+               set_current_tf(myinfo, &tf);
+
        lapic_send_eoi();
        while (1) { // will break out when there are no more messages
                /* Try to get an immediate message.  Exec and free it. */
@@ -486,6 +502,7 @@ void __kernel_message(struct trapframe *tf)
                                send_self_ipi(I_KERNEL_MSG);
                        /* Execute the kernel message */
                        assert(msg_cp.pc);
+                       /* TODO: when batching syscalls, this should be reread from cur_tf*/
                        msg_cp.pc(tf, msg_cp.srcid, msg_cp.arg0, msg_cp.arg1, msg_cp.arg2);
                }
        }