Adds some event/uthread debugging code
[akaros.git] / kern / src / smp.c
index 3d85e19..96412f0 100644 (file)
@@ -17,7 +17,7 @@
 #include <assert.h>
 #include <pmap.h>
 #include <process.h>
-#include <manager.h>
+#include <schedule.h>
 #include <trap.h>
 
 struct per_cpu_info per_cpu_info[MAX_NUM_CPUS];
@@ -25,30 +25,81 @@ struct per_cpu_info per_cpu_info[MAX_NUM_CPUS];
 // tracks number of global waits on smp_calls, must be <= NUM_HANDLER_WRAPPERS
 atomic_t outstanding_calls = 0;
 
-/* All cores end up calling this whenever there is nothing left to do.  Non-zero
- * cores call it when they are done booting.  Other cases include after getting
- * a DEATH IPI.
- * - Management cores (core 0 for now) call manager, which should never return.
- * - Worker cores halt and wake up when interrupted, do any work on their work
- *   queue, then halt again.
+/* Helper for running a proc (if we should).  Lots of repetition with
+ * proc_restartcore */
+static void try_run_proc(void)
+{
+       struct per_cpu_info *pcpui = &per_cpu_info[core_id()];
+
+       disable_irq();
+       /* There was a process running here, and we should return to it. */
+       if (pcpui->owning_proc) {
+               proc_restartcore();
+               assert(0);
+       }
+}
+
+/* All cores end up calling this whenever there is nothing left to do or they
+ * don't know explicitly what to do.  Non-zero cores call it when they are done
+ * booting.  Other cases include after getting a DEATH IPI.
  *
- * TODO: think about resetting the stack pointer at the beginning for worker
- * cores. (keeps the stack from growing if we never go back to userspace).
- * TODO: think about unifying the manager into a workqueue function, so we don't
- * need to check mgmt_core in here.  it gets a little ugly, since there are
- * other places where we check for mgmt and might not smp_idle / call manager.
- */
-void smp_idle(void)
+ * All cores attempt to run the context of any owning proc.  Barring that, the
+ * cores enter a loop.  They halt and wake up when interrupted, do any work on
+ * their work queue, then halt again.  In between, the ksched gets a chance to
+ * tell it to do something else, or perhaps to halt in another manner. */
+static void __smp_idle(void)
 {
-       if (!management_core()) {
-               enable_irq();
-               while (1) {
-                       process_routine_kmsg();
-                       // consider races with work added after we started leaving the last func
-                       cpu_halt();
-               }
-       } else {
-               manager();
+       int8_t state = 0;
+
+       /* TODO: idle, abandon_core(), and proc_restartcore() need cleaned up */
+       enable_irq();   /* get any IRQs before we halt later */
+       try_run_proc();
+       /* if we made it here, we truly want to idle */
+       /* in the future, we may need to proactively leave process context here.
+        * for now, it is possible to have a current loaded, even if we are idle
+        * (and presumably about to execute a kmsg or fire up a vcore). */
+       while (1) {
+               disable_irq();
+               process_routine_kmsg(0);
+               try_run_proc();
+               cpu_bored();            /* call out to the ksched */
+               /* cpu_halt() atomically turns on interrupts and halts the core.
+                * Important to do this, since we could have a RKM come in via an
+                * interrupt right while PRKM is returning, and we wouldn't catch
+                * it. */
+               cpu_halt();
+               /* interrupts are back on now (given our current semantics) */
        }
        assert(0);
 }
+
+void smp_idle(void)
+{
+       #ifdef __CONFIG_RESET_STACKS__
+       set_stack_pointer(get_stack_top());
+       #endif /* __CONFIG_RESET_STACKS__ */
+       __smp_idle();
+       assert(0);
+}
+
+/* Arch-independent per-cpu initialization.  This will call the arch dependent
+ * init first. */
+void smp_percpu_init(void)
+{
+       uint32_t coreid = core_id();
+       /* Do this first */
+       __arch_pcpu_init(coreid);
+       per_cpu_info[coreid].spare = 0;
+       /* Init relevant lists */
+       spinlock_init(&per_cpu_info[coreid].immed_amsg_lock);
+       STAILQ_INIT(&per_cpu_info[coreid].immed_amsgs);
+       spinlock_init(&per_cpu_info[coreid].routine_amsg_lock);
+       STAILQ_INIT(&per_cpu_info[coreid].routine_amsgs);
+       /* Initialize the per-core timer chain */
+       init_timer_chain(&per_cpu_info[coreid].tchain, set_pcpu_alarm_interrupt);
+#ifdef __CONFIG_KTHREAD_POISON__
+       /* TODO: KTHR-STACK */
+       uintptr_t *poison = (uintptr_t*)ROUNDDOWN(get_stack_top() - 1, PGSIZE);
+       *poison = 0xdeadbeef;
+#endif /* __CONFIG_KTHREAD_POISON__ */
+}