Adds some event/uthread debugging code
[akaros.git] / kern / src / atomic.c
index e8e1147..dac394c 100644 (file)
@@ -60,6 +60,49 @@ void hash_unlock_irqsave(struct hashlock *hl, long key)
        spin_unlock_irqsave(get_spinlock(hl, key));
 }
 
+/* This is the 'post (work) and poke' style of sync.  We make sure the poke
+ * tracker's function runs.  Once this returns, the func either has run or is
+ * currently running (in case someone else is running now).  We won't wait or
+ * spin or anything, and it is safe to call this recursively (deeper in the
+ * call-graph).
+ *
+ * It's up to the caller to somehow post its work.  We'll also pass arg to the
+ * func, ONLY IF the caller is the one to execute it - so there's no guarantee
+ * the func(specific_arg) combo will actually run.  It's more for info
+ * purposes/optimizations/etc.  If no one uses it, I'll get rid of it. */
+void poke(struct poke_tracker *tracker, void *arg)
+{
+       atomic_set(&tracker->need_to_run, TRUE);
+       /* will need to repeatedly do it if someone keeps posting work */
+       do {
+               /* want an wrmb() btw posting work/need_to_run and in_progress.  the
+                * swap provides the HW mb. just need a cmb, which we do in the loop to
+                * cover the iterations (even though i can't imagine the compiler
+                * reordering the check it needed to do for the branch).. */
+               cmb();
+               /* poke / make sure someone does it.  if we get a TRUE (1) back, someone
+                * is already running and will deal with the posted work.  (probably on
+                * their next loop).  if we got a 0 back, we won the race and have the
+                * 'lock'. */
+               if (atomic_swap(&tracker->run_in_progress, TRUE))
+                       return;
+               /* if we're here, then we're the one who needs to run the func. */
+               /* clear the 'need to run', since we're running it now.  new users will
+                * set it again.  this write needs to be wmb()'d after in_progress.  the
+                * swap provided the HW mb(). */
+               cmb();
+               atomic_set(&tracker->need_to_run, FALSE);       /* no internal HW mb */
+               /* run the actual function.  the poke sync makes sure only one caller is
+                * in that func at a time. */
+               assert(tracker->func);
+               tracker->func(arg);
+               wmb();  /* ensure the in_prog write comes after the run_again. */
+               atomic_set(&tracker->run_in_progress, FALSE);   /* no internal HW mb */
+               /* in_prog write must come before run_again read */
+               wrmb();
+       } while (atomic_read(&tracker->need_to_run));   /* while there's more work*/
+}
+
 // Must be called in a pair with waiton_checklist
 int commit_checklist_wait(checklist_t* list, checklist_mask_t* mask)
 {