Cosmetic changes, biggest being current_thread renamed to current_uthread
[akaros.git] / tests / mhello.c
index e2732ad..029805e 100644 (file)
@@ -22,7 +22,26 @@ __thread int temp;
 void *core0_tls = 0;
 
 struct event_queue *indirect_q;
 void *core0_tls = 0;
 
 struct event_queue *indirect_q;
-static void handle_generic(struct event_msg *ev_msg, bool overflow);
+static void handle_generic(struct event_msg *ev_msg, unsigned int ev_type,
+                           bool overflow);
+
+void ghetto_vcore_entry(void);
+struct uthread *ghetto_init(void)
+{
+       return malloc(sizeof(struct uthread));
+}
+
+struct schedule_ops ghetto_sched_ops = {
+       ghetto_init,
+       ghetto_vcore_entry,
+       0, /* thread_create, */
+       0, /* thread_runnable, */
+       0, /* thread_yield, */
+       0, /* thread_exit, */
+       0, /* preempt_pending, */
+       0, /* spawn_thread, */
+};
+struct schedule_ops *sched_ops = &ghetto_sched_ops;
 
 int main(int argc, char** argv)
 {
 
 int main(int argc, char** argv)
 {
@@ -31,6 +50,9 @@ int main(int argc, char** argv)
 
        mcs_barrier_init(&b, max_vcores());
 
 
        mcs_barrier_init(&b, max_vcores());
 
+       /* vcore_context test */
+       assert(!in_vcore_context());
+       
        /* prep indirect ev_q.  Note we grab a big one */
        indirect_q = get_big_event_q();
        indirect_q->ev_flags = EVENT_IPI;
        /* prep indirect ev_q.  Note we grab a big one */
        indirect_q = get_big_event_q();
        indirect_q->ev_flags = EVENT_IPI;
@@ -52,7 +74,7 @@ int main(int argc, char** argv)
         * event and IPI for USER_IPIs on vcore 0.  Check event.c for more stuff.
         * Note you don't have to register for USER_IPIs to receive ones you send
         * yourself with sys_self_notify(). */
         * event and IPI for USER_IPIs on vcore 0.  Check event.c for more stuff.
         * Note you don't have to register for USER_IPIs to receive ones you send
         * yourself with sys_self_notify(). */
-       enable_kevent(EV_USER_IPI, 0, TRUE);
+       enable_kevent(EV_USER_IPI, 0, EVENT_IPI);
        /* Receive pending preemption events.  Can also get a MSG if you want. */
        struct event_queue *ev_q = get_event_q();
        ev_q->ev_flags = EVENT_IPI | EVENT_NOMSG | EVENT_VCORE_APPRO;
        /* Receive pending preemption events.  Can also get a MSG if you want. */
        struct event_queue *ev_q = get_event_q();
        ev_q->ev_flags = EVENT_IPI | EVENT_NOMSG | EVENT_VCORE_APPRO;
@@ -81,6 +103,8 @@ int main(int argc, char** argv)
                retval = vcore_request(max_vcores());
                //retval = vcore_request(5);
                printf("This is vcore0, right after vcore_request, retval=%d\n", retval);
                retval = vcore_request(max_vcores());
                //retval = vcore_request(5);
                printf("This is vcore0, right after vcore_request, retval=%d\n", retval);
+               /* vcore_context test */
+               assert(!in_vcore_context());
        }
 
        /* test notifying my vcore2 */
        }
 
        /* test notifying my vcore2 */
@@ -113,56 +137,26 @@ int main(int argc, char** argv)
        return 0;
 }
 
        return 0;
 }
 
-static void handle_generic(struct event_msg *ev_msg, bool overflow)
+static void handle_generic(struct event_msg *ev_msg, unsigned int ev_type,
+                           bool overflow)
 {
 {
-       if (ev_msg)
-               printf("Got event type %d on vcore %d, with%s overflow\n",
-                      ev_msg->ev_type, vcore_id(), overflow ? "" : "out");
-       else
-               printf("Got event type UNK on vcore %d, with%s overflow\n",
-                      vcore_id(), overflow ? "" : "out");
+       printf("Got event type %d on vcore %d, with%s overflow\n",
+              ev_type, vcore_id(), overflow ? "" : "out");
 }
 
 }
 
-void vcore_entry(void)
+void ghetto_vcore_entry(void)
 {
        uint32_t vcoreid = vcore_id();
        static bool first_time = TRUE;
 
        temp = 0xcafebabe;
 {
        uint32_t vcoreid = vcore_id();
        static bool first_time = TRUE;
 
        temp = 0xcafebabe;
-/* begin: stuff userspace needs to do to handle notifications */
-
-       struct preempt_data *vcpd;
-       vcpd = &__procdata.vcore_preempt_data[vcoreid];
-
-       /* checks if a preempt is pending, yields if so */
-       check_preempt_pending(vcoreid);
+       /* vcore_context test (don't need to do this anywhere) */
+       assert(in_vcore_context());
 
 
-       /* here is how you receive an event */
-       handle_events(vcoreid);
-
-       /* Lets try to restart vcore0's context.  Note this doesn't do anything to
-        * set the appropriate TLS.  On x86, this will involve changing the LDT
-        * entry for this vcore to point to the TCB of the new user-thread. */
-       if (vcoreid == 0) {
-               /* // test for preempting a notif_handler.  do it from the monitor
-               int ctr = 0;
-               while(ctr < 3) {
-                       printf("Vcore %d Spinning (%d), temp = %08x!\n", vcoreid, ctr++, temp);
-                       udelay(5000000);
-               } */
-               printf("restarting vcore0 from userspace\n");
-               vcpd->notif_pending = 0;
-               /* Do one last check for notifs after clearing pending */
-               /* // testing for missing a notif
-               if (first_time) {
-                       first_time = FALSE;
-                       printf("setting pending, trying to renotify etc\n");
-                       vcpd->notif_pending = 1;
-               } */
-               set_tls_desc(core0_tls, 0);
-               /* Load silly state (Floating point) too */
-               pop_ros_tf(&vcpd->notif_tf, vcoreid);
-               panic("should never see me!");
+       /* old logic was moved to parlib code */
+       if (current_uthread) {
+               assert(vcoreid == 0);
+               run_current_uthread();
        }
        /* unmask notifications once you can let go of the notif_tf and it is okay
         * to clobber the transition stack.
        }
        /* unmask notifications once you can let go of the notif_tf and it is okay
         * to clobber the transition stack.