Split pcpui->syscalls into a current and next
[akaros.git] / kern / src / smp.c
1 /*
2  * Copyright (c) 2009 The Regents of the University of California
3  * Barret Rhoden <brho@cs.berkeley.edu>
4  * See LICENSE for details.
5  */
6
7 #ifdef __SHARC__
8 #pragma nosharc
9 #endif
10
11 #include <arch/arch.h>
12 #include <atomic.h>
13 #include <smp.h>
14 #include <error.h>
15 #include <stdio.h>
16 #include <string.h>
17 #include <assert.h>
18 #include <pmap.h>
19 #include <process.h>
20 #include <manager.h>
21 #include <trap.h>
22
23 struct per_cpu_info per_cpu_info[MAX_NUM_CPUS];
24
25 // tracks number of global waits on smp_calls, must be <= NUM_HANDLER_WRAPPERS
26 atomic_t outstanding_calls = 0;
27
28 /* All cores end up calling this whenever there is nothing left to do.  Non-zero
29  * cores call it when they are done booting.  Other cases include after getting
30  * a DEATH IPI.
31  * - Management cores (core 0 for now) call manager, which should never return.
32  * - Worker cores halt and wake up when interrupted, do any work on their work
33  *   queue, then halt again.
34  *
35  * TODO: think about resetting the stack pointer at the beginning for worker
36  * cores. (keeps the stack from growing if we never go back to userspace).
37  * TODO: think about unifying the manager into a workqueue function, so we don't
38  * need to check mgmt_core in here.  it gets a little ugly, since there are
39  * other places where we check for mgmt and might not smp_idle / call manager.
40  */
41 void smp_idle(void)
42 {
43         int8_t state = 0;
44         per_cpu_info_t *pcpui = &per_cpu_info[core_id()];
45
46         /* There was a process running here, and we should return to it */
47         if (pcpui->cur_tf) {                    /* aka, current_tf */
48                 assert(pcpui->cur_proc);        /* aka, current */
49                 /* We also check in run_local_syscall().  This is for sys_exec() */
50                 if (pcpui->nr_syscs)
51                         run_local_syscall();
52                 /* Now we're done, so return */
53                 proc_restartcore(pcpui->cur_proc, pcpui->cur_tf);
54                 assert(0);
55         }
56         /* if we made it here, we truly want to idle */
57         /* in the future, we may need to proactively leave process context here.
58          * for now, it is possible to have a current loaded, even if we are idle
59          * (and presumably about to execute a kmsg or fire up a vcore). */
60         if (!management_core()) {
61                 enable_irq();
62                 while (1) {
63                         process_routine_kmsg(0);
64                         cpu_halt();
65                 }
66         } else {
67                 enable_irqsave(&state);
68                 /* this makes us wait to enter the manager til any IO is done (totally
69                  * arbitrary 10ms), so we can handle the routine message that we
70                  * currently use to do the completion.  Note this also causes us to wait
71                  * 10ms regardless of how long the IO takes.  This all needs work. */
72                 //udelay(10000); /* done in the manager for now */
73                 process_routine_kmsg(0);
74                 disable_irqsave(&state);
75                 manager();
76         }
77         assert(0);
78 }