Helper to determine if a vcore is online / mapped
[akaros.git] / kern / include / process.h
1 /* Copyright (c) 2009, 2010 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * All things processes!  As we move away from the old envs to processes,
6  * we'll move things into here that are designed for multicore processes. */
7
8 #ifndef ROS_KERN_PROCESS_H
9 #define ROS_KERN_PROCESS_H
10
11 #include <ros/common.h>
12 #include <ros/event.h>
13 #include <trap.h>
14 #include <atomic.h>
15 #include <kref.h>
16
17 /* Process States.  Not 100% on the names yet.  RUNNABLE_* are waiting to go to
18  * RUNNING_*.  For instance, RUNNABLE_M is expecting to go to RUNNING_M.  It
19  * could be waiting for it's timeslice, or possibly for all the cores it asked
20  * for.  You use proc_run() to transition between these states.
21  *
22  * Difference between the _M and the _S states:
23  * - _S : legacy process mode
24  * - RUNNING_M implies *guaranteed* core(s).  You can be a single core in the
25  *   RUNNING_M state.  The guarantee is subject to time slicing, but when you
26  *   run, you get all of your cores.
27  * - The time slicing is at a coarser granularity for _M states.  This means
28  *   that when you run an _S on a core, it should be interrupted/time sliced
29  *   more often, which also means the core should be classified differently for
30  *   a while.  Possibly even using it's local APIC timer.
31  * - A process in an _M state will be informed about changes to its state, e.g.,
32  *   will have a handler run in the event of a page fault
33  */
34
35 #define PROC_CREATED                    0x01
36 #define PROC_RUNNABLE_S                 0x02
37 #define PROC_RUNNING_S                  0x04
38 #define PROC_WAITING                    0x08 // can split out to INT and UINT
39 #define PROC_DYING                              0x10
40 #define PROC_RUNNABLE_M                 0x20
41 #define PROC_RUNNING_M                  0x40
42
43 #define procstate2str(state) ((state)==PROC_CREATED    ? "CREATED"    : \
44                               (state)==PROC_RUNNABLE_S ? "RUNNABLE_S" : \
45                               (state)==PROC_RUNNING_S  ? "RUNNING_S"  : \
46                               (state)==PROC_WAITING    ? "WAITING"    : \
47                               (state)==PROC_DYING      ? "DYING"      : \
48                               (state)==PROC_RUNNABLE_M ? "RUNNABLE_M" : \
49                               (state)==PROC_RUNNING_M  ? "RUNNING_M"  : \
50                                                          "UNKNOWN")
51
52 #include <env.h>
53
54 TAILQ_HEAD(proc_list, proc);            // Declares 'struct proc_list'
55
56 extern spinlock_t runnablelist_lock;
57 extern struct proc_list LCKD(&runnablelist_lock) proc_runnablelist;
58
59 /* Can use a htable iterator to iterate through all active procs */
60 extern struct hashtable *pid_hash;
61 extern spinlock_t pid_hash_lock;
62
63 /* Idle cores: ones able to be exclusively given to a process (worker cores). */
64 extern spinlock_t idle_lock;  // never grab this before a proc_lock
65 extern uint32_t LCKD(&idle_lock) (RO idlecoremap)[MAX_NUM_CPUS];
66 extern uint32_t LCKD(&idle_lock) num_idlecores;
67
68 /* Initialization */
69 void proc_init(void);
70 void proc_init_procinfo(struct proc *p);
71
72 /* Process management: */
73 error_t proc_alloc(struct proc **pp, struct proc *parent);
74 void __proc_ready(struct proc *p);
75 struct proc *proc_create(struct file *prog, char **argv, char **envp);
76 int __proc_set_state(struct proc *p, uint32_t state) WRITES(p->state);
77 struct proc *pid2proc(pid_t pid);
78 bool proc_controls(struct proc *SAFE actor, struct proc *SAFE target);
79 void proc_incref(struct proc *p, unsigned int val);
80 void proc_decref(struct proc *p);
81 void proc_run(struct proc *SAFE p);
82 void proc_restartcore(void);
83 void proc_destroy(struct proc *SAFE p);
84 void __proc_yield_s(struct proc *p, struct trapframe *tf);
85 void proc_yield(struct proc *SAFE p, bool being_nice);
86 void proc_notify(struct proc *p, uint32_t vcoreid);
87
88 /* Vcoremap info: */
89 uint32_t proc_get_vcoreid(struct proc *SAFE p, uint32_t pcoreid);
90 /* TODO: make this an inline once we gut the Env crap */
91 bool vcore_is_mapped(struct proc *p, uint32_t vcoreid);
92
93 /* Process core management.  Only call these if you are RUNNING_M or RUNNABLE_M.
94  * These all adjust the vcoremap and take appropriate actions (like __startcore
95  * if you were already RUNNING_M.  You could be RUNNABLE_M with no vcores when
96  * these are done (basically preempted, and waiting to get run again).
97  *
98  * These are internal functions.  Error checking is to catch bugs, and you
99  * shouldn't call these functions with parameters you are not sure about (like
100  * an invalid corelist).  
101  *
102  * They also may cause an IPI to be sent to core it is called on.  If so, the
103  * return value will be true.  Once you unlock (and enable interrupts) you will
104  * be preempted, and usually lose your stack.  There is a helper to unlock and
105  * handle the refcnt.
106  *
107  * WARNING: YOU MUST HOLD THE PROC_LOCK BEFORE CALLING THESE! */
108 /* Gives process p the additional num cores listed in corelist */
109 bool __proc_give_cores(struct proc *SAFE p, uint32_t *pcorelist, size_t num);
110 /* Makes process p's coremap look like corelist (add, remove, etc). Not used */
111 bool __proc_set_allcores(struct proc *SAFE p, uint32_t *pcorelist,
112                          size_t *num, amr_t message, TV(a0t) arg0,
113                          TV(a1t) arg1, TV(a2t) arg2);
114 /* Takes from process p the num cores listed in corelist */
115 bool __proc_take_cores(struct proc *p, uint32_t *pcorelist, size_t num,
116                        amr_t message, long arg0, long arg1, long arg2);
117 bool __proc_take_allcores(struct proc *p, amr_t message, long arg0, long arg1,
118                           long arg2);
119 void __proc_kmsg_pending(struct proc *p, bool ipi_pending);
120 /* Exposed for kern/src/resource.c for now */
121 void __map_vcore(struct proc *p, uint32_t vcoreid, uint32_t pcoreid);
122 void __unmap_vcore(struct proc *p, uint32_t vcoreid);
123
124 /* Preemption management.  Some of these will change */
125 void __proc_preempt_warn(struct proc *p, uint32_t vcoreid, uint64_t when);
126 void __proc_preempt_warnall(struct proc *p, uint64_t when);
127 bool __proc_preempt_core(struct proc *p, uint32_t pcoreid);
128 bool __proc_preempt_all(struct proc *p);
129 void proc_preempt_core(struct proc *p, uint32_t pcoreid, uint64_t usec);
130 void proc_preempt_all(struct proc *p, uint64_t usec);
131
132 /* Current / cr3 / context management */
133 struct proc *switch_to(struct proc *new_p);
134 void switch_back(struct proc *new_p, struct proc *old_proc);
135 void abandon_core(void);
136
137 /* Hold the proc_lock, since it'll use the vcoremapping to send an unmapping
138  * message for the region from start to end.  */
139 void __proc_tlbshootdown(struct proc *p, uintptr_t start, uintptr_t end);
140
141 /* Kernel message handlers for process management */
142 void __startcore(struct trapframe *tf, uint32_t srcid, long a0, long a1,
143                  long a2);
144 void __notify(struct trapframe *tf, uint32_t srcid, long a0, long a1, long a2);
145 void __preempt(trapframe_t *tf, uint32_t srcid, long a0, long a1, long a2);
146 void __death(struct trapframe *tf, uint32_t srcid, long a0, long a1, long a2);
147 void __tlbshootdown(struct trapframe *tf, uint32_t srcid, long a0, long a1,
148                     long a2);
149
150 /* Arch Specific */
151 void proc_init_trapframe(trapframe_t *SAFE tf, uint32_t vcoreid,
152                          uintptr_t entryp, uintptr_t stack_top);
153 void proc_secure_trapframe(struct trapframe *tf);
154 void __abandon_core(void);
155
156 /* Degubbing */
157 void print_idlecoremap(void);
158 void print_allpids(void);
159 void print_proc_info(pid_t pid);
160
161 #endif /* !ROS_KERN_PROCESS_H */