Guts load_icode and proc_create() takes a path
[akaros.git] / kern / include / process.h
1 /* Copyright (c) 2009, 2010 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * All things processes!  As we move away from the old envs to processes,
6  * we'll move things into here that are designed for multicore processes. */
7
8 #ifndef ROS_KERN_PROCESS_H
9 #define ROS_KERN_PROCESS_H
10
11 #include <ros/common.h>
12 #include <ros/notification.h>
13 #include <trap.h>
14 #include <atomic.h>
15
16 /* Process States.  Not 100% on the names yet.  RUNNABLE_* are waiting to go to
17  * RUNNING_*.  For instance, RUNNABLE_M is expecting to go to RUNNING_M.  It
18  * could be waiting for it's timeslice, or possibly for all the cores it asked
19  * for.  You use proc_run() to transition between these states.
20  *
21  * Difference between the _M and the _S states:
22  * - _S : legacy process mode
23  * - RUNNING_M implies *guaranteed* core(s).  You can be a single core in the
24  *   RUNNING_M state.  The guarantee is subject to time slicing, but when you
25  *   run, you get all of your cores.
26  * - The time slicing is at a coarser granularity for _M states.  This means
27  *   that when you run an _S on a core, it should be interrupted/time sliced
28  *   more often, which also means the core should be classified differently for
29  *   a while.  Possibly even using it's local APIC timer.
30  * - A process in an _M state will be informed about changes to its state, e.g.,
31  *   will have a handler run in the event of a page fault
32  */
33
34 #define PROC_CREATED                    0x01
35 #define PROC_RUNNABLE_S                 0x02
36 #define PROC_RUNNING_S                  0x04
37 #define PROC_WAITING                    0x08 // can split out to INT and UINT
38 #define PROC_DYING                              0x10
39 #define PROC_RUNNABLE_M                 0x20
40 #define PROC_RUNNING_M                  0x40
41
42 #define procstate2str(state) ((state)==PROC_CREATED    ? "CREATED"    : \
43                               (state)==PROC_RUNNABLE_S ? "RUNNABLE_S" : \
44                               (state)==PROC_RUNNING_S  ? "RUNNING_S"  : \
45                               (state)==PROC_WAITING    ? "WAITING"    : \
46                               (state)==PROC_DYING      ? "DYING"      : \
47                               (state)==PROC_RUNNABLE_M ? "RUNNABLE_M" : \
48                               (state)==PROC_RUNNING_M  ? "RUNNING_M"  : \
49                                                          "UNKNOWN")
50
51 #include <env.h>
52
53 TAILQ_HEAD(proc_list, proc);            // Declares 'struct proc_list'
54
55 extern spinlock_t runnablelist_lock;
56 extern struct proc_list LCKD(&runnablelist_lock) proc_runnablelist;
57
58 /* Can use a htable iterator to iterate through all active procs */
59 extern struct hashtable *pid_hash;
60 extern spinlock_t pid_hash_lock;
61
62 /* Idle cores: ones able to be exclusively given to a process (worker cores). */
63 extern spinlock_t idle_lock;  // never grab this before a proc_lock
64 extern uint32_t LCKD(&idle_lock) (RO idlecoremap)[MAX_NUM_CPUS];
65 extern uint32_t LCKD(&idle_lock) num_idlecores;
66
67 /* Initialization */
68 void proc_init(void);
69 void proc_init_procinfo(struct proc *p);
70
71 /* Process management: */
72 error_t proc_alloc(struct proc **pp, struct proc *parent);
73 struct proc *proc_create(struct file *prog, char **argv, char **envp);
74 int __proc_set_state(struct proc *p, uint32_t state) WRITES(p->state);
75 struct proc *pid2proc(pid_t pid);
76 bool proc_controls(struct proc *SAFE actor, struct proc *SAFE target);
77 void proc_run(struct proc *SAFE p);
78 void proc_restartcore(struct proc *SAFE p, trapframe_t *SAFE tf);
79 void proc_destroy(struct proc *SAFE p);
80 void proc_yield(struct proc *SAFE p, bool being_nice);
81 void do_notify(struct proc *p, uint32_t vcoreid, unsigned int notif,
82                struct notif_event *ne);
83 void proc_notify(struct proc *p, unsigned int notif, struct notif_event *ne);
84
85 /* Exposed for sys_getvcoreid(), til it's unnecessary */
86 uint32_t proc_get_vcoreid(struct proc *SAFE p, uint32_t pcoreid);
87
88 /* Process core management.  Only call these if you are RUNNING_M or RUNNABLE_M.
89  * These all adjust the vcoremap and take appropriate actions (like __startcore
90  * if you were already RUNNING_M.  You could be RUNNABLE_M with no vcores when
91  * these are done (basically preempted, and waiting to get run again).
92  *
93  * These are internal functions.  Error checking is to catch bugs, and you
94  * shouldn't call these functions with parameters you are not sure about (like
95  * an invalid corelist).  
96  *
97  * They also may cause an IPI to be sent to core it is called on.  If so, the
98  * return value will be true.  Once you unlock (and enable interrupts) you will
99  * be preempted, and usually lose your stack.  There is a helper to unlock and
100  * handle the refcnt.
101  *
102  * WARNING: YOU MUST HOLD THE PROC_LOCK BEFORE CALLING THESE! */
103 /* Gives process p the additional num cores listed in corelist */
104 bool __proc_give_cores(struct proc *SAFE p, uint32_t *pcorelist, size_t num);
105 /* Makes process p's coremap look like corelist (add, remove, etc). Not used */
106 bool __proc_set_allcores(struct proc *SAFE p, uint32_t *pcorelist,
107                          size_t *num, amr_t message, TV(a0t) arg0,
108                          TV(a1t) arg1, TV(a2t) arg2);
109 /* Takes from process p the num cores listed in corelist */
110 bool __proc_take_cores(struct proc *SAFE p, uint32_t *pcorelist,
111                        size_t num, amr_t message, TV(a0t) arg0,
112                        TV(a1t) arg1, TV(a2t) arg2);
113 bool __proc_take_allcores(struct proc *SAFE p, amr_t message, TV(a0t) arg0,
114                           TV(a1t) arg1, TV(a2t) arg2);
115 void __proc_kmsg_pending(struct proc *p, bool ipi_pending);
116 /* Exposed for kern/src/resource.c for now */
117 void __map_vcore(struct proc *p, uint32_t vcoreid, uint32_t pcoreid);
118 void __unmap_vcore(struct proc *p, uint32_t vcoreid);
119
120 /* Preemption management.  Some of these will change */
121 void __proc_preempt_warn(struct proc *p, uint32_t vcoreid, uint64_t when);
122 void __proc_preempt_warnall(struct proc *p, uint64_t when);
123 bool __proc_preempt_core(struct proc *p, uint32_t pcoreid);
124 bool __proc_preempt_all(struct proc *p);
125 void proc_preempt_core(struct proc *p, uint32_t pcoreid, uint64_t usec);
126 void proc_preempt_all(struct proc *p, uint64_t usec);
127
128 /* Will probably have generic versions of these later. */
129 void proc_incref(struct proc *SAFE p, size_t count);
130 void proc_decref(struct proc *SAFE p, size_t count);
131  
132 /* Allows the kernel to figure out what process is running on this core.  Can be
133  * used just like a pointer to a struct proc.  Need these to be macros due to
134  * some circular dependencies with smp.h. */
135 #include <smp.h>
136 #define current per_cpu_info[core_id()].cur_proc
137 #define set_current_proc(p) per_cpu_info[core_id()].cur_proc = (p)
138
139 /* Allows the kernel to figure out what *user* tf is on this core's stack.  Can
140  * be used just like a pointer to a struct Trapframe.  Need these to be macros
141  * due to some circular dependencies with smp.h.  This is done here instead of
142  * elsewhere (like trap.h) for other elliptical reasons.  Note the distinction
143  * between kernel and user contexts.  The kernel always returns to its nested,
144  * interrupted contexts via iret/etc.  We don't always do that for user
145  * contexts. */
146 #define current_tf per_cpu_info[core_id()].cur_tf
147 #define set_current_tf(tf) ({ assert(!in_kernel(tf)); \
148                               per_cpu_info[core_id()].cur_tf = (tf); })
149
150 void abandon_core(void);
151 /* Hold the proc_lock, since it'll use the vcoremapping to send an unmapping
152  * message for the region from start to end.  */
153 void __proc_tlbshootdown(struct proc *p, uintptr_t start, uintptr_t end);
154
155 /* Kernel message handlers for process management */
156 void __startcore(trapframe_t *tf, uint32_t srcid, void *a0, void *a1, void *a2);
157 void __notify(trapframe_t *tf, uint32_t srcid, void *a0, void *a1, void *a2);
158 void __preempt(trapframe_t *tf, uint32_t srcid, void *a0, void *a1, void *a2);
159 void __death(trapframe_t *tf, uint32_t srcid, void *a0, void *a1, void *a2);
160 void __tlbshootdown(struct trapframe *tf, uint32_t srcid, void *a0, void *a1,
161                     void *a2);
162
163 /* Arch Specific */
164 void proc_init_trapframe(trapframe_t *SAFE tf, uint32_t vcoreid,
165                          uint32_t entryp, uint32_t stack_top);
166 void proc_secure_trapframe(struct trapframe *tf);
167 void proc_set_syscall_retval(trapframe_t *SAFE tf, intreg_t value);
168 void __abandon_core(void);
169
170 /* Degubbing */
171 void print_idlecoremap(void);
172 void print_allpids(void);
173 void print_proc_info(pid_t pid);
174
175 #endif // !ROS_KERN_PROCESS_H