Merge remote branch 'origin/sparc-dev'
[akaros.git] / kern / include / process.h
1 /*
2  * Copyright (c) 2009 The Regents of the University of California
3  * Barret Rhoden <brho@cs.berkeley.edu>
4  * See LICENSE for details.
5  *
6  * All things processes!  As we move away from the old envs to processes,
7  * we'll move things into here that are designed for multicore processes.
8  */
9
10 #ifndef ROS_KERN_PROCESS_H
11 #define ROS_KERN_PROCESS_H
12
13 #include <ros/common.h>
14 #include <trap.h>
15 #include <atomic.h>
16
17 /* Process States.  Not 100% on the names yet.  RUNNABLE_* are waiting to go to
18  * RUNNING_*.  For instance, RUNNABLE_M is expecting to go to RUNNING_M.  It
19  * could be waiting for it's timeslice, or possibly for all the cores it asked
20  * for.  You use proc_run() to transition between these states.
21  *
22  * Difference between the _M and the _S states:
23  * - _S : legacy process mode
24  * - RUNNING_M implies *guaranteed* core(s).  You can be a single core in the
25  *   RUNNING_M state.  The guarantee is subject to time slicing, but when you
26  *   run, you get all of your cores.
27  * - The time slicing is at a coarser granularity for _M states.  This means
28  *   that when you run an _S on a core, it should be interrupted/time sliced
29  *   more often, which also means the core should be classified differently for
30  *   a while.  Possibly even using it's local APIC timer.
31  * - A process in an _M state will be informed about changes to its state, e.g.,
32  *   will have a handler run in the event of a page fault
33  */
34
35 #define PROC_CREATED                    0x01
36 #define PROC_RUNNABLE_S                 0x02
37 #define PROC_RUNNING_S                  0x04
38 #define PROC_WAITING                    0x08 // can split out to INT and UINT
39 #define PROC_DYING                              0x10
40 #define PROC_RUNNABLE_M                 0x20
41 #define PROC_RUNNING_M                  0x40
42
43 #include <env.h>
44
45 // Till we remove the old struct Env
46 #define proc Env
47
48 TAILQ_HEAD(proc_list, proc);            // Declares 'struct proc_list'
49
50 extern spinlock_t runnablelist_lock;
51 extern struct proc_list LCKD(&runnablelist_lock) proc_runnablelist;
52
53 /* Can use a htable iterator to iterate through all active procs */
54 extern struct hashtable *pid_hash;
55 extern spinlock_t pid_hash_lock;
56
57 /* Idle cores: ones able to be exclusively given to a process (worker cores). */
58 extern spinlock_t idle_lock;  // never grab this before a proc_lock
59 extern uint32_t LCKD(&idle_lock) (RO idlecoremap)[MAX_NUM_CPUS];
60 extern uint32_t LCKD(&idle_lock) num_idlecores;
61
62 /* Initialization */
63 void proc_init(void);
64
65 /* Process management: */
66 struct proc *proc_create(uint8_t *COUNT(size) binary, size_t size);
67 int __proc_set_state(struct proc *p, uint32_t state) WRITES(p->state);
68 struct proc *pid2proc(pid_t pid);
69 bool proc_controls(struct proc *SAFE actor, struct proc *SAFE target);
70 void proc_run(struct proc *SAFE p);
71 void proc_startcore(struct proc *SAFE p, trapframe_t *SAFE tf)
72      __attribute__((noreturn));
73 void proc_destroy(struct proc *SAFE p);
74 void proc_yield(struct proc *SAFE p);
75
76 /* argc/argv.  TODO: figure out how to move this out of the kernel. */
77 size_t proc_init_argc_argv(struct proc* p, size_t nargs, const char** args);
78
79 /* Process core management.  Only call these if you are RUNNING_M or RUNNABLE_M.
80  * These all adjust the vcoremap and take appropriate actions (like __startcore
81  * if you were already RUNNING_M.  You could be RUNNABLE_M with no vcores when
82  * these are done (basically preempted, and waiting to get run again).
83  *
84  * These are internal functions.  Error checking is to catch bugs, and you
85  * shouldn't call these functions with parameters you are not sure about (like
86  * an invalid corelist).  
87  *
88  * They also may cause an IPI to be sent to core it is called on.  If so, the
89  * return value will be true.  Once you unlock (and enable interrupts) you will
90  * be preempted, and usually lose your stack.  There is a helper to unlock and
91  * handle the refcnt.
92  *
93  * WARNING: YOU MUST HOLD THE PROC_LOCK BEFORE CALLING THESE! */
94 /* Gives process p the additional num cores listed in corelist */
95 bool __proc_give_cores(struct proc *SAFE p, int32_t *corelist, size_t num);
96 /* Makes process p's coremap look like corelist (add, remove, etc). Not used */
97 bool __proc_set_allcores(struct proc *SAFE p, int32_t *corelist,
98                          size_t *num, amr_t message, TV(a0t) arg0,
99                          TV(a1t) arg1, TV(a2t) arg2);
100 /* Takes from process p the num cores listed in corelist */
101 bool __proc_take_cores(struct proc *SAFE p, int32_t *corelist,
102                        size_t num, amr_t message, TV(a0t) arg0,
103                        TV(a1t) arg1, TV(a2t) arg2);
104 bool __proc_take_allcores(struct proc *SAFE p, amr_t message, TV(a0t) arg0,
105                           TV(a1t) arg1, TV(a2t) arg2);
106 void __proc_unlock_ipi_pending(struct proc *p, bool ipi_pending);
107
108 /* Will probably have generic versions of these later. */
109 void proc_incref(struct proc *SAFE p, size_t count);
110 void proc_decref(struct proc *SAFE p, size_t count);
111
112 /* Allows the kernel to figure out what process is running on this core.  Can be
113  * used just like a pointer to a struct proc.  Need these to be macros due to
114  * some circular dependencies with smp.h. */
115 #include <smp.h>
116 #define current per_cpu_info[core_id()].cur_proc
117 #define set_current_proc(p) per_cpu_info[core_id()].cur_proc = (p)
118
119 /* Allows the kernel to figure out what tf is on this core's stack.  Can be used
120  * just like a pointer to a struct Trapframe.  Need these to be macros due to
121  * some circular dependencies with smp.h.  This is done here instead of
122  * elsewhere (like trap.h) for other elliptical reasons. */
123 #define current_tf per_cpu_info[core_id()].cur_tf
124 #define set_current_tf(tf) per_cpu_info[core_id()].cur_tf = (tf)
125
126 void abandon_core(void);
127
128 /* Active message handlers for process management */
129 #ifdef __IVY__
130 void __startcore(trapframe_t *tf, uint32_t srcid, struct proc *CT(1) a0,
131                  trapframe_t *CT(1) a1, void *SNT a2);
132 void __death(trapframe_t *tf, uint32_t srcid, void *SNT a0, void *SNT a1,
133              void *SNT a2);
134 #else
135 void __startcore(trapframe_t *tf, uint32_t srcid, void * a0, void * a1,
136                  void * a2);
137 void __death(trapframe_t *tf, uint32_t srcid, void * a0, void * a1,
138              void * a2);
139 #endif
140
141 /* Arch Specific */
142 void proc_set_program_counter(trapframe_t *SAFE tf, uintptr_t pc);
143 void proc_init_trapframe(trapframe_t *SAFE tf);
144 void proc_set_tfcoreid(trapframe_t *SAFE tf, uint32_t id);
145 void proc_set_syscall_retval(trapframe_t *SAFE tf, intreg_t value);
146
147 /* Degubbing */
148 void print_idlecoremap(void);
149 void print_allpids(void);
150 void print_proc_info(pid_t pid);
151
152 #endif // !ROS_KERN_PROCESS_H