5b5754c46481acbf9b06651fbefcaf61739f36f1
[akaros.git] / kern / include / schedule.h
1 /*
2  * Copyright (c) 2009 The Regents of the University of California
3  * Barret Rhoden <brho@cs.berkeley.edu>
4  * See LICENSE for details.
5  *
6  * Scheduling and dispatching.
7  */
8
9 #ifndef ROS_KERN_SCHEDULE_H
10 #define ROS_KERN_SCHEDULE_H
11
12 #include <ros/common.h>
13
14 struct proc;    /* process.h includes us, but we need pointers now */
15
16 void schedule_init(void);
17
18 /************** Process registration **************/
19 /* _S procs will get 'scheduled' every time they become RUNNABLE.  MCPs will get
20  * registered on creation, and then that's it.  They will get removed from the
21  * lists 'naturally' when proc_destroy() sets their state to DYING.  The ksched
22  * needs to notice that, remove them from its lists, and decref. */
23 /* _S is runnable, tell the ksched to try to run it. */
24 void schedule_scp(struct proc *p);
25 /* _M exists.  Tell the ksched about it. */
26 void register_mcp(struct proc *p);
27
28 /* The ksched starts the death process (lock ordering issue), which calls back
29  * to proc.c's __proc_destroy while holding the locks (or whatever) */
30 void proc_destroy(struct proc *p);
31
32 /************** Decision making **************/
33 /* Call the main scheduling algorithm.  Not clear yet if the main kernel will
34  * ever call this directly. */
35 void schedule(void);
36
37 /* Proc p's resource desires changed, or something in general that would lead to
38  * a new decision.  The process can directly poke the ksched via a syscall, so
39  * be careful of abuse. */
40 void poke_ksched(struct proc *p, int res_type);
41
42 /* Proc p just woke up (due to an event).  This is a more specific case than
43  * poke_ksched(), in case kscheds want to do some accounting or something more
44  * than just giving it cores. */
45 void ksched_proc_unblocked(struct proc *p);
46
47 /* The calling cpu/core has nothing to do and plans to idle/halt.  This is an
48  * opportunity to pick the nature of that halting (low power state, etc), or
49  * provide some other work (_Ss on LL cores). */
50 void cpu_bored(void);
51
52 /* Gets called when a pcore becomes idle (like in proc yield).  These are 'cg'
53  * cores, given to MCPs, that have been async returned to the ksched.  If the
54  * ksched preempts a core, this won't get called (unless it yielded first). */
55 void put_idle_core(uint32_t coreid);
56 void put_idle_cores(uint32_t *pc_arr, uint32_t num);
57
58 /* Available resources changed (plus or minus).  Some parts of the kernel may
59  * call this if a particular resource that is 'quantity-based' changes.  Things
60  * like available RAM to processes, bandwidth, etc.  Cores would probably be
61  * inappropriate, since we need to know which specific core is now free. */
62 void avail_res_changed(int res_type, long change);
63
64 /************** Proc's view of the world **************/
65 /* How many vcores p will think it can have */
66 uint32_t max_vcores(struct proc *p);
67
68 /************** Debugging **************/
69 void sched_diag(void);
70 void print_idlecoremap(void);
71 void print_resources(struct proc *p);
72 void print_all_resources(void);
73
74 #endif /* ROS_KERN_SCHEDULE_H */