proc_wakeup() - spammable and starts in the ksched
[akaros.git] / kern / include / schedule.h
1 /*
2  * Copyright (c) 2009 The Regents of the University of California
3  * Barret Rhoden <brho@cs.berkeley.edu>
4  * See LICENSE for details.
5  *
6  * Scheduling and dispatching.
7  */
8
9 #ifndef ROS_KERN_SCHEDULE_H
10 #define ROS_KERN_SCHEDULE_H
11
12 #include <ros/common.h>
13 #include <sys/queue.h>
14
15 struct proc;    /* process.h includes us, but we need pointers now */
16 TAILQ_HEAD(proc_list, proc);            /* Declares 'struct proc_list' */
17
18 /* One of these embedded in every struct proc */
19 struct sched_proc_data {
20         TAILQ_ENTRY(proc)                       proc_link;                      /* tailq linkage */
21         struct proc_list                        *cur_list;                      /* which tailq we're on */
22 };
23
24 void schedule_init(void);
25
26 /************** Process management **************/
27 /* Tell the ksched about the process, which it will track cradle-to-grave */
28 void register_proc(struct proc *p);
29
30 /* _S is now runnable, tell the ksched to try to run it. */
31 void schedule_scp(struct proc *p);
32
33 /* Makes sure p is runnable.  Callers include event delivery, SCP yield, and new
34  * SCPs.  Will trigger the __sched_.cp_wakeup() callbacks. */
35 void proc_wakeup(struct proc *p);
36
37 /* The ksched starts the death process (lock ordering issue), which calls back
38  * to proc.c's __proc_destroy while holding the locks (or whatever) */
39 void proc_destroy(struct proc *p);
40
41 /* Changes the proc from an SCP to an MCP */
42 int proc_change_to_m(struct proc *p);
43
44 /************** Decision making **************/
45 /* Call the main scheduling algorithm.  Not clear yet if the main kernel will
46  * ever call this directly. */
47 void schedule(void);
48
49 /* Proc p's resource desires changed, or something in general that would lead to
50  * a new decision.  The process can directly poke the ksched via a syscall, so
51  * be careful of abuse. */
52 void poke_ksched(struct proc *p, int res_type);
53
54 /* Callbacks triggered from proc_wakeup() */
55 void __sched_mcp_wakeup(struct proc *p);
56 void __sched_scp_wakeup(struct proc *p);
57
58 /* The calling cpu/core has nothing to do and plans to idle/halt.  This is an
59  * opportunity to pick the nature of that halting (low power state, etc), or
60  * provide some other work (_Ss on LL cores). */
61 void cpu_bored(void);
62
63 /* Gets called when a pcore becomes idle (like in proc yield).  These are 'cg'
64  * cores, given to MCPs, that have been async returned to the ksched.  If the
65  * ksched preempts a core, this won't get called (unless it yielded first). */
66 void put_idle_core(uint32_t coreid);
67 void put_idle_cores(uint32_t *pc_arr, uint32_t num);
68
69 /* Available resources changed (plus or minus).  Some parts of the kernel may
70  * call this if a particular resource that is 'quantity-based' changes.  Things
71  * like available RAM to processes, bandwidth, etc.  Cores would probably be
72  * inappropriate, since we need to know which specific core is now free. */
73 void avail_res_changed(int res_type, long change);
74
75 /************** Proc's view of the world **************/
76 /* How many vcores p will think it can have */
77 uint32_t max_vcores(struct proc *p);
78
79 /************** Debugging **************/
80 void sched_diag(void);
81 void print_idlecoremap(void);
82 void print_resources(struct proc *p);
83 void print_all_resources(void);
84
85 #endif /* ROS_KERN_SCHEDULE_H */