Use two-page stacks
[akaros.git] / kern / include / corerequest.h
1 /* Copyright (c) 2009, 2012, 2015 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * Valmon Leymarie <leymariv@berkeley.edu>
4  * Kevin Klues <klueska@cs.berkeley.edu>
5  * See LICENSE for details.
6  */
7
8 #pragma once
9
10 #include <stdbool.h>
11 #include <arch/topology.h>
12 #if defined(CONFIG_COREALLOC_FCFS)
13   #include <corealloc_fcfs.h>
14 #elif defined(CONFIG_COREALLOC_PACKED)
15   #include <corealloc_packed.h>
16 #else
17   #error "Need a corealloc header!"
18 #endif
19
20 /* Initialize any data assocaited with doing core allocation. */
21 void corealloc_init(void);
22
23 /* Initialize any data associated with allocating cores to a process. */
24 void corealloc_proc_init(struct proc *p);
25
26 /* Find the best core to allocate to a process as dictated by the core
27  * allocation algorithm. If no core is found, return -1. This code assumes
28  * that the scheduler that uses it holds a lock for the duration of the call.
29  * */
30 uint32_t __find_best_core_to_alloc(struct proc *p);
31
32 /* Track the pcore properly when it is allocated to p. This code assumes that
33  * the scheduler that uses it holds a lock for the duration of the call. */
34 void __track_core_alloc(struct proc *p, uint32_t pcoreid);
35
36 /* Track the pcore properly when it is deallocated from p. This code assumes
37  * that the scheduler that uses it holds a lock for the duration of the call.
38  * */
39 void __track_core_dealloc(struct proc *p, uint32_t pcoreid);
40
41 /* Bulk interface for __track_core_dealloc */
42 void __track_core_dealloc_bulk(struct proc *p, uint32_t *pc_arr,
43                                uint32_t nr_cores);
44
45 /* One off functions to make 'pcoreid' the next core chosen by the core
46  * allocation algorithm (so long as no provisioned cores are still idle), and
47  * to sort the idle core list for debugging. This code assumes that the
48  * scheduler that uses it holds a lock for the duration of the call. */
49 void __next_core_to_alloc(uint32_t pcoreid);
50 void __sort_idle_cores(void);
51
52 /* Provision a core to proc p. This code assumes that the scheduler that uses
53  * it holds a lock for the duration of the call. */
54 void __provision_core(struct proc *p, uint32_t pcoreid);
55
56 /* Unprovision all cores from proc p. This code assumes that the scheduler
57  * that uses * it holds a lock for the duration of the call. */
58 void __unprovision_all_cores(struct proc *p);
59
60 /* Print the map of idle cores that are still allocatable through our core
61  * allocation algorithm. */
62 void print_idle_core_map(void);
63
64 /* Print a list of the cores currently provisioned to p. */
65 void print_proc_coreprov(struct proc *p);
66
67 /* Print the processes attached to each provisioned core. */
68 void print_coreprov_map(void);
69
70 static inline struct proc *get_alloc_proc(uint32_t pcoreid)
71 {
72         extern struct sched_pcore *all_pcores;
73
74         return all_pcores[pcoreid].alloc_proc;
75 }
76
77 static inline struct proc *get_prov_proc(uint32_t pcoreid)
78 {
79         extern struct sched_pcore *all_pcores;
80
81         return all_pcores[pcoreid].prov_proc;
82 }
83
84 /* TODO: need more thorough CG/LL management.  For now, core0 is the only LL
85  * core.  This won't play well with the ghetto shit in schedule_init() if you do
86  * anything like 'DEDICATED_MONITOR' or the ARSC server.  All that needs an
87  * overhaul. */
88 static inline bool is_ll_core(uint32_t pcoreid)
89 {
90         if (pcoreid == 0)
91                 return TRUE;
92         return FALSE;
93 }
94
95 /* Normally it'll be the max number of CG cores ever */
96 static inline uint32_t max_vcores(struct proc *p)
97 {
98 /* TODO: (CG/LL) */
99 #ifdef CONFIG_DISABLE_SMT
100         return num_cores >> 1;
101 #else
102         return num_cores - 1;   /* reserving core 0 */
103 #endif /* CONFIG_DISABLE_SMT */
104 }