mm: 9ns: Add support for mmap
[akaros.git] / kern / include / corerequest.h
1 /* Copyright (c) 2009, 2012, 2015 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * Valmon Leymarie <leymariv@berkeley.edu>
4  * Kevin Klues <klueska@cs.berkeley.edu>
5  * See LICENSE for details.
6  */
7
8 #pragma once
9
10 #include <stdbool.h>
11 #include <arch/topology.h>
12 #if defined(CONFIG_COREALLOC_FCFS)
13   #include <corealloc_fcfs.h>
14 #elif defined(CONFIG_COREALLOC_PACKED)
15   #include <corealloc_packed.h>
16 #endif
17
18 /* Initialize any data assocaited with doing core allocation. */
19 void corealloc_init(void);
20
21 /* Initialize any data associated with allocating cores to a process. */
22 void corealloc_proc_init(struct proc *p);
23
24 /* Find the best core to allocate to a process as dictated by the core
25  * allocation algorithm. If no core is found, return -1. This code assumes
26  * that the scheduler that uses it holds a lock for the duration of the call.
27  * */
28 uint32_t __find_best_core_to_alloc(struct proc *p);
29
30 /* Track the pcore properly when it is allocated to p. This code assumes that
31  * the scheduler that uses it holds a lock for the duration of the call. */
32 void __track_core_alloc(struct proc *p, uint32_t pcoreid);
33
34 /* Track the pcore properly when it is deallocated from p. This code assumes
35  * that the scheduler that uses it holds a lock for the duration of the call.
36  * */
37 void __track_core_dealloc(struct proc *p, uint32_t pcoreid);
38
39 /* Bulk interface for __track_core_dealloc */
40 void __track_core_dealloc_bulk(struct proc *p, uint32_t *pc_arr,
41                                uint32_t nr_cores);
42
43 /* One off functions to make 'pcoreid' the next core chosen by the core
44  * allocation algorithm (so long as no provisioned cores are still idle), and
45  * to sort the idle core list for debugging. This code assumes that the
46  * scheduler that uses it holds a lock for the duration of the call. */
47 void __next_core_to_alloc(uint32_t pcoreid);
48 void __sort_idle_cores(void);
49
50 /* Provision a core to proc p. This code assumes that the scheduler that uses
51  * it holds a lock for the duration of the call. */
52 void __provision_core(struct proc *p, uint32_t pcoreid);
53
54 /* Unprovision all cores from proc p. This code assumes that the scheduler
55  * that uses * it holds a lock for the duration of the call. */
56 void __unprovision_all_cores(struct proc *p);
57
58 /* Print the map of idle cores that are still allocatable through our core
59  * allocation algorithm. */
60 void print_idle_core_map(void);
61
62 /* Print a list of the cores currently provisioned to p. */
63 void print_proc_coreprov(struct proc *p);
64
65 /* Print the processes attached to each provisioned core. */
66 void print_coreprov_map(void);
67
68 static inline struct proc *get_alloc_proc(uint32_t pcoreid)
69 {
70         extern struct sched_pcore *all_pcores;
71
72         return all_pcores[pcoreid].alloc_proc;
73 }
74
75 static inline struct proc *get_prov_proc(uint32_t pcoreid)
76 {
77         extern struct sched_pcore *all_pcores;
78
79         return all_pcores[pcoreid].prov_proc;
80 }
81
82 /* TODO: need more thorough CG/LL management.  For now, core0 is the only LL
83  * core.  This won't play well with the ghetto shit in schedule_init() if you do
84  * anything like 'DEDICATED_MONITOR' or the ARSC server.  All that needs an
85  * overhaul. */
86 static inline bool is_ll_core(uint32_t pcoreid)
87 {
88         if (pcoreid == 0)
89                 return TRUE;
90         return FALSE;
91 }
92
93 /* Normally it'll be the max number of CG cores ever */
94 static inline uint32_t max_vcores(struct proc *p)
95 {
96 /* TODO: (CG/LL) */
97 #ifdef CONFIG_DISABLE_SMT
98         return num_cores >> 1;
99 #else
100         return num_cores - 1;   /* reserving core 0 */
101 #endif /* CONFIG_DISABLE_SMT */
102 }