qio: Remove qconsume()
[akaros.git] / kern / include / corerequest.h
index 474c7ee..5a6b834 100644 (file)
@@ -9,34 +9,21 @@
 
 #include <stdbool.h>
 #include <arch/topology.h>
-
-/* The core request algorithm maintains an internal array of these: the
- * global pcore map. Note the prov_proc and alloc_proc are weak (internal)
- * references, and should only be used as a ref source while the ksched has a
- * valid kref. */
-struct sched_pcore {
-       TAILQ_ENTRY(sched_pcore)   prov_next;    /* on a proc's prov list */
-       TAILQ_ENTRY(sched_pcore)   alloc_next;   /* on an alloc list (idle)*/
-       struct proc                *prov_proc;   /* who this is prov to */
-       struct proc                *alloc_proc;  /* who this is alloc to */
-};
-TAILQ_HEAD(sched_pcore_tailq, sched_pcore);
-
-struct core_request_data {
-       struct sched_pcore_tailq  prov_alloc_me;      /* prov cores alloced us */
-       struct sched_pcore_tailq  prov_not_alloc_me;  /* maybe alloc to others */
-};
+#if defined(CONFIG_COREALLOC_FCFS)
+  #include <corealloc_fcfs.h>
+#endif
 
 /* Initialize any data assocaited with doing core allocation. */
 void corealloc_init(void);
 
-/* Initialize any data associated with provisiong cores to a process. */
-void coreprov_proc_init(struct proc *p);
+/* Initialize any data associated with allocating cores to a process. */
+void corealloc_proc_init(struct proc *p);
 
 /* Find the best core to allocate to a process as dictated by the core
- * allocation algorithm. This code assumes that the scheduler that uses it
- * holds a lock for the duration of the call. */
-struct sched_pcore *__find_best_core_to_alloc(struct proc *p);
+ * allocation algorithm. If no core is found, return -1. This code assumes
+ * that the scheduler that uses it holds a lock for the duration of the call.
+ * */
+uint32_t __find_best_core_to_alloc(struct proc *p);
 
 /* Track the pcore properly when it is allocated to p. This code assumes that
  * the scheduler that uses it holds a lock for the duration of the call. */
@@ -69,7 +56,7 @@ void __sort_idle_cores(void);
 
 /* Provision a core to proc p. This code assumes that the scheduler that uses
  * it holds a lock for the duration of the call. */
-void __provision_core(struct proc *p, struct sched_pcore *spc);
+void __provision_core(struct proc *p, uint32_t pcoreid);
 
 /* Unprovision all cores from proc p. This code assumes that the scheduler
  * that uses * it holds a lock for the duration of the call. */
@@ -85,28 +72,18 @@ void print_proc_coreprov(struct proc *p);
 /* Print the processes attached to each provisioned core. */
 void print_coreprov_map(void);
 
-static inline uint32_t spc2pcoreid(struct sched_pcore *spc)
+static inline struct proc *get_alloc_proc(uint32_t pcoreid)
 {
        extern struct sched_pcore *all_pcores;
 
-       return spc - all_pcores;
+       return all_pcores[pcoreid].alloc_proc;
 }
 
-static inline struct sched_pcore *pcoreid2spc(uint32_t pcoreid)
+static inline struct proc *get_prov_proc(uint32_t pcoreid)
 {
        extern struct sched_pcore *all_pcores;
 
-       return &all_pcores[pcoreid];
-}
-
-static inline struct proc *get_alloc_proc(struct sched_pcore *c)
-{
-       return c->alloc_proc;
-}
-
-static inline struct proc *get_prov_proc(struct sched_pcore *c)
-{
-       return c->prov_proc;
+       return all_pcores[pcoreid].prov_proc;
 }
 
 /* TODO: need more thorough CG/LL management.  For now, core0 is the only LL