Yield plays nice with preemption
[akaros.git] / kern / include / process.h
index 85e36b0..2fcb1dd 100644 (file)
@@ -11,6 +11,7 @@
 #define ROS_KERN_PROCESS_H
 
 #include <ros/common.h>
+#include <ros/notification.h>
 #include <trap.h>
 #include <atomic.h>
 
 #define PROC_DYING                             0x10
 #define PROC_RUNNABLE_M                        0x20
 #define PROC_RUNNING_M                 0x40
-// TODO don't use this shit for process allocation flagging
-#define ENV_FREE                               0x80
+
+#define procstate2str(state) ((state)==PROC_CREATED    ? "CREATED"    : \
+                              (state)==PROC_RUNNABLE_S ? "RUNNABLE_S" : \
+                              (state)==PROC_RUNNING_S  ? "RUNNING_S"  : \
+                              (state)==PROC_WAITING    ? "WAITING"    : \
+                              (state)==PROC_DYING      ? "DYING"      : \
+                              (state)==PROC_RUNNABLE_M ? "RUNNABLE_M" : \
+                              (state)==PROC_RUNNING_M  ? "RUNNING_M"  : \
+                                                         "UNKNOWN")
 
 #include <env.h>
 
 
 TAILQ_HEAD(proc_list, proc);           // Declares 'struct proc_list'
 
-extern spinlock_t freelist_lock;
-extern struct proc_list LCKD(&freelist_lock)proc_freelist;
-
 extern spinlock_t runnablelist_lock;
 extern struct proc_list LCKD(&runnablelist_lock) proc_runnablelist;
 
+/* Can use a htable iterator to iterate through all active procs */
+extern struct hashtable *pid_hash;
+extern spinlock_t pid_hash_lock;
+
 /* Idle cores: ones able to be exclusively given to a process (worker cores). */
 extern spinlock_t idle_lock;  // never grab this before a proc_lock
 extern uint32_t LCKD(&idle_lock) (RO idlecoremap)[MAX_NUM_CPUS];
 extern uint32_t LCKD(&idle_lock) num_idlecores;
 
+/* Initialization */
+void proc_init(void);
+void proc_init_procinfo(struct proc *p);
+
 /* Process management: */
-int proc_set_state(struct proc *p, uint32_t state) WRITES(p->state);
-struct proc *get_proc(unsigned pid);
+struct proc *proc_create(uint8_t *COUNT(size) binary, size_t size);
+int __proc_set_state(struct proc *p, uint32_t state) WRITES(p->state);
+struct proc *pid2proc(pid_t pid);
 bool proc_controls(struct proc *SAFE actor, struct proc *SAFE target);
-/* Transition from RUNNABLE_* to RUNNING_*. */
 void proc_run(struct proc *SAFE p);
-void proc_startcore(struct proc *SAFE p, trapframe_t *SAFE tf)
-     __attribute__((noreturn));
+void proc_restartcore(struct proc *SAFE p, trapframe_t *SAFE tf);
 void proc_destroy(struct proc *SAFE p);
-void proc_yield(struct proc *SAFE p);
+void proc_yield(struct proc *SAFE p, bool being_nice);
+void do_notify(struct proc *p, uint32_t vcoreid, unsigned int notif,
+               struct notif_event *ne);
+void proc_notify(struct proc *p, unsigned int notif, struct notif_event *ne);
+
+/* Exposed for sys_getvcoreid(), til it's unnecessary */
+uint32_t proc_get_vcoreid(struct proc *SAFE p, uint32_t pcoreid);
 
 /* Process core management.  Only call these if you are RUNNING_M or RUNNABLE_M.
  * These all adjust the vcoremap and take appropriate actions (like __startcore
  * if you were already RUNNING_M.  You could be RUNNABLE_M with no vcores when
  * these are done (basically preempted, and waiting to get run again).
- * All of these could modify corelist and *num to communicate info back out,
- * which would be the list of cores that are known to be free.
+ *
+ * These are internal functions.  Error checking is to catch bugs, and you
+ * shouldn't call these functions with parameters you are not sure about (like
+ * an invalid corelist).  
+ *
+ * They also may cause an IPI to be sent to core it is called on.  If so, the
+ * return value will be true.  Once you unlock (and enable interrupts) you will
+ * be preempted, and usually lose your stack.  There is a helper to unlock and
+ * handle the refcnt.
  *
  * WARNING: YOU MUST HOLD THE PROC_LOCK BEFORE CALLING THESE! */
 /* Gives process p the additional num cores listed in corelist */
-error_t proc_give_cores(struct proc *SAFE p, uint32_t corelist[], size_t *num);
-/* Makes process p's coremap look like corelist (add, remove, etc) */
-error_t proc_set_allcores(struct proc *SAFE p, uint32_t corelist[], size_t *num,
-                          amr_t message);
+bool __proc_give_cores(struct proc *SAFE p, uint32_t *pcorelist, size_t num);
+/* Makes process p's coremap look like corelist (add, remove, etc). Not used */
+bool __proc_set_allcores(struct proc *SAFE p, uint32_t *pcorelist,
+                         size_t *num, amr_t message, TV(a0t) arg0,
+                         TV(a1t) arg1, TV(a2t) arg2);
 /* Takes from process p the num cores listed in corelist */
-error_t proc_take_cores(struct proc *SAFE p, uint32_t corelist[], size_t *num,
-                        amr_t message);
-error_t proc_take_allcores(struct proc *SAFE p, amr_t message);
-
-/* Arch Specific */
-void proc_init_trapframe(trapframe_t *SAFE tf);
-void proc_set_program_counter(trapframe_t *SAFE tf, uintptr_t pc);
-void proc_set_tfcoreid(trapframe_t *SAFE tf, uint32_t id);
-void proc_set_syscall_retval(trapframe_t *SAFE tf, intreg_t value);
-
-/* The reference counts are mostly to track how many cores loaded the cr3 */
-error_t proc_incref(struct proc *SAFE p);
-void proc_decref(struct proc *SAFE p);
+bool __proc_take_cores(struct proc *SAFE p, uint32_t *pcorelist,
+                       size_t num, amr_t message, TV(a0t) arg0,
+                       TV(a1t) arg1, TV(a2t) arg2);
+bool __proc_take_allcores(struct proc *SAFE p, amr_t message, TV(a0t) arg0,
+                          TV(a1t) arg1, TV(a2t) arg2);
+void __proc_unlock_ipi_pending(struct proc *p, bool ipi_pending);
+/* Exposed for kern/src/resource.c for now */
+void __map_vcore(struct proc *p, uint32_t vcoreid, uint32_t pcoreid);
+void __unmap_vcore(struct proc *p, uint32_t vcoreid);
+
+/* Will probably have generic versions of these later. */
+void proc_incref(struct proc *SAFE p, size_t count);
+void proc_decref(struct proc *SAFE p, size_t count);
+/* Allows the kernel to figure out what process is running on this core.  Can be
+ * used just like a pointer to a struct proc.  Need these to be macros due to
+ * some circular dependencies with smp.h. */
+#include <smp.h>
+#define current per_cpu_info[core_id()].cur_proc
+#define set_current_proc(p) per_cpu_info[core_id()].cur_proc = (p)
+
+/* Allows the kernel to figure out what *user* tf is on this core's stack.  Can be used
+ * just like a pointer to a struct Trapframe.  Need these to be macros due to
+ * some circular dependencies with smp.h.  This is done here instead of
+ * elsewhere (like trap.h) for other elliptical reasons.  Note the distinction
+ * between kernel and user contexts.  The kernel always returns to its nested,
+ * interrupted contexts via iret/etc.  We don't always do that for user
+ * contexts. */
+#define current_tf per_cpu_info[core_id()].cur_tf
+#define set_current_tf(tf) per_cpu_info[core_id()].cur_tf = (tf)
 
 void abandon_core(void);
 
-/* Active message handlers for process management */
-#ifdef __IVY__
-void __startcore(trapframe_t *tf, uint32_t srcid, struct proc *CT(1) a0,
-                 trapframe_t *CT(1) a1, void *SNT a2);
-void __death(trapframe_t *tf, uint32_t srcid, void *SNT a0, void *SNT a1,
-             void *SNT a2);
-#else
-void __startcore(trapframe_t *tf, uint32_t srcid, void * a0, void * a1,
-                 void * a2);
-void __death(trapframe_t *tf, uint32_t srcid, void * a0, void * a1,
-             void * a2);
-#endif
+/* Kernel message handlers for process management */
+void __startcore(trapframe_t *tf, uint32_t srcid, void *a0, void *a1, void *a2);
+void __notify(trapframe_t *tf, uint32_t srcid, void *a0, void *a1, void *a2);
+void __preempt(trapframe_t *tf, uint32_t srcid, void *a0, void *a1, void *a2);
+void __death(trapframe_t *tf, uint32_t srcid, void *a0, void *a1, void *a2);
+
+/* Arch Specific */
+void proc_init_trapframe(trapframe_t *SAFE tf, uint32_t vcoreid,
+                         uint32_t entryp, uint32_t stack_top);
+void proc_secure_trapframe(struct trapframe *tf);
+void proc_set_syscall_retval(trapframe_t *SAFE tf, intreg_t value);
+void __abandon_core(void);
 
 /* Degubbing */
 void print_idlecoremap(void);
+void print_allpids(void);
 void print_proc_info(pid_t pid);
 
 #endif // !ROS_KERN_PROCESS_H