Kthreads track running kernel contexts
[akaros.git] / kern / include / kthread.h
1 /* Copyright (c) 2010-13 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * Kernel threading.  These are for blocking within the kernel for whatever
6  * reason, usually during blocking IO operations.  Check out
7  * Documentation/kthreads.txt for more info than you care about. */
8
9 #ifndef ROS_KERN_KTHREAD_H
10 #define ROS_KERN_KTHREAD_H
11
12 #include <ros/common.h>
13 #include <trap.h>
14 #include <sys/queue.h>
15 #include <atomic.h>
16
17 struct proc;
18 struct kthread;
19 struct semaphore;
20 struct semaphore_entry;
21 TAILQ_HEAD(kthread_tailq, kthread);
22 LIST_HEAD(semaphore_list, semaphore_entry);
23
24
25 /* This captures the essence of a kernel context that we want to suspend.  When
26  * a kthread is running, we make sure its stacktop is the default kernel stack,
27  * meaning it will receive the interrupts from userspace. */
28 struct kthread {
29         struct kernel_ctx                       context;
30         uintptr_t                                       stacktop;
31         struct proc                                     *proc;
32         struct syscall                          *sysc;
33         void                                            *errbuf;        /* TODO: avoiding include loops */
34         TAILQ_ENTRY(kthread)            link;
35         /* ID, other shit, etc */
36 };
37
38 /* Semaphore for kthreads to sleep on.  0 or less means you need to sleep */
39 struct semaphore {
40         struct kthread_tailq            waiters;
41         int                                             nr_signals;
42         spinlock_t                                      lock;
43         bool                                            irq_okay;
44 };
45
46 struct cond_var {
47         struct semaphore                        sem;
48         spinlock_t                                      *lock;          /* usually points to internal_ */
49         spinlock_t                                      internal_lock;
50         unsigned long                           nr_waiters;
51         bool                                            irq_okay;
52 };
53
54 /* TODO: consider building this into struct semaphore */
55 struct semaphore_entry {
56         struct semaphore sem;
57         int fd;
58         LIST_ENTRY(semaphore_entry) link;
59 };
60
61 uintptr_t get_kstack(void);
62 void put_kstack(uintptr_t stacktop);
63 uintptr_t *kstack_bottom_addr(uintptr_t stacktop);
64 void kthread_init(void);
65 struct kthread *__kthread_zalloc(void);
66 void restart_kthread(struct kthread *kthread);
67 void kthread_runnable(struct kthread *kthread);
68 void kthread_yield(void);
69 /* Debugging */
70 void check_poison(char *msg);
71
72 void sem_init(struct semaphore *sem, int signals);
73 void sem_init_irqsave(struct semaphore *sem, int signals);
74 void sem_down(struct semaphore *sem);
75 bool sem_up(struct semaphore *sem);
76 void sem_down_irqsave(struct semaphore *sem, int8_t *irq_state);
77 bool sem_up_irqsave(struct semaphore *sem, int8_t *irq_state);
78
79 void cv_init(struct cond_var *cv);
80 void cv_init_irqsave(struct cond_var *cv);
81 void cv_init_with_lock(struct cond_var *cv, spinlock_t *lock);
82 void cv_init_irqsave_with_lock(struct cond_var *cv, spinlock_t *lock);
83 void cv_lock(struct cond_var *cv);
84 void cv_unlock(struct cond_var *cv);
85 void cv_lock_irqsave(struct cond_var *cv, int8_t *irq_state);
86 void cv_unlock_irqsave(struct cond_var *cv, int8_t *irq_state);
87 void cv_wait_and_unlock(struct cond_var *cv);   /* does not mess with irqs */
88 void cv_wait(struct cond_var *cv);
89 void __cv_signal(struct cond_var *cv);
90 void __cv_broadcast(struct cond_var *cv);
91 void cv_signal(struct cond_var *cv);
92 void cv_broadcast(struct cond_var *cv);
93 void cv_signal_irqsave(struct cond_var *cv, int8_t *irq_state);
94 void cv_broadcast_irqsave(struct cond_var *cv, int8_t *irq_state);
95
96 #endif /* ROS_KERN_KTHREAD_H */