Added #include for sys/vcore-tls.h for x86
[akaros.git] / user / parlib / include / i686 / vcore.h
1 #ifndef PARLIB_ARCH_VCORE_H
2 #define PARLIB_ARCH_VCORE_H
3
4 #include <ros/common.h>
5 #include <ros/arch/trapframe.h>
6 #include <ros/procdata.h>
7 #include <ros/syscall.h>
8 #include <ros/arch/mmu.h>
9 #include <sys/vcore-tls.h>
10
11 /* Pops an ROS kernel-provided TF, reanabling notifications at the same time.
12  * A Userspace scheduler can call this when transitioning off the transition
13  * stack.
14  *
15  * Make sure you clear the notif_pending flag, and then check the queue before
16  * calling this.  If notif_pending is not clear, this will self_notify this
17  * core, since it should be because we missed a notification message while
18  * notifs were disabled. 
19  *
20  * Basically, it sets up the future stack pointer to have extra stuff after it,
21  * and then it pops the registers, then pops the new context's stack
22  * pointer.  Then it uses the extra stuff (the new PC is on the stack, the
23  * location of notif_disabled, and a clobbered work register) to enable notifs,
24  * make sure notif IPIs weren't pending, restore the work reg, and then "ret".
25  *
26  * This is what the target notif_tf's stack will look like (growing down):
27  *
28  * Target ESP -> |   u_thread's old stuff   | the future %esp, tf->tf_esp
29  *               |   new eip                | 0x04 below %esp (one slot is 0x04)
30  *               |   eflags space           | 0x08 below
31  *               |   eax save space         | 0x0c below
32  *               |   actual syscall         | 0x10 below (0x30 space)
33  *               |   *sysc ptr to syscall   | 0x40 below (0x10 + 0x30)
34  *               |   notif_pending_loc      | 0x44 below (0x10 + 0x30)
35  *               |   notif_disabled_loc     | 0x48 below (0x10 + 0x30)
36  *
37  * The important thing is that it can handle a notification after it enables
38  * notifications, and when it gets resumed it can ultimately run the new
39  * context.  Enough state is saved in the running context and stack to continue
40  * running.
41  *
42  * Related to that is whether or not our stack pointer is sufficiently far down
43  * so that restarting *this* code won't clobber shit we need later.  The way we
44  * do this is that we do any "stack jumping" after we enable interrupts/notifs.
45  * These jumps are when we directly modify esp, specifically in the down
46  * direction (subtracts).  Adds would be okay.
47  *
48  * Another related concern is the storage for sysc.  It used to be on the
49  * vcore's stack, but if an interrupt comes in before we use it, we trash the
50  * vcore's stack (and thus the storage for sysc!).  Instead, we put it on the
51  * stack of the user tf.  Moral: don't touch a vcore's stack with notifs
52  * enabled. */
53
54 /* Helper for writing the info we need later to the u_tf's stack.  Note, this
55  * could get fucked if the struct syscall isn't a multiple of 4-bytes.  Also,
56  * note this goes backwards, since memory reads up the stack. */
57 struct restart_helper {
58         uint32_t                                        notif_disab_loc;
59         uint32_t                                        notif_pend_loc;
60         struct syscall                          *sysc;
61         struct syscall                          local_sysc;
62         uint32_t                                        eax_save;
63         uint32_t                                        eflags;
64         uint32_t                                        eip;
65 };
66
67 static inline void pop_ros_tf(struct user_trapframe *tf, uint32_t vcoreid)
68 {
69         struct restart_helper *rst;
70         struct preempt_data *vcpd = &__procdata.vcore_preempt_data[vcoreid];
71         if (!tf->tf_cs) { /* sysenter TF.  esp and eip are in other regs. */
72                 tf->tf_esp = tf->tf_regs.reg_ebp;
73                 tf->tf_eip = tf->tf_regs.reg_edx;
74         }
75         /* The stuff we need to write will be below the current stack of the utf */
76         rst = (struct restart_helper*)((void*)tf->tf_esp -
77                                        sizeof(struct restart_helper));
78         /* Fill in the info we'll need later */
79         rst->notif_disab_loc = (uint32_t)&vcpd->notif_disabled;
80         rst->notif_pend_loc = (uint32_t)&vcpd->notif_pending;
81         rst->sysc = &rst->local_sysc;   /* point to the local one */
82         memset(rst->sysc, 0, sizeof(struct syscall));
83         /* Need to prep the async sysc in case we need to notify ourselves */
84         rst->sysc->num = SYS_self_notify;
85         rst->sysc->arg0 = vcoreid;      /* arg 1 & 2 already = 0 (null notif, no u_ne)*/
86         rst->sysc->arg3 = TRUE;         /* just a private VCPD notification */
87         rst->eax_save = 0;                      /* avoid bugs */
88         rst->eflags = tf->tf_eflags;
89         rst->eip = tf->tf_eip;
90
91         asm volatile ("movl %0,%%esp;        " /* jump esp to the utf */
92                       "popal;                " /* restore normal registers */
93                       "addl $0x24,%%esp;     " /* move to the esp slot in the tf */
94                       "popl %%esp;           " /* change to the utf's %esp */
95                       "subl $0x08,%%esp;     " /* move esp to below eax's slot */
96                       "pushl %%eax;          " /* save eax, will clobber soon */
97                                   "movl %2,%%eax;        " /* sizeof struct syscall */
98                                   "addl $0x0c,%%eax;     " /* more offset btw eax/notif_en_loc*/
99                       "subl %%eax,%%esp;     " /* move to notif_en_loc slot */
100                       "popl %%eax;           " /* load notif_disabled addr */
101                       "movb $0x00,(%%eax);   " /* enable notifications */
102                                   /* Need a wrmb() here so the write of enable_notif can't pass
103                                    * the read of notif_pending (racing with a potential
104                                    * cross-core call with proc_notify()). */
105                                   "lock addl $0,(%%esp); " /* LOCK is a CPU mb() */
106                                   /* From here down, we can get interrupted and restarted */
107                       "popl %%eax;           " /* get notif_pending status */
108                       "testb $0x01,(%%eax);  " /* test if a notif is pending */
109                       "jz 1f;                " /* if not pending, skip syscall */
110                       "movb $0x00,(%%eax);   " /* clear pending */
111                                   /* Actual syscall.  Note we don't wait on the async call */
112                       "popl %%eax;           " /* &sysc, trap arg0 */
113                       "pushl %%edx;          " /* save edx, will be trap arg1 */
114                       "movl $0x1,%%edx;      " /* sending one async syscall: arg1 */
115                       "int %1;               " /* fire the syscall */
116                       "popl %%edx;           " /* restore regs after syscall */
117                       "jmp 2f;               " /* skip 1:, already popped */
118                                   "1: popl %%eax;        " /* discard &sysc (on non-sc path) */
119                       "2: addl %2,%%esp;     " /* jump over the sysc (both paths) */
120                       "popl %%eax;           " /* restore tf's %eax */
121                                   "popfl;                " /* restore utf's eflags */
122                       "ret;                  " /* return to the new PC */
123                       :
124                       : "g"(tf), "i"(T_SYSCALL), "i"(sizeof(struct syscall))
125                       : "memory");
126 }
127
128 /* Like the regular pop_ros_tf, but this one doesn't check or clear
129  * notif_pending. */
130 static inline void pop_ros_tf_raw(struct user_trapframe *tf, uint32_t vcoreid)
131 {
132         struct restart_helper *rst;
133         struct preempt_data *vcpd = &__procdata.vcore_preempt_data[vcoreid];
134         if (!tf->tf_cs) { /* sysenter TF.  esp and eip are in other regs. */
135                 tf->tf_esp = tf->tf_regs.reg_ebp;
136                 tf->tf_eip = tf->tf_regs.reg_edx;
137         }
138         /* The stuff we need to write will be below the current stack of the utf */
139         rst = (struct restart_helper*)((void*)tf->tf_esp -
140                                        sizeof(struct restart_helper));
141         /* Fill in the info we'll need later */
142         rst->notif_disab_loc = (uint32_t)&vcpd->notif_disabled;
143         rst->eax_save = 0;                      /* avoid bugs */
144         rst->eflags = tf->tf_eflags;
145         rst->eip = tf->tf_eip;
146
147         asm volatile ("movl %0,%%esp;        " /* jump esp to the utf */
148                       "popal;                " /* restore normal registers */
149                       "addl $0x24,%%esp;     " /* move to the esp slot in the tf */
150                       "popl %%esp;           " /* change to the utf's %esp */
151                       "subl $0x08,%%esp;     " /* move esp to below eax's slot */
152                       "pushl %%eax;          " /* save eax, will clobber soon */
153                                   "movl %2,%%eax;        " /* sizeof struct syscall */
154                                   "addl $0x0c,%%eax;     " /* more offset btw eax/notif_en_loc*/
155                       "subl %%eax,%%esp;     " /* move to notif_en_loc slot */
156                       "popl %%eax;           " /* load notif_disabled addr */
157                       "movb $0x00,(%%eax);   " /* enable notifications */
158                                   /* Here's where we differ from the regular pop_ros_tf().  We
159                                    * do the same pops/esp moves, just to keep things similar
160                                    * and simple, but don't do test, clear notif_pending, or
161                                    * call a syscall. */
162                                   /* From here down, we can get interrupted and restarted */
163                       "popl %%eax;           " /* get notif_pending status */
164                                   "popl %%eax;           " /* discard &sysc (on non-sc path) */
165                       "addl %2,%%esp;        " /* jump over the sysc (both paths) */
166                       "popl %%eax;           " /* restore tf's %eax */
167                                   "popfl;                " /* restore utf's eflags */
168                       "ret;                  " /* return to the new PC */
169                       :
170                       : "g"(tf), "i"(T_SYSCALL), "i"(sizeof(struct syscall))
171                       : "memory");
172 }
173
174 /* Save the current context/registers into the given tf, setting the pc of the
175  * tf to the end of this function.  You only need to save that which you later
176  * restore with pop_ros_tf(). */
177 static inline void save_ros_tf(struct user_trapframe *tf)
178 {
179         memset(tf, 0, sizeof(struct user_trapframe)); /* sanity */
180         /* set CS and make sure eflags is okay */
181         tf->tf_cs = GD_UT | 3;
182         tf->tf_eflags = 0x00000200; /* interrupts enabled.  bare minimum eflags. */
183         /* Save the regs and the future esp. */
184         asm volatile("movl %%esp,(%0);       " /* save esp in it's slot*/
185                      "pushl %%eax;           " /* temp save eax */
186                      "leal 1f,%%eax;         " /* get future eip */
187                      "movl %%eax,(%1);       " /* store future eip */
188                      "popl %%eax;            " /* restore eax */
189                      "movl %2,%%esp;         " /* move to the beginning of the tf */
190                      "addl $0x20,%%esp;      " /* move to after the push_regs */
191                      "pushal;                " /* save regs */
192                      "addl $0x44,%%esp;      " /* move to esp slot */
193                      "popl %%esp;            " /* restore esp */
194                      "1:                     " /* where this tf will restart */
195                      : 
196                      : "g"(&tf->tf_esp), "g"(&tf->tf_eip), "g"(tf)
197                      : "eax", "memory", "cc");
198 }
199
200 /* This assumes a user_tf looks like a regular kernel trapframe */
201 static __inline void
202 init_user_tf(struct user_trapframe *u_tf, uint32_t entry_pt, uint32_t stack_top)
203 {
204         memset(u_tf, 0, sizeof(struct user_trapframe));
205         u_tf->tf_eip = entry_pt;
206         u_tf->tf_cs = GD_UT | 3;
207         u_tf->tf_esp = stack_top;
208 }
209
210 // this is how we get our thread id on entry.
211 #define __vcore_id_on_entry \
212 ({ \
213         register int temp asm ("eax"); \
214         temp; \
215 })
216
217 /* For debugging. */
218 #include <stdio.h>
219 static __inline void print_trapframe(struct user_trapframe *tf)
220 {
221         printf("[user] TRAP frame %08p\n", tf);
222         printf("  edi  0x%08x\n", tf->tf_regs.reg_edi);
223         printf("  esi  0x%08x\n", tf->tf_regs.reg_esi);
224         printf("  ebp  0x%08x\n", tf->tf_regs.reg_ebp);
225         printf("  oesp 0x%08x\n", tf->tf_regs.reg_oesp);
226         printf("  ebx  0x%08x\n", tf->tf_regs.reg_ebx);
227         printf("  edx  0x%08x\n", tf->tf_regs.reg_edx);
228         printf("  ecx  0x%08x\n", tf->tf_regs.reg_ecx);
229         printf("  eax  0x%08x\n", tf->tf_regs.reg_eax);
230         printf("  gs   0x----%04x\n", tf->tf_gs);
231         printf("  fs   0x----%04x\n", tf->tf_fs);
232         printf("  es   0x----%04x\n", tf->tf_es);
233         printf("  ds   0x----%04x\n", tf->tf_ds);
234         printf("  trap 0x%08x\n", tf->tf_trapno);
235         printf("  err  0x%08x\n", tf->tf_err);
236         printf("  eip  0x%08x\n", tf->tf_eip);
237         printf("  cs   0x----%04x\n", tf->tf_cs);
238         printf("  flag 0x%08x\n", tf->tf_eflags);
239         printf("  esp  0x%08x\n", tf->tf_esp);
240         printf("  ss   0x----%04x\n", tf->tf_ss);
241 }
242
243 #endif /* PARLIB_ARCH_VCORE_H */