Active messages for x86
[akaros.git] / kern / arch / i386 / trap.c
1 #ifdef __SHARC__
2 #pragma nosharc
3 #endif
4
5 #include <arch/mmu.h>
6 #include <arch/x86.h>
7 #include <arch/arch.h>
8 #include <arch/console.h>
9 #include <arch/apic.h>
10 #include <ros/common.h>
11 #include <smp.h>
12 #include <assert.h>
13 #include <pmap.h>
14 #include <trap.h>
15 #include <monitor.h>
16 #include <process.h>
17 #include <stdio.h>
18
19 #include <syscall.h>
20
21 taskstate_t ts;
22
23 /* Interrupt descriptor table.  (Must be built at run time because
24  * shifted function addresses can't be represented in relocation records.)
25  */
26 // Aligned on an 8 byte boundary (SDM V3A 5-13)
27 gatedesc_t __attribute__ ((aligned (8))) idt[256] = { { 0 } };
28 pseudodesc_t idt_pd = {
29         sizeof(idt) - 1, (uint32_t) idt
30 };
31
32 /* global handler table, used by core0 (for now).  allows the registration
33  * of functions to be called when servicing an interrupt.  other cores
34  * can set up their own later.
35  */
36 handler_t TP(void *) interrupt_handlers[NUM_INTERRUPT_HANDLERS];
37
38 static const char *NTS trapname(int trapno)
39 {
40     // zra: excnames is SREADONLY because Ivy doesn't trust const
41         static const char *NT const ( excnames)[] = {
42                 "Divide error",
43                 "Debug",
44                 "Non-Maskable Interrupt",
45                 "Breakpoint",
46                 "Overflow",
47                 "BOUND Range Exceeded",
48                 "Invalid Opcode",
49                 "Device Not Available",
50                 "Double Fault",
51                 "Coprocessor Segment Overrun",
52                 "Invalid TSS",
53                 "Segment Not Present",
54                 "Stack Fault",
55                 "General Protection",
56                 "Page Fault",
57                 "(unknown trap)",
58                 "x87 FPU Floating-Point Error",
59                 "Alignment Check",
60                 "Machine-Check",
61                 "SIMD Floating-Point Exception"
62         };
63
64         if (trapno < sizeof(excnames)/sizeof(excnames[0]))
65                 return excnames[trapno];
66         if (trapno == T_SYSCALL)
67                 return "System call";
68         return "(unknown trap)";
69 }
70
71
72 void
73 idt_init(void)
74 {
75         extern segdesc_t gdt[];
76
77         // This table is made in trapentry.S by each macro in that file.
78         // It is layed out such that the ith entry is the ith's traphandler's
79         // (uint32_t) trap addr, then (uint32_t) trap number
80         struct trapinfo { uint32_t trapaddr; uint32_t trapnumber; };
81         extern struct trapinfo (BND(__this,trap_tbl_end) trap_tbl)[];
82         extern struct trapinfo (SNT trap_tbl_end)[];
83         int i, trap_tbl_size = trap_tbl_end - trap_tbl;
84         extern void ISR_default(void);
85
86         // set all to default, to catch everything
87         for(i = 0; i < 256; i++)
88                 SETGATE(idt[i], 0, GD_KT, &ISR_default, 0);
89
90         // set all entries that have real trap handlers
91         // we need to stop short of the last one, since the last is the default
92         // handler with a fake interrupt number (500) that is out of bounds of
93         // the idt[]
94         // if we set these to trap gates, be sure to handle the IRQs separately
95         // and we might need to break our pretty tables
96         for(i = 0; i < trap_tbl_size - 1; i++)
97                 SETGATE(idt[trap_tbl[i].trapnumber], 0, GD_KT, trap_tbl[i].trapaddr, 0);
98
99         // turn on syscall handling and other user-accessible ints
100         // DPL 3 means this can be triggered by the int instruction
101         // STS_TG32 sets the IDT type to a Trap Gate (interrupts enabled)
102         idt[T_SYSCALL].gd_dpl = 3;
103         idt[T_SYSCALL].gd_type = STS_TG32;
104         idt[T_BRKPT].gd_dpl = 3;
105
106         // Setup a TSS so that we get the right stack
107         // when we trap to the kernel.
108         ts.ts_esp0 = KSTACKTOP;
109         ts.ts_ss0 = GD_KD;
110
111         // Initialize the TSS field of the gdt.
112         gdt[GD_TSS >> 3] = SEG16(STS_T32A, (uint32_t) (&ts),
113                                         sizeof(taskstate_t), 0);
114         gdt[GD_TSS >> 3].sd_s = 0;
115
116         // Load the TSS
117         ltr(GD_TSS);
118
119         // Load the IDT
120         asm volatile("lidt idt_pd");
121
122         // This will go away when we start using the IOAPIC properly
123         pic_remap();
124         // set LINT0 to receive ExtINTs (KVM's default).  At reset they are 0x1000.
125         write_mmreg32(LAPIC_LVT_LINT0, 0x700);
126         // mask it to shut it up for now
127         mask_lapic_lvt(LAPIC_LVT_LINT0);
128         // and turn it on
129         lapic_enable();
130 }
131
132 void
133 print_regs(push_regs_t *regs)
134 {
135         cprintf("  edi  0x%08x\n", regs->reg_edi);
136         cprintf("  esi  0x%08x\n", regs->reg_esi);
137         cprintf("  ebp  0x%08x\n", regs->reg_ebp);
138         cprintf("  oesp 0x%08x\n", regs->reg_oesp);
139         cprintf("  ebx  0x%08x\n", regs->reg_ebx);
140         cprintf("  edx  0x%08x\n", regs->reg_edx);
141         cprintf("  ecx  0x%08x\n", regs->reg_ecx);
142         cprintf("  eax  0x%08x\n", regs->reg_eax);
143 }
144
145 void
146 print_trapframe(trapframe_t *tf)
147 {
148         cprintf("TRAP frame at %p on core %d\n", tf, core_id());
149         print_regs(&tf->tf_regs);
150         cprintf("  es   0x----%04x\n", tf->tf_es);
151         cprintf("  ds   0x----%04x\n", tf->tf_ds);
152         cprintf("  trap 0x%08x %s\n", tf->tf_trapno, trapname(tf->tf_trapno));
153         cprintf("  err  0x%08x\n", tf->tf_err);
154         cprintf("  eip  0x%08x\n", tf->tf_eip);
155         cprintf("  cs   0x----%04x\n", tf->tf_cs);
156         cprintf("  flag 0x%08x\n", tf->tf_eflags);
157         cprintf("  esp  0x%08x\n", tf->tf_esp);
158         cprintf("  ss   0x----%04x\n", tf->tf_ss);
159 }
160
161 static void
162 trap_dispatch(trapframe_t *tf)
163 {
164         // Handle processor exceptions.
165         switch(tf->tf_trapno) {
166                 case T_BRKPT:
167                         while (1)
168                                 monitor(tf);
169                         // never get to this
170                         assert(0);
171                 case T_PGFLT:
172                         page_fault_handler(tf);
173                         break;
174                 case T_SYSCALL:
175                         // check for userspace, for now
176                         assert(tf->tf_cs != GD_KT);
177                         tf->tf_regs.reg_eax =
178                                 syscall(current, tf->tf_regs.reg_eax, tf->tf_regs.reg_edx,
179                                         tf->tf_regs.reg_ecx, tf->tf_regs.reg_ebx,
180                                         tf->tf_regs.reg_edi, tf->tf_regs.reg_esi);
181                         proc_startcore(current, tf); // Note the comment in syscall.c
182                         break;
183                 default:
184                         // Unexpected trap: The user process or the kernel has a bug.
185                         print_trapframe(tf);
186                         if (tf->tf_cs == GD_KT)
187                                 panic("Damn Damn!  Unhandled trap in the kernel!");
188                         else {
189                                 warn("Unexpected trap from userspace");
190                                 proc_destroy(current);
191                                 return;
192                         }
193         }
194         return;
195 }
196
197 void
198 env_push_ancillary_state(env_t* e)
199 {
200         // Here's where you'll save FP/MMX/XMM regs
201 }
202
203 void
204 env_pop_ancillary_state(env_t* e)
205 {
206         // Here's where you'll restore FP/MMX/XMM regs
207 }
208
209 void
210 trap(trapframe_t *tf)
211 {
212         //cprintf("Incoming TRAP frame at %p\n", tf);
213
214         // TODO: do this once we know we are are not returning to the current
215         // context.  doing it now is safe. (HSS)
216         env_push_ancillary_state(current);
217
218         if ((tf->tf_cs & ~3) != GD_UT && (tf->tf_cs & ~3) != GD_KT) {
219                 print_trapframe(tf);
220                 panic("Trapframe with invalid CS!");
221         }
222
223         if ((tf->tf_cs & 3) == 3) {
224                 // Trapped from user mode.
225                 // TODO: this will change when an env has more than one context
226                 // Copy trap frame (which is currently on the stack)
227                 // into 'current->env_tf', so that running the environment
228                 // will restart at the trap point.
229                 assert(current);
230                 current->env_tf = *tf;
231                 // The trapframe on the stack should be ignored from here on.
232                 tf = &current->env_tf;
233         }
234
235         // Dispatch based on what type of trap occurred
236         trap_dispatch(tf);
237
238         // should this be if == 3?  Sort out later when we handle traps.
239         // so far we never get here
240         assert(0);
241         // Return to the current environment, which should be runnable.
242         proc_startcore(current, tf); // Note the comment in syscall.c
243 }
244
245 void
246 irq_handler(trapframe_t *tf)
247 {
248         //if (core_id())
249         //      cprintf("Incoming IRQ, ISR: %d on core %d\n", tf->tf_trapno, core_id());
250         // merge this with alltraps?  other than the EOI... or do the same in all traps
251
252         // TODO: do this once we know we are are not returning to the current
253         // context.  doing it now is safe. (HSS)
254         env_push_ancillary_state(current);
255
256         extern handler_wrapper_t handler_wrappers[NUM_HANDLER_WRAPPERS];
257
258         // determine the interrupt handler table to use.  for now, pick the global
259         handler_t TP(void *) * handler_tbl = interrupt_handlers;
260
261         if (handler_tbl[tf->tf_trapno].isr != 0)
262                 handler_tbl[tf->tf_trapno].isr(tf, handler_tbl[tf->tf_trapno].data);
263         // if we're a general purpose IPI function call, down the cpu_list
264         if ((I_SMP_CALL0 <= tf->tf_trapno) && (tf->tf_trapno <= I_SMP_CALL_LAST))
265                 down_checklist(handler_wrappers[tf->tf_trapno & 0x0f].cpu_list);
266
267         // Send EOI.  might want to do this in assembly, and possibly earlier
268         // This is set up to work with an old PIC for now
269         // Convention is that all IRQs between 32 and 47 are for the PIC.
270         // All others are LAPIC (timer, IPIs, perf, non-ExtINT LINTS, etc)
271         // For now, only 235-255 are available
272         assert(tf->tf_trapno >= 32); // slows us down, but we should never have this
273         if (tf->tf_trapno < 48)
274                 pic_send_eoi(tf->tf_trapno - PIC1_OFFSET);
275         else
276                 lapic_send_eoi();
277 }
278
279 void
280 register_interrupt_handler(handler_t TP(TV(t)) table[],
281                            uint8_t int_num, poly_isr_t handler, void* data)
282 {
283         table[int_num].isr = handler;
284         table[int_num].data = data;
285 }
286
287 void
288 page_fault_handler(trapframe_t *tf)
289 {
290         uint32_t fault_va;
291
292         // Read processor's CR2 register to find the faulting address
293         fault_va = rcr2();
294
295         // Handle kernel-mode page faults.
296
297         // TODO - one day, we'll want to handle this.
298         if ((tf->tf_cs & 3) == 0) {
299                 print_trapframe(tf);
300                 panic("Page Fault in the Kernel at 0x%08x!", fault_va);
301         }
302
303         // We've already handled kernel-mode exceptions, so if we get here,
304         // the page fault happened in user mode.
305
306         // Call the environment's page fault upcall, if one exists.  Set up a
307         // page fault stack frame on the user exception stack (below
308         // UXSTACKTOP), then branch to current->env_pgfault_upcall.
309         //
310         // The page fault upcall might cause another page fault, in which case
311         // we branch to the page fault upcall recursively, pushing another
312         // page fault stack frame on top of the user exception stack.
313         //
314         // The trap handler needs one word of scratch space at the top of the
315         // trap-time stack in order to return.  In the non-recursive case, we
316         // don't have to worry about this because the top of the regular user
317         // stack is free.  In the recursive case, this means we have to leave
318         // an extra word between the current top of the exception stack and
319         // the new stack frame because the exception stack _is_ the trap-time
320         // stack.
321         //
322         // If there's no page fault upcall, the environment didn't allocate a
323         // page for its exception stack, or the exception stack overflows,
324         // then destroy the environment that caused the fault.
325         //
326         // Hints:
327         //   user_mem_assert() and env_run() are useful here.
328         //   To change what the user environment runs, modify 'current->env_tf'
329         //   (the 'tf' variable points at 'current->env_tf').
330
331         // LAB 4: Your code here.
332
333         // Destroy the environment that caused the fault.
334         cprintf("[%08x] user fault va %08x ip %08x from core %d\n",
335                 current->env_id, fault_va, tf->tf_eip, core_id());
336         print_trapframe(tf);
337         proc_destroy(current);
338 }
339
340 void sysenter_init(void)
341 {
342         write_msr(MSR_IA32_SYSENTER_CS, GD_KT);
343         write_msr(MSR_IA32_SYSENTER_ESP, ts.ts_esp0);
344         write_msr(MSR_IA32_SYSENTER_EIP, (uint32_t) &sysenter_handler);
345 }
346
347 /* This is called from sysenter's asm, with the tf on the kernel stack. */
348 void sysenter_callwrapper(struct Trapframe *tf)
349 {
350         current->env_tf = *tf;
351
352         // The trapframe on the stack should be ignored from here on.
353         tf = &current->env_tf;
354         tf->tf_regs.reg_eax = (intreg_t) syscall(current,
355                                                  tf->tf_regs.reg_eax,
356                                                  tf->tf_regs.reg_edx,
357                                                  tf->tf_regs.reg_ecx,
358                                                  tf->tf_regs.reg_ebx,
359                                                  tf->tf_regs.reg_edi,
360                                                  0);
361         /*
362          * careful here - we need to make sure that this current is the right
363          * process, which could be weird if the syscall blocked.  it would need to
364          * restore the proper value in current before returning to here.
365          * likewise, tf could be pointing to random gibberish.
366          */
367         proc_startcore(current, tf);
368 }
369
370 uint32_t send_active_message(uint32_t dst, amr_t pc, uint32_t arg0,
371                              uint32_t arg1, uint32_t arg2)
372 {
373         error_t retval = -EBUSY;
374         spin_lock_irqsave(&per_cpu_info[dst].amsg_lock);
375         size_t current_amsg = per_cpu_info[dst].amsg_current;
376         // If there's a PC there, then that means it's an outstanding message
377         FOR_CIRC_BUFFER(current_amsg, NUM_ACTIVE_MESSAGES, i) {
378                 if (per_cpu_info[dst].active_msgs[i].pc)
379                         continue;
380                 per_cpu_info[dst].active_msgs[i].pc = pc;
381                 per_cpu_info[dst].active_msgs[i].arg0 = arg0;
382                 per_cpu_info[dst].active_msgs[i].arg1 = arg1;
383                 per_cpu_info[dst].active_msgs[i].arg2 = arg2;
384                 per_cpu_info[dst].active_msgs[i].srcid = core_id();
385                 retval = 0;
386                 break;
387         }
388         spin_unlock_irqsave(&per_cpu_info[dst].amsg_lock);
389         if (!retval)
390                 send_ipi(dst, 0, I_ACTIVE_MSG);
391         return retval;
392 }
393
394 /* Active message handler.  We don't want to block other AMs from coming in, so
395  * we'll copy out the message and let go of the lock.  This won't return until
396  * all pending AMs are executed.  If the PC is 0, then this was an extra IPI and
397  * we already handled the message (or someone is sending IPIs without loading
398  * the active message...)
399  * Note that all of this happens from interrupt context, and interrupts are
400  * currently disabled for this gate. */
401 void __active_message(trapframe_t *tf)
402 {
403         struct per_cpu_info *myinfo = &per_cpu_info[core_id()];
404         active_message_t amsg;
405
406         while (1) { // will break out when we find an empty amsg
407                 /* Get the message */
408                 spin_lock_irqsave(&myinfo->amsg_lock);
409                 if (myinfo->active_msgs[myinfo->amsg_current].pc) {
410                         amsg = myinfo->active_msgs[myinfo->amsg_current];
411                         myinfo->active_msgs[myinfo->amsg_current].pc = 0;
412                         myinfo->amsg_current = (myinfo->amsg_current + 1) %
413                                                NUM_ACTIVE_MESSAGES;
414                 } else { // was no PC in the current active message, meaning we do nothing
415                         spin_unlock_irqsave(&myinfo->amsg_lock);
416                         lapic_send_eoi();
417                         return;
418                 }
419                 spin_unlock_irqsave(&myinfo->amsg_lock);
420                 /* Execute the active message */
421                 amsg.pc(tf, amsg.srcid, amsg.arg0, amsg.arg1, amsg.arg2);
422         }
423
424 }