Added perfmon interrupt handling to allow overflow based profiling
[akaros.git] / kern / arch / x86 / trap64.h
1 /* Copyright (c) 2009-13 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * x86 trap.h bit-specific functions.  This is included by trap.h, do not
6  * include it directly.  Any function beginning with x86_ is internal to x86,
7  * and not to be called by the main kernel.  Other functions are part of the
8  * kernel-arch interface. */
9
10 #pragma once
11
12 #ifndef ROS_KERN_ARCH_TRAP_H
13 #error "Do not include arch/trap64.h directly."
14 #endif
15
16 void print_swtrapframe(struct sw_trapframe *sw_tf);
17
18 static inline bool in_kernel(struct hw_trapframe *hw_tf)
19 {
20         return (hw_tf->tf_cs & ~3) == GD_KT;
21 }
22
23 static inline uintptr_t get_hwtf_pc(struct hw_trapframe *hw_tf)
24 {
25         return hw_tf->tf_rip;
26 }
27
28 static inline uintptr_t get_hwtf_fp(struct hw_trapframe *hw_tf)
29 {
30         return hw_tf->tf_rbp;
31 }
32
33 static inline uintptr_t get_swtf_pc(struct sw_trapframe *sw_tf)
34 {
35         return sw_tf->tf_rip;
36 }
37
38 static inline uintptr_t get_swtf_fp(struct sw_trapframe *sw_tf)
39 {
40         return sw_tf->tf_rbp;
41 }
42
43 static inline uintptr_t x86_get_ip_hw(struct hw_trapframe *hw_tf)
44 {
45         return hw_tf->tf_rip;
46 }
47
48 static inline void x86_advance_ip(struct hw_trapframe *hw_tf, size_t bytes)
49 {
50         hw_tf->tf_rip += bytes;
51 }
52
53 static inline void x86_fake_rdtscp(struct hw_trapframe *hw_tf)
54 {
55         uint64_t tsc_time = read_tsc();
56         hw_tf->tf_rip += 3;
57         hw_tf->tf_rax = tsc_time & 0xffffffff;
58         hw_tf->tf_rdx = tsc_time >> 32;
59         hw_tf->tf_rcx = core_id();
60 }
61
62 static inline void x86_sysenter_init(uintptr_t stacktop)
63 {
64         /* check amd 2:6.1.1 for details.  they have some expectations about the GDT
65          * layout. */
66         write_msr(MSR_STAR, ((((uint64_t)GD_UD - 8) | 0x3) << 48) |
67                             ((uint64_t)GD_KT << 32));
68         write_msr(MSR_LSTAR, (uintptr_t)&sysenter_handler);
69         /* Masking all flags.  when we syscall, we'll get rflags = 0 */
70         write_msr(MSR_SFMASK, 0xffffffff);
71         write_msr(IA32_EFER_MSR, read_msr(IA32_EFER_MSR) | IA32_EFER_SYSCALL);
72         asm volatile ("movq %0, %%gs:0" : : "r"(stacktop));
73 }
74
75 /* these are used for both sysenter and traps on 32 bit */
76 static inline void x86_set_sysenter_stacktop(uintptr_t stacktop)
77 {
78         asm volatile ("movq %0, %%gs:0" : : "r"(stacktop));
79 }
80
81 static inline long x86_get_sysenter_arg0(struct hw_trapframe *hw_tf)
82 {
83         return hw_tf->tf_rdi;
84 }
85
86 static inline long x86_get_sysenter_arg1(struct hw_trapframe *hw_tf)
87 {
88         return hw_tf->tf_rsi;
89 }
90
91 static inline long x86_get_systrap_arg0(struct hw_trapframe *hw_tf)
92 {
93         return hw_tf->tf_rdi;
94 }
95
96 static inline long x86_get_systrap_arg1(struct hw_trapframe *hw_tf)
97 {
98         return hw_tf->tf_rsi;
99 }
100
101 static inline uintptr_t x86_get_stacktop_tss(struct taskstate *tss)
102 {
103         return tss->ts_rsp0;
104 }
105
106 static inline void x86_set_stacktop_tss(struct taskstate *tss, uintptr_t top)
107 {
108         tss->ts_rsp0 = top;
109 }
110
111 /* Keep tf_padding0 in sync with trapentry64.S */
112 static inline bool x86_hwtf_is_partial(struct hw_trapframe *tf)
113 {
114         return tf->tf_padding0 == 1;
115 }
116
117 static inline bool x86_swtf_is_partial(struct sw_trapframe *tf)
118 {
119         return tf->tf_padding0 == 1;
120 }
121
122 static inline void x86_hwtf_clear_partial(struct hw_trapframe *tf)
123 {
124         tf->tf_padding0 = 0;
125 }
126
127 static inline void x86_swtf_clear_partial(struct sw_trapframe *tf)
128 {
129         tf->tf_padding0 = 0;
130 }
131
132 static inline bool arch_ctx_is_partial(struct user_context *ctx)
133 {
134         switch (ctx->type) {
135         case (ROS_HW_CTX):
136                 return x86_hwtf_is_partial(&ctx->tf.hw_tf);
137         case (ROS_SW_CTX):
138                 return x86_swtf_is_partial(&ctx->tf.sw_tf);
139         }
140         return FALSE;
141 }
142
143 /* Partial contexts for HW and SW TFs have the user's gs in MSR_KERNEL_GS_BASE.
144  * The kernel's gs is loaded into gs.  We need to put the kernel's gs into
145  * KERNEL_GS_BASE so the core is ready to run another full context, save the
146  * user's {GS,FS}_BASE into their TF so it can run on another core, and keep GS
147  * loaded with the current GS (the kernel's). */
148 static inline void x86_finalize_hwtf(struct hw_trapframe *tf)
149 {
150         tf->tf_gsbase = read_msr(MSR_KERNEL_GS_BASE);
151         write_msr(MSR_KERNEL_GS_BASE, read_msr(MSR_GS_BASE));
152         tf->tf_fsbase = read_msr(MSR_FS_BASE);
153         x86_hwtf_clear_partial(tf);
154 }
155
156 static inline void x86_finalize_swtf(struct sw_trapframe *tf)
157 {
158         tf->tf_gsbase = read_msr(MSR_KERNEL_GS_BASE);
159         write_msr(MSR_KERNEL_GS_BASE, read_msr(MSR_GS_BASE));
160         tf->tf_fsbase = read_msr(MSR_FS_BASE);
161         x86_swtf_clear_partial(tf);
162 }
163
164 /* Makes sure that the user context is fully saved into ctx and not split across
165  * the struct and HW, meaning it is not a "partial context". */
166 static inline void arch_finalize_ctx(struct user_context *ctx)
167 {
168         if (!arch_ctx_is_partial(ctx))
169                 return;
170         switch (ctx->type) {
171         case (ROS_HW_CTX):
172                 x86_finalize_hwtf(&ctx->tf.hw_tf);
173                 break;
174         case (ROS_SW_CTX):
175                 x86_finalize_swtf(&ctx->tf.sw_tf);
176                 break;
177         }
178 }