Map PTEs for MAP_SHARED | MAP_LOCKED files on fork
[akaros.git] / kern / arch / x86 / trap64.h
1 /* Copyright (c) 2009-13 The Regents of the University of California
2  * Barret Rhoden <brho@cs.berkeley.edu>
3  * See LICENSE for details.
4  *
5  * x86 trap.h bit-specific functions.  This is included by trap.h, do not
6  * include it directly.  Any function beginning with x86_ is internal to x86,
7  * and not to be called by the main kernel.  Other functions are part of the
8  * kernel-arch interface. */
9
10 #pragma once
11
12 #ifndef ROS_KERN_ARCH_TRAP_H
13 #error "Do not include arch/trap64.h directly."
14 #endif
15
16 #include <arch/fsgsbase.h>
17
18 static inline bool in_kernel(struct hw_trapframe *hw_tf)
19 {
20         return (hw_tf->tf_cs & ~3) == GD_KT;
21 }
22
23 static inline uintptr_t get_hwtf_pc(struct hw_trapframe *hw_tf)
24 {
25         return hw_tf->tf_rip;
26 }
27
28 static inline uintptr_t get_hwtf_fp(struct hw_trapframe *hw_tf)
29 {
30         return hw_tf->tf_rbp;
31 }
32
33 static inline uintptr_t get_swtf_pc(struct sw_trapframe *sw_tf)
34 {
35         return sw_tf->tf_rip;
36 }
37
38 static inline uintptr_t get_swtf_fp(struct sw_trapframe *sw_tf)
39 {
40         return sw_tf->tf_rbp;
41 }
42
43 static inline uintptr_t get_vmtf_pc(struct vm_trapframe *vm_tf)
44 {
45         return vm_tf->tf_rip;
46 }
47
48 static inline uintptr_t get_vmtf_fp(struct vm_trapframe *vm_tf)
49 {
50         return vm_tf->tf_rbp;
51 }
52
53 static inline void x86_advance_ip(struct hw_trapframe *hw_tf, size_t bytes)
54 {
55         hw_tf->tf_rip += bytes;
56 }
57
58 static inline void x86_fake_rdtscp(struct hw_trapframe *hw_tf)
59 {
60         uint64_t tsc_time = read_tsc();
61         hw_tf->tf_rip += 3;
62         hw_tf->tf_rax = tsc_time & 0xffffffff;
63         hw_tf->tf_rdx = tsc_time >> 32;
64         hw_tf->tf_rcx = core_id();
65 }
66
67 static inline void x86_sysenter_init(uintptr_t stacktop)
68 {
69         /* check amd 2:6.1.1 for details.  they have some expectations about the GDT
70          * layout. */
71         write_msr(MSR_STAR, ((((uint64_t)GD_UD - 8) | 0x3) << 48) |
72                             ((uint64_t)GD_KT << 32));
73         write_msr(MSR_LSTAR, (uintptr_t)&sysenter_handler);
74         /* Masking all flags.  when we syscall, we'll get rflags = 0 */
75         write_msr(MSR_SFMASK, 0xffffffff);
76         write_msr(IA32_EFER_MSR, read_msr(IA32_EFER_MSR) | IA32_EFER_SYSCALL);
77         asm volatile ("movq %0, %%gs:0" : : "r"(stacktop));
78 }
79
80 /* these are used for both sysenter and traps on 32 bit */
81 static inline void x86_set_sysenter_stacktop(uintptr_t stacktop)
82 {
83         asm volatile ("movq %0, %%gs:0" : : "r"(stacktop));
84 }
85
86 static inline long x86_get_sysenter_arg0(struct hw_trapframe *hw_tf)
87 {
88         return hw_tf->tf_rdi;
89 }
90
91 static inline long x86_get_sysenter_arg1(struct hw_trapframe *hw_tf)
92 {
93         return hw_tf->tf_rsi;
94 }
95
96 static inline long x86_get_systrap_arg0(struct hw_trapframe *hw_tf)
97 {
98         return hw_tf->tf_rdi;
99 }
100
101 static inline long x86_get_systrap_arg1(struct hw_trapframe *hw_tf)
102 {
103         return hw_tf->tf_rsi;
104 }
105
106 static inline uintptr_t x86_get_stacktop_tss(struct taskstate *tss)
107 {
108         return tss->ts_rsp0;
109 }
110
111 static inline void x86_set_stacktop_tss(struct taskstate *tss, uintptr_t top)
112 {
113         tss->ts_rsp0 = top;
114 }
115
116 /* Keep tf_padding0 in sync with trapentry64.S */
117 static inline bool x86_hwtf_is_partial(struct hw_trapframe *tf)
118 {
119         return tf->tf_padding0 == 1;
120 }
121
122 static inline bool x86_swtf_is_partial(struct sw_trapframe *tf)
123 {
124         return tf->tf_padding0 == 1;
125 }
126
127 static inline bool x86_vmtf_is_partial(struct vm_trapframe *tf)
128 {
129         return tf->tf_flags & VMCTX_FL_PARTIAL ? TRUE : FALSE;
130 }
131
132 static inline void x86_hwtf_clear_partial(struct hw_trapframe *tf)
133 {
134         tf->tf_padding0 = 0;
135 }
136
137 static inline void x86_swtf_clear_partial(struct sw_trapframe *tf)
138 {
139         tf->tf_padding0 = 0;
140 }
141
142 static inline void x86_vmtf_clear_partial(struct vm_trapframe *tf)
143 {
144         tf->tf_flags &= ~VMCTX_FL_PARTIAL;
145 }
146
147 static inline bool arch_ctx_is_partial(struct user_context *ctx)
148 {
149         switch (ctx->type) {
150         case ROS_HW_CTX:
151                 return x86_hwtf_is_partial(&ctx->tf.hw_tf);
152         case ROS_SW_CTX:
153                 return x86_swtf_is_partial(&ctx->tf.sw_tf);
154         case ROS_VM_CTX:
155                 return x86_vmtf_is_partial(&ctx->tf.vm_tf);
156         }
157         return FALSE;
158 }
159
160 /* Partial contexts for HW and SW TFs have the user's gs in MSR_KERNEL_GS_BASE.
161  * The kernel's gs is loaded into gs.  We need to put the kernel's gs into
162  * KERNEL_GS_BASE so the core is ready to run another full context, save the
163  * user's {GS,FS}_BASE into their TF so it can run on another core, and keep GS
164  * loaded with the current GS (the kernel's). */
165 static inline void x86_finalize_hwtf(struct hw_trapframe *tf)
166 {
167         tf->tf_gsbase = read_msr(MSR_KERNEL_GS_BASE);
168         write_msr(MSR_KERNEL_GS_BASE, read_gsbase());
169         tf->tf_fsbase = read_fsbase();
170         x86_hwtf_clear_partial(tf);
171 }
172
173 static inline void x86_finalize_swtf(struct sw_trapframe *tf)
174 {
175         tf->tf_gsbase = read_msr(MSR_KERNEL_GS_BASE);
176         write_msr(MSR_KERNEL_GS_BASE, read_gsbase());
177         tf->tf_fsbase = read_fsbase();
178         x86_swtf_clear_partial(tf);
179 }
180
181 void x86_finalize_vmtf(struct vm_trapframe *tf);
182
183 /* Makes sure that the user context is fully saved into ctx and not split across
184  * the struct and HW, meaning it is not a "partial context". */
185 static inline void arch_finalize_ctx(struct user_context *ctx)
186 {
187         if (!arch_ctx_is_partial(ctx))
188                 return;
189         switch (ctx->type) {
190         case ROS_HW_CTX:
191                 x86_finalize_hwtf(&ctx->tf.hw_tf);
192                 break;
193         case ROS_SW_CTX:
194                 x86_finalize_swtf(&ctx->tf.sw_tf);
195                 break;
196         case ROS_VM_CTX:
197                 x86_finalize_vmtf(&ctx->tf.vm_tf);
198                 break;
199         }
200 }