strace: Qstrace controls whether tracing is on
[akaros.git] / kern / arch / x86 / trap64.h
index 9034768..b3165d5 100644 (file)
@@ -7,51 +7,19 @@
  * and not to be called by the main kernel.  Other functions are part of the
  * kernel-arch interface. */
 
-#ifndef ROS_KERN_ARCH_TRAP64_H
-#define ROS_KERN_ARCH_TRAP64_H
+#pragma once
 
 #ifndef ROS_KERN_ARCH_TRAP_H
 #error "Do not include arch/trap64.h directly."
 #endif
 
-/* For kernel contexts, when we save/restore/move them around. */
-struct kernel_ctx {
-       struct sw_trapframe             sw_tf;
-};
-
-void print_swtrapframe(struct sw_trapframe *sw_tf);
+#include <arch/fsgsbase.h>
 
 static inline bool in_kernel(struct hw_trapframe *hw_tf)
 {
        return (hw_tf->tf_cs & ~3) == GD_KT;
 }
 
-/* Using SW contexts for now, for x86_64 */
-static inline void save_kernel_ctx(struct kernel_ctx *ctx)
-{
-       long dummy;
-       /* not bothering with the FP fields */
-       asm volatile("mov %%rsp, 0x48(%0);   " /* save rsp in its slot*/
-                    "leaq 1f, %%rax;        " /* get future rip */
-                    "mov %%rax, 0x40(%0);   " /* save rip in its slot*/
-                    "mov %%r15, 0x38(%0);   "
-                    "mov %%r14, 0x30(%0);   "
-                    "mov %%r13, 0x28(%0);   "
-                    "mov %%r12, 0x20(%0);   "
-                    "mov %%rbp, 0x18(%0);   "
-                    "mov %%rbx, 0x10(%0);   "
-                    "1:                     " /* where this tf will restart */
-                                : "=D"(dummy) /* force rdi clobber */
-                                : "D"(&ctx->sw_tf)
-                    : "rax", "rcx", "rdx", "rsi", "r8", "r9", "r10", "r11",
-                      "memory", "cc");
-}
-
-static inline uintptr_t x86_get_ip_hw(struct hw_trapframe *hw_tf)
-{
-       return hw_tf->tf_rip;
-}
-
 static inline void x86_advance_ip(struct hw_trapframe *hw_tf, size_t bytes)
 {
        hw_tf->tf_rip += bytes;
@@ -66,17 +34,20 @@ static inline void x86_fake_rdtscp(struct hw_trapframe *hw_tf)
        hw_tf->tf_rcx = core_id();
 }
 
-static inline void x86_sysenter_init(uintptr_t stacktop)
+#define AKAROS_MSR_STAR (((((uint64_t)GD_UD - 8) | 0x3) << 48) |             \
+                            ((uint64_t)GD_KT << 32))
+#define AKAROS_MSR_LSTAR ((uintptr_t)&sysenter_handler)
+/* Masking all flags.  when we syscall, we'll get rflags = 0 */
+#define AKAROS_MSR_SFMASK (FL_AC | FL_NT | FL_IOPL_MASK | FL_DF | FL_IF | FL_TF)
+
+static inline void x86_sysenter_init(void)
 {
        /* check amd 2:6.1.1 for details.  they have some expectations about the GDT
         * layout. */
-       write_msr(MSR_STAR, ((((uint64_t)GD_UD - 8) | 0x3) << 48) |
-                           ((uint64_t)GD_KT << 32));
-       write_msr(MSR_LSTAR, (uintptr_t)&sysenter_handler);
-       /* Masking all flags.  when we syscall, we'll get rflags = 0 */
-       write_msr(MSR_SFMASK, 0xffffffff);
+       write_msr(MSR_STAR, AKAROS_MSR_STAR);
+       write_msr(MSR_LSTAR, AKAROS_MSR_LSTAR);
+       write_msr(MSR_SFMASK, AKAROS_MSR_SFMASK);
        write_msr(IA32_EFER_MSR, read_msr(IA32_EFER_MSR) | IA32_EFER_SYSCALL);
-       asm volatile ("movq %0, %%gs:0" : : "r"(stacktop));
 }
 
 /* these are used for both sysenter and traps on 32 bit */
@@ -115,14 +86,46 @@ static inline void x86_set_stacktop_tss(struct taskstate *tss, uintptr_t top)
        tss->ts_rsp0 = top;
 }
 
-static inline uintptr_t x86_get_hwtf_pc(struct hw_trapframe *hw_tf)
+/* Keep tf_padding0 in sync with trapentry64.S */
+static inline bool x86_hwtf_is_partial(struct hw_trapframe *tf)
+{
+       return tf->tf_padding0 == 1;
+}
+
+static inline bool x86_swtf_is_partial(struct sw_trapframe *tf)
 {
-       return hw_tf->tf_rip;
+       return tf->tf_padding0 == 1;
 }
 
-static inline uintptr_t x86_get_hwtf_fp(struct hw_trapframe *hw_tf)
+static inline bool x86_vmtf_is_partial(struct vm_trapframe *tf)
 {
-       return hw_tf->tf_rbp;
+       return tf->tf_flags & VMCTX_FL_PARTIAL ? TRUE : FALSE;
 }
 
-#endif /* ROS_KERN_ARCH_TRAP64_H */
+static inline void x86_hwtf_clear_partial(struct hw_trapframe *tf)
+{
+       tf->tf_padding0 = 0;
+}
+
+static inline void x86_swtf_clear_partial(struct sw_trapframe *tf)
+{
+       tf->tf_padding0 = 0;
+}
+
+static inline void x86_vmtf_clear_partial(struct vm_trapframe *tf)
+{
+       tf->tf_flags &= ~VMCTX_FL_PARTIAL;
+}
+
+static inline bool arch_ctx_is_partial(struct user_context *ctx)
+{
+       switch (ctx->type) {
+       case ROS_HW_CTX:
+               return x86_hwtf_is_partial(&ctx->tf.hw_tf);
+       case ROS_SW_CTX:
+               return x86_swtf_is_partial(&ctx->tf.sw_tf);
+       case ROS_VM_CTX:
+               return x86_vmtf_is_partial(&ctx->tf.vm_tf);
+       }
+       return FALSE;
+}