Add load, safe load, read xcr0 functions
authorMichael Taufen <mtaufen@gmail.com>
Mon, 22 Feb 2016 22:27:02 +0000 (14:27 -0800)
committerBarret Rhoden <brho@cs.berkeley.edu>
Fri, 26 Feb 2016 16:28:20 +0000 (11:28 -0500)
void lxcr0(uint64_t xcr0)
int safe_lxcr0(uint64_t xcr0)
uint64_t rxcr0(void)

Signed-off-by: Michael Taufen <mtaufen@gmail.com>
Signed-off-by: Barret Rhoden <brho@cs.berkeley.edu>
kern/arch/x86/x86.h
kern/include/trap.h

index b50d9b0..993bd52 100644 (file)
@@ -2,6 +2,8 @@
 
 #include <ros/common.h>
 #include <arch/mmu.h>
+#include <ros/errno.h>
+#include <arch/fixup.h>
 
 /* Model Specific Registers */
 // TODO: figure out which are intel specific, and name them accordingly
@@ -164,6 +166,11 @@ static inline void lcr3(unsigned long val) __attribute__((always_inline));
 static inline unsigned long rcr3(void) __attribute__((always_inline));
 static inline void lcr4(unsigned long val) __attribute__((always_inline));
 static inline unsigned long rcr4(void) __attribute__((always_inline));
+
+static inline void lxcr0(uint64_t xcr0) __attribute__((always_inline));
+static inline int safe_lxcr0(uint64_t xcr0) __attribute__((always_inline));
+static inline uint64_t rxcr0(void) __attribute__((always_inline));
+
 static inline unsigned long read_flags(void) __attribute__((always_inline));
 static inline void write_eflags(unsigned long eflags)
               __attribute__((always_inline));
@@ -332,6 +339,49 @@ static inline unsigned long rcr4(void)
        return cr4;
 }
 
+static inline void lxcr0(uint64_t xcr0)
+{
+       uint32_t eax, edx;
+
+       edx = xcr0 >> 32;
+       eax = xcr0;
+       asm volatile("xsetbv"
+                    : /* No outputs */
+                    : "a"(eax), "c" (0), "d"(edx));
+}
+
+static inline int safe_lxcr0(uint64_t xcr0)
+{
+       int err = 0;
+       uint32_t eax, edx;
+
+       edx = xcr0 >> 32;
+       eax = xcr0;
+       asm volatile(ASM_STAC               ";"
+                        "1: xsetbv              ;"
+                    "2: " ASM_CLAC "        ;"
+                    ".section .fixup, \"ax\";"
+                    "3: mov %4, %0          ;"
+                    "   jmp 2b              ;"
+                    ".previous              ;"
+                    _ASM_EXTABLE(1b, 3b)
+                    : "=r" (err)
+                    : "a"(eax), "c" (0), "d"(edx),
+                      "i" (-EINVAL), "0" (err));
+
+       return err;
+}
+
+static inline uint64_t rxcr0(void)
+{
+       uint32_t eax, edx;
+
+       asm volatile("xgetbv"
+                    : "=a"(eax), "=d"(edx)
+                    : "c" (0));
+       return ((uint64_t)edx << 32) | eax;
+}
+
 static inline unsigned long read_flags(void)
 {
        unsigned long eflags;
@@ -370,7 +420,7 @@ static inline void cpuid(uint32_t info1, uint32_t info2, uint32_t *eaxp,
 {
        uint32_t eax, ebx, ecx, edx;
        /* Can select with both eax (info1) and ecx (info2) */
-       asm volatile("cpuid" 
+       asm volatile("cpuid"
                : "=a" (eax), "=b" (ebx), "=c" (ecx), "=d" (edx)
                : "a" (info1), "c" (info2));
        if (eaxp)
@@ -401,7 +451,7 @@ static inline uint64_t read_msr(uint32_t reg)
 static inline void write_msr(uint32_t reg, uint64_t val)
 {
        asm volatile("wrmsr" : : "d"((uint32_t)(val >> 32)),
-                                "a"((uint32_t)(val & 0xFFFFFFFF)), 
+                                "a"((uint32_t)(val & 0xFFFFFFFF)),
                                 "c"(reg));
 }
 
@@ -431,5 +481,5 @@ static inline void __cpu_relax(void)
 
 #ifndef UNUSED_ARG
 #define UNUSED_ARG(x) (void)x
-#endif /* This prevents compiler warnings for UNUSED_ARG */ 
+#endif /* This prevents compiler warnings for UNUSED_ARG */
 #endif /* !__ASSEMBLER__ */
index 9f13469..b18050b 100644 (file)
@@ -209,7 +209,7 @@ void print_kmsgs(uint32_t coreid);
 /* TRUE if we are allowed to spin, given that the 'lock' was declared as not
  * grabbable from IRQ context.  Meaning, we can't grab the lock from any nested
  * context.  (And for most locks, we can never grab them from a kernel trap
- * handler). 
+ * handler).
  *
  * Example is a lock that is not declared as irqsave, but we later grab it from
  * irq context.  This could deadlock the system, even if it doesn't do it this