x86: Remove split_msr_val()
[akaros.git] / kern / arch / x86 / x86.h
index a029186..ed48159 100644 (file)
@@ -1,8 +1,10 @@
-#ifndef ROS_INC_X86_H
-#define ROS_INC_X86_H
+#pragma once
 
 #include <ros/common.h>
+#include <ros/arch/msr-index.h>
 #include <arch/mmu.h>
+#include <ros/errno.h>
+#include <arch/fixup.h>
 
 /* Model Specific Registers */
 // TODO: figure out which are intel specific, and name them accordingly
@@ -53,7 +55,7 @@
 #define CPUID_PSE_SUPPORT                      0x00000008
 
 /* Arch Constants */
-#define MAX_NUM_CPUS                           255
+#define MAX_NUM_CORES                          255
 
 #define X86_REG_BP                                     "rbp"
 #define X86_REG_SP                                     "rsp"
 #define X86_CR4_SMEP   0x00100000 /* enable SMEP support */
 #define X86_CR4_SMAP   0x00200000 /* enable SMAP support */
 
+/* MWAIT C-state hints.  The names might not be right for different processors.
+ * For instance, the Linux idle driver for a Haswell calls the mwait for 0x10
+ * "C3-HSW". */
+#define X86_MWAIT_C1                   0x00
+#define X86_MWAIT_C2                   0x10
+#define X86_MWAIT_C3                   0x20
+#define X86_MWAIT_C4                   0x30
+#define X86_MWAIT_C5                   0x40
+#define X86_MWAIT_C6                   0x50
+
 /*
  * x86-64 Task Priority Register, CR8
  */
 #define X86_CR8_TPR    0x0000000F /* task priority register */
 
 #ifndef __ASSEMBLER__
+
 static inline uint8_t inb(int port) __attribute__((always_inline));
 static inline void insb(int port, void *addr, int cnt)
               __attribute__((always_inline));
@@ -165,6 +178,11 @@ static inline void lcr3(unsigned long val) __attribute__((always_inline));
 static inline unsigned long rcr3(void) __attribute__((always_inline));
 static inline void lcr4(unsigned long val) __attribute__((always_inline));
 static inline unsigned long rcr4(void) __attribute__((always_inline));
+
+static inline void lxcr0(uint64_t xcr0) __attribute__((always_inline));
+static inline int safe_lxcr0(uint64_t xcr0) __attribute__((always_inline));
+static inline uint64_t rxcr0(void) __attribute__((always_inline));
+
 static inline unsigned long read_flags(void) __attribute__((always_inline));
 static inline void write_eflags(unsigned long eflags)
               __attribute__((always_inline));
@@ -179,6 +197,10 @@ static inline uint64_t read_msr(uint32_t reg) __attribute__((always_inline));
 static inline void write_msr(uint32_t reg, uint64_t val)
               __attribute__((always_inline));
 /* if we have mm64s, change the hpet helpers */
+static inline void write_mmreg8(uintptr_t reg, uint8_t val)
+                                                       __attribute__((always_inline));
+static inline uint8_t read_mmreg8(uintptr_t reg)
+                                                       __attribute__((always_inline));
 static inline void write_mmreg32(uintptr_t reg, uint32_t val)
               __attribute__((always_inline));
 static inline uint32_t read_mmreg32(uintptr_t reg)
@@ -186,6 +208,12 @@ static inline uint32_t read_mmreg32(uintptr_t reg)
 static inline void wbinvd(void) __attribute__((always_inline));
 static inline void __cpu_relax(void) __attribute__((always_inline));
 
+void set_pstate(unsigned int pstate);
+void set_fastest_pstate(void);
+unsigned int get_pstate(void);
+void set_cstate(unsigned int cstate);
+unsigned int get_cstate(void);
+
 static inline uint8_t inb(int port)
 {
        uint8_t data;
@@ -297,6 +325,11 @@ static inline unsigned long rcr0(void)
        return val;
 }
 
+static inline void lcr2(unsigned long val)
+{
+       asm volatile("mov %0,%%cr2" : : "r" (val));
+}
+
 static inline unsigned long rcr2(void)
 {
        unsigned long val;
@@ -328,6 +361,49 @@ static inline unsigned long rcr4(void)
        return cr4;
 }
 
+static inline void lxcr0(uint64_t xcr0)
+{
+       uint32_t eax, edx;
+
+       edx = xcr0 >> 32;
+       eax = xcr0;
+       asm volatile("xsetbv"
+                    : /* No outputs */
+                    : "a"(eax), "c" (0), "d"(edx));
+}
+
+static inline int safe_lxcr0(uint64_t xcr0)
+{
+       int err = 0;
+       uint32_t eax, edx;
+
+       edx = xcr0 >> 32;
+       eax = xcr0;
+       asm volatile(ASM_STAC               ";"
+                        "1: xsetbv              ;"
+                    "2: " ASM_CLAC "        ;"
+                    ".section .fixup, \"ax\";"
+                    "3: mov %4, %0          ;"
+                    "   jmp 2b              ;"
+                    ".previous              ;"
+                    _ASM_EXTABLE(1b, 3b)
+                    : "=r" (err)
+                    : "a"(eax), "c" (0), "d"(edx),
+                      "i" (-EINVAL), "0" (err));
+
+       return err;
+}
+
+static inline uint64_t rxcr0(void)
+{
+       uint32_t eax, edx;
+
+       asm volatile("xgetbv"
+                    : "=a"(eax), "=d"(edx)
+                    : "c" (0));
+       return ((uint64_t)edx << 32) | eax;
+}
+
 static inline unsigned long read_flags(void)
 {
        unsigned long eflags;
@@ -366,7 +442,7 @@ static inline void cpuid(uint32_t info1, uint32_t info2, uint32_t *eaxp,
 {
        uint32_t eax, ebx, ecx, edx;
        /* Can select with both eax (info1) and ecx (info2) */
-       asm volatile("cpuid" 
+       asm volatile("cpuid"
                : "=a" (eax), "=b" (ebx), "=c" (ecx), "=d" (edx)
                : "a" (info1), "c" (info2));
        if (eaxp)
@@ -396,9 +472,17 @@ static inline uint64_t read_msr(uint32_t reg)
 
 static inline void write_msr(uint32_t reg, uint64_t val)
 {
-       asm volatile("wrmsr" : : "d"((uint32_t)(val >> 32)),
-                                "a"((uint32_t)(val & 0xFFFFFFFF)), 
-                                "c"(reg));
+       asm volatile("wrmsr" : : "d"(val >> 32), "a"(val & 0xFFFFFFFF), "c"(reg));
+}
+
+static inline void write_mmreg8(uintptr_t reg, uint8_t val)
+{
+       *((volatile uint8_t*)reg) = val;
+}
+
+static inline uint8_t read_mmreg8(uintptr_t reg)
+{
+       return *((volatile uint8_t*)reg);
 }
 
 static inline void write_mmreg32(uintptr_t reg, uint32_t val)
@@ -427,7 +511,5 @@ static inline void __cpu_relax(void)
 
 #ifndef UNUSED_ARG
 #define UNUSED_ARG(x) (void)x
-#endif /* This prevents compiler warnings for UNUSED_ARG */ 
+#endif /* This prevents compiler warnings for UNUSED_ARG */
 #endif /* !__ASSEMBLER__ */
-
-#endif /* !ROS_INC_X86_H */