x86: Remove split_msr_val()
[akaros.git] / kern / arch / x86 / x86.h
index beaab03..ed48159 100644 (file)
@@ -1,8 +1,10 @@
-#ifndef ROS_INC_X86_H
-#define ROS_INC_X86_H
+#pragma once
 
 #include <ros/common.h>
+#include <ros/arch/msr-index.h>
 #include <arch/mmu.h>
+#include <ros/errno.h>
+#include <arch/fixup.h>
 
 /* Model Specific Registers */
 // TODO: figure out which are intel specific, and name them accordingly
@@ -53,9 +55,7 @@
 #define CPUID_PSE_SUPPORT                      0x00000008
 
 /* Arch Constants */
-#define MAX_NUM_CPUS                           255
-
-#ifdef CONFIG_X86_64
+#define MAX_NUM_CORES                          255
 
 #define X86_REG_BP                                     "rbp"
 #define X86_REG_SP                                     "rsp"
 #define X86_REG_CX                                     "rcx"
 #define X86_REG_DX                                     "rdx"
 
-#else /* 32 bit */
-
-#define X86_REG_BP                                     "ebp"
-#define X86_REG_SP                                     "esp"
-#define X86_REG_IP                                     "eip"
-#define X86_REG_AX                                     "eax"
-#define X86_REG_BX                                     "ebx"
-#define X86_REG_CX                                     "ecx"
-#define X86_REG_DX                                     "edx"
 
-#endif /* 64bit / 32bit */
+/* Various flags defined: can be included from assembler. */
+
+/*
+ * EFLAGS bits
+ */
+#define X86_EFLAGS_CF  0x00000001 /* Carry Flag */
+#define X86_EFLAGS_BIT1        0x00000002 /* Bit 1 - always on */
+#define X86_EFLAGS_PF  0x00000004 /* Parity Flag */
+#define X86_EFLAGS_AF  0x00000010 /* Auxiliary carry Flag */
+#define X86_EFLAGS_ZF  0x00000040 /* Zero Flag */
+#define X86_EFLAGS_SF  0x00000080 /* Sign Flag */
+#define X86_EFLAGS_TF  0x00000100 /* Trap Flag */
+#define X86_EFLAGS_IF  0x00000200 /* Interrupt Flag */
+#define X86_EFLAGS_DF  0x00000400 /* Direction Flag */
+#define X86_EFLAGS_OF  0x00000800 /* Overflow Flag */
+#define X86_EFLAGS_IOPL        0x00003000 /* IOPL mask */
+#define X86_EFLAGS_NT  0x00004000 /* Nested Task */
+#define X86_EFLAGS_RF  0x00010000 /* Resume Flag */
+#define X86_EFLAGS_VM  0x00020000 /* Virtual Mode */
+#define X86_EFLAGS_AC  0x00040000 /* Alignment Check */
+#define X86_EFLAGS_VIF 0x00080000 /* Virtual Interrupt Flag */
+#define X86_EFLAGS_VIP 0x00100000 /* Virtual Interrupt Pending */
+#define X86_EFLAGS_ID  0x00200000 /* CPUID detection flag */
+
+/*
+ * Basic CPU control in CR0
+ */
+#define X86_CR0_PE     0x00000001 /* Protection Enable */
+#define X86_CR0_MP     0x00000002 /* Monitor Coprocessor */
+#define X86_CR0_EM     0x00000004 /* Emulation */
+#define X86_CR0_TS     0x00000008 /* Task Switched */
+#define X86_CR0_ET     0x00000010 /* Extension Type */
+#define X86_CR0_NE     0x00000020 /* Numeric Error */
+#define X86_CR0_WP     0x00010000 /* Write Protect */
+#define X86_CR0_AM     0x00040000 /* Alignment Mask */
+#define X86_CR0_NW     0x20000000 /* Not Write-through */
+#define X86_CR0_CD     0x40000000 /* Cache Disable */
+#define X86_CR0_PG     0x80000000 /* Paging */
+
+/*
+ * Paging options in CR3
+ */
+#define X86_CR3_PWT    0x00000008 /* Page Write Through */
+#define X86_CR3_PCD    0x00000010 /* Page Cache Disable */
+#define X86_CR3_PCID_MASK 0x00000fff /* PCID Mask */
+
+/*
+ * Intel CPU features in CR4
+ */
+#define X86_CR4_VME    0x00000001 /* enable vm86 extensions */
+#define X86_CR4_PVI    0x00000002 /* virtual interrupts flag enable */
+#define X86_CR4_TSD    0x00000004 /* disable time stamp at ipl 3 */
+#define X86_CR4_DE     0x00000008 /* enable debugging extensions */
+#define X86_CR4_PSE    0x00000010 /* enable page size extensions */
+#define X86_CR4_PAE    0x00000020 /* enable physical address extensions */
+#define X86_CR4_MCE    0x00000040 /* Machine check enable */
+#define X86_CR4_PGE    0x00000080 /* enable global pages */
+#define X86_CR4_PCE    0x00000100 /* enable performance counters at ipl 3 */
+#define X86_CR4_OSFXSR 0x00000200 /* enable fast FPU save and restore */
+#define X86_CR4_OSXMMEXCPT 0x00000400 /* enable unmasked SSE exceptions */
+#define X86_CR4_VMXE   0x00002000 /* enable VMX virtualization */
+#define X86_CR4_RDWRGSFS 0x00010000 /* enable RDWRGSFS support */
+#define X86_CR4_PCIDE  0x00020000 /* enable PCID support */
+#define X86_CR4_OSXSAVE 0x00040000 /* enable xsave and xrestore */
+#define X86_CR4_SMEP   0x00100000 /* enable SMEP support */
+#define X86_CR4_SMAP   0x00200000 /* enable SMAP support */
+
+/* MWAIT C-state hints.  The names might not be right for different processors.
+ * For instance, the Linux idle driver for a Haswell calls the mwait for 0x10
+ * "C3-HSW". */
+#define X86_MWAIT_C1                   0x00
+#define X86_MWAIT_C2                   0x10
+#define X86_MWAIT_C3                   0x20
+#define X86_MWAIT_C4                   0x30
+#define X86_MWAIT_C5                   0x40
+#define X86_MWAIT_C6                   0x50
+
+/*
+ * x86-64 Task Priority Register, CR8
+ */
+#define X86_CR8_TPR    0x0000000F /* task priority register */
 
 #ifndef __ASSEMBLER__
+
 static inline uint8_t inb(int port) __attribute__((always_inline));
 static inline void insb(int port, void *addr, int cnt)
               __attribute__((always_inline));
@@ -106,6 +178,11 @@ static inline void lcr3(unsigned long val) __attribute__((always_inline));
 static inline unsigned long rcr3(void) __attribute__((always_inline));
 static inline void lcr4(unsigned long val) __attribute__((always_inline));
 static inline unsigned long rcr4(void) __attribute__((always_inline));
+
+static inline void lxcr0(uint64_t xcr0) __attribute__((always_inline));
+static inline int safe_lxcr0(uint64_t xcr0) __attribute__((always_inline));
+static inline uint64_t rxcr0(void) __attribute__((always_inline));
+
 static inline unsigned long read_flags(void) __attribute__((always_inline));
 static inline void write_eflags(unsigned long eflags)
               __attribute__((always_inline));
@@ -115,9 +192,15 @@ static inline unsigned long read_sp(void) __attribute__((always_inline));
 static inline void cpuid(uint32_t info1, uint32_t info2, uint32_t *eaxp,
                          uint32_t *ebxp, uint32_t *ecxp, uint32_t *edxp)
                                                               __attribute__((always_inline));
+static inline uint32_t cpuid_ecx(uint32_t op) __attribute__((always_inline));
 static inline uint64_t read_msr(uint32_t reg) __attribute__((always_inline));
 static inline void write_msr(uint32_t reg, uint64_t val)
               __attribute__((always_inline));
+/* if we have mm64s, change the hpet helpers */
+static inline void write_mmreg8(uintptr_t reg, uint8_t val)
+                                                       __attribute__((always_inline));
+static inline uint8_t read_mmreg8(uintptr_t reg)
+                                                       __attribute__((always_inline));
 static inline void write_mmreg32(uintptr_t reg, uint32_t val)
               __attribute__((always_inline));
 static inline uint32_t read_mmreg32(uintptr_t reg)
@@ -125,6 +208,12 @@ static inline uint32_t read_mmreg32(uintptr_t reg)
 static inline void wbinvd(void) __attribute__((always_inline));
 static inline void __cpu_relax(void) __attribute__((always_inline));
 
+void set_pstate(unsigned int pstate);
+void set_fastest_pstate(void);
+unsigned int get_pstate(void);
+void set_cstate(unsigned int cstate);
+unsigned int get_cstate(void);
+
 static inline uint8_t inb(int port)
 {
        uint8_t data;
@@ -236,6 +325,11 @@ static inline unsigned long rcr0(void)
        return val;
 }
 
+static inline void lcr2(unsigned long val)
+{
+       asm volatile("mov %0,%%cr2" : : "r" (val));
+}
+
 static inline unsigned long rcr2(void)
 {
        unsigned long val;
@@ -267,6 +361,49 @@ static inline unsigned long rcr4(void)
        return cr4;
 }
 
+static inline void lxcr0(uint64_t xcr0)
+{
+       uint32_t eax, edx;
+
+       edx = xcr0 >> 32;
+       eax = xcr0;
+       asm volatile("xsetbv"
+                    : /* No outputs */
+                    : "a"(eax), "c" (0), "d"(edx));
+}
+
+static inline int safe_lxcr0(uint64_t xcr0)
+{
+       int err = 0;
+       uint32_t eax, edx;
+
+       edx = xcr0 >> 32;
+       eax = xcr0;
+       asm volatile(ASM_STAC               ";"
+                        "1: xsetbv              ;"
+                    "2: " ASM_CLAC "        ;"
+                    ".section .fixup, \"ax\";"
+                    "3: mov %4, %0          ;"
+                    "   jmp 2b              ;"
+                    ".previous              ;"
+                    _ASM_EXTABLE(1b, 3b)
+                    : "=r" (err)
+                    : "a"(eax), "c" (0), "d"(edx),
+                      "i" (-EINVAL), "0" (err));
+
+       return err;
+}
+
+static inline uint64_t rxcr0(void)
+{
+       uint32_t eax, edx;
+
+       asm volatile("xgetbv"
+                    : "=a"(eax), "=d"(edx)
+                    : "c" (0));
+       return ((uint64_t)edx << 32) | eax;
+}
+
 static inline unsigned long read_flags(void)
 {
        unsigned long eflags;
@@ -305,7 +442,7 @@ static inline void cpuid(uint32_t info1, uint32_t info2, uint32_t *eaxp,
 {
        uint32_t eax, ebx, ecx, edx;
        /* Can select with both eax (info1) and ecx (info2) */
-       asm volatile("cpuid" 
+       asm volatile("cpuid"
                : "=a" (eax), "=b" (ebx), "=c" (ecx), "=d" (edx)
                : "a" (info1), "c" (info2));
        if (eaxp)
@@ -318,6 +455,13 @@ static inline void cpuid(uint32_t info1, uint32_t info2, uint32_t *eaxp,
                *edxp = edx;
 }
 
+static inline uint32_t cpuid_ecx(uint32_t op)
+{
+       uint32_t ecx;
+       cpuid(op, 0, NULL, NULL, &ecx, NULL);
+       return ecx;
+}
+
 // Might need to mfence rdmsr.  supposedly wrmsr serializes, but not for x2APIC
 static inline uint64_t read_msr(uint32_t reg)
 {
@@ -328,9 +472,17 @@ static inline uint64_t read_msr(uint32_t reg)
 
 static inline void write_msr(uint32_t reg, uint64_t val)
 {
-       asm volatile("wrmsr" : : "d"((uint32_t)(val >> 32)),
-                                "a"((uint32_t)(val & 0xFFFFFFFF)), 
-                                "c"(reg));
+       asm volatile("wrmsr" : : "d"(val >> 32), "a"(val & 0xFFFFFFFF), "c"(reg));
+}
+
+static inline void write_mmreg8(uintptr_t reg, uint8_t val)
+{
+       *((volatile uint8_t*)reg) = val;
+}
+
+static inline uint8_t read_mmreg8(uintptr_t reg)
+{
+       return *((volatile uint8_t*)reg);
 }
 
 static inline void write_mmreg32(uintptr_t reg, uint32_t val)
@@ -359,7 +511,5 @@ static inline void __cpu_relax(void)
 
 #ifndef UNUSED_ARG
 #define UNUSED_ARG(x) (void)x
-#endif /* This prevents compiler warnings for UNUSED_ARG */ 
+#endif /* This prevents compiler warnings for UNUSED_ARG */
 #endif /* !__ASSEMBLER__ */
-
-#endif /* !ROS_INC_X86_H */