Change all references of num_cpus -> num_cores
[akaros.git] / kern / arch / x86 / ros / mmu64.h
1 #ifndef ROS_INC_ARCH_MMU64_H
2 #define ROS_INC_ARCH_MMU64_H
3
4 #ifndef ROS_INC_ARCH_MMU_H
5 #error "Do not include include ros/arch/mmu64.h directly"
6 #endif
7
8 #ifndef __ASSEMBLER__
9 #include <ros/common.h>
10 typedef unsigned long kpte_t;
11 typedef unsigned long epte_t;
12
13 typedef kpte_t* pte_t;
14
15 typedef struct x86_pgdir {
16         kpte_t  *kpte;
17         uint64_t eptp;
18 } pgdir_t;
19 #endif
20
21 /* Virtual memory map:                                  Virt Addresses
22  *                                                      perms: kernel/user
23  *
24  *                     +------------------------------+ 0xffffffffffffffff -+
25  *                     |                              |                     |
26  *                     |   Mapped to lowmem, unused   | RW/--               |
27  *                     |                              |                     |
28  *  "end" symbol  -->  +------------------------------+        PML3_PTE_REACH
29  *                     |                              |                     |
30  *                     |  Kernel link/load location   |                     |
31  *                     |    (mapped to 0, physical)   |                     |
32  *                     |                              |                     |
33  * KERN_LOAD_ADDR -->  +------------------------------+ 0xffffffffc0000000 -+
34  *                     |                              |
35  *                     |          Local APIC          | RW/--  APIC_SIZE (1MB)
36  *                     |                              |
37  *    LAPIC_BASE  -->  +------------------------------+ 0xffffffffbff00000
38  *                     |                              |
39  *                     |            IOAPIC            | RW/--  APIC_SIZE (1MB)
40  *                     |                              |
41  *  IOAPIC_BASE,  -->  +------------------------------+ 0xffffffffbfe00000
42  *  KERN_DYN_TOP       |   Kernel Dynamic Mappings    |
43  *                     |              .               |
44  *                     :              .               :
45  *                     ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ RW/--
46  *                     :                              :
47  *                     |          Unmapped            | --/--
48  *                     |                              |
49  *                     |  Kernel static linking limit |
50  *                     +------------------------------+ 0xffffffff80000000
51  *                     |                              |
52  *                     |                              |
53  *                     |                              |
54  *  VPT_TOP    ----->  +------------------------------+ 0xffffff0000000000 -+
55  *                     |                              |                     |
56  *                     |                              |                     |
57  *                     |  Cur. Page Table (Kern. RW)  | RW/--  P4ML_PTE_REACH
58  *                     |                              |                     |
59  *                     |                              |                     |
60  *    VPT,     ----->  +------------------------------+ 0xfffffe8000000000 -+
61  *  KERN_VMAP_TOP      |                              |
62  *                     :              .               :
63  *                     :              .               :
64  *                     :              .               :
65  *                     |~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~| RW/--
66  *                     |                              | RW/--
67  *                     |                              | RW/--
68  *                     |                              | RW/--
69  *                     |   Remapped Physical Memory   | RW/--
70  *                     |                              | RW/--
71  *                     |                              | RW/--
72  *                     |                              | RW/--
73  *    KERNBASE  ---->  +------------------------------+ 0xffff800000000000
74  *                     |                              |
75  *                     |                              |
76  *                     |                              |
77  *                     |   Non-canonical addresses    |
78  *                     |         (unusable)           |
79  *                     |                              |
80  *                     |                              |
81  * ULIM (not canon) -> +------------------------------+ 0x0000800000000000 -+
82  *                     +     Highest user address     + 0x00007fffffffffff  |
83  *                     |                              |                     |
84  *                     |  Cur. Page Table (User R-)   | R-/R-  PML4_PTE_REACH
85  *                     |                              |                     |
86  *    UVPT      ---->  +------------------------------+ 0x00007f8000000000 -+
87  *                     | Unmapped (expandable region) |                     |
88  *                     |~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~|                     |
89  *                     |     Per-Process R/O Info     | R-/R-  PML2_PTE_REACH
90  *                     |         (procinfo)           |                     |
91  * UWLIM, UINFO ---->  +------------------------------+ 0x00007f7fffe00000 -+
92  *                     | Unmapped (expandable region) |                     |
93  *                     |~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~|                     |
94  *                     |     Per-Process R/W Data     | RW/RW  PML2_PTE_REACH
95  *                     |         (procdata)           |                     |
96  *    UDATA     ---->  +------------------------------+ 0x00007f7fffc00000 -+
97  *                     |                              |
98  *                     |    Global Shared R/W Data    | RW/RW  PGSIZE
99  *                     |                              |
100  * UMAPTOP, UGDATA ->  +------------------------------+ 0x00007f7fffbff000
101  *    USTACKTOP        |                              |
102  *                     |      Normal User Stack       | RW/RW 256 * PGSIZE
103  *                     |                              |
104  *                     +------------------------------+ 0x00007f7fffaff000
105  *                     |                              |
106  *                     |        Empty Memory          |
107  *                     |                              |
108  *                     .                              .
109  *                     .                              .
110  *    BRK_END   ---->  +------------------------------+ 0x0000400000000000
111  *                     .                              .
112  *                     .                              .
113  *                     |                              |
114  *                     |        Empty Memory          |
115  *                     |                              |
116  *                     |~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~|
117  *                     |                              |
118  *                     |     Program Data & Heap      |
119  *                     |                              |
120  *                     +------------------------------+ 0x0000000000400000
121  *                     .                              .
122  *                     .                              .
123  *                     |~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~|
124  *                     |                              |
125  *                     |       ld.so (Dynamic)        |
126  *                     |                              |
127  * MMAP_LOWEST_VA      +------------------------------+ 0x0000000000100000
128  *                     |                              |
129  *                     |       Empty Memory (*)       |
130  *                     |                              |
131  *                     +------------------------------+ 0x0000000000000000
132  */
133
134 /* Physical Mapping symbols:
135  * At IOPHYSMEM (640K) there is a 384K hole for I/O.  From the kernel,
136  * IOPHYSMEM can be addressed at KERNBASE + IOPHYSMEM.  The hole ends
137  * at physical address EXTPHYSMEM. */
138 #define IOPHYSMEM               0x0A0000
139 #define VGAPHYSMEM              0x0A0000
140 #define DEVPHYSMEM              0x0C0000
141 #define BIOSPHYSMEM             0x0F0000
142 #define EXTPHYSMEM              0x100000
143
144 /* Kernel Virtual Memory Mapping */
145
146 /* The kernel needs to be loaded in the top 2 GB of memory, since we compile it
147  * with -mcmodel=kernel (helps with relocations).  We're actually loading it in
148  * the top 1 GB. */
149 #define KERN_LOAD_ADDR  0xffffffffc0000000
150 /* Static kernel mappings */
151 #define APIC_SIZE               0x100000
152 #define LAPIC_BASE              (KERN_LOAD_ADDR - APIC_SIZE)
153 #define IOAPIC_BASE             (LAPIC_BASE - APIC_SIZE)
154 /* All arches must define this, which is the lower limit of their static
155  * mappings, and where the dynamic mappings will start. */
156 #define KERN_DYN_TOP    IOAPIC_BASE
157
158 /* Virtual page table.  Every PML4 has a PTE at the slot (PML4(VPT))
159  * corresponding to VPT that points to that PML4's base.  In essence, the 512
160  * GB chunk of the VA space from VPT..VPT_TOP is a window into the paging
161  * structure.
162  *
163  * The VPT needs to be aligned on 39 bits.
164  *
165  * Ex: Say the VPT's entry in 9 bits is "9v".  If you construct a VA from:
166  * 9v9v9v9v000, the paging hardware will recurse 4 times, with the end result
167  * being the PML4.  That virtual address will map to the PML4 itself.
168  *
169  * If you want to see a specific PML3, figure out which entry it is in the
170  * PML4 (using PML3(va)), say 9 bits = "9X".  The VA 9v9v9v9X000 will map to
171  * that PML3. */
172 #define VPT_TOP                 0xffffff0000000000
173 #define VPT                             (VPT_TOP - PML4_PTE_REACH)
174 /* Helper to return the current outer pgdir via the VPT mapping. */
175 #define VPD (VPT + ((VPT & 0x0000ffffffffffff) >> 9) +                         \
176                    ((VPT & 0x0000ffffffffffff) >> 18) +                        \
177                    ((VPT & 0x0000ffffffffffff) >> 27))
178 #define vpd VPD
179
180 /* Top of the kernel virtual mapping area (KERNBASE) */
181 #define KERN_VMAP_TOP   (VPT)
182 /* Base of the physical memory map. This maps from 0 physical to max_paddr */
183 #define KERNBASE        0xffff800000000000
184
185 /* Highest user address: 0x00007fffffffffff: 1 zero, 47 ones, sign extended.
186  * From here down to UWLIM is User Read-only */
187 #define ULIM            0x0000800000000000
188 /* Same as VPT but read-only for users */
189 #define UVPT                    (ULIM - PML4_PTE_REACH)
190 /* Arbitrary boundary between the break and the start of
191  * memory returned by calls to mmap with addr = 0 */
192 #define BRK_END                 0x0000400000000000
193
194 /* **************************************** */
195 /* Page table constants, macros, etc */
196
197 /* A linear address 'la' has a five-part structure as follows:
198  *
199  * +-----9------+-----9------+-----9------+-----9------+---------12----------+
200  * | PML4 bits  | PML3 bits  | PML2 bits  | PML1 bits  |     Page offset     |
201  * |   offset   |   offset   |   offset   |   offset   |                     |
202  * +------------+------------+------------+------------+---------------------+
203  *  \ PML4(la) / \ PML3(la) / \ PML2(la) / \ PML1(la) / \---- PGOFF(la) ----/
204  *  \------------------ LA2PPN(la) -------------------/
205  *
206  * The PMLx, PGOFF, and LA2PPN macros decompose linear addresses as shown.
207  * To construct a linear address la from these, use:
208  * PGADDR(PML4(la), PML3(la), PML2(la), PML1(la), PGOFF(la)).
209  * Careful, that's arch- and bit-specific.
210  *
211  * I'd somewhat like it if we started counting from the outer-most PT, though
212  * amd coined the term PML4 for the outermost, instead of PML1.  Incidentally,
213  * they also don't use numbers other than PML4, sticking with names like PDP. */
214
215 #define PML4_SHIFT              39
216 #define PML3_SHIFT              30
217 #define PML2_SHIFT              21
218 #define PML1_SHIFT              12
219 #define BITS_PER_PML    9
220
221 /* PTE reach is the amount of VM an entry can map, either as a jumbo or as
222  * further page tables.  I'd like to write these as shifts, but I can't please
223  * both the compiler and the assembler. */
224 #define PML4_PTE_REACH  (0x0000008000000000)    /* No jumbos available */
225 #define PML3_PTE_REACH  (0x0000000040000000)    /* 1 GB jumbos available */
226 #define PML2_PTE_REACH  (0x0000000000200000)    /* 2 MB jumbos available */
227 #define PML1_PTE_REACH  (0x0000000000001000)    /* aka, PGSIZE */
228
229 /* Reach is the amount of VM a table can map, counting all of its entries.
230  * Note that a PML(n)_PTE is a PML(n-1) table. */
231 #define PML3_REACH              (PML4_PTE_REACH)
232 #define PML2_REACH              (PML3_PTE_REACH)
233 #define PML1_REACH              (PML2_PTE_REACH)
234
235 /* PMLx(la, shift) gives the 9 bits specifying the la's entry in the PML
236  * corresponding to shift.  PMLn(la) gives the 9 bits for PML4, etc. */
237 #define PMLx(la, shift) (((uintptr_t)(la) >> (shift)) & 0x1ff)
238 #define PML4(la)                PMLx(la, PML4_SHIFT)
239 #define PML3(la)                PMLx(la, PML3_SHIFT)
240 #define PML2(la)                PMLx(la, PML2_SHIFT)
241 #define PML1(la)                PMLx(la, PML1_SHIFT)
242
243 /* Common kernel helpers */
244 #define PGSHIFT                 PML1_SHIFT
245 #define PGSIZE                  PML1_PTE_REACH
246 #define LA2PPN(la)              ((uintptr_t)(la) >> PGSHIFT)
247 #define PTE2PPN(pte)    LA2PPN(pte)
248 #define PGOFF(la)               ((uintptr_t)(la) & (PGSIZE - 1))
249
250 /* construct PTE from PPN and flags */
251 #define PTE(ppn, flags) ((ppn) << PGSHIFT | PGOFF(flags))
252
253 /* construct linear address from indexes and offset */
254 #define PGADDR(p4, p3, p2, p1, o) ((void*)(((p4) << PML4_SHIFT) |              \
255                                            ((p3) << PML3_SHIFT) |              \
256                                            ((p2) << PML2_SHIFT) |              \
257                                            ((p1) << PML1_SHIFT) |(o)))
258
259 /* This is used in places (procinfo) meaning "size of smallest jumbo page" */
260 #define PTSIZE PML2_PTE_REACH
261
262
263 /* TODO: not sure if we'll need these - limited to 64bit code */
264 /* this only gives us the L1 PML */
265 #define PTX(la)         ((((uintptr_t) (la)) >> 12) & 0x1ff)
266 #define JPGOFF(la)      (((uintptr_t) (la)) & 0x001FFFFF)
267 #define NPTENTRIES              512
268 #define JPGSIZE PTSIZE
269
270 /* Page table/directory entry flags. */
271
272 /* Some things to be careful of:  Global and PAT only apply to the last PTE in
273  * a chain: so either a PTE in PML1, or a Jumbo PTE in PML2 or 3.  When PAT
274  * applies, which bit we use depends on whether we are jumbo or not.  For PML1,
275  * PAT is bit 8.  For jumbo PTEs (and only when they are for a jumbo page), we
276  * use bit 12. */
277 #define PTE_P                   0x001   /* Present */
278 #define PTE_W                   0x002   /* Writeable */
279 #define PTE_U                   0x004   /* User */
280 #define PTE_PWT                 0x008   /* Write-Through */
281 #define PTE_PCD                 0x010   /* Cache-Disable */
282 #define PTE_A                   0x020   /* Accessed */
283 #define PTE_D                   0x040   /* Dirty */
284 #define PTE_PS                  0x080   /* Page Size */
285 #define PTE_PAT                 0x080   /* Page attribute table */
286 #define PTE_G                   0x100   /* Global Page */
287 #define PTE_JPAT                0x800   /* Jumbo PAT */
288 #define PTE_NOCACHE             (PTE_PWT | PTE_PCD)
289
290 /* Permissions fields and common access modes.  These should be read as 'just
291  * kernel or user too' and 'RO or RW'.  USER_RO means read-only for everyone. */
292 #define PTE_PERM                (PTE_W | PTE_U | PTE_P)
293 #define PTE_KERN_RW             (PTE_W | PTE_P)
294 #define PTE_KERN_RO             PTE_P
295 #define PTE_USER_RW             (PTE_W | PTE_U | PTE_P)
296 #define PTE_USER_RO             (PTE_U | PTE_P)
297 #define PTE_NONE                0
298
299 /* The PTE/translation part of a PTE/virtual(linear) address.  It's used
300  * frequently to be the page address of a virtual address.  Note this doesn't
301  * work on jumbo PTEs due to the reserved bits.  Jumbo's don't have a PTE_ADDR
302  * in them - just a base address of wherever they point. */
303 #define PTE_ADDR(pte)   ((physaddr_t) (pte) & ~(PGSIZE - 1))
304 /* More meaningful macro, same as PTE_ADDR */
305 #define PG_ADDR(la)     ((uintptr_t)(la) & ~(PGSIZE - 1))
306
307 /* we must guarantee that for any PTE, exactly one of the following is true */
308 #define PAGE_PRESENT(pte) ((pte) & PTE_P)
309 #define PAGE_UNMAPPED(pte) ((pte) == 0)
310 #define PAGE_PAGED_OUT(pte) (0) /* Need to use an OS reserved PTE bit */
311
312
313 /* **************************************** */
314 /* Segmentation */
315
316 /* Global descriptor numbers */
317 #define GD_NULL                 0x00    /* NULL descriptor */
318 #define GD_KT                   0x08    /* kernel text */
319 #define GD_KD                   0x10    /* kernel data */
320 /* syscall/sysret wants UD before UT, but KT before KD.  it really wants UT32,
321  * UD, UT64.  anyways... */
322 #define GD_UD                   0x18    /* user data */
323 #define GD_UT                   0x20    /* user text */
324 #define GD_TSS                  0x28    /* Task segment selector */
325 #define GD_TSS2                 0x30    /* Placeholder, TSS is 2-descriptors wide */
326 /* These two aren't in the GDT yet (might never be) */
327 #define GD_LDT                  0x38    /* Local descriptor table */
328 #define GD_LDT2                 0x40    /* Placeholder */
329
330 #ifdef __ASSEMBLER__
331
332 /* Macros to build GDT entries in assembly. */
333 #define SEG_NULL                                                \
334         .word 0, 0;                                             \
335         .byte 0, 0, 0, 0
336
337 /* 64 bit code segment.  This is for long mode, no compatibility.  If we want
338  * to support 32 bit apps later, we'll want to adjust this. */
339 #define SEG_CODE_64(dpl)                                                    \
340         .word 0, 0;                                                             \
341         .byte 0;                                                                \
342         .byte (((1/*p*/) << 7) | ((dpl) << 5) | 0x18 | ((0/*c*/) << 2));        \
343         .byte (((0/*d*/) << 6) | ((1/*l*/) << 5));                              \
344         .byte 0;
345
346 /* 64 bit data segment.  These are pretty much completely ignored (except if we
347  * use them for fs/gs, or compatibility mode */
348 #define SEG_DATA_64(dpl)                                                    \
349         .word 0xffff, 0;                                                        \
350         .byte 0;                                                                \
351         .byte (0x92 | ((dpl) << 5));                                            \
352         .byte 0x8f;                                                             \
353         .byte 0;
354
355 /* System segments (TSS/LDT) are twice as long as usual (16 bytes). */
356 #define SEG_SYS_64(type, base, lim, dpl)                                       \
357         .word ((lim) & 0xffff);                                                    \
358         .word ((base) & 0xffff);                                                   \
359         .byte (((base) >> 16) & 0xff);                                             \
360         .byte ((1 << 7) | ((dpl) << 5) | (type));                                  \
361         .byte (((1/*g*/) << 7) | (((lim) >> 16) & 0xf));                           \
362         .byte (((base) >> 24) & 0xff);                                             \
363         .quad ((base) >> 32);                                                      \
364         .quad 0;
365
366 /* Default segment (32 bit style).  Would work for fs/gs, if needed */
367 #define SEG(type, base, lim)                                                \
368         .word (((lim) >> 12) & 0xffff);                                         \
369         .word ((base) & 0xffff);                                                \
370         .byte (((base) >> 16) & 0xff);                                          \
371         .byte (0x90 | (type));                                                  \
372         .byte (0xC0 | (((lim) >> 28) & 0xf));                                   \
373         .byte (((base) >> 24) & 0xff)
374
375 #else   // not __ASSEMBLER__
376
377 /* Legacy Segment Descriptor (used for 64 bit data and code) */
378 typedef struct Segdesc {
379         unsigned sd_lim_15_0 : 16;  // Low bits of segment limit
380         unsigned sd_base_15_0 : 16; // Low bits of segment base address
381         unsigned sd_base_23_16 : 8; // Middle bits of segment base address
382         unsigned sd_type : 4;       // Segment type (see STS_ constants)
383         unsigned sd_s : 1;          // 0 = system, 1 = application
384         unsigned sd_dpl : 2;        // Descriptor Privilege Level
385         unsigned sd_p : 1;          // Present
386         unsigned sd_lim_19_16 : 4;  // High bits of segment limit
387         unsigned sd_avl : 1;        // Unused (available for software use)
388         unsigned sd_rsv1 : 1;       // Reserved
389         unsigned sd_db : 1;         // 0 = 16-bit segment, 1 = 32-bit segment
390         unsigned sd_g : 1;          // Granularity: limit scaled by 4K when set
391         unsigned sd_base_31_24 : 8; // High bits of segment base address
392 } segdesc_t;
393
394 /* Lower half is similar (more ignored, etc)  to a legacy system descriptor */
395 struct x86_sysseg64 {
396         unsigned sd_lim_15_0 : 16;      /* Low bits of segment limit */
397         unsigned sd_base_15_0 : 16;     /* Low bits of segment base address */
398         unsigned sd_base_23_16 : 8;     /* Middle bits of segment base address */
399         unsigned sd_type : 4;           /* Segment type (see STS_ constants) */
400         unsigned sd_s : 1;                      /* 0 = system, 1 = application */
401         unsigned sd_dpl : 2;            /* Descriptor Privilege Level */
402         unsigned sd_p : 1;                      /* Present */
403         unsigned sd_lim_19_16 : 4;      /* High bits of segment limit */
404         unsigned sd_avl : 1;            /* Unused (available for software use) */
405         unsigned sd_rsv2 : 2;           /* Reserved */
406         unsigned sd_g : 1;                      /* Granularity: limit scaled by 4K when set */
407         unsigned sd_base_31_24 : 8;     /* 24-31 bits of segment base address */
408         unsigned sd_base_63_32;         /* top 32 bits of the base */
409         unsigned sd_reserved;           /* some parts must be zero, just zero it all */
410 };
411 typedef struct x86_sysseg64 syssegdesc_t;
412
413 /* G(ranularity) determines if the limit is shifted */
414 #define __SEG_SYS64(type, base, lim, dpl, g)                                   \
415 { ((lim) >> ((g) * 12)) & 0xffff, (base) & 0xffff, ((base) >> 16) & 0xff,      \
416     type, 0, dpl, 1, (unsigned) (lim) >> 28, 0, 0, (g),                        \
417     ((unsigned) (base) >> 24) & 0xff,                                          \
418     ((unsigned long) (base) >> 32), 0 }
419
420 /* Normal system segment descriptor (LDT or TSS). (limit is scaled by 4k) */
421 #define SEG_SYS64(type, base, lim, dpl)                                        \
422         __SEG_SYS64(type, base, lim, dpl, 1)
423
424 /* Smaller system segment descriptor (LDT or TSS). */
425 #define SEG_SYS64_SMALL(type, base, lim, dpl)                                  \
426         __SEG_SYS64(type, base, lim, dpl, 0)
427
428 #define SEG_SYS_SMALL(type, base, lim, dpl) \
429         SEG_SYS64_SMALL(type, base, lim, dpl)
430
431 /* 64 bit task state segment (AMD 2:12.2.5) */
432 typedef struct taskstate {
433         uint32_t                                        ts_rsv1;        /* reserved / ignored */
434         uint64_t                                        ts_rsp0;        /* stack ptr in ring 0 */
435         uint64_t                                        ts_rsp1;        /* stack ptr in ring 1 */
436         uint64_t                                        ts_rsp2;        /* stack ptr in ring 2 */
437         uint64_t                                        ts_rsv2;        /* reserved / ignored */
438         uint64_t                                        ts_ist1;        /* IST stacks: unconditional rsp */
439         uint64_t                                        ts_ist2;        /* check AMD 2:8.9.4 for info */
440         uint64_t                                        ts_ist3;
441         uint64_t                                        ts_ist4;
442         uint64_t                                        ts_ist5;
443         uint64_t                                        ts_ist6;
444         uint64_t                                        ts_ist7;
445         uint64_t                                        ts_rsv3;        /* reserved / ignored */
446         uint16_t                                        ts_rsv4;        /* reserved / ignored */
447         uint16_t                                        ts_iobm;        /* IO base map (offset) */
448 } __attribute__((packed)) taskstate_t;
449
450 /* 64 bit gate descriptors for interrupts and traps */
451 typedef struct Gatedesc {
452         unsigned gd_off_15_0 : 16;      /* low 16 bits of offset in segment */
453         unsigned gd_ss : 16;            /* segment selector */
454         unsigned gd_ist : 3;            /* interrupt stack table selector (0 = none) */
455         unsigned gd_rsv1 : 5;           /* ignored */
456         unsigned gd_type : 4;           /* type(STS_{TG,IG32,TG32}) */
457         unsigned gd_s : 1;                      /* must be 0 (system) */
458         unsigned gd_dpl : 2;            /* DPL - highest ring allowed to use this */
459         unsigned gd_p : 1;                      /* Present */
460         unsigned gd_off_31_16 : 16;     /* 16-31 bits of offset in segment */
461         unsigned gd_off_63_32;          /* top 32 bits of offset */
462         unsigned gd_rsv2;                       /* reserved / unsused */
463 } gatedesc_t;
464
465 /* Set up an IST-capable 64 bit interrupt/trap gate descriptor.  IST selects a
466  * stack pointer from the interrupt-stack table (in TSS) that will be loaded
467  * unconditionally when we hit this gate  - regardless of privelege change. */
468 #define SETGATE64(gate, istrap, sel, off, dpl, ist)                            \
469 {                                                                              \
470         (gate).gd_off_15_0 = (uintptr_t) (off) & 0xffff;                           \
471         (gate).gd_ss = (sel);                                                      \
472         (gate).gd_ist = (ist);                                                     \
473         (gate).gd_rsv1 = 0;                                                        \
474         (gate).gd_type = (istrap) ? STS_TG32 : STS_IG32;                           \
475         (gate).gd_s = 0;                                                           \
476         (gate).gd_dpl = (dpl);                                                     \
477         (gate).gd_p = 1;                                                           \
478         (gate).gd_off_31_16 = (uintptr_t) (off) >> 16;                             \
479         (gate).gd_off_63_32 = (uintptr_t) (off) >> 32;                             \
480         (gate).gd_rsv2 = 0;                                                        \
481 }
482
483 /* Set up a normal, 64 bit interrupt/trap gate descriptor.
484  * - istrap: 1 for a trap (= exception) gate, 0 for an interrupt gate.
485  *   - interrupt gates automatically disable interrupts (cli)
486  * - sel: Code segment selector for interrupt/trap handler
487  * - off: Offset in code segment for interrupt/trap handler (address)
488  * - dpl: Descriptor Privilege Level -
489  *        the privilege level required for software to invoke
490  *        this interrupt/trap gate explicitly using an int instruction. */
491 #define SETGATE(gate, istrap, sel, off, dpl)                                   \
492         SETGATE64(gate, istrap, sel, off, dpl, 0)
493
494 // Pseudo-descriptors used for LGDT, LLDT and LIDT instructions.
495 typedef struct Pseudodesc {
496         uint16_t pd_lim;                // Limit
497         uintptr_t pd_base;              // Base address
498 } __attribute__ ((packed)) pseudodesc_t;
499
500 #endif /* !__ASSEMBLER__ */
501
502 // Application segment type bits
503 #define STA_X           0x8         // Executable segment
504 #define STA_E           0x4         // Expand down (non-executable segments)
505 #define STA_C           0x4         // Conforming code segment (executable only)
506 #define STA_W           0x2         // Writeable (non-executable segments)
507 #define STA_R           0x2         // Readable (executable segments)
508 #define STA_A           0x1         // Accessed
509
510 /* System segment type bits.  All other types are reserved/illegal.  The '32' is
511  * mostly a legacy naming - the bits work for both 64 and 32. */
512 #define STS_LDT         0x2             /* 64-bit Local Descriptor Table  */
513 #define STS_T32A        0x9             /* Available 64-bit TSS */
514 #define STS_T32B        0xB             /* Busy 64-bit TSS */
515 #define STS_CG32        0xC             /* 64-bit Call Gate */
516 #define STS_IG32        0xE             /* 64-bit Interrupt Gate */
517 #define STS_TG32        0xF             /* 64-bit Trap Gate */
518
519 #define SEG_COUNT       7               /* Number of GDT segments */
520 /* TODO: Probably won't use this */
521 #define LDT_SIZE        (8192 * sizeof(segdesc_t))
522
523 /* TLS 'syscall', coupled to trapentry64.S.  Needed a non-canon 'addr' */
524 #define FASTCALL_SETFSBASE 0xf0f0000000000001
525
526 #endif /* ROS_INC_ARCH_MMU64_H */