Check to make sure an ldt exists before loading it
[akaros.git] / kern / arch / i686 / env.c
1 /* See COPYRIGHT for copyright information. */
2 #ifdef __SHARC__
3 #pragma nosharc
4 #endif
5
6 #include <arch/trap.h>
7 #include <env.h>
8 #include <assert.h>
9 #include <pmap.h>
10
11 //
12 // This exits the kernel and starts executing some environment's code.
13 // This function does not return.
14 // Uses 'iret' or 'sysexit' depending on CS.
15 //
16 void env_pop_tf(trapframe_t *tf)
17 {
18         /* Bug with this whole idea (TODO: (TLSV))*/
19         /* Load the LDT for this process.  Slightly ghetto doing it here. */
20         /* copy-in and check the LDT location.  the segmentation hardware write the
21          * accessed bit, so we want the memory to be in the user-writeable area. */
22         segdesc_t *ldt = current->procdata->ldt;
23         ldt = (segdesc_t*)MIN((uintptr_t)ldt, UTOP - LDT_SIZE);
24         /* Only set up the ldt if a pointer to the ldt actually exists */
25         if(ldt != NULL) {
26                 segdesc_t *my_gdt = per_cpu_info[core_id()].gdt;
27                 segdesc_t ldt_temp = SEG_SYS(STS_LDT, (uint32_t)ldt, LDT_SIZE, 3);
28                 my_gdt[GD_LDT >> 3] = ldt_temp;
29                 asm volatile("lldt %%ax" :: "a"(GD_LDT));
30         }
31
32         /* In case they are enabled elsewhere.  We can't take an interrupt in these
33          * routines, due to how they play with the kernel stack pointer. */
34         disable_irq();
35         /*
36          * If the process entered the kernel via sysenter, we need to leave via
37          * sysexit.  sysenter trapframes have 0 for a CS, which is pushed in
38          * sysenter_handler.
39          */
40         if(tf->tf_cs) {
41                 /*
42                  * Restores the register values in the Trapframe with the 'iret'
43                  * instruction.  This exits the kernel and starts executing some
44                  * environment's code.  This function does not return.
45                  */
46                 asm volatile ("movl %0,%%esp;           "
47                               "popal;                   "
48                               "popl %%gs;               "
49                               "popl %%fs;               "
50                               "popl %%es;               "
51                               "popl %%ds;               "
52                               "addl $0x8,%%esp;         "
53                               "iret                     "
54                               : : "g" (tf) : "memory");
55                 panic("iret failed");  /* mostly to placate the compiler */
56         } else {
57                 /* Return path of sysexit.  See sysenter_handler's asm for details.
58                  * One difference is that this tf could be somewhere other than a stack
59                  * (like in a struct proc).  We need to make sure esp is valid once
60                  * interrupts are turned on (which would happen on popfl normally), so
61                  * we need to save and restore a decent esp (the current one).  We need
62                  * a place to save it that is accessible after we change the stack
63                  * pointer to the tf *and* that is specific to this core/instance of
64                  * sysexit.  The simplest and nicest is to use the tf_esp, which we
65                  * can just pop.  Incidentally, the value in oesp would work too.
66                  * To prevent popfl from turning interrupts on, we hack the tf's eflags
67                  * so that we have a chance to change esp to a good value before
68                  * interrupts are enabled.  The other option would be to throw away the
69                  * eflags, but that's less desirable. */
70                 tf->tf_eflags &= !FL_IF;
71                 tf->tf_esp = read_esp();
72                 asm volatile ("movl %0,%%esp;           "
73                               "popal;                   "
74                               "popl %%gs;               "
75                               "popl %%fs;               "
76                               "popl %%es;               "
77                               "popl %%ds;               "
78                               "addl $0x10,%%esp;        "
79                               "popfl;                   "
80                               "movl %%ebp,%%ecx;        "
81                               "popl %%esp;              "
82                               "sti;                     "
83                               "sysexit                  "
84                               : : "g" (tf) : "memory");
85                 panic("sysexit failed");  /* mostly to placate your mom */
86         }
87 }
88
89 /* Walks len bytes from start, executing 'callback' on every PTE, passing it a
90  * specific VA and whatever arg is passed in.  Note, this cannot handle jumbo
91  * pages. */
92 int env_user_mem_walk(env_t* e, void* start, size_t len,
93                       mem_walk_callback_t callback, void* arg)
94 {
95         pte_t *pt;
96         uint32_t pdeno, pteno;
97         physaddr_t pa;
98
99         assert((uintptr_t)start % PGSIZE == 0 && len % PGSIZE == 0);
100         void* end = (char*)start+len;
101         uint32_t pdeno_start = PDX(start);
102         uint32_t pdeno_end = PDX(ROUNDUP(end,PTSIZE));
103         /* concerned about overflow.  this should catch it for now, given the above
104          * assert. */
105         assert((len == 0) || (pdeno_start < pdeno_end));
106
107         for (pdeno = pdeno_start; pdeno < pdeno_end; pdeno++) {
108                 if (!(e->env_pgdir[pdeno] & PTE_P))
109                         continue;
110                 /* find the pa and a pointer to the page table */
111                 pa = PTE_ADDR(e->env_pgdir[pdeno]);
112                 pt = (pte_t*COUNT(NPTENTRIES)) KADDR(pa);
113                 /* figure out where we start and end within the page table */
114                 uint32_t pteno_start = (pdeno == pdeno_start ? PTX(start) : 0);
115                 uint32_t pteno_end = (pdeno == pdeno_end - 1 && PTX(end) != 0 ?
116                                       PTX(end) : NPTENTRIES );
117                 int ret;
118                 for (pteno = pteno_start; pteno < pteno_end; pteno++) {
119                         if (!PAGE_UNMAPPED(pt[pteno]))
120                                 if((ret = callback(e, &pt[pteno], PGADDR(pdeno, pteno, 0), arg)))
121                                         return ret;
122                 }
123         }
124         return 0;
125 }
126
127 /* Frees (decrefs) all pages of the process's page table, including the page
128  * directory.  Does not free the memory that is actually mapped. */
129 void env_pagetable_free(env_t* e)
130 {
131         static_assert(UVPT % PTSIZE == 0);
132         assert(e->env_cr3 != rcr3());
133         for(uint32_t pdeno = 0; pdeno < PDX(UVPT); pdeno++)
134         {
135                 // only look at mapped page tables
136                 if (!(e->env_pgdir[pdeno] & PTE_P))
137                         continue;
138
139                 // find the pa and va of the page table
140                 physaddr_t pa = PTE_ADDR(e->env_pgdir[pdeno]);
141
142                 // free the page table itself
143                 e->env_pgdir[pdeno] = 0;
144                 page_decref(pa2page(pa));
145         }
146
147         // free the page directory
148         physaddr_t pa = e->env_cr3;
149         e->env_cr3 = 0;
150         page_decref(pa2page(pa));
151         tlbflush();
152 }
153