Merge branch 'net-dev'. See body of commit for details.
[akaros.git] / kern / include / pmap.h
1 /* See COPYRIGHT for copyright information. */
2
3 #ifndef ROS_KERN_PMAP_H
4 #define ROS_KERN_PMAP_H
5
6 #include <ros/memlayout.h>
7 #include <ros/mman.h>
8 #include <sys/queue.h>
9 #include <multiboot.h>
10 #include <atomic.h>
11 #include <process.h>
12 #include <assert.h>
13 #include <page_alloc.h>
14 #include <multiboot.h>
15
16 /* This macro takes a kernel virtual address -- an address that points above
17  * KERNBASE, where the machine's maximum 256MB of physical memory is mapped --
18  * and returns the corresponding physical address.  It panics if you pass it a
19  * non-kernel virtual address.
20  */
21 #define PADDR(kva)                                              \
22 ({                                                              \
23         physaddr_t __m_kva = (physaddr_t) (kva);                \
24         if (__m_kva < KERNBASE)                                 \
25                 panic("PADDR called with invalid kva %08lx", __m_kva);\
26         __m_kva - KERNBASE;                                     \
27 })
28
29 /* This macro takes a physical address and returns the corresponding kernel
30  * virtual address.  It warns if you pass an invalid physical address. */
31 #define KADDR(pa)                                               \
32 ({                                                              \
33         physaddr_t __m_pa = (pa);                               \
34         size_t __m_ppn = PPN(__m_pa);                           \
35         if (__m_ppn >= npages)                                  \
36                 warn("KADDR called with invalid pa %08lx", __m_pa);\
37         (void*TRUSTED) (__m_pa + KERNBASE);                             \
38 })
39
40 extern char (SNT bootstacktop)[], (SNT bootstack)[];
41
42 // List of physical pages
43 extern volatile uint32_t pages_lock;
44 extern page_t SLOCKED(&pages_lock) * SREADONLY COUNT(npages) pages;
45
46 extern physaddr_t RO boot_cr3;
47 extern pde_t *COUNT(NPDENTRIES) boot_pgdir;
48
49 extern char*BND(end, maxaddrpa_ptr + IVY_KERNBASE) boot_freemem;
50
51 void    multiboot_detect_memory(multiboot_info_t *COUNT(1) mbi);
52 void    multiboot_print_memory_map(multiboot_info_t *COUNT(1) mbi);
53 bool    enable_pse(void);
54 void    vm_init(void);
55
56 void    page_init(void);
57 void    page_check(void);
58 int         page_insert(pde_t *COUNT(NPDENTRIES) pgdir, page_t *pp, void *SNT va, int perm);
59 void*COUNT(PGSIZE) page_insert_in_range(pde_t *COUNT(NPDENTRIES) pgdir, page_t *pp, 
60                              void *SNT vab, void *SNT vae, int perm);
61 void    page_remove(pde_t *COUNT(NPDENTRIES) pgdir, void *SNT va);
62 page_t*COUNT(1) page_lookup(pde_t SSOMELOCK*COUNT(NPDENTRIES) pgdir, void *SNT va, pte_t **pte_store);
63 error_t pagetable_remove(pde_t *COUNT(NPDENTRIES) pgdir, void *SNT va);
64 void    page_decref(page_t *COUNT(1) pp);
65
66 void setup_default_mtrrs(barrier_t* smp_barrier);
67 void    tlb_invalidate(pde_t *COUNT(NPDENTRIES) pgdir, void *SNT va);
68 void tlb_flush_global(void);
69
70 void * (DALLOC(len) user_mem_check) (env_t *env, const void *DANGEROUS va,
71                                      size_t len, int perm);
72
73 void * (DALLOC(len) user_mem_assert)(env_t *env, const void *DANGEROUS va,
74                                      size_t len, int perm);
75
76 size_t user_mem_strlcpy(env_t *env, char *NT COUNT(len - 1),
77                         const char *DANGEROUS va, size_t len, int perm);
78
79 error_t
80 memcpy_from_user(env_t* env, void* COUNT(len) dest,
81                  const void *DANGEROUS va, size_t len);
82                  
83 /* Arch specific implementations for these */
84 pte_t *pgdir_walk(pde_t *COUNT(NPDENTRIES) pgdir, const void *SNT va, int create);
85 int get_va_perms(pde_t *COUNT(NPDENTRIES) pgdir, const void *SNT va);
86 void *get_free_va_range(pde_t *pgdir, uintptr_t addr, size_t len);
87
88 static inline page_t *SAFE ppn2page(size_t ppn)
89 {
90         if( ppn >= npages )
91                 warn("ppn2page called with ppn (%08u) larger than npages", ppn);
92         return &(pages[ppn]);
93 }
94
95 static inline ppn_t page2ppn(page_t *pp)
96 {
97         return pp - pages;
98 }
99
100 static inline physaddr_t page2pa(page_t *pp)
101 {
102         return page2ppn(pp) << PGSHIFT;
103 }
104
105 static inline page_t*COUNT(1) pa2page(physaddr_t pa)
106 {
107         if (PPN(pa) >= npages)
108                 warn("pa2page called with pa (0x%08x) larger than npages", pa);
109         return &pages[PPN(pa)];
110 }
111
112 static inline void*COUNT(PGSIZE) page2kva(page_t *pp)
113 {
114         return KADDR(page2pa(pp));
115 }
116
117 static inline void*COUNT(PGSIZE) ppn2kva(size_t pp)
118 {
119         return page2kva(ppn2page(pp));
120 }
121
122 static inline page_t* kva2page(void* addr) 
123 {
124         return pa2page(PADDR(addr));
125 }
126
127 /*
128  * Memory management for processes: syscall related functions, virtual memory
129  * regions, etc.
130  */
131 void *mmap(struct proc *p, uintptr_t addr, size_t len, int prot, int flags, int fd, size_t offset);
132
133 /* Memory region for a process, consisting of linear(virtual) addresses.  This
134  * is what the kernel allocates a process, and the physical mapping can be done
135  * lazily (or not).  This way, if a page is swapped out, and the PTE says it
136  * isn't present, we still have a way to account for how the whole region ought
137  * to be dealt with. */
138 struct memregion {
139         LIST_ENTRY(memregion) link; // actually, i'd like a sorted tree of these
140         uintptr_t base;
141         size_t len;
142         int perm;
143 };
144 TAILQ_HEAD(memregion_list, memregion); // Declares 'struct memregion_list'
145
146 #endif /* !ROS_KERN_PMAP_H */