610de7e3e3b972f14c019e1b2ee6a61f58cad16d
[akaros.git] / kern / arch / i386 / page_alloc.c
1 /* Copyright (c) 2009 The Regents of the University  of California. 
2  * See the COPYRIGHT files at the top of this source tree for full 
3  * license information.
4  * 
5  * Kevin Klues <klueska@cs.berkeley.edu>    
6  */
7  
8 #ifdef __DEPUTY__
9 #pragma nodeputy
10 #endif
11
12 #include <sys/queue.h>
13 #include <page_alloc.h>
14 #include <pmap.h>
15 #include <kmalloc.h>
16
17 page_list_t page_free_list;    // Free list of physical pages
18 DECLARE_CACHE_COLORED_PAGE_FREE_LISTS(); // Free list of pages filed by color
19
20 /*
21  * Initialize the memory free lists.
22  * After this point, ONLY use the functions below
23  * to allocate and deallocate physical memory via the 
24  * page_free_lists. 
25  */
26 void page_alloc_init() 
27 {
28         // Now, initialize the lists required to manage the page free lists
29         LIST_INIT(&page_free_list);
30         INIT_CACHE_COLORED_PAGE_FREE_LISTS();
31         
32         //  Finally, mark the pages already in use by the kernel. 
33         //  1) Mark page 0 as in use.
34         //     This way we preserve the real-mode IDT and BIOS structures
35         //     in case we ever need them.  (Currently we don't, but...)
36         //  2) Mark the rest of base memory as free.
37         //  3) Then comes the IO hole [IOPHYSMEM, EXTPHYSMEM).
38         //     Mark it as in use so that it can never be allocated.      
39         //  4) Then extended memory [EXTPHYSMEM, ...).
40         //     Some of it is in use, some is free.
41         int i;
42         physaddr_t physaddr_after_kernel = PADDR(ROUNDUP(boot_freemem, PGSIZE));
43
44         pages[0].page_ref = 1;
45         // alloc the second page, since we will need it later to init the other cores
46         // probably need to be smarter about what page we use (make this dynamic) TODO
47         pages[1].page_ref = 1;
48         for (i = 2; i < PPN(IOPHYSMEM); i++) {
49                 pages[i].page_ref = 0;
50                 LIST_INSERT_HEAD(&page_free_list, &pages[i], global_link);
51                 INSERT_CACHE_COLORING_PAGE_ONTO_FREE_LISTS(&pages[i]);
52         }
53         for (i = PPN(IOPHYSMEM); i < PPN(EXTPHYSMEM); i++) {
54                 pages[i].page_ref = 1;
55         }
56         for (i = PPN(EXTPHYSMEM); i < PPN(physaddr_after_kernel); i++) {
57                 pages[i].page_ref = 1;
58         }
59         for (i = PPN(physaddr_after_kernel); i < PPN(maxaddrpa); i++) {
60                 pages[i].page_ref = 0;
61                 LIST_INSERT_HEAD(&page_free_list, &pages[i], global_link);
62                 INSERT_CACHE_COLORING_PAGE_ONTO_FREE_LISTS(&pages[i]);
63         }
64         // this block out all memory above maxaddrpa.  will need another mechanism
65         // to allocate and map these into the kernel address space
66         for (i = PPN(maxaddrpa); i < npages; i++) {
67                 pages[i].page_ref = 1;
68         }
69 }