re-Deputized some things and added Deputy polymorphic types to active messages
[akaros.git] / kern / arch / i386 / page_alloc.c
1 /* Copyright (c) 2009 The Regents of the University  of California. 
2  * See the COPYRIGHT files at the top of this source tree for full 
3  * license information.
4  * 
5  * Kevin Klues <klueska@cs.berkeley.edu>    
6  */
7
8 #ifdef __SHARC__
9 #pragma nosharc
10 #endif
11
12 #include <sys/queue.h>
13 #include <page_alloc.h>
14 #include <pmap.h>
15 #include <kmalloc.h>
16
17 page_list_t page_free_list;    // Free list of physical pages
18 DECLARE_CACHE_COLORED_PAGE_FREE_LISTS(); // Free list of pages filed by color
19
20 /*
21  * Initialize the memory free lists.
22  * After this point, ONLY use the functions below
23  * to allocate and deallocate physical memory via the 
24  * page_free_lists. 
25  */
26 void page_alloc_init() 
27 {
28         // Now, initialize the lists required to manage the page free lists
29         LIST_INIT(&page_free_list);
30         INIT_CACHE_COLORED_PAGE_FREE_LISTS();
31         
32         //  Finally, mark the pages already in use by the kernel. 
33         //  1) Mark page 0 as in use.
34         //     This way we preserve the real-mode IDT and BIOS structures
35         //     in case we ever need them.  (Currently we don't, but...)
36         //  2) Mark the rest of base memory as free.
37         //  3) Then comes the IO hole [IOPHYSMEM, EXTPHYSMEM).
38         //     Mark it as in use so that it can never be allocated.      
39         //  4) Then extended memory [EXTPHYSMEM, ...).
40         //     Some of it is in use, some is free.
41         int i;
42         extern char (SNT end)[];
43         physaddr_t physaddr_after_kernel = PADDR(PTRROUNDUP(boot_freemem, PGSIZE));
44
45         pages[0].page_ref = 1;
46         // alloc the second page, since we will need it later to init the other cores
47         // probably need to be smarter about what page we use (make this dynamic) TODO
48         pages[1].page_ref = 1;
49         for (i = 2; i < PPN(IOPHYSMEM); i++) {
50                 pages[i].page_ref = 0;
51                 LIST_INSERT_HEAD(&page_free_list, &pages[i], global_link);
52                 INSERT_CACHE_COLORING_PAGE_ONTO_FREE_LISTS(&pages[i]);
53         }
54         for (i = PPN(IOPHYSMEM); i < PPN(EXTPHYSMEM); i++) {
55                 pages[i].page_ref = 1;
56         }
57         for (i = PPN(EXTPHYSMEM); i < PPN(physaddr_after_kernel); i++) {
58                 pages[i].page_ref = 1;
59         }
60         for (i = PPN(physaddr_after_kernel); i < PPN(maxaddrpa); i++) {
61                 pages[i].page_ref = 0;
62                 LIST_INSERT_HEAD(&page_free_list, &pages[i], global_link);
63                 INSERT_CACHE_COLORING_PAGE_ONTO_FREE_LISTS(&pages[i]);
64         }
65         // this block out all memory above maxaddrpa.  will need another mechanism
66         // to allocate and map these into the kernel address space
67         for (i = PPN(maxaddrpa); i < npages; i++) {
68                 pages[i].page_ref = 1;
69         }
70 }
71