Kthreads track running kernel contexts
[akaros.git] / kern / include / page_alloc.h
1 /* Copyright (c) 2009, 2010 The Regents of the University  of California. 
2  * See the COPYRIGHT files at the top of this source tree for full 
3  * license information.
4  * 
5  * Kevin Klues <klueska@cs.berkeley.edu>    
6  * Barret Rhoden <brho@cs.berkeley.edu> */
7  
8 #ifndef PAGE_ALLOC_H
9 #define PAGE_ALLOC_H
10
11 #include <atomic.h>
12 #include <sys/queue.h>
13 #include <error.h>
14 #include <arch/mmu.h>
15 #include <colored_page_alloc.h>
16 #include <process.h>
17 #include <kref.h>
18 #include <kthread.h>
19 #include <multiboot.h>
20
21 struct page_map;                /* preprocessor games */
22
23 /****************** Page Structures *********************/
24 struct page;
25 typedef size_t ppn_t;
26 typedef struct page page_t;
27 typedef LIST_HEAD(PageList, page) page_list_t;
28 typedef LIST_ENTRY(page) page_list_entry_t;
29
30 /* Per-page flag bits related to their state in the page cache */
31 #define PG_LOCKED               0x001   /* involved in an IO op */
32 #define PG_UPTODATE             0x002   /* page map, filled with file data */
33 #define PG_DIRTY                0x004   /* page map, data is dirty */
34 #define PG_BUFFER               0x008   /* is a buffer page, has BHs */
35
36 /* TODO: this struct is not protected from concurrent operations in some
37  * functions.  If you want to lock on it, use the spinlock in the semaphore.
38  * This structure is getting pretty big (and we're wasting RAM).  If it becomes
39  * an issue, we can dynamically allocate some of these things when we're a
40  * buffer page (in a page mapping) */
41 struct page {
42         LIST_ENTRY(page)                        pg_link;        /* membership in various lists */
43         struct kref                                     pg_kref;
44         unsigned int                            pg_flags;
45         struct page_map                         *pg_mapping;
46         unsigned long                           pg_index;
47         void                                            *pg_private;    /* type depends on page usage */
48         struct semaphore                        pg_sem;         /* for blocking on IO */
49 };
50
51 /******** Externally visible global variables ************/
52 extern uint8_t* global_cache_colors_map;
53 extern spinlock_t colored_page_free_list_lock;
54 extern page_list_t LCKD(&colored_page_free_list_lock) * RO CT(llc_num_colors)
55     colored_page_free_list;
56
57 /*************** Functional Interface *******************/
58 void page_alloc_init(struct multiboot_info *mbi);
59 void colored_page_alloc_init(void);
60
61 error_t upage_alloc(struct proc* p, page_t *SAFE *page, int zero);
62 error_t kpage_alloc(page_t *SAFE *page);
63 void *kpage_alloc_addr(void);
64 void *kpage_zalloc_addr(void);
65 error_t upage_alloc_specific(struct proc* p, page_t *SAFE *page, size_t ppn);
66 error_t kpage_alloc_specific(page_t *SAFE *page, size_t ppn);
67
68 void *CT(1 << order) get_cont_pages(size_t order, int flags);
69 void free_cont_pages(void *buf, size_t order);
70
71 void page_incref(page_t *SAFE page);
72 void page_decref(page_t *SAFE page);
73 void page_setref(page_t *SAFE page, size_t val);
74
75 int page_is_free(size_t ppn);
76 void lock_page(struct page *page);
77 void unlock_page(struct page *page);
78 void print_pageinfo(struct page *page);
79
80 #endif //PAGE_ALLOC_H
81