Splits x86 into 32 and 64 bit (XCC)
[akaros.git] / kern / include / smp.h
1 /*
2  * Copyright (c) 2009 The Regents of the University of California
3  * Barret Rhoden <brho@cs.berkeley.edu>
4  * See LICENSE for details.
5  */
6
7 #ifndef ROS_INC_SMP_H
8 #define ROS_INC_SMP_H
9
10 /* SMP related functions */
11
12 #include <arch/smp.h>
13 #include <ros/common.h>
14 #include <sys/queue.h>
15 #include <trap.h>
16 #include <atomic.h>
17 #include <process.h>
18 #include <syscall.h>
19 #include <alarm.h>
20
21 #ifdef __SHARC__
22 typedef sharC_env_t;
23 #endif
24
25 struct per_cpu_info {
26         spinlock_t lock;
27         /* Process management */
28         // cur_proc should be valid on all cores that are not management cores.
29         struct proc *cur_proc;          /* which process context is loaded */
30         struct proc *owning_proc;       /* proc owning the core / cur_ctx */
31         uint32_t owning_vcoreid;        /* vcoreid of owning proc (if applicable */
32         struct user_context *cur_ctx;   /* user ctx we came in on (can be 0) */
33         struct user_context actual_ctx; /* storage for cur_ctx */
34         uint32_t __ctx_depth;           /* don't access directly.  see trap.h. */
35         int __lock_depth_disabled;      /* disables spinlock depth checking */
36         struct syscall *cur_sysc;       /* ptr is into cur_proc's address space */
37         struct kthread *spare;          /* useful when restarting */
38         struct timer_chain tchain;      /* for the per-core alarm */
39         unsigned int lock_depth;
40
41 #ifdef __SHARC__
42         // held spin-locks. this will have to go elsewhere if multiple kernel
43         // threads can share a CPU.
44         // zra: Used by Ivy. Let me know if this should go elsewhere.
45         sharC_env_t sharC_env;
46 #endif
47         /* TODO: 64b (not sure if we'll need these at all */
48 #ifdef CONFIG_X86
49         taskstate_t *tss;
50         segdesc_t *gdt;
51 #endif
52         /* KMSGs */
53         spinlock_t immed_amsg_lock;
54         struct kernel_msg_list NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) immed_amsgs;
55         spinlock_t routine_amsg_lock;
56         struct kernel_msg_list NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) routine_amsgs;
57 }__attribute__((aligned(ARCH_CL_SIZE)));
58
59 /* Allows the kernel to figure out what process is running on this core.  Can be
60  * used just like a pointer to a struct proc. */
61 #define current per_cpu_info[core_id()].cur_proc
62 /* Allows the kernel to figure out what *user* ctx is on this core's stack.  Can
63  * be used just like a pointer to a struct user_context.  Note the distinction
64  * between kernel and user contexts.  The kernel always returns to its nested,
65  * interrupted contexts via iret/etc.  We never do that for user contexts. */
66 #define current_ctx per_cpu_info[core_id()].cur_ctx
67
68 typedef struct per_cpu_info NTPTV(t) NTPTV(a0t) NTPTV(a1t) NTPTV(a2t) per_cpu_info_t;
69
70 extern per_cpu_info_t (RO per_cpu_info)[MAX_NUM_CPUS];
71 extern volatile uint32_t RO num_cpus;
72
73 /* SMP bootup functions */
74 void smp_boot(void);
75 void smp_idle(void) __attribute__((noreturn));
76 void smp_percpu_init(void); // this must be called by each core individually
77 void __arch_pcpu_init(uint32_t coreid); /* each arch has one of these */
78
79 /* SMP utility functions */
80 int smp_call_function_self(poly_isr_t handler, TV(t) data,
81                            handler_wrapper_t** wait_wrapper);
82 int smp_call_function_all(poly_isr_t handler, TV(t) data,
83                           handler_wrapper_t** wait_wrapper);
84 int smp_call_function_single(uint32_t dest, poly_isr_t handler, TV(t) data,
85                              handler_wrapper_t** wait_wrapper);
86 int smp_call_wait(handler_wrapper_t*SAFE wrapper);
87
88 #endif /* !ROS_INC_SMP_H */