Fixes vmm_struct_cleanup
[akaros.git] / kern / arch / x86 / vmm / vmm.c
1 /* Copyright 2015 Google Inc.
2  * 
3  * See LICENSE for details.
4  */
5
6 /* We're not going to falll into the trap of only compiling support
7  * for AMD OR Intel for an image. It all gets compiled in, and which
8  * one you use depends on on cpuinfo, not a compile-time
9  * switch. That's proven to be the best strategy.  Conditionally
10  * compiling in support is the path to hell.
11  */
12 #include <assert.h>
13 #include <pmap.h>
14 #include <smp.h>
15 #include <kmalloc.h>
16
17 #include "intel/vmx.h"
18 #include "intel/compat.h"
19 #include "vmm.h"
20
21 /* TODO: have better cpuid info storage and checks */
22 bool x86_supports_vmx = FALSE;
23
24 /* Figure out what kind of CPU we are on, and if it supports any reasonable
25  * virtualization. For now, if we're not some sort of newer intel, don't
26  * bother. This does all cores. Again, note, we make these decisions at runtime,
27  * to avoid getting into the problems that compile-time decisions can cause. 
28  * At this point, of course, it's still all intel.
29  */
30 void vmm_init(void)
31 {
32         int ret;
33         /* Check first for intel capabilities. This is hence two back-to-back
34          * implementationd-dependent checks. That's ok, it's all msr dependent.
35          */
36         ret = intel_vmm_init();
37         if (! ret) {
38                 printd("intel_vmm_init worked\n");
39                 x86_supports_vmx = TRUE;
40                 return;
41         }
42
43         /* TODO: AMD. Will we ever care? It's not clear. */
44         printk("vmm_init failed, ret %d\n", ret);
45         return;
46 }
47
48 void vmm_pcpu_init(void)
49 {
50         if (!x86_supports_vmx)
51                 return;
52         if (! intel_vmm_pcpu_init()) {
53                 printd("vmm_pcpu_init worked\n");
54                 return;
55         }
56         /* TODO: AMD. Will we ever care? It's not clear. */
57         printk("vmm_pcpu_init failed\n");
58 }
59
60 int vm_run(uint64_t rip, uint64_t rsp, uint64_t cr3)
61 {
62         struct dune_config d = {rip, rsp, cr3};
63         int vmx_launch(struct dune_config *conf);       
64         if (current->vmm.amd) {
65                 return -1;
66         } else {
67                 return vmx_launch(&d);
68         }
69         return -1;
70 }
71
72 /* Initializes a process to run virtual machine contexts, returning the number
73  * initialized, optionally setting errno */
74 int vmm_struct_init(struct vmm *vmm, unsigned int nr_guest_pcores)
75 {
76         unsigned int i;
77         qlock(&vmm->qlock);
78         if (vmm->vmmcp) {
79                 set_errno(EINVAL);
80                 qunlock(&vmm->qlock);
81                 return 0;
82         }
83         /* Set this early, so cleanup checks the gpc array */
84         vmm->vmmcp = TRUE;
85         nr_guest_pcores = MIN(nr_guest_pcores, num_cpus);
86         vmm->amd = 0;
87         vmm->guest_pcores = kzmalloc(sizeof(void*) * nr_guest_pcores, KMALLOC_WAIT);
88         for (i = 0; i < nr_guest_pcores; i++) {
89                 vmm->guest_pcores[i] = vmx_create_vcpu();
90                 /* If we failed, we'll clean it up when the process dies */
91                 if (!vmm->guest_pcores[i]) {
92                         set_errno(ENOMEM);
93                         break;
94                 }
95         }
96         vmm->nr_guest_pcores = i;
97         qunlock(&vmm->qlock);
98         return i;
99 }
100
101 /* Has no concurrency protection - only call this when you know you have the
102  * only ref to vmm.  For instance, from __proc_free, where there is only one ref
103  * to the proc (and thus proc.vmm). */
104 void __vmm_struct_cleanup(struct vmm *vmm)
105 {
106         if (!vmm->vmmcp)
107                 return;
108         for (int i = 0; i < vmm->nr_guest_pcores; i++) {
109                 if (vmm->guest_pcores[i])
110                         vmx_destroy_vcpu(vmm->guest_pcores[i]);
111         }
112         kfree(vmm->guest_pcores);
113         vmm->vmmcp = FALSE;
114 }