user/vmm: add and use a load_elf function
[akaros.git] / tests / vmm / vmrunkernel.c
1 #include <stdio.h>
2 #include <pthread.h>
3 #include <sys/types.h>
4 #include <sys/stat.h>
5 #include <fcntl.h>
6 #include <parlib/arch/arch.h>
7 #include <parlib/ros_debug.h>
8 #include <unistd.h>
9 #include <gelf.h>
10 #include <errno.h>
11 #include <libelf.h>
12 #include <dirent.h>
13 #include <stdlib.h>
14 #include <string.h>
15 #include <ros/syscall.h>
16 #include <sys/mman.h>
17 #include <vmm/vmm.h>
18 #include <vmm/acpi/acpi.h>
19 #include <vmm/acpi/vmm_simple_dsdt.h>
20 #include <ros/arch/mmu.h>
21 #include <ros/arch/membar.h>
22 #include <ros/vmm.h>
23 #include <parlib/uthread.h>
24 #include <vmm/linux_bootparam.h>
25 #include <getopt.h>
26
27 #include <vmm/virtio.h>
28 #include <vmm/virtio_blk.h>
29 #include <vmm/virtio_mmio.h>
30 #include <vmm/virtio_ids.h>
31 #include <vmm/virtio_config.h>
32 #include <vmm/virtio_console.h>
33 #include <vmm/virtio_net.h>
34 #include <vmm/virtio_lguest_console.h>
35
36 #include <vmm/sched.h>
37 #include <vmm/net.h>
38 #include <sys/eventfd.h>
39 #include <sys/uio.h>
40 #include <parlib/opts.h>
41
42 struct virtual_machine local_vm, *vm = &local_vm;
43
44 #define APIC_GPA                        0xfee00000ULL
45
46 struct vmm_gpcore_init *gpcis;
47
48 /* By 1999, you could just scan the hardware
49  * and work it out. But 2005, that was no longer possible. How sad.
50  * so we have to fake acpi to make it all work.
51  * This will be copied to memory at 0xe0000, so the kernel can find it.
52  */
53
54 /* assume they're all 256 bytes long just to make it easy.
55  * Just have pointers that point to aligned things.
56  */
57
58 struct acpi_table_rsdp rsdp = {
59         .signature = ACPI_SIG_RSDP,
60         .oem_id = "AKAROS",
61         .revision = 2,
62         .length = 36,
63 };
64
65 struct acpi_table_xsdt xsdt = {
66         .header = {
67                 .signature = ACPI_SIG_DSDT,
68                 .revision = 2,
69                 .oem_id = "AKAROS",
70                 .oem_table_id = "ALPHABET",
71                 .oem_revision = 0,
72                 .asl_compiler_id = "RON ",
73                 .asl_compiler_revision = 0,
74         },
75 };
76 struct acpi_table_fadt fadt = {
77         .header = {
78                 .signature = ACPI_SIG_FADT,
79                 .revision = 2,
80                 .oem_id = "AKAROS",
81                 .oem_table_id = "ALPHABET",
82                 .oem_revision = 0,
83                 .asl_compiler_id = "RON ",
84                 .asl_compiler_revision = 0,
85         },
86 };
87
88
89 /* This has to be dropped into memory, then the other crap just follows it.
90  */
91 struct acpi_table_madt madt = {
92         .header = {
93                 .signature = ACPI_SIG_MADT,
94                 .revision = 2,
95                 .oem_id = "AKAROS",
96                 .oem_table_id = "ALPHABET",
97                 .oem_revision = 0,
98                 .asl_compiler_id = "RON ",
99                 .asl_compiler_revision = 0,
100         },
101
102         .address = APIC_GPA,
103         .flags = 0,
104 };
105
106 struct acpi_madt_io_apic Apic1 = {.header = {.type = ACPI_MADT_TYPE_IO_APIC, .length = sizeof(struct acpi_madt_io_apic)},
107                                   .id = 0, .address = 0xfec00000, .global_irq_base = 0};
108
109 struct acpi_madt_interrupt_override isor[] = {
110         /* From the ACPI Specification Version 6.1:
111          * For example, if your machine has the ISA Programmable Interrupt Timer
112          * (PIT) connected to ISA IRQ 0, but in APIC mode, it is connected to I/O
113          * APIC interrupt input 2, then you would need an Interrupt Source Override
114          * where the source entry is ‘0’ and the Global System Interrupt is ‘2.’
115          */
116 };
117
118
119 /* this test will run the "kernel" in the negative address space. We hope. */
120 void *low1m;
121 volatile int shared = 0;
122 volatile int quit = 0;
123
124 /* total hack. If the vm runs away we want to get control again. */
125 unsigned int maxresume = (unsigned int) -1;
126
127 unsigned long long memsize = GiB;
128 uintptr_t memstart = MinMemory;
129 uintptr_t stack;
130
131 typedef struct {
132         uint64_t pte[512];
133 } ptp;
134
135 ptp *p512, *p1, *p2m;
136
137 void **my_retvals;
138 int nr_threads = 4;
139 int debug = 0;
140 int resumeprompt = 0;
141 /* unlike Linux, this shared struct is for both host and guest. */
142 //      struct virtqueue *constoguest =
143 //              vring_new_virtqueue(0, 512, 8192, 0, inpages, NULL, NULL, "test");
144
145 void vapic_status_dump(FILE *f, void *vapic);
146
147 #if __GNUC__ < 4 || (__GNUC__ == 4 && __GNUC_MINOR__ < 1)
148 #error "Get a gcc newer than 4.4.0"
149 #else
150 #define BITOP_ADDR(x) "+m" (*(volatile long *) (x))
151 #endif
152
153 #define LOCK_PREFIX "lock "
154 #define ADDR                            BITOP_ADDR(addr)
155 static inline int test_and_set_bit(int nr, volatile unsigned long *addr);
156
157 pthread_t timerthread_struct;
158
159 void timer_thread(void *arg)
160 {
161         uint8_t vector;
162         uint32_t initial_count;
163         while (1) {
164                 for (int i = 0; i < vm->nr_gpcs; i++) {
165                         vector = ((uint32_t *)gpcis[i].vapic_addr)[0x32] & 0xff;
166                         initial_count = ((uint32_t *)gpcis[i].vapic_addr)[0x38];
167                         if (vector && initial_count)
168                                 vmm_interrupt_guest(vm, i, vector);
169                 }
170                 uthread_usleep(1000);
171         }
172         fprintf(stderr, "SENDING TIMER\n");
173 }
174
175
176 // FIXME.
177 volatile int consdata = 0;
178
179 static void virtio_poke_guest(uint8_t vec, uint32_t dest)
180 {
181         if (dest < vm->nr_gpcs) {
182                 vmm_interrupt_guest(vm, dest, vec);
183                 return;
184         }
185         if (dest != 0xffffffff)
186                 panic("INVALID DESTINATION: 0x%02x\n", dest);
187
188         for (int i = 0; i < vm->nr_gpcs; i++)
189                 vmm_interrupt_guest(vm, i, vec);
190 }
191
192 static struct virtio_mmio_dev cons_mmio_dev = {
193         .poke_guest = virtio_poke_guest,
194 };
195
196 static struct virtio_console_config cons_cfg;
197 static struct virtio_console_config cons_cfg_d;
198
199 static struct virtio_vq_dev cons_vqdev = {
200         .name = "console",
201         .dev_id = VIRTIO_ID_CONSOLE,
202         .dev_feat =
203         (1ULL << VIRTIO_F_VERSION_1) | (1 << VIRTIO_RING_F_INDIRECT_DESC),
204         .num_vqs = 2,
205         .cfg = &cons_cfg,
206         .cfg_d = &cons_cfg_d,
207         .cfg_sz = sizeof(struct virtio_console_config),
208         .transport_dev = &cons_mmio_dev,
209         .vqs = {
210                 {
211                         .name = "cons_receiveq",
212                         .qnum_max = 64,
213                         .srv_fn = cons_receiveq_fn,
214                         .vqdev = &cons_vqdev
215                 },
216                 {
217                         .name = "cons_transmitq",
218                         .qnum_max = 64,
219                         .srv_fn = cons_transmitq_fn,
220                         .vqdev = &cons_vqdev
221                 },
222         }
223 };
224
225 static struct virtio_mmio_dev net_mmio_dev = {
226         .poke_guest = virtio_poke_guest,
227 };
228
229 static struct virtio_net_config net_cfg = {
230         .max_virtqueue_pairs = 1
231 };
232 static struct virtio_net_config net_cfg_d = {
233         .max_virtqueue_pairs = 1
234 };
235
236 static struct virtio_vq_dev net_vqdev = {
237         .name = "network",
238         .dev_id = VIRTIO_ID_NET,
239         .dev_feat = (1ULL << VIRTIO_F_VERSION_1 | 1 << VIRTIO_NET_F_MAC),
240
241         .num_vqs = 2,
242         .cfg = &net_cfg,
243         .cfg_d = &net_cfg_d,
244         .cfg_sz = sizeof(struct virtio_net_config),
245         .transport_dev = &net_mmio_dev,
246         .vqs = {
247                 {
248                         .name = "net_receiveq",
249                         .qnum_max = 64,
250                         .srv_fn = net_receiveq_fn,
251                         .vqdev = &net_vqdev
252                 },
253                 {
254                         .name = "net_transmitq",
255                         .qnum_max = 64,
256                         .srv_fn = net_transmitq_fn,
257                         .vqdev = &net_vqdev
258                 },
259         }
260 };
261
262 static struct virtio_mmio_dev blk_mmio_dev = {
263         .poke_guest = virtio_poke_guest,
264 };
265
266 static struct virtio_blk_config blk_cfg = {
267 };
268
269 static struct virtio_blk_config blk_cfg_d = {
270 };
271
272 static struct virtio_vq_dev blk_vqdev = {
273         .name = "block",
274         .dev_id = VIRTIO_ID_BLOCK,
275         .dev_feat = (1ULL << VIRTIO_F_VERSION_1),
276
277         .num_vqs = 1,
278         .cfg = &blk_cfg,
279         .cfg_d = &blk_cfg_d,
280         .cfg_sz = sizeof(struct virtio_blk_config),
281         .transport_dev = &blk_mmio_dev,
282         .vqs = {
283                 {
284                         .name = "blk_request",
285                         .qnum_max = 64,
286                         .srv_fn = blk_request,
287                         .vqdev = &blk_vqdev
288                 },
289         }
290 };
291
292 void lowmem() {
293         __asm__ __volatile__ (".section .lowmem, \"aw\"\n\tlow: \n\t.=0x1000\n\t.align 0x100000\n\t.previous\n");
294 }
295
296 static uint8_t acpi_tb_checksum(uint8_t *buffer, uint32_t length)
297 {
298         uint8_t sum = 0;
299         uint8_t *end = buffer + length;
300         fprintf(stderr, "tbchecksum %p for %d", buffer, length);
301         while (buffer < end) {
302                 if (end - buffer < 2)
303                         fprintf(stderr, "%02x\n", sum);
304                 sum = (uint8_t)(sum + *(buffer++));
305         }
306         fprintf(stderr, " is %02x\n", sum);
307         return (sum);
308 }
309
310 static void gencsum(uint8_t *target, void *data, int len)
311 {
312         uint8_t csum;
313         // blast target to zero so it does not get counted
314         // (it might be in the struct we checksum) And, yes, it is, goodness.
315         fprintf(stderr, "gencsum %p target %p source %d bytes\n", target, data, len);
316         *target = 0;
317         csum  = acpi_tb_checksum((uint8_t *)data, len);
318         *target = ~csum + 1;
319         fprintf(stderr, "Cmoputed is %02x\n", *target);
320 }
321
322 static inline int test_and_set_bit(int nr, volatile unsigned long *addr)
323 {
324         int oldbit;
325
326         asm volatile(LOCK_PREFIX "bts %2,%1\n\t"
327                      "sbb %0,%0" : "=r" (oldbit), ADDR : "Ir" (nr) : "memory");
328
329         return oldbit;
330 }
331
332 /* TODO: put this in a library somewhere */
333 int cat(char *file, void *where)
334 {
335         int fd;
336         int amt, tot = 0;
337
338         fd = open(file, O_RDONLY);
339         if (fd < 0)
340                 return -1;
341
342         while (amt = read(fd, where, 4096)) {
343                 if (amt < 0) {
344                         close(fd);
345                         return -1;
346                 }
347                 tot += amt;
348                 where += amt;
349         }
350         close(fd);
351         return tot;
352 }
353
354 int smbios(char *smbiostable, void *esegment)
355 {
356         int amt;
357
358         amt = cat(smbiostable, esegment);
359         if (amt < 0) {
360                 fprintf(stderr, "%s: %r\n", smbiostable);
361                 exit(1);
362         }
363
364         return amt;
365 }
366
367 /* Parse func: given a line of text, it sets any vnet options */
368 static void __parse_vnet_opts(char *_line)
369 {
370         char *eq, *spc;
371
372         /* Check all bools first */
373         if (!strcmp(_line, "snoop")) {
374                 vnet_snoop = TRUE;
375                 return;
376         }
377         if (!strcmp(_line, "map_diagnostics")) {
378                 vnet_map_diagnostics = TRUE;
379                 return;
380         }
381         if (!strcmp(_line, "real_address")) {
382                 vnet_real_ip_addrs = TRUE;
383                 return;
384         }
385         /* Numeric fields, must have an = */
386         eq = strchr(_line, '=');
387         if (!eq)
388                 return;
389         *eq++ = 0;
390         /* Drop spaces before =.  atoi trims any spaces after =. */
391         while ((spc = strrchr(_line, ' ')))
392                 *spc = 0;
393         if (!strcmp(_line, "nat_timeout")) {
394                 vnet_nat_timeout = atoi(eq);
395                 return;
396         }
397 }
398
399 static void set_vnet_opts(char *net_opts)
400 {
401         if (parse_opts_file(net_opts, __parse_vnet_opts))
402                 perror("parse opts file");
403 }
404
405 /* Parse func: given a line of text, it builds any vnet port forwardings. */
406 static void __parse_vnet_port_fwds(char *_line)
407 {
408         char *tok, *tok_save = 0;
409         char *proto, *host_port, *guest_port;
410
411         tok = strtok_r(_line, ":", &tok_save);
412         if (!tok)
413                 return;
414         if (strcmp(tok, "port"))
415                 return;
416         tok = strtok_r(NULL, ":", &tok_save);
417         if (!tok) {
418                 fprintf(stderr, "%s, port with no proto!", __func__);
419                 return;
420         }
421         proto = tok;
422         tok = strtok_r(NULL, ":", &tok_save);
423         if (!tok) {
424                 fprintf(stderr, "%s, port with no host port!", __func__);
425                 return;
426         }
427         host_port = tok;
428         tok = strtok_r(NULL, ":", &tok_save);
429         if (!tok) {
430                 fprintf(stderr, "%s, port with no guest port!", __func__);
431                 return;
432         }
433         guest_port = tok;
434         vnet_port_forward(proto, host_port, guest_port);
435 }
436
437 static void set_vnet_port_fwds(char *net_opts)
438 {
439         if (parse_opts_file(net_opts, __parse_vnet_port_fwds))
440                 perror("parse opts file");
441 }
442
443 /* Initialize the MADT structs for each local apic. */
444 void *init_madt_local_apic(void *start)
445 {
446         struct acpi_madt_local_apic *apic = start;
447
448         for (int i = 0; i < vm->nr_gpcs; i++) {
449                 apic->header.type = ACPI_MADT_TYPE_LOCAL_APIC;
450                 apic->header.length = sizeof(struct acpi_madt_local_apic);
451                 apic->processor_id = i;
452                 apic->id = i;
453                 apic->lapic_flags = 1;
454                 apic = (void *)apic + sizeof(struct acpi_madt_local_apic);
455         }
456         return apic;
457 }
458
459 /* Initialize the MADT structs for each local x2apic. */
460 void *init_madt_local_x2apic(void *start)
461 {
462         struct acpi_madt_local_x2apic *apic = start;
463
464         for (int i = 0; i < vm->nr_gpcs; i++) {
465                 apic->header.type = ACPI_MADT_TYPE_LOCAL_X2APIC;
466                 apic->header.length = sizeof(struct acpi_madt_local_x2apic);
467                 apic->local_apic_id = i;
468                 apic->uid = i;
469                 apic->lapic_flags = 1;
470                 apic = (void *)apic + sizeof(struct acpi_madt_local_x2apic);
471         }
472         return apic;
473 }
474
475 /* We map the APIC-access page, the per core Virtual APIC page and the
476  * per core Posted Interrupt Descriptors.
477  * Note: check if the PID/PIR needs to be a 4k page. */
478 void alloc_intr_pages(void)
479 {
480         void *a_page;
481         void *pages, *pir;
482
483         a_page = mmap((void *)APIC_GPA, PGSIZE, PROT_READ | PROT_WRITE,
484                       MAP_POPULATE | MAP_ANONYMOUS, -1, 0);
485         fprintf(stderr, "a_page mmap pointer %p\n", a_page);
486
487         if (a_page != (void *)APIC_GPA) {
488                 perror("Could not mmap APIC");
489                 exit(1);
490         }
491         /* The VM should never actually read from this page. */
492         for (int i = 0; i < PGSIZE/4; i++)
493                 ((uint32_t *)a_page)[i] = 0xDEADBEEF;
494
495         /* Allocate VAPIC and PIR pages. */
496         pages = mmap((void*)0, vm->nr_gpcs * 2 * PGSIZE, PROT_READ | PROT_WRITE,
497                      MAP_POPULATE | MAP_ANONYMOUS, -1, 0);
498         if (pages == MAP_FAILED) {
499                 perror("Unable to map VAPIC and PIR pages.");
500                 exit(1);
501         }
502
503         /* We use the first vm->nr_gpcs pages for the VAPIC, and the second set
504          * for the PIRs. Each VAPIC and PIR gets its own 4k page. */
505         pir = pages + (vm->nr_gpcs * PGSIZE);
506
507         /* Set the addresses in the gpcis. */
508         for (int i = 0; i < vm->nr_gpcs; i++) {
509                 gpcis[i].posted_irq_desc = pir + (PGSIZE * i);
510                 gpcis[i].vapic_addr = pages + (PGSIZE * i);
511                 gpcis[i].apic_addr = a_page;
512
513                 /* Set APIC ID. */
514                 ((uint32_t *)gpcis[i].vapic_addr)[0x20/4] = i;
515                 /* Set APIC VERSION. */
516                 ((uint32_t *)gpcis[i].vapic_addr)[0x30/4] = 0x01060015;
517                 /* Set LOGICAL APIC ID. */
518                 ((uint32_t *)gpcis[i].vapic_addr)[0xD0/4] = 1 << i;
519         }
520 }
521
522 int main(int argc, char **argv)
523 {
524         struct boot_params *bp;
525         char cmdline_default[512] = {0};
526         char *cmdline_extra = "\0";
527         char *cmdline;
528         void *a = (void *)0xe0000;
529         struct acpi_table_rsdp *r;
530         struct acpi_table_fadt *f;
531         struct acpi_table_madt *m;
532         struct acpi_table_xsdt *x;
533         int vmmflags = 0; // Disabled probably forever. VMM_VMCALL_PRINTF;
534         uint64_t entry = 0;
535         int ret;
536         uint8_t csum;
537         struct vm_trapframe *vm_tf;
538         uint64_t tsc_freq_khz;
539         char *cmdlinep;
540         int cmdlinesz, len, cmdline_fd;
541         char *disk_image_file = NULL;
542         int c;
543         struct stat stat_result;
544         int num_read;
545         int option_index;
546         char *smbiostable = NULL;
547         int nptp, npml4, npml3, npml2;
548         char *net_opts = NULL;
549         uint64_t num_pcs = 1;
550
551         static struct option long_options[] = {
552                 {"debug",         no_argument,       0, 'd'},
553                 {"vmm_vmcall",    no_argument,       0, 'v'},
554                 {"maxresume",     required_argument, 0, 'R'},
555                 {"memsize",       required_argument, 0, 'm'},
556                 {"memstart",      required_argument, 0, 'M'},
557                 {"stack",         required_argument, 0, 'S'},
558                 {"cmdline_extra", required_argument, 0, 'c'},
559                 {"greedy",        no_argument,       0, 'g'},
560                 {"scp",           no_argument,       0, 's'},
561                 {"image_file",    required_argument, 0, 'f'},
562                 {"cmdline",       required_argument, 0, 'k'},
563                 {"net",           required_argument, 0, 'n'},
564                 {"num_cores",     required_argument, 0, 'N'},
565                 {"smbiostable",   required_argument, 0, 't'},
566                 {"help",          no_argument,       0, 'h'},
567                 {0, 0, 0, 0}
568         };
569
570         fprintf(stderr, "%p %p %p %p\n", PGSIZE, PGSHIFT, PML1_SHIFT,
571                 PML1_PTE_REACH);
572
573         if ((uintptr_t)__procinfo.program_end >= MinMemory) {
574                 fprintf(stderr,
575                         "Panic: vmrunkernel binary extends into guest memory\n");
576                 exit(1);
577         }
578
579         vm->low4k = malloc(PGSIZE);
580         memset(vm->low4k, 0xff, PGSIZE);
581         vm->low4k[0x40e] = 0;
582         vm->low4k[0x40f] = 0;
583         // Why is this here? Because the static initializer is getting
584         // set to 1.  Yes, 1. This might be part of the weirdness
585         // Barrett is reporting with linker sets. So let's leave it
586         // here until we trust our toolchain.
587         if (memsize != GiB)
588                 fprintf(stderr, "static initializers are broken\n");
589         memsize = GiB;
590
591         while ((c = getopt_long(argc, argv, "dvm:M:S:c:gsf:k:N:n:t:hR:",
592                                 long_options, &option_index)) != -1) {
593                 switch (c) {
594                 case 'd':
595                         debug++;
596                         break;
597                 case 'v':
598                         vmmflags |= VMM_VMCALL_PRINTF;
599                         break;
600                 case 'm':
601                         memsize = strtoull(optarg, 0, 0);
602                         break;
603                 case 'M':
604                         memstart = strtoull(optarg, 0, 0);
605                         break;
606                 case 'S':
607                         stack = strtoull(optarg, 0, 0);
608                         break;
609                 case 'R':
610                         maxresume = strtoull(optarg, 0, 0);
611                         break;
612                 case 'c':
613                         cmdline_extra = optarg;
614                 case 'g':       /* greedy */
615                         parlib_never_yield = TRUE;
616                         break;
617                 case 's':       /* scp */
618                         parlib_wants_to_be_mcp = FALSE;
619                         break;
620                 case 'f':       /* file to pass to blk_init */
621                         disk_image_file = optarg;
622                         break;
623                 case 'k':       /* specify file to get cmdline args from */
624                         cmdline_fd = open(optarg, O_RDONLY);
625                         if (cmdline_fd < 0) {
626                                 fprintf(stderr, "failed to open file: %s\n", optarg);
627                                 exit(1);
628                         }
629                         if (stat(optarg, &stat_result) == -1) {
630                                 fprintf(stderr, "stat of %s failed\n", optarg);
631                                 exit(1);
632                         }
633                         len = stat_result.st_size;
634                         if (len > 512) {
635                                 fprintf(stderr, "command line options exceed 512 bytes!");
636                                 exit(1);
637                         }
638                         num_read = read(cmdline_fd, cmdline_default, len);
639                         if (num_read != len) {
640                                 fprintf(stderr, "read failed len was : %d, num_read was: %d\n",
641                                         len, num_read);
642                                 exit(1);
643                         }
644                         close(cmdline_fd);
645                         break;
646                 case 't':
647                         smbiostable = optarg;
648                         break;
649                 case 'n':
650                         net_opts = optarg;
651                         break;
652                 case 'N':
653                         num_pcs = strtoull(optarg, 0, 0);
654                         break;
655                 case 'h':
656                 default:
657                         // Sadly, the getopt_long struct does
658                         // not have a pointer to help text.
659                         for (int i = 0;
660                              i < sizeof(long_options)/sizeof(long_options[0]) - 1;
661                              i++) {
662                                 struct option *l = &long_options[i];
663
664                                 fprintf(stderr, "%s or %c%s\n", l->name, l->val,
665                                         l->has_arg ? " <arg>" : "");
666                         }
667                         exit(0);
668                 }
669         }
670
671         if (strlen(cmdline_default) == 0) {
672                 fprintf(stderr, "WARNING: No command line parameter file specified.\n");
673         }
674         argc -= optind;
675         argv += optind;
676         if (argc < 1) {
677                 fprintf(stderr, "Usage: %s vmimage [-n (no vmcall printf)]\n", argv[0]);
678                 exit(1);
679         }
680
681         // Set vm->nr_gpcs before it's referenced in the struct setups below.
682         vm->nr_gpcs = num_pcs;
683         fprintf(stderr, "NUM PCS: %d\n", num_pcs);
684         gpcis = (struct vmm_gpcore_init *)
685                         malloc(num_pcs * sizeof(struct vmm_gpcore_init));
686         vm->gpcis = gpcis;
687
688         alloc_intr_pages();
689
690         if ((uintptr_t)(memstart + memsize) >= (uintptr_t)BRK_START) {
691                 fprintf(stderr,
692                         "memstart 0x%llx memsize 0x%llx -> 0x%llx is too large; overlaps BRK_START at %p\n",
693                         memstart, memsize, memstart + memsize, BRK_START);
694                 exit(1);
695         }
696
697         mmap_memory(memstart, memsize);
698
699         entry = load_elf(argv[0]);
700         if (entry == 0) {
701                 fprintf(stderr, "Unable to load kernel %s\n", argv[0]);
702                 exit(1);
703         }
704
705
706         // The low 1m is so we can fill in bullshit like ACPI.
707         // And, sorry, due to the STUPID format of the RSDP for now we need the low 1M.
708         low1m = mmap((int*)4096, MiB-4096, PROT_READ | PROT_WRITE,
709                      MAP_POPULATE | MAP_ANONYMOUS, -1, 0);
710         if (low1m != (void *)4096) {
711                 perror("Unable to mmap low 1m");
712                 exit(1);
713         }
714
715         /* As I understood it, the spec was that SMBIOS
716          * tables live at f0000. We've been finding that
717          * they can have pointers to exxxx. So, for now,
718          * we assume you will take a 128K snapshot of flash
719          * and we'll just splat the whole mess in at
720          * 0xe0000. We can get more sophisticated about
721          * this later if needed. TODO: parse the table,
722          * and make sure that ACPI doesn't trash it.
723          * Although you'll know instantly if that happens
724          * as you'll get dmidecode errors. But it still needs
725          * to be better. */
726         if (smbiostable) {
727                 fprintf(stderr, "Using SMBIOS table %s\n", smbiostable);
728                 smbios(smbiostable, (void *)0xe0000);
729         }
730
731         r = a;
732         fprintf(stderr, "install rsdp to %p\n", r);
733         *r = rsdp;
734         a += sizeof(*r);
735         r->xsdt_physical_address = (uint64_t)a;
736         gencsum(&r->checksum, r, ACPI_RSDP_CHECKSUM_LENGTH);
737         if ((csum = acpi_tb_checksum((uint8_t *) r, ACPI_RSDP_CHECKSUM_LENGTH)) != 0) {
738                 fprintf(stderr, "RSDP has bad checksum; summed to %x\n", csum);
739                 exit(1);
740         }
741
742         /* Check extended checksum if table version >= 2 */
743         gencsum(&r->extended_checksum, r, ACPI_RSDP_XCHECKSUM_LENGTH);
744         if ((rsdp.revision >= 2) &&
745             (acpi_tb_checksum((uint8_t *) r, ACPI_RSDP_XCHECKSUM_LENGTH) != 0)) {
746                 fprintf(stderr, "RSDP has bad checksum v2\n");
747                 exit(1);
748         }
749
750         /* just leave a bunch of space for the xsdt. */
751         /* we need to zero the area since it has pointers. */
752         x = a;
753         a += sizeof(*x) + 8*sizeof(void *);
754         memset(x, 0, a - (void *)x);
755         fprintf(stderr, "install xsdt to %p\n", x);
756         *x = xsdt;
757         x->table_offset_entry[0] = 0;
758         x->table_offset_entry[1] = 0;
759         x->header.length = a - (void *)x;
760
761         f = a;
762         fprintf(stderr, "install fadt to %p\n", f);
763         *f = fadt;
764         x->table_offset_entry[0] = (uint64_t)f; // fadt MUST be first in xsdt!
765         a += sizeof(*f);
766         f->header.length = a - (void *)f;
767
768         f->Xdsdt = (uint64_t) a;
769         fprintf(stderr, "install dsdt to %p\n", a);
770         memcpy(a, &DSDT_DSDTTBL_Header, 36);
771         a += 36;
772
773         gencsum(&f->header.checksum, f, f->header.length);
774         if (acpi_tb_checksum((uint8_t *)f, f->header.length) != 0) {
775                 fprintf(stderr, "fadt has bad checksum v2\n");
776                 exit(1);
777         }
778
779         m = a;
780         *m = madt;
781         x->table_offset_entry[3] = (uint64_t) m;
782         a += sizeof(*m);
783         fprintf(stderr, "install madt to %p\n", m);
784
785         a = init_madt_local_apic(a);
786
787         memmove(a, &Apic1, sizeof(Apic1));
788         a += sizeof(Apic1);
789
790         a = init_madt_local_x2apic(a);
791
792         memmove(a, &isor, sizeof(isor));
793         a += sizeof(isor);
794         m->header.length = a - (void *)m;
795
796         gencsum(&m->header.checksum, m, m->header.length);
797         if (acpi_tb_checksum((uint8_t *) m, m->header.length) != 0) {
798                 fprintf(stderr, "madt has bad checksum v2\n");
799                 exit(1);
800         }
801
802         gencsum(&x->header.checksum, x, x->header.length);
803         if ((csum = acpi_tb_checksum((uint8_t *) x, x->header.length)) != 0) {
804                 fprintf(stderr, "XSDT has bad checksum; summed to %x\n", csum);
805                 exit(1);
806         }
807
808         fprintf(stderr, "allchecksums ok\n");
809
810         hexdump(stdout, r, a-(void *)r);
811
812         a = (void *)(((unsigned long)a + 0xfff) & ~0xfff);
813
814         bp = a;
815         a = init_e820map(bp, memstart, memsize);
816
817         /* The MMIO address of the console device is really the address of an
818          * unbacked EPT page: accesses to this page will cause a page fault that
819          * traps to the host, which will examine the fault, see it was for the
820          * known MMIO address, and fulfill the MMIO read or write on the guest's
821          * behalf accordingly. We place the virtio space at 512 GB higher than the
822          * guest physical memory to avoid a full page table walk. */
823         uint64_t virtio_mmio_base_addr;
824
825         virtio_mmio_base_addr = ROUNDUP((bp->e820_map[bp->e820_entries - 1].addr +
826                                          bp->e820_map[bp->e820_entries - 1].size),
827                                          512ULL * GiB);
828         cons_mmio_dev.addr =
829                 virtio_mmio_base_addr + PGSIZE * VIRTIO_MMIO_CONSOLE_DEV;
830         cons_mmio_dev.vqdev = &cons_vqdev;
831         vm->virtio_mmio_devices[VIRTIO_MMIO_CONSOLE_DEV] = &cons_mmio_dev;
832
833         net_mmio_dev.addr =
834                 virtio_mmio_base_addr + PGSIZE * VIRTIO_MMIO_NETWORK_DEV;
835         net_mmio_dev.vqdev = &net_vqdev;
836         vm->virtio_mmio_devices[VIRTIO_MMIO_NETWORK_DEV] = &net_mmio_dev;
837
838         if (disk_image_file != NULL) {
839                 blk_mmio_dev.addr =
840                         virtio_mmio_base_addr + PGSIZE * VIRTIO_MMIO_BLOCK_DEV;
841                 blk_mmio_dev.vqdev = &blk_vqdev;
842                 vm->virtio_mmio_devices[VIRTIO_MMIO_BLOCK_DEV] = &blk_mmio_dev;
843                 blk_init_fn(&blk_vqdev, disk_image_file);
844         }
845
846         set_vnet_opts(net_opts);
847         vnet_init(vm, &net_vqdev);
848         set_vnet_port_fwds(net_opts);
849
850         /* Set the kernel command line parameters */
851         a += 4096;
852         cmdline = a;
853         a += 4096;
854
855         bp->hdr.cmd_line_ptr = (uintptr_t) cmdline;
856
857         tsc_freq_khz = get_tsc_freq()/1000;
858         len = snprintf(cmdline, 4096, "%s tscfreq=%lld %s", cmdline_default,
859                        tsc_freq_khz, cmdline_extra);
860
861         cmdlinesz = 4096 - len;
862         cmdlinep = cmdline + len;
863
864         for (int i = 0; i < VIRTIO_MMIO_MAX_NUM_DEV; i++) {
865                 if (vm->virtio_mmio_devices[i] == NULL)
866                         continue;
867
868                 /* Append all the virtio mmio base addresses. */
869
870                 /* Since the lower number irqs are no longer being used, the irqs
871                  * can now be assigned starting from 0.
872                  */
873                 vm->virtio_mmio_devices[i]->irq = i;
874                 len = snprintf(cmdlinep, cmdlinesz,
875                                "\n virtio_mmio.device=1K@0x%llx:%lld",
876                                vm->virtio_mmio_devices[i]->addr,
877                                vm->virtio_mmio_devices[i]->irq);
878                 if (len >= cmdlinesz) {
879                         fprintf(stderr, "Too many arguments to the linux command line.");
880                         exit(1);
881                 }
882                 cmdlinesz -= len;
883                 cmdlinep += len;
884         }
885
886         /* Set maxcpus to the number of cores we're giving the guest. */
887         len = snprintf(cmdlinep, cmdlinesz,
888                        "\n maxcpus=%lld", vm->nr_gpcs);
889         if (len >= cmdlinesz) {
890                 fprintf(stderr, "Too many arguments to the linux command line.");
891                 exit(1);
892         }
893         cmdlinesz -= len;
894         cmdlinep += len;
895
896         ret = vmm_init(vm, vmmflags);
897         assert(!ret);
898
899         /* How many page table pages do we need?  We conservatively
900          * assume that we are in low memory, and hence assume a
901          * 0-based range.  Note that in many cases, kernels will
902          * immediately set up their own map. But for "dune" like
903          * applications, it's necessary. Note also that in most cases,
904          * the total number of pages will be < 16 or so. */
905         npml4 = DIV_ROUND_UP(memstart + memsize, PML4_REACH);
906         nptp = npml4;
907
908         npml3 = DIV_ROUND_UP(memstart + memsize, PML3_REACH);
909         nptp += npml3;
910
911         /* and 1 for each 2 MiB of memory */
912         npml2 = DIV_ROUND_UP(memstart + memsize, PML2_REACH);
913         nptp += npml2;
914
915         fprintf(stderr,
916                 "Memstart is %llx, memsize is %llx, memstart + memsize is %llx; ",
917                 memstart, memsize, memstart + memsize);
918         fprintf(stderr, " %d pml4 %d pml3 %d pml2\n",
919                 npml4, npml3, npml2);
920
921         /* Place these page tables right after VM memory. We
922          * used to use posix_memalign but that puts them
923          * outside EPT-accessible space on some CPUs. */
924         p512 = mmap((void *)memstart + memsize, nptp * 4096, PROT_READ | PROT_WRITE,
925                      MAP_POPULATE | MAP_ANONYMOUS, -1, 0);
926         if (p512 == MAP_FAILED) {
927                 perror("page table page alloc");
928                 exit(1);
929         }
930         p1 = &p512[npml4];
931         p2m = &p1[npml3];
932
933         /* Set up a 1:1 ("identity") page mapping from guest virtual
934          * to guest physical using the (host virtual)
935          * `kerneladdress`. This mapping may be used for only a short
936          * time, until the guest sets up its own page tables. Be aware
937          * that the values stored in the table are physical addresses.
938          * This is subtle and mistakes are easily disguised due to the
939          * identity mapping, so take care when manipulating these
940          * mappings. */
941
942         p2m->pte[PML2(0)] = (uint64_t)0 | PTE_KERN_RW | PTE_PS;
943         memsize = GiB;
944         fprintf(stderr, "Map %p for %zu bytes\n", memstart, memsize);
945         for (uintptr_t p4 = memstart; p4 < memstart + memsize;
946              p4 += PML4_PTE_REACH, p1++) {
947                 p512->pte[PML4(p4)] = (uint64_t)p1 | PTE_KERN_RW;
948                 if (debug)
949                         fprintf(stderr, "l4@%p: %p set index 0x%x to 0x%llx\n",
950                                 &p512->pte[PML4(p4)],
951                                 p4, PML4(p4), p512->pte[PML4(p4)]);
952                 for (uintptr_t p3 = p4; p3 < memstart + memsize;
953                      p3 += PML3_PTE_REACH, p2m++) {
954                         p1->pte[PML3(p3)] = (uint64_t)p2m | PTE_KERN_RW;
955                         if (debug)
956                                 fprintf(stderr, "\tl3@%p: %p set index 0x%x to 0x%llx\n",
957                                 &p1->pte[PML3(p3)],
958                                 p3, PML3(p3), p1->pte[PML3(p3)]);
959                         for (uintptr_t p2 = p3; p2 < memstart + memsize;
960                              p2 += PML2_PTE_REACH) {
961                                 p2m->pte[PML2(p2)] = (uint64_t)p2 | PTE_KERN_RW | PTE_PS;
962                                 if (debug)
963                                         fprintf(stderr, "\t\tl2@%p: %p set index 0x%x to 0x%llx\n",
964                                                 &p2m->pte[PML2(p2)],
965                                                 p2, PML2(p2), p2m->pte[PML2(p2)]);
966                         }
967                 }
968
969         }
970
971         vmm_run_task(vm, timer_thread, 0);
972
973         vm_tf = gth_to_vmtf(vm->gths[0]);
974         vm_tf->tf_cr3 = (uint64_t) p512;
975         vm_tf->tf_rip = entry;
976         vm_tf->tf_rsp = stack;
977         vm_tf->tf_rsi = (uint64_t) bp;
978         vm->up_gpcs = 1;
979         fprintf(stderr, "Start guest: cr3 %p rip %p stack %p\n",
980                 p512, entry, stack);
981         start_guest_thread(vm->gths[0]);
982
983         uthread_sleep_forever();
984         return 0;
985 }