Made fork/exec slow but correct.
[akaros.git] / kern / src / syscall.c
1 /* See COPYRIGHT for copyright information. */
2
3 #ifdef __SHARC__
4 #pragma nosharc
5 #endif
6
7 #include <ros/common.h>
8 #include <arch/types.h>
9 #include <arch/arch.h>
10 #include <arch/mmu.h>
11 #include <arch/console.h>
12 #include <ros/timer.h>
13 #include <ros/error.h>
14
15 #include <string.h>
16 #include <assert.h>
17 #include <process.h>
18 #include <schedule.h>
19 #include <pmap.h>
20 #include <mm.h>
21 #include <trap.h>
22 #include <syscall.h>
23 #include <kmalloc.h>
24 #include <stdio.h>
25 #include <resource.h>
26 #include <colored_caches.h>
27 #include <arch/bitmask.h>
28 #include <kfs.h> // eventually replace this with vfs.h
29
30 #ifdef __sparc_v8__
31 #include <arch/frontend.h>
32 #endif 
33
34 #ifdef __NETWORK__
35 #include <arch/nic_common.h>
36 extern char *CT(PACKET_HEADER_SIZE + len) (*packet_wrap)(const char *CT(len) data, size_t len);
37 extern int (*send_frame)(const char *CT(len) data, size_t len);
38 #endif
39
40 //Do absolutely nothing.  Used for profiling.
41 static void sys_null(void)
42 {
43         return;
44 }
45
46 //Write a buffer over the serial port
47 static ssize_t sys_serial_write(env_t* e, const char *DANGEROUS buf, size_t len)
48 {
49         if (len == 0)
50                 return 0;
51         #ifdef SERIAL_IO
52                 char *COUNT(len) _buf = user_mem_assert(e, buf, len, PTE_USER_RO);
53                 for(int i =0; i<len; i++)
54                         serial_send_byte(buf[i]);
55                 return (ssize_t)len;
56         #else
57                 return -EINVAL;
58         #endif
59 }
60
61 //Read a buffer over the serial port
62 static ssize_t sys_serial_read(env_t* e, char *DANGEROUS _buf, size_t len)
63 {
64         if (len == 0)
65                 return 0;
66
67         #ifdef SERIAL_IO
68             char *COUNT(len) buf = user_mem_assert(e, _buf, len, PTE_USER_RO);
69                 size_t bytes_read = 0;
70                 int c;
71                 while((c = serial_read_byte()) != -1) {
72                         buf[bytes_read++] = (uint8_t)c;
73                         if(bytes_read == len) break;
74                 }
75                 return (ssize_t)bytes_read;
76         #else
77                 return -EINVAL;
78         #endif
79 }
80
81 //
82 /* START OF REMOTE SYSTEMCALL SUPPORT SYSCALLS. THESE WILL GO AWAY AS THINGS MATURE */
83 //
84
85 static ssize_t sys_fork(env_t* e)
86 {
87         // TODO: right now we only support fork for single-core processes
88         if(e->state != PROC_RUNNING_S)
89                 return -1;
90
91         env_t* env = proc_create(NULL,0);
92         assert(env != NULL);
93
94         env->heap_bottom = e->heap_bottom;
95         env->heap_top = e->heap_top;
96         env->ppid = e->pid;
97         env->env_tf = *current_tf;
98
99         env->cache_colors_map = cache_colors_map_alloc();
100         for(int i=0; i < llc_cache->num_colors; i++)
101                 if(GET_BITMASK_BIT(e->cache_colors_map,i))
102                         cache_color_alloc(llc_cache, env->cache_colors_map);
103
104         // copy page table and page contents.
105         for(char* va = 0; va < (char*)UTOP; va += PGSIZE)
106         {
107                 // TODO: this is slow but correct.
108                 // don't skip any va's so fork will copy mmap'd pages
109                 // // copy [0,heaptop] and [stackbot,utop]
110                 //if(va == ROUNDUP(env->heap_top,PGSIZE))
111                 //      va = (char*)USTACKBOT;
112
113                 int perms = get_va_perms(e->env_pgdir,va);
114                 if(perms)
115                 {
116                         page_t* pp;
117                         assert(upage_alloc(env,&pp,0) == 0);
118                         assert(page_insert(env->env_pgdir,pp,va,perms) == 0);
119
120                         pte_t* pte = pgdir_walk(e->env_pgdir,va,0);
121                         assert(pte);
122                         pagecopy(page2kva(pp),ppn2kva(PTE2PPN(*pte)));
123                 }
124         }
125
126         __proc_set_state(env, PROC_RUNNABLE_S);
127         schedule_proc(env);
128
129         // don't decref the new process.
130         // that will happen when the parent waits for it.
131
132         printd("[PID %d] fork PID %d\n",e->pid,env->pid);
133
134         return env->pid;
135 }
136
137 static ssize_t sys_trywait(env_t* e, pid_t pid, int* status)
138 {
139         struct proc* p = pid2proc(pid);
140
141         // TODO: this syscall is racy, so we only support for single-core procs
142         if(e->state != PROC_RUNNING_S)
143                 return -1;
144
145         // TODO: need to use errno properly.  sadly, ROS error codes conflict..
146
147         if(p)
148         {
149                 ssize_t ret;
150
151                 if(current->pid == p->ppid)
152                 {
153                         if(p->state == PROC_DYING)
154                         {
155                                 memcpy_to_user(e,status,&p->exitcode,sizeof(int));
156                                 printd("[PID %d] waited for PID %d (code %d)\n",
157                                        e->pid,p->pid,p->exitcode);
158                                 ret = 0;
159                         }
160                         else // not dead yet
161                         {
162                                 set_errno(current_tf,0);
163                                 ret = -1;
164                         }
165                 }
166                 else // not a child of the calling process
167                 {
168                         set_errno(current_tf,1);
169                         ret = -1;
170                 }
171
172                 // if the wait succeeded, decref twice
173                 proc_decref(p,1 + (ret == 0));
174                 return ret;
175         }
176
177         set_errno(current_tf,1);
178         return -1;
179 }
180
181 static ssize_t sys_exec(env_t* e, void *DANGEROUS binary_buf, size_t len,
182                         procinfo_t*DANGEROUS procinfo)
183 {
184         // TODO: right now we only support exec for single-core processes
185         if(e->state != PROC_RUNNING_S)
186                 return -1;
187
188         if(memcpy_from_user(e,e->env_procinfo,procinfo,sizeof(*procinfo)))
189                 return -1;
190
191         void* binary = kmalloc(len,0);
192         if(binary == NULL)
193                 return -1;
194         if(memcpy_from_user(e,binary,binary_buf,len))
195         {
196                 kfree(binary);
197                 return -1;
198         }
199
200         // TODO: this is slow but correct.
201         // don't skip any va's so exec behaves right
202         env_segment_free(e,0,USTACKTOP);
203         //env_segment_free(e,0,ROUNDUP((intptr_t)e->heap_top,PGSIZE));
204         //env_segment_free(e,(void*)USTACKBOT,USTACKTOP-USTACKBOT);
205
206         proc_init_trapframe(current_tf,0);
207         env_load_icode(e,NULL,binary,len);
208
209         kfree(binary);
210         return 0;
211 }
212
213 static ssize_t sys_run_binary(env_t* e, void *DANGEROUS binary_buf, size_t len,
214                               void*DANGEROUS arg, size_t num_colors)
215 {
216         env_t* env = proc_create(NULL,0);
217         assert(env != NULL);
218
219         static_assert(PROCINFO_NUM_PAGES == 1);
220         assert(memcpy_from_user(e,env->env_procinfo->argv_buf,arg,PROCINFO_MAX_ARGV_SIZE) == ESUCCESS);
221         *(intptr_t*)env->env_procinfo->env_buf = 0;
222
223         env_load_icode(env,e,binary_buf,len);
224         __proc_set_state(env, PROC_RUNNABLE_S);
225         schedule_proc(env);
226         if(num_colors > 0) {
227                 env->cache_colors_map = cache_colors_map_alloc();
228                 for(int i=0; i<num_colors; i++)
229                         cache_color_alloc(llc_cache, env->cache_colors_map);
230         }
231         proc_decref(env, 1);
232         proc_yield(e);
233         return 0;
234 }
235
236 #ifdef __NETWORK__
237 // This is not a syscall we want. Its hacky. Here just for syscall stuff until get a stack.
238 static ssize_t sys_eth_write(env_t* e, const char *DANGEROUS buf, size_t len)
239 {
240         extern int eth_up;
241
242         if (eth_up) {
243
244                 if (len == 0)
245                         return 0;
246
247                 char *COUNT(len) _buf = user_mem_assert(e, buf, len, PTE_U);
248                 int total_sent = 0;
249                 int just_sent = 0;
250                 int cur_packet_len = 0;
251                 while (total_sent != len) {
252                         cur_packet_len = ((len - total_sent) > MAX_PACKET_DATA) ? MAX_PACKET_DATA : (len - total_sent);
253                         char* wrap_buffer = packet_wrap(_buf + total_sent, cur_packet_len);
254                         just_sent = send_frame(wrap_buffer, cur_packet_len + PACKET_HEADER_SIZE);
255
256                         if (just_sent < 0)
257                                 return 0; // This should be an error code of its own
258
259                         if (wrap_buffer)
260                                 kfree(wrap_buffer);
261
262                         total_sent += cur_packet_len;
263                 }
264
265                 return (ssize_t)len;
266
267         }
268         else
269                 return -EINVAL;
270 }
271
272 // This is not a syscall we want. Its hacky. Here just for syscall stuff until get a stack.
273 static ssize_t sys_eth_read(env_t* e, char *DANGEROUS buf, size_t len)
274 {
275         extern int eth_up;
276
277         if (eth_up) {
278                 extern int packet_waiting;
279                 extern int packet_buffer_size;
280                 extern char*CT(packet_buffer_size) packet_buffer;
281                 extern char*CT(MAX_FRAME_SIZE) packet_buffer_orig;
282                 extern int packet_buffer_pos;
283
284                 if (len == 0)
285                         return 0;
286
287                 char *CT(len) _buf = user_mem_assert(e, buf,len, PTE_U);
288
289                 if (packet_waiting == 0)
290                         return 0;
291
292                 int read_len = ((packet_buffer_pos + len) > packet_buffer_size) ? packet_buffer_size - packet_buffer_pos : len;
293
294                 memcpy(_buf, packet_buffer + packet_buffer_pos, read_len);
295
296                 packet_buffer_pos = packet_buffer_pos + read_len;
297
298                 if (packet_buffer_pos == packet_buffer_size) {
299                         kfree(packet_buffer_orig);
300                         packet_waiting = 0;
301                 }
302
303                 return read_len;
304         }
305         else
306                 return -EINVAL;
307 }
308 #endif // Network
309
310 //
311 /* END OF REMOTE SYSTEMCALL SUPPORT SYSCALLS. */
312 //
313
314 static ssize_t sys_shared_page_alloc(env_t* p1,
315                                      void**DANGEROUS _addr, pid_t p2_id,
316                                      int p1_flags, int p2_flags
317                                     )
318 {
319         //if (!VALID_USER_PERMS(p1_flags)) return -EPERM;
320         //if (!VALID_USER_PERMS(p2_flags)) return -EPERM;
321
322         void * COUNT(1) * COUNT(1) addr = user_mem_assert(p1, _addr, sizeof(void *),
323                                                       PTE_USER_RW);
324         struct proc *p2 = pid2proc(p2_id);
325         if (!p2)
326                 return -EBADPROC;
327
328         page_t* page;
329         error_t e = upage_alloc(p1, &page,1);
330         if (e < 0) {
331                 proc_decref(p2, 1);
332                 return e;
333         }
334
335         void* p2_addr = page_insert_in_range(p2->env_pgdir, page,
336                         (void*SNT)UTEXT, (void*SNT)UTOP, p2_flags);
337         if (p2_addr == NULL) {
338                 page_free(page);
339                 proc_decref(p2, 1);
340                 return -EFAIL;
341         }
342
343         void* p1_addr = page_insert_in_range(p1->env_pgdir, page,
344                         (void*SNT)UTEXT, (void*SNT)UTOP, p1_flags);
345         if(p1_addr == NULL) {
346                 page_remove(p2->env_pgdir, p2_addr);
347                 page_free(page);
348                 proc_decref(p2, 1);
349                 return -EFAIL;
350         }
351         *addr = p1_addr;
352         proc_decref(p2, 1);
353         return ESUCCESS;
354 }
355
356 static void sys_shared_page_free(env_t* p1, void*DANGEROUS addr, pid_t p2)
357 {
358 }
359
360 // Invalidate the cache of this core.  Only useful if you want a cold cache for
361 // performance testing reasons.
362 static void sys_cache_invalidate(void)
363 {
364         #ifdef __i386__
365                 wbinvd();
366         #endif
367         return;
368 }
369
370 // Writes 'val' to 'num_writes' entries of the well-known array in the kernel
371 // address space.  It's just #defined to be some random 4MB chunk (which ought
372 // to be boot_alloced or something).  Meant to grab exclusive access to cache
373 // lines, to simulate doing something useful.
374 static void sys_cache_buster(struct proc *p, uint32_t num_writes,
375                              uint32_t num_pages, uint32_t flags)
376 { TRUSTEDBLOCK /* zra: this is not really part of the kernel */
377         #define BUSTER_ADDR             0xd0000000  // around 512 MB deep
378         #define MAX_WRITES              1048576*8
379         #define MAX_PAGES               32
380         #define INSERT_ADDR     (UINFO + 2*PGSIZE) // should be free for these tests
381         uint32_t* buster = (uint32_t*)BUSTER_ADDR;
382         static spinlock_t buster_lock = SPINLOCK_INITIALIZER;
383         uint64_t ticks = -1;
384         page_t* a_page[MAX_PAGES];
385
386         /* Strided Accesses or Not (adjust to step by cachelines) */
387         uint32_t stride = 1;
388         if (flags & BUSTER_STRIDED) {
389                 stride = 16;
390                 num_writes *= 16;
391         }
392
393         /* Shared Accesses or Not (adjust to use per-core regions)
394          * Careful, since this gives 8MB to each core, starting around 512MB.
395          * Also, doesn't separate memory for core 0 if it's an async call.
396          */
397         if (!(flags & BUSTER_SHARED))
398                 buster = (uint32_t*)(BUSTER_ADDR + core_id() * 0x00800000);
399
400         /* Start the timer, if we're asked to print this info*/
401         if (flags & BUSTER_PRINT_TICKS)
402                 ticks = start_timing();
403
404         /* Allocate num_pages (up to MAX_PAGES), to simulate doing some more
405          * realistic work.  Note we don't write to these pages, even if we pick
406          * unshared.  Mostly due to the inconvenience of having to match up the
407          * number of pages with the number of writes.  And it's unnecessary.
408          */
409         if (num_pages) {
410                 spin_lock(&buster_lock);
411                 for (int i = 0; i < MIN(num_pages, MAX_PAGES); i++) {
412                         upage_alloc(p, &a_page[i],1);
413                         page_insert(p->env_pgdir, a_page[i], (void*)INSERT_ADDR + PGSIZE*i,
414                                     PTE_USER_RW);
415                 }
416                 spin_unlock(&buster_lock);
417         }
418
419         if (flags & BUSTER_LOCKED)
420                 spin_lock(&buster_lock);
421         for (int i = 0; i < MIN(num_writes, MAX_WRITES); i=i+stride)
422                 buster[i] = 0xdeadbeef;
423         if (flags & BUSTER_LOCKED)
424                 spin_unlock(&buster_lock);
425
426         if (num_pages) {
427                 spin_lock(&buster_lock);
428                 for (int i = 0; i < MIN(num_pages, MAX_PAGES); i++) {
429                         page_remove(p->env_pgdir, (void*)(INSERT_ADDR + PGSIZE * i));
430                         page_decref(a_page[i]);
431                 }
432                 spin_unlock(&buster_lock);
433         }
434
435         /* Print info */
436         if (flags & BUSTER_PRINT_TICKS) {
437                 ticks = stop_timing(ticks);
438                 printk("%llu,", ticks);
439         }
440         return;
441 }
442
443 // Print a string to the system console.
444 // The string is exactly 'len' characters long.
445 // Destroys the environment on memory errors.
446 static ssize_t sys_cputs(env_t* e, const char *DANGEROUS s, size_t len)
447 {
448         // Check that the user has permission to read memory [s, s+len).
449         // Destroy the environment if not.
450         char *COUNT(len) _s = user_mem_assert(e, s, len, PTE_USER_RO);
451
452         // Print the string supplied by the user.
453         printk("%.*s", len, _s);
454         return (ssize_t)len;
455 }
456
457 // Read a character from the system console.
458 // Returns the character.
459 static uint16_t sys_cgetc(env_t* e)
460 {
461         uint16_t c;
462
463         // The cons_getc() primitive doesn't wait for a character,
464         // but the sys_cgetc() system call does.
465         while ((c = cons_getc()) == 0)
466                 cpu_relax();
467
468         return c;
469 }
470
471 /* Returns the calling process's pid */
472 static pid_t sys_getpid(struct proc *p)
473 {
474         return p->pid;
475 }
476
477 /* Returns the id of the cpu this syscall is executed on. */
478 static uint32_t sys_getcpuid(void)
479 {
480         return core_id();
481 }
482
483 // TODO: Temporary hack until thread-local storage is implemented on i386
484 static size_t sys_getvcoreid(env_t* e)
485 {
486         if(e->state == PROC_RUNNING_S)
487                 return 0;
488
489         size_t i;
490         for(i = 0; i < e->num_vcores; i++)
491                 if(core_id() == e->vcoremap[i])
492                         return i;
493
494         panic("virtual core id not found in sys_getvcoreid()!");
495 }
496
497 /* Destroy proc pid.  If this is called by the dying process, it will never
498  * return.  o/w it will return 0 on success, or an error.  Errors include:
499  * - EBADPROC: if there is no such process with pid
500  * - EPERM: if caller does not control pid */
501 static error_t sys_proc_destroy(struct proc *p, pid_t pid, int exitcode)
502 {
503         error_t r;
504         struct proc *p_to_die = pid2proc(pid);
505
506         if (!p_to_die)
507                 return -EBADPROC;
508         if (!proc_controls(p, p_to_die)) {
509                 proc_decref(p_to_die, 1);
510                 return -EPERM;
511         }
512         if (p_to_die == p) {
513                 // syscall code and pid2proc both have edible references, only need 1.
514                 p->exitcode = exitcode;
515                 proc_decref(p, 1);
516                 printd("[PID %d] proc exiting gracefully (code %d)\n", p->pid,exitcode);
517         } else {
518                 panic("Destroying other processes is not supported yet.");
519                 //printk("[%d] destroying proc %d\n", p->pid, p_to_die->pid);
520         }
521         proc_destroy(p_to_die);
522         return ESUCCESS;
523 }
524
525 /*
526  * Creates a process found at the user string 'path'.  Currently uses KFS.
527  * Not runnable by default, so it needs it's status to be changed so that the
528  * next call to schedule() will try to run it.
529  * TODO: once we have a decent VFS, consider splitting this up
530  * and once there's an mmap, can have most of this in process.c
531  */
532 static int sys_proc_create(struct proc *p, const char *DANGEROUS path)
533 {
534         #define MAX_PATH_LEN 256 // totally arbitrary
535         int pid = 0;
536         char tpath[MAX_PATH_LEN];
537         /*
538          * There's a bunch of issues with reading in the path, which we'll
539          * need to sort properly in the VFS.  Main concerns are TOCTOU (copy-in),
540          * whether or not it's a big deal that the pointer could be into kernel
541          * space, and resolving both of these without knowing the length of the
542          * string. (TODO)
543          * Change this so that all syscalls with a pointer take a length.
544          *
545          * zra: I've added this user_mem_strlcpy, which I think eliminates the
546      * the TOCTOU issue. Adding a length arg to this call would allow a more
547          * efficient implementation, though, since only one call to user_mem_check
548          * would be required.
549          */
550         int ret = user_mem_strlcpy(p,tpath, path, MAX_PATH_LEN, PTE_USER_RO);
551         int kfs_inode = kfs_lookup_path(tpath);
552         if (kfs_inode < 0)
553                 return -EINVAL;
554         struct proc *new_p = kfs_proc_create(kfs_inode);
555         pid = new_p->pid;
556         proc_decref(new_p, 1); // let go of the reference created in proc_create()
557         return pid;
558 }
559
560 /* Makes process PID runnable.  Consider moving the functionality to process.c */
561 static error_t sys_proc_run(struct proc *p, unsigned pid)
562 {
563         struct proc *target = pid2proc(pid);
564         error_t retval = 0;
565
566         if (!target)
567                 return -EBADPROC;
568         // note we can get interrupted here. it's not bad.
569         spin_lock_irqsave(&p->proc_lock);
570         // make sure we have access and it's in the right state to be activated
571         if (!proc_controls(p, target)) {
572                 proc_decref(target, 1);
573                 retval = -EPERM;
574         } else if (target->state != PROC_CREATED) {
575                 proc_decref(target, 1);
576                 retval = -EINVAL;
577         } else {
578                 __proc_set_state(target, PROC_RUNNABLE_S);
579                 schedule_proc(target);
580         }
581         spin_unlock_irqsave(&p->proc_lock);
582         proc_decref(target, 1);
583         return retval;
584 }
585
586 static void* sys_brk(struct proc *p, void* addr) {
587         size_t range;
588
589         if((addr < p->heap_bottom) || (addr >= (void*)UMMAP_START))
590                 goto out;
591
592         if (addr > p->heap_top) {
593                 range = addr - p->heap_top;
594                 env_segment_alloc(p, p->heap_top, range);
595         }
596         else if (addr < p->heap_top) {
597                 range = p->heap_top - addr;
598                 env_segment_free(p, addr, range);
599         }
600         p->heap_top = addr;
601
602 out:
603         return p->heap_top;
604 }
605
606 void* sys_mmap(struct proc* p, uintreg_t a1, uintreg_t a2, uintreg_t a3,
607                uintreg_t* a456)
608 {
609         uintreg_t _a456[3];
610         if(memcpy_from_user(p,_a456,a456,3*sizeof(uintreg_t)))
611                 sys_proc_destroy(p,p->pid,-1);
612         return mmap(p,a1,a2,a3,_a456[0],_a456[1],_a456[2]);
613 }
614
615 /* Executes the given syscall.
616  *
617  * Note tf is passed in, which points to the tf of the context on the kernel
618  * stack.  If any syscall needs to block, it needs to save this info, as well as
619  * any silly state.
620  *
621  * TODO: Build a dispatch table instead of switching on the syscallno
622  * Dispatches to the correct kernel function, passing the arguments.
623  */
624 intreg_t syscall(struct proc *p, uintreg_t syscallno, uintreg_t a1,
625                  uintreg_t a2, uintreg_t a3, uintreg_t a4, uintreg_t a5)
626 {
627         typedef intreg_t (*syscall_t)(struct proc*,uintreg_t,uintreg_t,
628                                       uintreg_t,uintreg_t,uintreg_t);
629
630         const static syscall_t syscall_table[] = {
631                 [SYS_null] = (syscall_t)sys_null,
632                 [SYS_cache_buster] = (syscall_t)sys_cache_buster,
633                 [SYS_cache_invalidate] = (syscall_t)sys_cache_invalidate,
634                 [SYS_shared_page_alloc] = (syscall_t)sys_shared_page_alloc,
635                 [SYS_shared_page_free] = (syscall_t)sys_shared_page_free,
636                 [SYS_cputs] = (syscall_t)sys_cputs,
637                 [SYS_cgetc] = (syscall_t)sys_cgetc,
638                 [SYS_getcpuid] = (syscall_t)sys_getcpuid,
639                 [SYS_getvcoreid] = (syscall_t)sys_getvcoreid,
640                 [SYS_proc_destroy] = (syscall_t)sys_proc_destroy,
641                 [SYS_yield] = (syscall_t)proc_yield,
642                 [SYS_proc_create] = (syscall_t)sys_proc_create,
643                 [SYS_proc_run] = (syscall_t)sys_proc_run,
644                 [SYS_mmap] = (syscall_t)sys_mmap,
645                 [SYS_brk] = (syscall_t)sys_brk,
646                 [SYS_resource_req] = (syscall_t)resource_req,
647         #ifdef __i386__
648                 [SYS_serial_read] = (syscall_t)sys_serial_read,
649                 [SYS_serial_write] = (syscall_t)sys_serial_write,
650         #endif
651                 [SYS_run_binary] = (syscall_t)sys_run_binary,
652         #ifdef __NETWORK__
653                 [SYS_eth_read] = (syscall_t)sys_eth_read,
654                 [SYS_eth_write] = (syscall_t)sys_eth_write,
655         #endif
656                 [SYS_reboot] = (syscall_t)reboot,
657                 [SYS_fork] = (syscall_t)sys_fork,
658                 [SYS_trywait] = (syscall_t)sys_trywait,
659                 [SYS_exec] = (syscall_t)sys_exec,
660         #ifdef __sparc_v8__
661                 [SYS_frontend] = (syscall_t)frontend_syscall_from_user,
662                 [SYS_read] = (syscall_t)sys_read,
663                 [SYS_write] = (syscall_t)sys_write,
664                 [SYS_open] = (syscall_t)sys_open,
665                 [SYS_close] = (syscall_t)sys_close,
666                 [SYS_fstat] = (syscall_t)sys_fstat,
667                 [SYS_stat] = (syscall_t)sys_stat,
668                 [SYS_lstat] = (syscall_t)sys_lstat,
669                 [SYS_fcntl] = (syscall_t)sys_fcntl,
670                 [SYS_access] = (syscall_t)sys_access,
671                 [SYS_umask] = (syscall_t)sys_umask,
672                 [SYS_chmod] = (syscall_t)sys_chmod,
673                 [SYS_lseek] = (syscall_t)sys_lseek,
674                 [SYS_link] = (syscall_t)sys_link,
675                 [SYS_unlink] = (syscall_t)sys_unlink,
676                 [SYS_chdir] = (syscall_t)sys_chdir,
677                 [SYS_getcwd] = (syscall_t)sys_getcwd,
678                 [SYS_gettimeofday] = (syscall_t)sys_gettimeofday,
679         #endif
680         };
681
682         const int max_syscall = sizeof(syscall_table)/sizeof(syscall_table[0]);
683
684         if(syscallno > max_syscall || syscall_table[syscallno] == NULL)
685                 panic("Invalid syscall number %d for proc %x!", syscallno, *p);
686
687         return syscall_table[syscallno](p,a1,a2,a3,a4,a5);
688 }
689
690 intreg_t syscall_async(struct proc *p, syscall_req_t *call)
691 {
692         return syscall(p, call->num, call->args[0], call->args[1],
693                        call->args[2], call->args[3], call->args[4]);
694 }
695
696 /* You should already have a refcnt'd ref to p before calling this */
697 intreg_t process_generic_syscalls(struct proc *p, size_t max)
698 {
699         size_t count = 0;
700         syscall_back_ring_t* sysbr = &p->syscallbackring;
701
702         /* make sure the proc is still alive, and keep it from dying from under us
703          * incref will return ESUCCESS on success.  This might need some thought
704          * regarding when the incref should have happened (like by whoever passed us
705          * the *p). */
706         // TODO: ought to be unnecessary, if you called this right, kept here for
707         // now in case anyone actually uses the ARSCs.
708         proc_incref(p, 1);
709
710         // max is the most we'll process.  max = 0 means do as many as possible
711         while (RING_HAS_UNCONSUMED_REQUESTS(sysbr) && ((!max)||(count < max)) ) {
712                 if (!count) {
713                         // ASSUME: one queue per process
714                         // only switch cr3 for the very first request for this queue
715                         // need to switch to the right context, so we can handle the user pointer
716                         // that points to a data payload of the syscall
717                         lcr3(p->env_cr3);
718                 }
719                 count++;
720                 //printk("DEBUG PRE: sring->req_prod: %d, sring->rsp_prod: %d\n",
721                 //         sysbr->sring->req_prod, sysbr->sring->rsp_prod);
722                 // might want to think about 0-ing this out, if we aren't
723                 // going to explicitly fill in all fields
724                 syscall_rsp_t rsp;
725                 // this assumes we get our answer immediately for the syscall.
726                 syscall_req_t* req = RING_GET_REQUEST(sysbr, ++(sysbr->req_cons));
727                 rsp.retval = syscall_async(p, req);
728                 // write response into the slot it came from
729                 memcpy(req, &rsp, sizeof(syscall_rsp_t));
730                 // update our counter for what we've produced (assumes we went in order!)
731                 (sysbr->rsp_prod_pvt)++;
732                 RING_PUSH_RESPONSES(sysbr);
733                 //printk("DEBUG POST: sring->req_prod: %d, sring->rsp_prod: %d\n",
734                 //         sysbr->sring->req_prod, sysbr->sring->rsp_prod);
735         }
736         // load sane page tables (and don't rely on decref to do it for you).
737         lcr3(boot_cr3);
738         proc_decref(p, 1);
739         return (intreg_t)count;
740 }