parlib: slab: Use the modern ctor/dtor interface
[akaros.git] / user / parlib / syscall.c
index f5e4e5d..aaf3a1c 100644 (file)
@@ -1,33 +1,21 @@
 // System call stubs.
 
-#include <parlib.h>
-#include <vcore.h>
+#include <parlib/parlib.h>
+#include <parlib/vcore.h>
+#include <parlib/serialize.h>
+#include <parlib/assert.h>
+#include <parlib/stdio.h>
 
 int sys_proc_destroy(int pid, int exitcode)
 {
        return ros_syscall(SYS_proc_destroy, pid, exitcode, 0, 0, 0, 0);
 }
 
-int sys_getpid(void)
-{
-        return ros_syscall(SYS_getpid, 0, 0, 0, 0, 0, 0);
-}
-
 size_t sys_getpcoreid(void)
 {
         return ros_syscall(SYS_getpcoreid, 0, 0, 0, 0, 0, 0);
 }
 
-ssize_t sys_cputs(const uint8_t *s, size_t len)
-{
-    return ros_syscall(SYS_cputs, s,  len, 0, 0, 0, 0);
-}
-
-uint16_t sys_cgetc(void)
-{
-    return ros_syscall(SYS_cgetc, 0, 0, 0, 0, 0, 0);
-}
-
 int sys_null(void)
 {
     return ros_syscall(SYS_null, 0, 0, 0, 0, 0, 0);
@@ -53,17 +41,21 @@ void sys_reboot(void)
 
 void sys_yield(bool being_nice)
 {
-       ros_syscall(SYS_yield, being_nice, 0, 0, 0, 0, 0);
+       ros_syscall(SYS_proc_yield, being_nice, 0, 0, 0, 0, 0);
 }
 
-int sys_proc_create(char *path, size_t path_l, char *argv[], char *envp[])
+int sys_proc_create(const char *path, size_t path_l, char *const argv[],
+                    char *const envp[], int flags)
 {
-       struct procinfo pi;
-       if (procinfo_pack_args(&pi, argv, envp)) {
+       struct serialized_data *sd = serialize_argv_envp(argv, envp);
+       if (!sd) {
                errno = ENOMEM;
                return -1;
        }
-       return ros_syscall(SYS_proc_create, path, path_l, &pi, 0, 0, 0);
+       int ret = ros_syscall(SYS_proc_create, path, path_l,
+                             sd->buf, sd->len, flags, 0);
+       free_serialized_data(sd);
+       return ret;
 }
 
 int sys_proc_run(int pid)
@@ -71,8 +63,8 @@ int sys_proc_run(int pid)
        return ros_syscall(SYS_proc_run, pid, 0, 0, 0, 0, 0);
 }
 
-void *CT(length) sys_mmap(void *SNT addr, size_t length, int prot, int flags,
-                          int fd, size_t offset)
+void *sys_mmap(void *addr, size_t length, int prot, int flags,
+               int fd, size_t offset)
 {
        return (void*)ros_syscall(SYS_mmap, addr, length, prot, flags, fd, offset);
 }
@@ -93,7 +85,13 @@ int sys_self_notify(uint32_t vcoreid, unsigned int ev_type,
        return ros_syscall(SYS_self_notify, vcoreid, ev_type, u_msg, priv, 0, 0);
 }
 
-int sys_halt_core(unsigned int usec)
+int sys_send_event(struct event_queue *ev_q, struct event_msg *ev_msg,
+                   uint32_t vcoreid)
+{
+       return ros_syscall(SYS_send_event, ev_q, ev_msg, vcoreid, 0, 0, 0);
+}
+
+int sys_halt_core(unsigned long usec)
 {
        return ros_syscall(SYS_halt_core, usec, 0, 0, 0, 0, 0);
 }
@@ -103,7 +101,7 @@ void* sys_init_arsc()
        return (void*)ros_syscall(SYS_init_arsc, 0, 0, 0, 0, 0, 0);
 }
 
-int sys_block(unsigned int usec)
+int sys_block(unsigned long usec)
 {
        return ros_syscall(SYS_block, usec, 0, 0, 0, 0, 0);
 }
@@ -130,6 +128,9 @@ int sys_change_vcore(uint32_t vcoreid, bool enable_my_notif)
         * unlocking the proc, before finish_sysc()), and the act of finishing would
         * write onto our stack.  Thus we use the per-vcore struct. */
        int flags;
+
+       /* Sanity check.  Uthreads can call this, but only when notifs disabled. */
+       assert(!notif_is_enabled(vcore_id()));
        /* Need to wait while a previous syscall is not done or locked.  Since this
         * should only be called from VC ctx, we'll just spin.  Should be extremely
         * rare.  Note flags is initialized to SC_DONE. */
@@ -167,7 +168,17 @@ int sys_abort_sysc(struct syscall *sysc)
        return ros_syscall(SYS_abort_sysc, sysc, 0, 0, 0, 0, 0);
 }
 
-long syscall_async(struct syscall *sysc, unsigned long num, ...)
+int sys_abort_sysc_fd(int fd)
+{
+       return ros_syscall(SYS_abort_sysc_fd, fd, 0, 0, 0, 0, 0);
+}
+
+int sys_tap_fds(struct fd_tap_req *tap_reqs, size_t nr_reqs)
+{
+       return ros_syscall(SYS_tap_fds, tap_reqs, nr_reqs, 0, 0, 0, 0);
+}
+
+void syscall_async(struct syscall *sysc, unsigned long num, ...)
 {
        va_list args;
 
@@ -186,3 +197,24 @@ long syscall_async(struct syscall *sysc, unsigned long num, ...)
        va_end(args);
        __ros_arch_syscall((long)sysc, 1);
 }
+
+void syscall_async_evq(struct syscall *sysc, struct event_queue *evq,
+                       unsigned long num, ...)
+{
+       va_list args;
+
+       sysc->num = num;
+       atomic_set(&sysc->flags, SC_UEVENT);
+       sysc->ev_q = evq;
+       /* This is a little dangerous, since we'll usually pull more args than were
+        * passed in, ultimately reading gibberish off the stack. */
+       va_start(args, num);
+       sysc->arg0 = va_arg(args, long);
+       sysc->arg1 = va_arg(args, long);
+       sysc->arg2 = va_arg(args, long);
+       sysc->arg3 = va_arg(args, long);
+       sysc->arg4 = va_arg(args, long);
+       sysc->arg5 = va_arg(args, long);
+       va_end(args);
+       __ros_arch_syscall((long)sysc, 1);
+}