Use a temp process for test_uaccess
[akaros.git] / kern / src / ktest / pb_ktests.c
index 11d4dc0..a5de1ee 100644 (file)
@@ -6,6 +6,7 @@
 
 #include <arch/mmu.h>
 #include <arch/arch.h>
+#include <arch/uaccess.h>
 #include <bitmask.h>
 #include <smp.h>
 
@@ -24,6 +25,7 @@
 #include <syscall.h>
 #include <time.h>
 #include <kfs.h>
+#include <mm.h>
 #include <multiboot.h>
 #include <pmap.h>
 #include <page_alloc.h>
 #include <kmalloc.h>
 #include <hashtable.h>
 #include <radix.h>
+#include <circular_buffer.h>
 #include <monitor.h>
 #include <kthread.h>
 #include <schedule.h>
 #include <umem.h>
+#include <init.h>
 #include <ucq.h>
 #include <setjmp.h>
+#include <sort.h>
 
 #include <apipe.h>
 #include <rwlock.h>
@@ -251,7 +256,7 @@ barrier_t test_cpu_array;
 bool test_barrier(void)
 {
        cprintf("Core 0 initializing barrier\n");
-       init_barrier(&test_cpu_array, num_cpus);
+       init_barrier(&test_cpu_array, num_cores);
        cprintf("Core 0 asking all cores to print ids, barrier, rinse, repeat\n");
        smp_call_function_all(test_barrier_handler, NULL, 0);
 
@@ -388,7 +393,7 @@ bool test_bitmasks(void)
        return true;
 }
 
-checklist_t *RO the_global_list;
+checklist_t *the_global_list;
 
 static void test_checklist_handler(struct hw_trapframe *hw_tf, void *data)
 {
@@ -400,7 +405,7 @@ static void test_checklist_handler(struct hw_trapframe *hw_tf, void *data)
 // TODO: Add assertions
 bool test_checklists(void)
 {
-       INIT_CHECKLIST(a_list, MAX_NUM_CPUS);
+       INIT_CHECKLIST(a_list, MAX_NUM_CORES);
        the_global_list = &a_list;
        printk("Checklist Build, mask size: %d\n", sizeof(a_list.mask.bits));
        printk("mask\n");
@@ -410,12 +415,12 @@ bool test_checklists(void)
        PRINT_BITMASK(a_list.mask.bits, a_list.mask.size);
 
        CLR_BITMASK(a_list.mask.bits, a_list.mask.size);
-       INIT_CHECKLIST_MASK(a_mask, MAX_NUM_CPUS);
-       FILL_BITMASK(a_mask.bits, num_cpus);
+       INIT_CHECKLIST_MASK(a_mask, MAX_NUM_CORES);
+       FILL_BITMASK(a_mask.bits, num_cores);
        //CLR_BITMASK_BIT(a_mask.bits, core_id());
        //SET_BITMASK_BIT(a_mask.bits, 1);
        //printk("New mask (1, 17, 25):\n");
-       printk("Created new mask, filled up to num_cpus\n");
+       printk("Created new mask, filled up to num_cores\n");
        PRINT_BITMASK(a_mask.bits, a_mask.size);
        printk("committing new mask\n");
        commit_checklist_wait(&a_list, &a_mask);
@@ -471,7 +476,7 @@ bool test_smp_call_functions(void)
        smp_call_wait(waiter0);
        printk("\nCore %d: SMP Call All-Else Individually, in order (nowait):\n", me);
        printk("---------------------\n");
-       for(i = 1; i < num_cpus; i++)
+       for(i = 1; i < num_cores; i++)
                smp_call_function_single(i, test_hello_world_handler, NULL, 0);
        printk("\nCore %d: SMP Call Self (wait):\n", me);
        printk("---------------------\n");
@@ -479,7 +484,7 @@ bool test_smp_call_functions(void)
        smp_call_wait(waiter0);
        printk("\nCore %d: SMP Call All-Else Individually, in order (wait):\n", me);
        printk("---------------------\n");
-       for(i = 1; i < num_cpus; i++)
+       for(i = 1; i < num_cores; i++)
        {
                smp_call_function_single(i, test_hello_world_handler, NULL, &waiter0);
                smp_call_wait(waiter0);
@@ -490,18 +495,18 @@ bool test_smp_call_functions(void)
        smp_call_function_all(test_incrementer_handler, &b, 0);
        smp_call_function_all(test_incrementer_handler, &c, 0);
        // if i can clobber a previous IPI, the interleaving might do it
-       smp_call_function_single(1 % num_cpus, test_incrementer_handler, &a, 0);
-       smp_call_function_single(2 % num_cpus, test_incrementer_handler, &b, 0);
-       smp_call_function_single(3 % num_cpus, test_incrementer_handler, &c, 0);
-       smp_call_function_single(4 % num_cpus, test_incrementer_handler, &a, 0);
-       smp_call_function_single(5 % num_cpus, test_incrementer_handler, &b, 0);
-       smp_call_function_single(6 % num_cpus, test_incrementer_handler, &c, 0);
+       smp_call_function_single(1 % num_cores, test_incrementer_handler, &a, 0);
+       smp_call_function_single(2 % num_cores, test_incrementer_handler, &b, 0);
+       smp_call_function_single(3 % num_cores, test_incrementer_handler, &c, 0);
+       smp_call_function_single(4 % num_cores, test_incrementer_handler, &a, 0);
+       smp_call_function_single(5 % num_cores, test_incrementer_handler, &b, 0);
+       smp_call_function_single(6 % num_cores, test_incrementer_handler, &c, 0);
        smp_call_function_all(test_incrementer_handler, &a, 0);
-       smp_call_function_single(3 % num_cpus, test_incrementer_handler, &c, 0);
+       smp_call_function_single(3 % num_cores, test_incrementer_handler, &c, 0);
        smp_call_function_all(test_incrementer_handler, &b, 0);
-       smp_call_function_single(1 % num_cpus, test_incrementer_handler, &a, 0);
+       smp_call_function_single(1 % num_cores, test_incrementer_handler, &a, 0);
        smp_call_function_all(test_incrementer_handler, &c, 0);
-       smp_call_function_single(2 % num_cpus, test_incrementer_handler, &b, 0);
+       smp_call_function_single(2 % num_cores, test_incrementer_handler, &b, 0);
        // wait, so we're sure the others finish before printing.
        // without this, we could (and did) get 19,18,19, since the B_inc
        // handler didn't finish yet
@@ -875,6 +880,83 @@ bool test_hashtable(void)
        return true;
 }
 
+bool test_circular_buffer(void)
+{
+       static const size_t cbsize = 4096;
+       struct circular_buffer cb;
+       char *bigbuf;
+       size_t csize, off, cnum, mxsize;
+       char buf[256];
+
+       KT_ASSERT_M("Failed to build the circular buffer",
+                               circular_buffer_init(&cb, cbsize, NULL));
+
+       for (size_t i = 0; i < 8 * cbsize; i++) {
+               size_t len = snprintf(buf, sizeof(buf), "%lu\n", i);
+
+               KT_ASSERT_M("Circular buffer write failed",
+                                       circular_buffer_write(&cb, buf, len) == len);
+       }
+       cnum = off = 0;
+       while ((csize = circular_buffer_read(&cb, buf, sizeof(buf), off)) != 0) {
+               char *top = buf + csize;
+               char *ptr = buf;
+               char *pnl;
+
+               while ((pnl = memchr(ptr, '\n', top - ptr)) != NULL) {
+                       size_t num;
+
+                       *pnl = 0;
+                       num = strtoul(ptr, NULL, 10);
+                       KT_ASSERT_M("Numbers should be ascending", num >= cnum);
+                       cnum = num;
+                       ptr = pnl + 1;
+               }
+
+               off += ptr - buf;
+       }
+
+       for (size_t i = 0; i < (cbsize / sizeof(buf) + 1); i++) {
+               memset(buf, (int) i, sizeof(buf));
+
+               KT_ASSERT_M("Circular buffer write failed",
+                                       circular_buffer_write(&cb, buf,
+                                                                                 sizeof(buf)) == sizeof(buf));
+       }
+       cnum = off = 0;
+       while ((csize = circular_buffer_read(&cb, buf, sizeof(buf), off)) != 0) {
+               size_t num = buf[0];
+
+               KT_ASSERT_M("Invalid record read size", csize == sizeof(buf));
+
+               if (off != 0)
+                       KT_ASSERT_M("Invalid record sequence number",
+                                               num == ((cnum + 1) % 256));
+               cnum = num;
+               off += csize;
+       }
+
+       bigbuf = kzmalloc(cbsize, KMALLOC_WAIT);
+       KT_ASSERT(bigbuf != NULL);
+
+       mxsize = circular_buffer_max_write_size(&cb);
+       KT_ASSERT_M("Circular buffer max write failed",
+                               circular_buffer_write(&cb, bigbuf, mxsize) == mxsize);
+
+       memset(bigbuf, 17, cbsize);
+       csize = circular_buffer_read(&cb, bigbuf, mxsize, 0);
+       KT_ASSERT_M("Invalid max record read size", csize == mxsize);
+
+       for (size_t i = 0; i < csize; i++)
+               KT_ASSERT_M("Invalid max record value", bigbuf[i] == 0);
+
+       kfree(bigbuf);
+
+       circular_buffer_destroy(&cb);
+
+       return TRUE;
+}
+
 /* Ghetto test, only tests one prod or consumer at a time */
 // TODO: Un-guetto test, add assertions.
 bool test_bcq(void)
@@ -1038,7 +1120,7 @@ bool test_ucq(void)
        set_alarm(tchain, waiter);
        /* Just spawn the program */
        struct file *program;
-       program = do_file_open("/bin/ucq", 0, 0);
+       program = do_file_open("/bin/ucq", O_READ, 0);
        
        KT_ASSERT_M("We should be able to find /bin/ucq", 
                    program);
@@ -1337,8 +1419,7 @@ static void __test_up_sem(uint32_t srcid, long a0, long a1, long a2)
 // TODO: Add assertions.
 bool test_kthreads(void)
 {
-       struct semaphore sem;
-       sem_init(&sem, 1);              /* set to 1 to test the unwind */
+       struct semaphore sem = SEMAPHORE_INITIALIZER(sem, 1);
        printk("We're a kthread!  Stacktop is %p.  Testing suspend, etc...\n",
               get_stack_top());
        /* So we have something that will wake us up.  Routine messages won't get
@@ -1530,9 +1611,9 @@ bool test_cv(void)
        printk("test_cv: signal without waiting complete\n");
 
        /* Test 1: single / minimal shit */
-       nr_msgs = num_cpus - 1; /* not using cpu 0 */
+       nr_msgs = num_cores - 1; /* not using cpu 0 */
        atomic_init(&counter, nr_msgs);
-       for (int i = 1; i < num_cpus; i++)
+       for (int i = 1; i < num_cores; i++)
                send_kernel_message(i, __test_cv_waiter, 0, 0, 0, KMSG_ROUTINE);
        udelay(1000000);
        cv_signal(cv);
@@ -1552,7 +1633,7 @@ bool test_cv(void)
        nr_msgs = 0x500;        /* any more than 0x20000 could go OOM */
        atomic_init(&counter, nr_msgs);
        for (int i = 0; i < nr_msgs; i++) {
-               int cpu = (i % (num_cpus - 1)) + 1;
+               int cpu = (i % (num_cores - 1)) + 1;
                if (atomic_read(&counter) % 5)
                        send_kernel_message(cpu, __test_cv_waiter, 0, 0, 0, KMSG_ROUTINE);
                else
@@ -1812,8 +1893,8 @@ bool test_rwlock(void)
        }
                
        /* send 4 messages to each non core 0 */
-       atomic_init(&rwlock_counter, (num_cpus - 1) * 4);
-       for (int i = 1; i < num_cpus; i++)
+       atomic_init(&rwlock_counter, (num_cores - 1) * 4);
+       for (int i = 1; i < num_cores; i++)
                for (int j = 0; j < 4; j++)
                        send_kernel_message(i, __test_rwlock, 0, 0, 0, KMSG_ROUTINE);
        while (atomic_read(&rwlock_counter))
@@ -1867,10 +1948,10 @@ bool test_rv(void)
        printk("test_rv: wakeup without sleeping complete\n");
 
        /* Test 1: a few sleepers */
-       nr_msgs = num_cpus - 1; /* not using cpu 0 */
+       nr_msgs = num_cores - 1; /* not using cpu 0 */
        atomic_init(&counter, nr_msgs);
        state = FALSE;
-       for (int i = 1; i < num_cpus; i++)
+       for (int i = 1; i < num_cores; i++)
                send_kernel_message(i, __test_rv_sleeper, 0, 0, 0, KMSG_ROUTINE);
        udelay(1000000);
        cmb();
@@ -1888,10 +1969,10 @@ bool test_rv(void)
        nr_msgs = 0x500;        /* any more than 0x20000 could go OOM */
        atomic_init(&counter, nr_msgs);
        for (int i = 0; i < nr_msgs; i++) {
-               int cpu = (i % (num_cpus - 1)) + 1;
+               int cpu = (i % (num_cores - 1)) + 1;
                /* timeouts from 0ms ..5000ms (enough that they should wake via cond */
                if (atomic_read(&counter) % 5)
-                       send_kernel_message(cpu, __test_rv_sleeper_timeout, i * 4, 0, 0,
+                       send_kernel_message(cpu, __test_rv_sleeper_timeout, i * 4000, 0, 0,
                                            KMSG_ROUTINE);
                else
                        send_kernel_message(cpu, __test_rv_sleeper, 0, 0, 0, KMSG_ROUTINE);
@@ -2086,6 +2167,212 @@ bool test_u16pool(void)
        return FALSE;
 }
 
+bool test_uaccess(void)
+{
+       char buf[128] = { 0 };
+       char buf2[128] = { 0 };
+       struct proc *tmp;
+       int err;
+       static const size_t mmap_size = 4096;
+       void *addr;
+
+       err = proc_alloc(&tmp, 0, 0);
+       KT_ASSERT_M("Failed to alloc a temp proc", err == 0);
+       /* Tell everyone we're ready in case some ops don't work on PROC_CREATED */
+       __proc_set_state(tmp, PROC_RUNNABLE_S);
+
+       addr = mmap(tmp, 0, mmap_size, PROT_READ | PROT_WRITE, MAP_PRIVATE, -1, 0);
+
+       KT_ASSERT_M("Mmap failed", addr != MAP_FAILED);
+
+       KT_ASSERT_M(
+               "Copy to user (u8) to mapped address should not fail",
+               copy_to_user(addr, buf, 1) == 0);
+       KT_ASSERT_M(
+               "Copy to user (u16) to mapped address should not fail",
+               copy_to_user(addr, buf, 2) == 0);
+       KT_ASSERT_M(
+               "Copy to user (u32) to mapped address should not fail",
+               copy_to_user(addr, buf, 4) == 0);
+       KT_ASSERT_M(
+               "Copy to user (u64) to mapped address should not fail",
+               copy_to_user(addr, buf, 8) == 0);
+       KT_ASSERT_M(
+               "Copy to user (mem) to mapped address should not fail",
+               copy_to_user(addr, buf, sizeof(buf)) == 0);
+
+       KT_ASSERT_M(
+               "Copy from user (u8) to mapped address should not fail",
+               copy_from_user(buf, addr, 1) == 0);
+       KT_ASSERT_M(
+               "Copy from user (u16) to mapped address should not fail",
+               copy_from_user(buf, addr, 2) == 0);
+       KT_ASSERT_M(
+               "Copy from user (u32) to mapped address should not fail",
+               copy_from_user(buf, addr, 4) == 0);
+       KT_ASSERT_M(
+               "Copy from user (u64) to mapped address should not fail",
+               copy_from_user(buf, addr, 8) == 0);
+       KT_ASSERT_M(
+               "Copy from user (mem) to mapped address should not fail",
+               copy_from_user(buf, addr, sizeof(buf)) == 0);
+
+       KT_ASSERT_M(
+               "String copy to user to mapped address should not fail",
+               strcpy_to_user(current, addr, "Akaros") == 0);
+       KT_ASSERT_M(
+               "String copy from user to mapped address should not fail",
+               strcpy_from_user(current, buf, addr) == 0);
+       KT_ASSERT_M("The copied string content should be matching",
+                               memcmp(buf, "Akaros", 7) == 0);
+
+       munmap(tmp, (uintptr_t) addr, mmap_size);
+
+
+       KT_ASSERT_M("Copy to user (u8) to not mapped address should fail",
+                               copy_to_user(addr, buf, 1) == -EFAULT);
+       KT_ASSERT_M("Copy to user (u16) to not mapped address should fail",
+                               copy_to_user(addr, buf, 2) == -EFAULT);
+       KT_ASSERT_M("Copy to user (u32) to not mapped address should fail",
+                               copy_to_user(addr, buf, 4) == -EFAULT);
+       KT_ASSERT_M("Copy to user (u64) to not mapped address should fail",
+                               copy_to_user(addr, buf, 8) == -EFAULT);
+       KT_ASSERT_M("Copy to user (mem) to not mapped address should fail",
+                               copy_to_user(addr, buf, sizeof(buf)) == -EFAULT);
+
+       KT_ASSERT_M("Copy from user (u8) to not mapped address should fail",
+                               copy_from_user(buf, addr, 1) == -EFAULT);
+       KT_ASSERT_M("Copy from user (u16) to not mapped address should fail",
+                               copy_from_user(buf, addr, 2) == -EFAULT);
+       KT_ASSERT_M("Copy from user (u32) to not mapped address should fail",
+                               copy_from_user(buf, addr, 4) == -EFAULT);
+       KT_ASSERT_M("Copy from user (u64) to not mapped address should fail",
+                               copy_from_user(buf, addr, 8) == -EFAULT);
+       KT_ASSERT_M("Copy from user (mem) to not mapped address should fail",
+                               copy_from_user(buf, addr, sizeof(buf)) == -EFAULT);
+
+       KT_ASSERT_M(
+               "String copy to user to not mapped address should fail",
+               strcpy_to_user(NULL, addr, "Akaros") == -EFAULT);
+       KT_ASSERT_M(
+               "String copy from user to not mapped address should fail",
+               strcpy_from_user(NULL, buf, addr) == -EFAULT);
+
+       KT_ASSERT_M("Copy from user with kernel side source pointer should fail",
+                               copy_from_user(buf, buf2, sizeof(buf)) == -EFAULT);
+       KT_ASSERT_M("Copy to user with kernel side source pointer should fail",
+                               copy_to_user(buf, buf2, sizeof(buf)) == -EFAULT);
+
+       proc_decref(tmp);
+       return TRUE;
+}
+
+bool test_sort(void)
+{
+       int cmp_longs_asc(const void *p1, const void *p2)
+       {
+               const long v1 = *(const long *) p1;
+               const long v2 = *(const long *) p2;
+
+               return v1 < v2 ? -1 : (v1 > v2 ? 1 : 0);
+       }
+
+       int cmp_longs_desc(const void *p1, const void *p2)
+       {
+               const long v1 = *(const long *) p1;
+               const long v2 = *(const long *) p2;
+
+               return v1 < v2 ? 1 : (v1 > v2 ? -1 : 0);
+       }
+
+       size_t i;
+       long long_set_1[] = {
+               -9, 11, 0, 23, 123, -99, 3, 11, 23, -999, 872, 17, 21
+       };
+       long long_set_2[] = {
+               31, 77, -1, 2, 0, 64, 11, 19, 69, 111, -89, 17, 21, 44, 77
+       };
+
+       sort(long_set_1, ARRAY_SIZE(long_set_1), sizeof(long), cmp_longs_asc);
+       for (i = 1; i < ARRAY_SIZE(long_set_1); i++)
+               KT_ASSERT(long_set_1[i - 1] <= long_set_1[i]);
+
+       sort(long_set_2, ARRAY_SIZE(long_set_2), sizeof(long), cmp_longs_desc);
+       for (i = 1; i < ARRAY_SIZE(long_set_2); i++)
+               KT_ASSERT(long_set_2[i - 1] >= long_set_2[i]);
+
+       return TRUE;
+}
+
+bool test_cmdline_parse(void)
+{
+       static const char *fake_cmdline =
+               "kernel -root=/foo -simple -num=123 -quoted='abc \\'' -dup=311 "
+               "-dup='akaros' -empty='' -inner=-outer -outer=-inner=xyz";
+       const char *opt;
+       char param[128];
+
+       /* Note that the get_boot_option() API should be passed NULL the first time
+        * it is called, in normal cases, and should be passed the value returned by
+        * previous call to get_boot_option(), in case multiple options with same
+        * name have to be fetched.
+        */
+       opt = get_boot_option(fake_cmdline, "-root", param, sizeof(param));
+       KT_ASSERT_M("Unable to parse -root option", opt);
+       KT_ASSERT_M("Invalid -root option value", strcmp(param, "/foo") == 0);
+
+       opt = get_boot_option(fake_cmdline, "-root", NULL, 0);
+       KT_ASSERT_M("Unable to parse -root option when param not provided", opt);
+
+       opt = get_boot_option(fake_cmdline, "-simple", param, sizeof(param));
+       KT_ASSERT_M("Unable to parse -simple option", opt);
+       KT_ASSERT_M("Invalid -simple option value", strcmp(param, "") == 0);
+
+       opt = get_boot_option(fake_cmdline, "-num", param, sizeof(param));
+       KT_ASSERT_M("Unable to parse -num option", opt);
+       KT_ASSERT_M("Invalid -num option value", strcmp(param, "123") == 0);
+
+       opt = get_boot_option(fake_cmdline, "-quoted", param, sizeof(param));
+       KT_ASSERT_M("Unable to parse -quoted option", opt);
+       KT_ASSERT_M("Invalid -quoted option value", strcmp(param, "abc '") == 0);
+
+       opt = get_boot_option(fake_cmdline, "-dup", param, sizeof(param));
+       KT_ASSERT_M("Unable to parse -dup option", opt);
+       KT_ASSERT_M("Invalid -dup option first value", strcmp(param, "311") == 0);
+
+       opt = get_boot_option(opt, "-dup", param, sizeof(param));
+       KT_ASSERT_M("Unable to parse -dup option", opt);
+       KT_ASSERT_M("Invalid -dup option second value",
+                               strcmp(param, "akaros") == 0);
+
+       opt = get_boot_option(fake_cmdline, "-inner", param, sizeof(param));
+       KT_ASSERT_M("Unable to parse -inner option", opt);
+       KT_ASSERT_M("Invalid -inner option value", strcmp(param, "-outer") == 0);
+
+       opt = get_boot_option(opt, "-inner", param, sizeof(param));
+       KT_ASSERT_M("Should not be parsing -inner as value", !opt);
+
+       opt = get_boot_option(fake_cmdline, "-outer", param, sizeof(param));
+       KT_ASSERT_M("Unable to parse -outer option", opt);
+       KT_ASSERT_M("Invalid -outer option value",
+                               strcmp(param, "-inner=xyz") == 0);
+
+       opt = get_boot_option(fake_cmdline, "-missing", param, sizeof(param));
+       KT_ASSERT_M("Should not be parsing -missing option", !opt);
+
+       opt = get_boot_option(fake_cmdline, "-inne", NULL, 0);
+       KT_ASSERT_M("Should not be parsing -inne option", !opt);
+
+       opt = get_boot_option(fake_cmdline, "-outera", NULL, 0);
+       KT_ASSERT_M("Should not be parsing -outera option", !opt);
+
+       opt = get_boot_option(fake_cmdline, "-empty", param, sizeof(param));
+       KT_ASSERT_M("Unable to parse -empty option", opt);
+       KT_ASSERT_M("Invalid -empty option value", strcmp(param, "") == 0);
+
+       return TRUE;
+}
+
 static struct ktest ktests[] = {
 #ifdef CONFIG_X86
        KTEST_REG(ipi_sending,        CONFIG_TEST_ipi_sending),
@@ -2107,6 +2394,7 @@ static struct ktest ktests[] = {
        KTEST_REG(slab,               CONFIG_TEST_slab),
        KTEST_REG(kmalloc,            CONFIG_TEST_kmalloc),
        KTEST_REG(hashtable,          CONFIG_TEST_hashtable),
+       KTEST_REG(circular_buffer,    CONFIG_TEST_circular_buffer),
        KTEST_REG(bcq,                CONFIG_TEST_bcq),
        KTEST_REG(ucq,                CONFIG_TEST_ucq),
        KTEST_REG(vm_regions,         CONFIG_TEST_vm_regions),
@@ -2125,6 +2413,9 @@ static struct ktest ktests[] = {
        KTEST_REG(alarm,              CONFIG_TEST_alarm),
        KTEST_REG(kmalloc_incref,     CONFIG_TEST_kmalloc_incref),
        KTEST_REG(u16pool,            CONFIG_TEST_u16pool),
+       KTEST_REG(uaccess,            CONFIG_TEST_uaccess),
+       KTEST_REG(sort,               CONFIG_TEST_sort),
+       KTEST_REG(cmdline_parse,      CONFIG_TEST_cmdline_parse),
 };
 static int num_ktests = sizeof(ktests) / sizeof(struct ktest);
 linker_func_1(register_pb_ktests)