BNX2X: disables TPA
[akaros.git] / kern / src / trap.c
index 0c070a0..ed8362f 100644 (file)
 #include <kdebug.h>
 #include <kmalloc.h>
 
+void reflect_unhandled_trap(unsigned int trap_nr, unsigned int err,
+                            unsigned long aux)
+{
+       uint32_t coreid = core_id();
+       struct per_cpu_info *pcpui = &per_cpu_info[coreid];
+       struct proc *p = pcpui->cur_proc;
+       uint32_t vcoreid = pcpui->owning_vcoreid;
+       struct preempt_data *vcpd = &p->procdata->vcore_preempt_data[vcoreid];
+       struct hw_trapframe *hw_tf = &pcpui->cur_ctx->tf.hw_tf;
+       assert(p);
+       assert(pcpui->cur_ctx && (pcpui->cur_ctx->type == ROS_HW_CTX));
+       if (!(p->procinfo->is_mcp)) {
+               printk("Unhandled SCP trap\n");
+               goto error_out;
+       }
+       if (vcpd->notif_disabled) {
+               printk("Unhandled MCP trap in vcore context\n");
+               goto error_out;
+       }
+       /* need to store trap_nr, err code, and aux into the tf so that it can get
+        * extracted on the other end, and we need to flag the TF in some way so we
+        * can tell it was reflected.  for example, on a PF, we need some number (14
+        * on x86), the prot violation (write, read, etc), and the virt addr (aux).
+        * parlib will know how to extract this info. */
+       __arch_reflect_trap_hwtf(hw_tf, trap_nr, err, aux);
+       /* the guts of a __notify */
+       vcpd->notif_disabled = TRUE;
+       vcpd->uthread_ctx = *pcpui->cur_ctx;
+       memset(pcpui->cur_ctx, 0, sizeof(struct user_context));
+       proc_init_ctx(pcpui->cur_ctx, vcoreid, p->env_entry,
+                     vcpd->transition_stack, vcpd->vcore_tls_desc);
+       return;
+error_out:
+       print_trapframe(hw_tf);
+       enable_irq();
+       printk("err 0x%x (for PFs: User 4, Wr 2, Rd 1), aux %p\n", err, aux);
+       debug_addr_proc(p, get_hwtf_pc(hw_tf));
+       print_vmrs(p);
+       proc_destroy(p);
+}
+
 struct kmem_cache *kernel_msg_cache;
 
 void kernel_msg_init(void)
@@ -65,22 +106,29 @@ uint32_t send_kernel_message(uint32_t dst, amr_t pc, long arg0, long arg1,
  *
  * Note that all of this happens from interrupt context, and interrupts are
  * disabled. */
-void handle_kmsg_ipi(struct trapframe *tf, void *data)
+void handle_kmsg_ipi(struct hw_trapframe *hw_tf, void *data)
 {
        struct per_cpu_info *pcpui = &per_cpu_info[core_id()];
        struct kernel_message *kmsg_i, *temp;
-       assert(!irq_is_enabled());
-       /* Avoid locking if the list appears empty (lockless peak is okay) */
+       /* Avoid locking if the list appears empty (lockless peek is okay) */
        if (STAILQ_EMPTY(&pcpui->immed_amsgs))
                return;
        /* The lock serves as a cmb to force a re-read of the head of the list */
-       spin_lock(&pcpui->immed_amsg_lock);
+       spin_lock_irqsave(&pcpui->immed_amsg_lock);
        STAILQ_FOREACH_SAFE(kmsg_i, &pcpui->immed_amsgs, link, temp) {
+               pcpui_trace_kmsg(pcpui, (uintptr_t)kmsg_i->pc);
                kmsg_i->pc(kmsg_i->srcid, kmsg_i->arg0, kmsg_i->arg1, kmsg_i->arg2);
                STAILQ_REMOVE(&pcpui->immed_amsgs, kmsg_i, kernel_message, link);
                kmem_cache_free(kernel_msg_cache, (void*)kmsg_i);
        }
-       spin_unlock(&pcpui->immed_amsg_lock);
+       spin_unlock_irqsave(&pcpui->immed_amsg_lock);
+}
+
+bool has_routine_kmsg(void)
+{
+       struct per_cpu_info *pcpui = &per_cpu_info[core_id()];
+       /* lockless peek */
+       return !STAILQ_EMPTY(&pcpui->routine_amsgs);
 }
 
 /* Helper function, gets the next routine KMSG (RKM).  Returns 0 if the list was
@@ -88,10 +136,11 @@ void handle_kmsg_ipi(struct trapframe *tf, void *data)
 static kernel_message_t *get_next_rkmsg(struct per_cpu_info *pcpui)
 {
        struct kernel_message *kmsg;
-       /* Avoid locking if the list appears empty (lockless peak is okay) */
+       /* Avoid locking if the list appears empty (lockless peek is okay) */
        if (STAILQ_EMPTY(&pcpui->routine_amsgs))
                return 0;
-       /* The lock serves as a cmb to force a re-read of the head of the list */
+       /* The lock serves as a cmb to force a re-read of the head of the list.
+        * IRQs are disabled by our caller. */
        spin_lock(&pcpui->routine_amsg_lock);
        kmsg = STAILQ_FIRST(&pcpui->routine_amsgs);
        if (kmsg)
@@ -125,7 +174,21 @@ void process_routine_kmsg(void)
                kmem_cache_free(kernel_msg_cache, (void*)kmsg);
                assert(msg_cp.dstid == pcoreid);        /* caught a brutal bug with this */
                set_rkmsg(pcpui);                                       /* we're now in early RKM ctx */
+               /* The kmsg could block.  If it does, we want the kthread code to know
+                * it's not running on behalf of a process, and we're actually spawning
+                * a kernel task.  While we do have a syscall that does work in an RKM
+                * (change_to), it's not really the rest of the syscall context. */
+               pcpui->cur_kthread->is_ktask = TRUE;
+               pcpui_trace_kmsg(pcpui, (uintptr_t)msg_cp.pc);
                msg_cp.pc(msg_cp.srcid, msg_cp.arg0, msg_cp.arg1, msg_cp.arg2);
+               /* And if we make it back, be sure to unset this.  If we never return,
+                * but the kthread exits via some other way (smp_idle()), then
+                * smp_idle() will deal with the flag.  The default state is "off".  For
+                * an example of an RKM that does this, check out the
+                * monitor->mon_bin_run.  Finally, if the kthread gets swapped out of
+                * pcpui, such as in __launch_kthread(), the next time the kthread is
+                * reused, is_ktask will be reset. */
+               pcpui->cur_kthread->is_ktask = FALSE;
                /* If we aren't still in early RKM, it is because the KMSG blocked
                 * (thus leaving early RKM, finishing in default context) and then
                 * returned.  This is a 'detached' RKM.  Must idle in this scenario,
@@ -154,7 +217,7 @@ void print_kmsgs(uint32_t coreid)
                struct kernel_message *kmsg_i;
                STAILQ_FOREACH(kmsg_i, list, link) {
                        fn_name = get_fn_name((long)kmsg_i->pc);
-                       printk("%s KMSG on %d from %d to run %08p(%s)\n", type,
+                       printk("%s KMSG on %d from %d to run %p(%s)\n", type,
                               kmsg_i->dstid, kmsg_i->srcid, kmsg_i->pc, fn_name); 
                        kfree(fn_name);
                }
@@ -182,20 +245,20 @@ void kmsg_queue_stat(void)
                        printk("Immed msg on core %d:\n", i);
                        printk("\tsrc:  %d\n", kmsg->srcid);
                        printk("\tdst:  %d\n", kmsg->dstid);
-                       printk("\tpc:   %08p\n", kmsg->pc);
-                       printk("\targ0: %08p\n", kmsg->arg0);
-                       printk("\targ1: %08p\n", kmsg->arg1);
-                       printk("\targ2: %08p\n", kmsg->arg2);
+                       printk("\tpc:   %p\n", kmsg->pc);
+                       printk("\targ0: %p\n", kmsg->arg0);
+                       printk("\targ1: %p\n", kmsg->arg1);
+                       printk("\targ2: %p\n", kmsg->arg2);
                }
                if (!routine_emp) {
                        kmsg = STAILQ_FIRST(&per_cpu_info[i].routine_amsgs);
                        printk("Routine msg on core %d:\n", i);
                        printk("\tsrc:  %d\n", kmsg->srcid);
                        printk("\tdst:  %d\n", kmsg->dstid);
-                       printk("\tpc:   %08p\n", kmsg->pc);
-                       printk("\targ0: %08p\n", kmsg->arg0);
-                       printk("\targ1: %08p\n", kmsg->arg1);
-                       printk("\targ2: %08p\n", kmsg->arg2);
+                       printk("\tpc:   %p\n", kmsg->pc);
+                       printk("\targ0: %p\n", kmsg->arg0);
+                       printk("\targ1: %p\n", kmsg->arg1);
+                       printk("\targ2: %p\n", kmsg->arg2);
                }
                        
        }
@@ -208,6 +271,16 @@ void print_kctx_depths(const char *str)
        
        if (!str)
                str = "(none)";
-       printk("%s: Core %d, irq depth %d, ktrap depth %d\n", str, coreid,
-              irq_depth(pcpui), ktrap_depth(pcpui));
+       printk("%s: Core %d, irq depth %d, ktrap depth %d, irqon %d\n", str, coreid,
+              irq_depth(pcpui), ktrap_depth(pcpui), irq_is_enabled());
+}
+
+void print_user_ctx(struct user_context *ctx)
+{
+       if (ctx->type == ROS_SW_CTX)
+               print_swtrapframe(&ctx->tf.sw_tf);
+       else if (ctx->type == ROS_HW_CTX)
+               print_trapframe(&ctx->tf.hw_tf);
+       else
+               printk("Bad TF %p type %d!\n", ctx, ctx->type);
 }