Splits pmap ops up for each arch
[akaros.git] / kern / arch / riscv / boot.S
index 0aa0a24..6fbe805 100644 (file)
 // entry point
 ///////////////////////////////////////////////////////////////////
 
-#define PCR0 (SR_S | SR_ET | SR_SX)
+#define PCR0 (SR_S | SR_S64 | (1 << (IRQ_IPI + SR_IM_SHIFT)))
 .text
 
 .global _start
-.ent _start
 _start:
   // This is the first kernel code that executes; it is run only by core 0.
 
   // set up trap entry point.  this is not a relocated address, as we
   // do not support trapping before the MMU is set up.
-  la     t0, trap_entry
-  mtpcr  t0, ASM_CR(PCR_EVEC)
+  la     a6, trap_entry
+  mtpcr  a6, ASM_CR(PCR_EVEC)
 
-  // enable traps
-  li     t0, PCR0
-  mtpcr  t0, ASM_CR(PCR_SR)
+  // clear IPIs and enable traps
+  mtpcr  zero, ASM_CR(PCR_CLR_IPI)
+  li     a6, PCR0
+  mtpcr  a6, ASM_CR(PCR_SR)
 
   // core 0?
-  mfpcr  t0, ASM_CR(PCR_COREID)
-  bnez   t0, notcore0
+  mfpcr  a6, ASM_CR(PCR_COREID)
+  bnez   a6, notcore0
 
   // terminate frame pointer for backtracing and set up stack
-  li     s9, 0
-  la     sp, bootstacktop
-  li     t1, KERN_LOAD_ADDR
-  sub    sp, sp, t1
+  li     s0, 0
+  la     sp, percore_stacks + KSTKSIZE
+  li     a7, KERN_LOAD_ADDR
+  sub    sp, sp, a7
+
+  // get memory size and core count from first two words of memory
+  lw     s0, 0(zero)
+  lw     s1, 4(zero)
 
   // set up initial page mappings
-  la     a0, l1pt
-  sub    a0, a0, t1
-  la     a1, l1pt_boot
-  sub    a1, a1, t1
+  move   a0, s0
+  la     a1, l1pt
+  sub    a1, a1, a7
+  la     a2, l1pt_boot
+  sub    a2, a2, a7
 #ifdef __riscv64
-  la     a2, l2pt
-  sub    a2, a1, t1
+  la     a3, l2pt
+  sub    a3, a3, a7
 #endif
   jal    pagetable_init
   jal    enable_mmu
 
   // relocate stack and call into C code using absolute jump, not pc-relative
-  la     sp, bootstacktop
-  la     t0, cmain
-  jr     t0
+  move   a0, s0
+  move   a1, s1
+  la     sp, percore_stacks + KSTKSIZE
+  la     a6, cmain
+  jr     a6
 
 notcore0:
+  // wait for core 0 to boot
+  la     a8, num_cpus_booted - KERN_LOAD_ADDR
+1:lw     a9, 0(a8)
+  beqz   a9, 1b
+
+  // if for some reason coreid >= num_cpus, don't boot this core
+  la     a8, num_cpus - KERN_LOAD_ADDR
+  lw     a8, 0(a8)
+1:bgeu   a6, a8, 1b
+
   // set up stack: sp = percoore_stacks+(core_id()+1)*KSTKSIZE
   la     sp, percore_stacks
-  add    t0, t0, 1
-  sll    t0, t0, KSTKSHIFT
-  add    sp, sp, t0
-  li     t1, KERN_LOAD_ADDR
-  sub    sp, sp, t1
+  add    a6, a6, 1
+  sll    a6, a6, KSTKSHIFT
+  add    sp, sp, a6
+  li     a7, KERN_LOAD_ADDR
+  sub    sp, sp, a7
   
   jal    enable_mmu
 
   // relocate stack and call into C code
-  li     t1, KERN_LOAD_ADDR
-  add    sp, sp, t1
-  la     t0, smp_init
-  jr     t0
+  li     a7, KERN_LOAD_ADDR
+  add    sp, sp, a7
+  la     a6, smp_init
+  jr     a6
 
-.end _start
-
-.ent enable_mmu
 enable_mmu:
-  la     t0, l1pt_boot
-  li     t1, KERN_LOAD_ADDR
-  sub    t0, t0, t1
-  mtpcr  t0, ASM_CR(PCR_PTBR)
-  li     t0, PCR0 | SR_VM
-  mtpcr  t0, ASM_CR(PCR_SR)
+  la     a6, l1pt_boot
+  li     a7, KERN_LOAD_ADDR
+  sub    a6, a6, a7
+  mtpcr  a6, ASM_CR(PCR_PTBR)
+  li     a6, PCR0 | SR_VM
+  mtpcr  a6, ASM_CR(PCR_SR)
   ret
-.end enable_mmu
 
 ///////////////////////////////////////////////////////////////////
 // boot stack and regular stacks.
@@ -105,12 +118,6 @@ l1pt:
 l2pt:
   .space  PGSIZE
 
-  .space  KSTKSIZE
-  .global bootstacktop
-bootstacktop:
-
-.bss
-  .align  PGSHIFT
   .global percore_stacks
 percore_stacks:
   .space  KSTKSIZE*MAX_NUM_CPUS