Splits pmap ops up for each arch
[akaros.git] / kern / arch / riscv / boot.S
index f45a9f1..6fbe805 100644 (file)
 // entry point
 ///////////////////////////////////////////////////////////////////
 
+#define PCR0 (SR_S | SR_S64 | (1 << (IRQ_IPI + SR_IM_SHIFT)))
 .text
 
 .global _start
-.ent _start
 _start:
   // This is the first kernel code that executes; it is run only by core 0.
 
   // set up trap entry point.  this is not a relocated address, as we
   // do not support trapping before the MMU is set up.
-  la     $t0, trap_entry
-  mtpcr  $t0, ASM_CR(PCR_EVEC)
+  la     a6, trap_entry
+  mtpcr  a6, ASM_CR(PCR_EVEC)
 
-  // enable traps
-  li     $t0, SR_S | SR_ET | SR_SX
-  mtpcr  $t0, ASM_CR(PCR_SR)
+  // clear IPIs and enable traps
+  mtpcr  zero, ASM_CR(PCR_CLR_IPI)
+  li     a6, PCR0
+  mtpcr  a6, ASM_CR(PCR_SR)
 
   // core 0?
-  mfpcr  $t0, ASM_CR(PCR_COREID)
-  bnez   $t0, notcore0
+  mfpcr  a6, ASM_CR(PCR_COREID)
+  bnez   a6, notcore0
 
-  // set up stack and terminate frame pointer for backtracing
-  li     $fp, 0
-  la     $sp, bootstacktop
-  li     $t1, KERN_LOAD_ADDR
-  sub    $sp, $sp, $t1
+  // terminate frame pointer for backtracing and set up stack
+  li     s0, 0
+  la     sp, percore_stacks + KSTKSIZE
+  li     a7, KERN_LOAD_ADDR
+  sub    sp, sp, a7
+
+  // get memory size and core count from first two words of memory
+  lw     s0, 0(zero)
+  lw     s1, 4(zero)
 
   // set up initial page mappings
-  la     $a0, l1pt
-  sub    $a0, $a0, $t1
-  la     $a1, l1pt_boot
-  sub    $a1, $a1, $t1
+  move   a0, s0
+  la     a1, l1pt
+  sub    a1, a1, a7
+  la     a2, l1pt_boot
+  sub    a2, a2, a7
 #ifdef __riscv64
-  la     $a2, l2pt_kernbase
-  sub    $a2, $a2, $t1
-  la     $a3, l2pt_load
-  sub    $a3, $a3, $t1
+  la     a3, l2pt
+  sub    a3, a3, a7
 #endif
   jal    pagetable_init
-
-  // turn on MMU
-  la     $a0, l1pt_boot
-  sub    $a0, $a0, $t1
-  jal    mmu_init
+  jal    enable_mmu
 
   // relocate stack and call into C code using absolute jump, not pc-relative
-  la     $sp, bootstacktop
-  lui    $t0, %hi(cmain)
-  jalr.j $t0, %lo(cmain)
+  move   a0, s0
+  move   a1, s1
+  la     sp, percore_stacks + KSTKSIZE
+  la     a6, cmain
+  jr     a6
 
 notcore0:
-  // set up stack and terminate frame pointer for backtracing
-  // sp = percoore_stacks+(core_id()+1)*KSTKSIZE
-  li     $fp, 0
-  la     $sp, percore_stacks
-  add    $t0, $t0, 1
-  sll    $t0, $t0, KSTKSHIFT
-  add    $sp, $sp, $t0
-  li     $t1, KERN_LOAD_ADDR
-  sub    $sp, $sp, $t1
+  // wait for core 0 to boot
+  la     a8, num_cpus_booted - KERN_LOAD_ADDR
+1:lw     a9, 0(a8)
+  beqz   a9, 1b
+
+  // if for some reason coreid >= num_cpus, don't boot this core
+  la     a8, num_cpus - KERN_LOAD_ADDR
+  lw     a8, 0(a8)
+1:bgeu   a6, a8, 1b
+
+  // set up stack: sp = percoore_stacks+(core_id()+1)*KSTKSIZE
+  la     sp, percore_stacks
+  add    a6, a6, 1
+  sll    a6, a6, KSTKSHIFT
+  add    sp, sp, a6
+  li     a7, KERN_LOAD_ADDR
+  sub    sp, sp, a7
   
-  // turn on MMU
-  la     $a0, l1pt_boot
-  sub    $a0, $a0, $t1
-  jal    mmu_init
+  jal    enable_mmu
 
   // relocate stack and call into C code
-  li     $t1, KERN_LOAD_ADDR
-  add    $sp, $sp, $t1
-  lui    $t0, %hi(smp_init)
-  jalr.j $t0, %lo(smp_init)
+  li     a7, KERN_LOAD_ADDR
+  add    sp, sp, a7
+  la     a6, smp_init
+  jr     a6
+
+enable_mmu:
+  la     a6, l1pt_boot
+  li     a7, KERN_LOAD_ADDR
+  sub    a6, a6, a7
+  mtpcr  a6, ASM_CR(PCR_PTBR)
+  li     a6, PCR0 | SR_VM
+  mtpcr  a6, ASM_CR(PCR_SR)
+  ret
 
-.end _start
 ///////////////////////////////////////////////////////////////////
 // boot stack and regular stacks.
 // (boot stack cannot be in .bss, as .bss is later zereoed by the kernel.)
@@ -95,12 +110,14 @@ notcore0:
 
 .data
   .align  PGSHIFT
-  .space  KSTKSIZE
-  .global bootstacktop
-bootstacktop:
+l1pt_boot:
+  .space  PGSIZE
+.global l1pt
+l1pt:
+  .space  PGSIZE
+l2pt:
+  .space  PGSIZE
 
-.bss
-  .align  PGSHIFT
   .global percore_stacks
 percore_stacks:
   .space  KSTKSIZE*MAX_NUM_CPUS