Moves resource requests to procdata (XCC)
[akaros.git] / kern / include / atomic.h
index 80d0877..279daa2 100644 (file)
@@ -59,6 +59,26 @@ static inline void spin_lock_irqsave(spinlock_t *lock);
 static inline void spin_unlock_irqsave(spinlock_t *lock);
 static inline bool spin_lock_irq_enabled(spinlock_t *lock);
 
+/* Hash locks (array of spinlocks).  Most all users will want the default one,
+ * so point your pointer to one of them, though you could always kmalloc a
+ * bigger one.  In the future, they might be growable, etc, which init code may
+ * care about. */
+struct hashlock {
+       unsigned int            nr_entries;
+       struct spinlock         locks[];
+};
+#define HASHLOCK_DEFAULT_SZ 53         /* nice prime, might be a bit large */
+struct small_hashlock {
+       unsigned int            nr_entries;
+       struct spinlock         locks[HASHLOCK_DEFAULT_SZ];
+};
+
+void hashlock_init(struct hashlock *hl, unsigned int nr_entries);
+void hash_lock(struct hashlock *hl, long key);
+void hash_unlock(struct hashlock *hl, long key);
+void hash_lock_irqsave(struct hashlock *hl, long key);
+void hash_unlock_irqsave(struct hashlock *hl, long key);
+
 /* Seq locks */
 /* An example seq lock, built from the counter.  I don't particularly like this,
  * since it forces you to use a specific locking type.  */
@@ -223,7 +243,9 @@ static inline void write_sequnlock(seqlock_t *lock)
 
 static inline seq_ctr_t read_seqbegin(seqlock_t *lock)
 {
-       return lock->r_ctr;
+       seq_ctr_t retval = lock->r_ctr;
+       rmb();  /* don't want future reads to come before our ctr read */
+       return retval;
 }
 
 static inline bool read_seqretry(seqlock_t *lock, seq_ctr_t ctr)