Remove the option to spawn_thread for an evq (XCC)
[akaros.git] / user / parlib / dtls.c
index f0a7bc5..9edce00 100644 (file)
 #include <sys/queue.h>
 #include <parlib/spinlock.h>
 
+/* Define some number of static keys, for which the memory containing the keys
+ * and the per-thread memory for the values associated with those keys is
+ * allocated statically. This is adapted from glibc's notion of the
+ * "specific_1stblock" field embedded directly into its pthread structure for
+ * pthread_get/specific() calls. */
+#define NUM_STATIC_KEYS 32
+
 /* The dynamic tls key structure */
 struct dtls_key {
+  int id;
   int ref_count;
   bool valid;
   void (*dtor)(void*);
@@ -50,7 +58,8 @@ TAILQ_HEAD(dtls_list, dtls_value);
 typedef struct dtls_data {
   /* A per-thread list of dtls regions */
   struct dtls_list list;
-
+  /* Memory to hold dtls values for the first NUM_STATIC_KEYS keys */
+  struct dtls_value early_values[NUM_STATIC_KEYS];
 } dtls_data_t;
 
 /* A slab of dtls keys (global to all threads) */
@@ -61,11 +70,41 @@ struct kmem_cache *__dtls_values_cache;
   
 static __thread dtls_data_t __dtls_data;
 static __thread bool __dtls_initialized = false;
+static struct dtls_key static_dtls_keys[NUM_STATIC_KEYS];
+static int num_dtls_keys = 0;
+
+/* Initialize the slab caches for allocating dtls keys and values. */
+int dtls_cache_init()
+{
+  /* Make sure this only runs once */
+  static bool initialized = false;
+  if (initialized)
+      return 0;
+  initialized = true;
+
+  /* Initialize the global cache of dtls_keys */
+  __dtls_keys_cache = kmem_cache_create("dtls_keys_cache",
+    sizeof(struct dtls_key), __alignof__(struct dtls_key), 0, NULL, NULL);
+
+  /* Initialize the global cache of dtls_values */
+  __dtls_values_cache = kmem_cache_create("dtls_values_cache",
+    sizeof(struct dtls_value), __alignof__(struct dtls_value), 0, NULL, NULL);
+
+  return 0;
+}
 
 static dtls_key_t __allocate_dtls_key() 
 {
-  dtls_key_t key = kmem_cache_alloc(__dtls_keys_cache, 0);
+  dtls_key_t key;
+  int keyid = __sync_fetch_and_add(&num_dtls_keys, 1);
+  if (keyid < NUM_STATIC_KEYS) {
+    key = &static_dtls_keys[keyid];
+  } else {
+    dtls_cache_init();
+    key = kmem_cache_alloc(__dtls_keys_cache, 0);
+  }
   assert(key);
+  key->id = keyid;
   key->ref_count = 1;
   return key;
 }
@@ -73,45 +112,31 @@ static dtls_key_t __allocate_dtls_key()
 static void __maybe_free_dtls_key(dtls_key_t key)
 {
   int ref_count = __sync_add_and_fetch(&key->ref_count, -1);
-  if (ref_count == 0)
+  if (ref_count == 0 && key->id >= NUM_STATIC_KEYS)
     kmem_cache_free(__dtls_keys_cache, key);
 }
 
-static struct dtls_value *__allocate_dtls_value()
+static struct dtls_value *__allocate_dtls_value(struct dtls_data *dtls_data,
+                                                struct dtls_key *key)
 {
   struct dtls_value *v;
-  v = kmem_cache_alloc(__dtls_values_cache, 0);
+  if (key->id < NUM_STATIC_KEYS) {
+    v = &dtls_data->early_values[key->id];
+  } else {
+    v = kmem_cache_alloc(__dtls_values_cache, 0);
+  }
   assert(v);
   return v;
 }
 
 static void __free_dtls_value(struct dtls_value *v)
 {
-  kmem_cache_free(__dtls_values_cache, v);
-}
-
-/* Constructor to get a reference to the main thread's TLS descriptor */
-int dtls_lib_init()
-{
-  /* Make sure this only runs once */
-  static bool initialized = false;
-  if (initialized)
-      return 0;
-  initialized = true;
-  
-  /* Initialize the global cache of dtls_keys */
-  __dtls_keys_cache = kmem_cache_create("dtls_keys_cache", 
-    sizeof(struct dtls_key), __alignof__(struct dtls_key), 0, NULL, NULL);
-  
-  __dtls_values_cache = kmem_cache_create("dtls_values_cache", 
-    sizeof(struct dtls_value), __alignof__(struct dtls_value), 0, NULL, NULL);
-  
-  return 0;
+  if (v->key->id >= NUM_STATIC_KEYS)
+    kmem_cache_free(__dtls_values_cache, v);
 }
 
 dtls_key_t dtls_key_create(dtls_dtor_t dtor)
 {
-  dtls_lib_init();
   dtls_key_t key = __allocate_dtls_key();
   key->valid = true;
   key->dtor = dtor;
@@ -125,33 +150,37 @@ void dtls_key_delete(dtls_key_t key)
   __maybe_free_dtls_key(key);
 }
 
+static inline void *__get_dtls(dtls_data_t *dtls_data, dtls_key_t key)
+{
+  assert(key);
+
+  struct dtls_value *v;
+  if (key->id < NUM_STATIC_KEYS) {
+    v = &dtls_data->early_values[key->id];
+    if (v->key != NULL)
+      return v->dtls;
+  } else {
+    TAILQ_FOREACH(v, &dtls_data->list, link)
+      if (v->key == key)
+        return v->dtls;
+  }
+  return NULL;
+}
+
 static inline void __set_dtls(dtls_data_t *dtls_data, dtls_key_t key, void *dtls)
 {
   assert(key);
   __sync_fetch_and_add(&key->ref_count, 1);
 
-  struct dtls_value *v = NULL;
-  TAILQ_FOREACH(v, &dtls_data->list, link)
-    if(v->key == key) break;
-
+  struct dtls_value *v = __get_dtls(dtls_data, key);
   if (!v) {
-    v = __allocate_dtls_value();
+    v = __allocate_dtls_value(dtls_data, key);
     v->key = key;
     TAILQ_INSERT_HEAD(&dtls_data->list, v, link);
   }
   v->dtls = dtls;
 }
 
-static inline void *__get_dtls(dtls_data_t *dtls_data, dtls_key_t key)
-{
-  assert(key);
-
-  struct dtls_value *v = NULL;
-  TAILQ_FOREACH(v, &dtls_data->list, link)
-    if(v->key == key) return v->dtls;
-  return v;
-}
-
 static inline void __destroy_dtls(dtls_data_t *dtls_data)
 {
  struct dtls_value *v,*n;