perf: Use PERF_SAMPLE_IDENTIFIER
[akaros.git] / tools / profile / perf / perf_core.c
index 702c3d7..181d2f1 100644 (file)
 #include "perfconv.h"
 #include "akaros.h"
 #include "perf_core.h"
+#include "elf.h"
 
-struct event_coords {
-       char *buffer;
-       const char *event;
-       const char *umask;
+struct perf_generic_event {
+       char                                            *name;
+       uint32_t                                        type;
+       uint32_t                                        config;
+};
+
+struct perf_generic_event generic_events[] = {
+       { .name = "cycles",
+         .type = PERF_TYPE_HARDWARE,
+         .config = PERF_COUNT_HW_CPU_CYCLES,
+       },
+       { .name = "cpu-cycles",
+         .type = PERF_TYPE_HARDWARE,
+         .config = PERF_COUNT_HW_CPU_CYCLES,
+       },
+       { .name = "instructions",
+         .type = PERF_TYPE_HARDWARE,
+         .config = PERF_COUNT_HW_INSTRUCTIONS,
+       },
+       { .name = "cache-references",
+         .type = PERF_TYPE_HARDWARE,
+         .config = PERF_COUNT_HW_CACHE_REFERENCES,
+       },
+       { .name = "cache-misses",
+         .type = PERF_TYPE_HARDWARE,
+         .config = PERF_COUNT_HW_CACHE_MISSES,
+       },
+       { .name = "branches",
+         .type = PERF_TYPE_HARDWARE,
+         .config = PERF_COUNT_HW_BRANCH_INSTRUCTIONS,
+       },
+       { .name = "branch-instructions",
+         .type = PERF_TYPE_HARDWARE,
+         .config = PERF_COUNT_HW_BRANCH_INSTRUCTIONS,
+       },
+       { .name = "branch-misses",
+         .type = PERF_TYPE_HARDWARE,
+         .config = PERF_COUNT_HW_BRANCH_MISSES,
+       },
+       { .name = "bus-cycles",
+         .type = PERF_TYPE_HARDWARE,
+         .config = PERF_COUNT_HW_BUS_CYCLES,
+       },
 };
 
 static const char *perf_get_event_mask_name(const pfm_event_info_t *einfo,
@@ -59,7 +99,7 @@ static const char *perf_get_event_mask_name(const pfm_event_info_t *einfo,
        return NULL;
 }
 
-void perf_initialize(int argc, char *argv[])
+void perf_initialize(void)
 {
        pfm_err_t err = pfm_initialize();
 
@@ -68,6 +108,7 @@ void perf_initialize(int argc, char *argv[])
                                pfm_strerror(err));
                exit(1);
        }
+       symbol__elf_init();
 }
 
 void perf_finalize(void)
@@ -113,7 +154,7 @@ static void x86_handle_pseudo_encoding(struct perf_eventsel *sel)
 
 /* Parse the string using pfm's lookup functions.  Returns TRUE on success and
  * fills in parts of sel. */
-static bool parse_os_encoding(const char *str, struct perf_eventsel *sel)
+static bool parse_pfm_encoding(const char *str, struct perf_eventsel *sel)
 {
        pfm_pmu_encode_arg_t encode;
        int err;
@@ -133,8 +174,9 @@ static bool parse_os_encoding(const char *str, struct perf_eventsel *sel)
                return FALSE;
        }
        sel->ev.event = encode.codes[0];
-       sel->eidx = encode.idx;
        x86_handle_pseudo_encoding(sel);
+       sel->type = PERF_TYPE_RAW;
+       sel->config = PMEV_GET_MASK(sel->ev.event) | PMEV_GET_EVENT(sel->ev.event);
        return TRUE;
 }
 
@@ -174,23 +216,16 @@ static int extract_raw_code(const char *event)
        return strtol(copy, NULL, 16);
 }
 
-/* Parse the string for a raw encoding.  Returns TRUE on success and fills in
- * parts of sel.  It has basic modifiers, like pfm4, for setting bits in the
- * event code.  This is arch specific, and is all x86 (intel) for now. */
-static bool parse_raw_encoding(const char *str, struct perf_eventsel *sel)
+/* Takes any modifiers, e.g. u:k:etc, and sets the respective values in sel. */
+static void parse_modifiers(const char *str, struct perf_eventsel *sel)
 {
-       int code = extract_raw_code(str);
-       char *dup_str, *tok_save, *tok;
+       char *dup_str, *tok, *tok_save = 0;
 
-       if (code == -1)
-               return FALSE;
-       sel->eidx = -1;
-       sel->ev.event = code;
-       strncpy(sel->fq_str, str, MAX_FQSTR_SZ);
        dup_str = xstrdup(str);
-       tok = strtok_r(dup_str, ":", &tok_save);
-       assert(tok);    /* discard first token; it must exist */
-       while ((tok = strtok_r(NULL, ":", &tok_save))) {
+       for (tok = strtok_r(dup_str, ":", &tok_save);
+            tok;
+            tok = strtok_r(NULL, ":", &tok_save)) {
+
                switch (tok[0]) {
                case 'u':
                        PMEV_SET_USR(sel->ev.event, 1);
@@ -223,9 +258,123 @@ static bool parse_raw_encoding(const char *str, struct perf_eventsel *sel)
                }
        }
        free(dup_str);
+}
+
+/* Parse the string for a raw encoding.  Returns TRUE on success and fills in
+ * parts of sel.  It has basic modifiers, like pfm4, for setting bits in the
+ * event code.  This is arch specific, and is all x86 (intel) for now. */
+static bool parse_raw_encoding(const char *str, struct perf_eventsel *sel)
+{
+       int code = extract_raw_code(str);
+       char *colon;
+
+       if (code == -1)
+               return FALSE;
+       sel->ev.event = code;
+       strlcpy(sel->fq_str, str, MAX_FQSTR_SZ);
+       colon = strchr(str, ':');
+       if (colon)
+               parse_modifiers(colon + 1, sel);
        /* Note that we do not call x86_handle_pseudo_encoding here.  We'll submit
         * exactly what the user asked us for - which also means no fixed counters
         * for them (unless we want a :f: token or something). */
+       sel->type = PERF_TYPE_RAW;
+       sel->config = PMEV_GET_MASK(sel->ev.event) | PMEV_GET_EVENT(sel->ev.event);
+       return TRUE;
+}
+
+/* Helper, returns true is str is a generic event string, and fills in sel with
+ * the type and config. */
+static bool generic_str_get_code(const char *str, struct perf_eventsel *sel)
+{
+       char *colon = strchr(str, ':');
+       /* if there was no :, we compare as far as we can.  generic_events.name is a
+        * string literal, so strcmp() is fine. */
+       size_t len = colon ? colon - str : SIZE_MAX;
+
+       for (int i = 0; i < COUNT_OF(generic_events); i++) {
+               if (!strncmp(generic_events[i].name, str, len)) {
+                       sel->type = generic_events[i].type;
+                       sel->config = generic_events[i].config;
+                       return TRUE;
+               }
+       }
+       return FALSE;
+}
+
+/* TODO: this is arch-specific and possibly machine-specific. (intel for now).
+ * Basically a lot of our perf is arch-dependent. (e.g. PMEV_*). */
+static bool arch_translate_generic(struct perf_eventsel *sel)
+{
+       switch (sel->type) {
+       case PERF_TYPE_HARDWARE:
+               /* These are the intel/x86 architectural perf events */
+               switch (sel->config) {
+               case PERF_COUNT_HW_CPU_CYCLES:
+                       PMEV_SET_MASK(sel->ev.event, 0x00);
+                       PMEV_SET_EVENT(sel->ev.event, 0x3c);
+                       break;
+               case PERF_COUNT_HW_INSTRUCTIONS:
+                       PMEV_SET_MASK(sel->ev.event, 0x00);
+                       PMEV_SET_EVENT(sel->ev.event, 0xc0);
+                       break;
+               case PERF_COUNT_HW_CACHE_REFERENCES:
+                       PMEV_SET_MASK(sel->ev.event, 0x4f);
+                       PMEV_SET_EVENT(sel->ev.event, 0x2e);
+                       break;
+               case PERF_COUNT_HW_CACHE_MISSES:
+                       PMEV_SET_MASK(sel->ev.event, 0x41);
+                       PMEV_SET_EVENT(sel->ev.event, 0x2e);
+                       break;
+               case PERF_COUNT_HW_BRANCH_INSTRUCTIONS:
+                       PMEV_SET_MASK(sel->ev.event, 0x00);
+                       PMEV_SET_EVENT(sel->ev.event, 0xc4);
+                       break;
+               case PERF_COUNT_HW_BRANCH_MISSES:
+                       PMEV_SET_MASK(sel->ev.event, 0x00);
+                       PMEV_SET_EVENT(sel->ev.event, 0xc5);
+                       break;
+               case PERF_COUNT_HW_BUS_CYCLES:
+                       /* Unhalted reference cycles */
+                       PMEV_SET_MASK(sel->ev.event, 0x01);
+                       PMEV_SET_EVENT(sel->ev.event, 0x3c);
+                       break;
+               default:
+                       return FALSE;
+               };
+               break;
+       default:
+               return FALSE;
+       };
+       /* This will make sure we use fixed counters if available */
+       x86_handle_pseudo_encoding(sel);
+       return TRUE;
+}
+
+/* Parse the string for a built-in encoding.  These are the perf defaults such
+ * as 'cycles' or 'cache-references.' Returns TRUE on success and fills in parts
+ * of sel. */
+static bool parse_generic_encoding(const char *str, struct perf_eventsel *sel)
+{
+       bool ret = FALSE;
+       char *colon;
+
+       if (!generic_str_get_code(str, sel))
+               return FALSE;
+       switch (sel->type) {
+       case PERF_TYPE_HARDWARE:
+       case PERF_TYPE_HW_CACHE:
+               ret = arch_translate_generic(sel);
+               break;
+       };
+       if (!ret) {
+               fprintf(stderr, "Unsupported built-in event %s\n", str);
+               return FALSE;
+       }
+       strlcpy(sel->fq_str, str, MAX_FQSTR_SZ);
+       colon = strchr(str, ':');
+       if (colon)
+               parse_modifiers(colon + 1, sel);
        return TRUE;
 }
 
@@ -242,7 +391,9 @@ struct perf_eventsel *perf_parse_event(const char *str)
        struct perf_eventsel *sel = xzmalloc(sizeof(struct perf_eventsel));
 
        sel->ev.user_data = (uint64_t)sel;
-       if (parse_os_encoding(str, sel))
+       if (parse_generic_encoding(str, sel))
+               goto success;
+       if (parse_pfm_encoding(str, sel))
                goto success;
        if (parse_raw_encoding(str, sel))
                goto success;
@@ -316,8 +467,7 @@ static uint64_t *perf_get_event_values(int perf_fd, int ped, size_t *pnvalues)
        uint32_t i, n;
        uint64_t *values;
        uint64_t temp;
-       size_t bufsize = 3 * sizeof(uint64_t) + sizeof(uint32_t) +
-               MAX_NUM_CORES * sizeof(uint64_t);
+       size_t bufsize = sizeof(uint32_t) + MAX_NUM_CORES * sizeof(uint64_t);
        uint8_t *cmdbuf = xmalloc(bufsize);
        uint8_t *wptr = cmdbuf;
        const uint8_t *rptr = cmdbuf;
@@ -328,17 +478,11 @@ static uint64_t *perf_get_event_values(int perf_fd, int ped, size_t *pnvalues)
        xpwrite(perf_fd, cmdbuf, wptr - cmdbuf, 0);
        rsize = pread(perf_fd, cmdbuf, bufsize, 0);
 
-       if (rsize < (3 * sizeof(uint64_t) + sizeof(uint32_t))) {
+       if (rsize < (sizeof(uint32_t))) {
                fprintf(stderr, "Invalid read size while fetching event status: %ld\n",
                                rsize);
                exit(1);
        }
-
-       /* TODO: The kernel lies to us about this, it's all 0. */
-       rptr = get_le_u64(rptr, &temp);         /* discard ev.event */
-       rptr = get_le_u64(rptr, &temp);         /* discard ev.flags */
-       rptr = get_le_u64(rptr, &temp);         /* discard ev.trigger_count */
-
        rptr = get_le_u32(rptr, &n);
        if (((rptr - cmdbuf) + n * sizeof(uint64_t)) > rsize) {
                fprintf(stderr, "Invalid read size while fetching event status: %ld\n",
@@ -355,6 +499,21 @@ static uint64_t *perf_get_event_values(int perf_fd, int ped, size_t *pnvalues)
        return values;
 }
 
+/* Helper, returns the total count (across all cores) of the event @idx */
+uint64_t perf_get_event_count(struct perf_context *pctx, unsigned int idx)
+{
+       uint64_t total = 0;
+       size_t nvalues;
+       uint64_t *values;
+
+       values = perf_get_event_values(pctx->perf_fd, pctx->events[idx].ped,
+                                      &nvalues);
+       for (int i = 0; i < nvalues; i++)
+               total += values[i];
+       free(values);
+       return total;
+}
+
 static void perf_close_event(int perf_fd, int ped)
 {
        uint8_t cmdbuf[1 + sizeof(uint32_t)];
@@ -366,54 +525,29 @@ static void perf_close_event(int perf_fd, int ped)
        xpwrite(perf_fd, cmdbuf, wptr - cmdbuf, 0);
 }
 
-static void perf_enable_sampling(int kpctl_fd)
-{
-       static const char * const enable_str = "start";
-
-       xwrite(kpctl_fd, enable_str, strlen(enable_str));
-}
-
-static void perf_disable_sampling(int kpctl_fd)
-{
-       static const char * const disable_str = "stop";
-
-       xwrite(kpctl_fd, disable_str, strlen(disable_str));
-}
-
-static void perf_flush_sampling(int kpctl_fd)
-{
-       static const char * const flush_str = "flush";
-
-       xwrite(kpctl_fd, flush_str, strlen(flush_str));
-}
-
-struct perf_context *perf_create_context(const struct perf_context_config *cfg)
+struct perf_context *perf_create_context(struct perf_context_config *cfg)
 {
        struct perf_context *pctx = xzmalloc(sizeof(struct perf_context));
 
+       pctx->cfg = cfg;
        pctx->perf_fd = xopen(cfg->perf_file, O_RDWR, 0);
-       pctx->kpctl_fd = xopen(cfg->kpctl_file, O_RDWR, 0);
+       /* perf record needs kpctl_fd, but other perf subcommands might not.  We'll
+        * delay the opening of kpctl until we need it, since kprof is picky about
+        * multiple users of kpctl. */
+       pctx->kpctl_fd = -1;
        perf_get_arch_info(pctx->perf_fd, &pctx->pai);
-       perf_enable_sampling(pctx->kpctl_fd);
 
        return pctx;
 }
 
 void perf_free_context(struct perf_context *pctx)
 {
-       for (int i = 0; i < pctx->event_count; i++)
-               perf_close_event(pctx->perf_fd, pctx->events[i].ped);
-       perf_disable_sampling(pctx->kpctl_fd);
-       close(pctx->kpctl_fd);
-       close(pctx->perf_fd);
+       if (pctx->kpctl_fd != -1)
+               close(pctx->kpctl_fd);  /* disabled sampling */
+       close(pctx->perf_fd);   /* closes all events */
        free(pctx);
 }
 
-void perf_flush_context_traces(struct perf_context *pctx)
-{
-       perf_flush_sampling(pctx->kpctl_fd);
-}
-
 void perf_context_event_submit(struct perf_context *pctx,
                                                           const struct core_set *cores,
                                                           const struct perf_eventsel *sel)
@@ -428,26 +562,51 @@ void perf_context_event_submit(struct perf_context *pctx,
        pevt->cores = *cores;
        pevt->sel = *sel;
        pevt->ped = perf_open_event(pctx->perf_fd, cores, sel);
+       if (pevt->ped < 0) {
+               fprintf(stderr, "Unable to submit event \"%s\": %s\n", sel->fq_str,
+                       errstr());
+               exit(1);
+       }
 }
 
-void perf_context_show_values(struct perf_context *pctx, FILE *file)
+void perf_stop_events(struct perf_context *pctx)
 {
-       for (int i = 0; i < pctx->event_count; i++) {
-               size_t nvalues;
-               struct perf_eventsel *sel = &pctx->events[i].sel;
-               uint64_t *values = perf_get_event_values(pctx->perf_fd,
-                                                                                                pctx->events[i].ped,
-                                                                                                &nvalues);
+       for (int i = 0; i < pctx->event_count; i++)
+               perf_close_event(pctx->perf_fd, pctx->events[i].ped);
+}
 
-               fprintf(file, "Event: %s, final code %p%s, trigger count %d\n\t",
+static void ensure_kpctl_is_open(struct perf_context *pctx)
+{
+       if (pctx->kpctl_fd == -1)
+               pctx->kpctl_fd = xopen(pctx->cfg->kpctl_file, O_RDWR, 0);
+}
+
+void perf_start_sampling(struct perf_context *pctx)
+{
+       static const char * const enable_str = "start";
+
+       ensure_kpctl_is_open(pctx);
+       xwrite(pctx->kpctl_fd, enable_str, strlen(enable_str));
+}
+
+void perf_stop_sampling(struct perf_context *pctx)
+{
+       static const char * const disable_str = "stop";
+
+       ensure_kpctl_is_open(pctx);
+       xwrite(pctx->kpctl_fd, disable_str, strlen(disable_str));
+}
+
+void perf_context_show_events(struct perf_context *pctx, FILE *file)
+{
+       struct perf_eventsel *sel;
+
+       for (int i = 0; i < pctx->event_count; i++) {
+               sel = &pctx->events[i].sel;
+               fprintf(file, "Event: %s, final code %p%s, trigger count %d\n",
                        sel->fq_str, sel->ev.event,
                        perfmon_is_fixed_event(&sel->ev) ? " (fixed)" : "",
                        sel->ev.trigger_count);
-               for (size_t j = 0; j < nvalues; j++)
-                       fprintf(file, "%lu ", values[j]);
-               fprintf(file, "\n");
-
-               free(values);
        }
 }
 
@@ -601,20 +760,16 @@ void perf_show_events(const char *rx, FILE *file)
 }
 
 void perf_convert_trace_data(struct perfconv_context *cctx, const char *input,
-                                                        const char *output)
+                                                        FILE *outfile)
 {
-       FILE *infile, *outfile;
+       FILE *infile;
        size_t ksize;
-       char kpath[1024];
 
        infile = xfopen(input, "rb");
        if (xfsize(infile) > 0) {
-               outfile = xfopen(output, "wb");
-
                perfconv_add_kernel_mmap(cctx);
+               perfconv_add_kernel_buildid(cctx);
                perfconv_process_input(cctx, infile, outfile);
-
-               fclose(outfile);
        }
        fclose(infile);
 }