WIP-pop-3000
[akaros.git] / kern / src / net / tcp.c
index 88330e0..0f9c4ac 100644 (file)
@@ -6,7 +6,7 @@
  *
  * Modified for the Akaros operating system:
  * Copyright (c) 2013-2014 The Regents of the University of California
- * Copyright (c) 2013-2015 Google Inc.
+ * Copyright (c) 2013-2017 Google Inc.
  *
  * Permission is hereby granted, free of charge, to any person obtaining a copy
  * of this software and associated documentation files (the "Software"), to deal
 #include <cpio.h>
 #include <pmap.h>
 #include <smp.h>
-#include <ip.h>
+#include <net/ip.h>
+#include <net/tcp.h>
 
-#include <vfs.h>
-#include <kfs.h>
-#include <slab.h>
-#include <kmalloc.h>
-#include <kref.h>
-#include <string.h>
-#include <stdio.h>
-#include <assert.h>
-#include <error.h>
-#include <cpio.h>
-#include <pmap.h>
-#include <smp.h>
-#include <ip.h>
-
-enum {
-       QMAX = 64 * 1024 - 1,
-       IP_TCPPROTO = 6,
-
-       TCP4_IPLEN = 8,
-       TCP4_PHDRSIZE = 12,
-       TCP4_HDRSIZE = 20,
-       TCP4_TCBPHDRSZ = 40,
-       TCP4_PKT = TCP4_IPLEN + TCP4_PHDRSIZE,
-
-       TCP6_IPLEN = 0,
-       TCP6_PHDRSIZE = 40,
-       TCP6_HDRSIZE = 20,
-       TCP6_TCBPHDRSZ = 60,
-       TCP6_PKT = TCP6_IPLEN + TCP6_PHDRSIZE,
-
-       TcptimerOFF = 0,
-       TcptimerON = 1,
-       TcptimerDONE = 2,
-       MAX_TIME = (1 << 20),   /* Forever */
-       TCP_ACK = 50,   /* Timed ack sequence in ms */
-       MAXBACKMS = 9 * 60 * 1000,      /* longest backoff time (ms) before hangup */
-
-       URG = 0x20,     /* Data marked urgent */
-       ACK = 0x10,     /* Acknowledge is valid */
-       PSH = 0x08,     /* Whole data pipe is pushed */
-       RST = 0x04,     /* Reset connection */
-       SYN = 0x02,     /* Pkt. is synchronise */
-       FIN = 0x01,     /* Start close down */
-
-       EOLOPT = 0,
-       NOOPOPT = 1,
-       MSSOPT = 2,
-       MSS_LENGTH = 4, /* max segment size header option length */
-       WSOPT = 3,
-       WS_LENGTH = 3,  /* WS header option length */
-       MAX_WS_VALUE = 14,      /* RFC specified.  Limits available window to 2^30 */
-       TS_OPT = 8,
-       TS_LENGTH = 10,
-       TS_SEND_PREPAD = 2,     /* For non-SYNs, pre-pad 2 nops for 32 byte alignment */
-       SACK_OK_OPT = 4,
-       SACK_OK_LENGTH = 2,
-       MSL2 = 10,
-       MSPTICK = 50,   /* Milliseconds per timer tick */
-       DEF_MSS = 1460, /* Default mean segment */
-       DEF_MSS6 = 1280,        /* Default mean segment (min) for v6 */
-       SACK_SUPPORTED = TRUE,  /* SACK is on by default */
-       DEF_RTT = 500,  /* Default round trip */
-       DEF_KAT = 120000,       /* Default time (ms) between keep alives */
-       TCP_LISTEN = 0, /* Listen connection */
-       TCP_CONNECT = 1,        /* Outgoing connection */
-       SYNACK_RXTIMER = 250,   /* ms between SYNACK retransmits */
-
-       TCPREXMTTHRESH = 3,     /* dupack threshhold for rxt */
-       CWIND_SCALE = 10,       /* initial CWIND will be MSS * this */
-
-       FORCE = 1,
-       CLONE = 2,
-       RETRAN = 4,
-       ACTIVE = 8,
-       SYNACK = 16,
-       TSO = 32,
-
-       LOGAGAIN = 3,
-       LOGDGAIN = 2,
-
-       Closed = 0,     /* Connection states */
-       Listen,
-       Syn_sent,
-       Established,
-       Finwait1,
-       Finwait2,
-       Close_wait,
-       Closing,
-       Last_ack,
-       Time_wait,
-
-       Maxlimbo = 1000,        /* maximum procs waiting for response to SYN ACK */
-       NLHT = 256,     /* hash table size, must be a power of 2 */
-       LHTMASK = NLHT - 1,
-
-       HaveWS = 1 << 8,
-};
-
-/* Must correspond to the enumeration above */
-char *tcpstates[] = {
+/* Must correspond to the enumeration in tcp.h */
+static char *tcpstates[] = {
        "Closed", "Listen", "Syn_sent",
        "Established", "Finwait1", "Finwait2", "Close_wait",
        "Closing", "Last_ack", "Time_wait"
 };
 
-typedef struct Tcptimer Tcptimer;
-struct Tcptimer {
-       Tcptimer *next;
-       Tcptimer *prev;
-       Tcptimer *readynext;
-       int state;
-       uint64_t start;
-       uint64_t count;
-       void (*func) (void *);
-       void *arg;
-};
-
-/*
- *  v4 and v6 pseudo headers used for
- *  checksuming tcp
- */
-typedef struct Tcp4hdr Tcp4hdr;
-struct Tcp4hdr {
-       uint8_t vihl;                           /* Version and header length */
-       uint8_t tos;                            /* Type of service */
-       uint8_t length[2];                      /* packet length */
-       uint8_t id[2];                          /* Identification */
-       uint8_t frag[2];                        /* Fragment information */
-       uint8_t Unused;
-       uint8_t proto;
-       uint8_t tcplen[2];
-       uint8_t tcpsrc[4];
-       uint8_t tcpdst[4];
-       uint8_t tcpsport[2];
-       uint8_t tcpdport[2];
-       uint8_t tcpseq[4];
-       uint8_t tcpack[4];
-       uint8_t tcpflag[2];
-       uint8_t tcpwin[2];
-       uint8_t tcpcksum[2];
-       uint8_t tcpurg[2];
-       /* Options segment */
-       uint8_t tcpopt[1];
-};
-
-typedef struct Tcp6hdr Tcp6hdr;
-struct Tcp6hdr {
-       uint8_t vcf[4];
-       uint8_t ploadlen[2];
-       uint8_t proto;
-       uint8_t ttl;
-       uint8_t tcpsrc[IPaddrlen];
-       uint8_t tcpdst[IPaddrlen];
-       uint8_t tcpsport[2];
-       uint8_t tcpdport[2];
-       uint8_t tcpseq[4];
-       uint8_t tcpack[4];
-       uint8_t tcpflag[2];
-       uint8_t tcpwin[2];
-       uint8_t tcpcksum[2];
-       uint8_t tcpurg[2];
-       /* Options segment */
-       uint8_t tcpopt[1];
-};
-
-/*
- *  this represents the control info
- *  for a single packet.  It is derived from
- *  a packet in ntohtcp{4,6}() and stuck into
- *  a packet in htontcp{4,6}().
- */
-typedef struct Tcp Tcp;
-struct Tcp {
-       uint16_t source;
-       uint16_t dest;
-       uint32_t seq;
-       uint32_t ack;
-       uint8_t flags;
-       uint16_t ws;                            /* window scale option (if not zero) */
-       uint32_t wnd;
-       uint16_t urg;
-       uint16_t mss;                           /* max segment size option (if not zero) */
-       uint16_t len;                           /* size of data */
-       uint32_t ts_val;                        /* timestamp val from sender */
-       uint32_t ts_ecr;                        /* timestamp echo response from sender */
-       bool sack_ok;                           /* header had/should have SACK_PERMITTED */
-};
-
-/*
- *  this header is malloc'd to thread together fragments
- *  waiting to be coalesced
- */
-typedef struct Reseq Reseq;
-struct Reseq {
-       Reseq *next;
-       Tcp seg;
-       struct block *bp;
-       uint16_t length;
-};
-
-/*
- *  the qlock in the Conv locks this structure
- */
-typedef struct Tcpctl Tcpctl;
-struct Tcpctl {
-       uint8_t state;                          /* Connection state */
-       uint8_t type;                           /* Listening or active connection */
-       uint8_t code;                           /* Icmp code */
-       struct {
-               uint32_t una;                   /* Unacked data pointer */
-               uint32_t nxt;                   /* Next sequence expected */
-               uint32_t ptr;                   /* Data pointer */
-               uint32_t wnd;                   /* Tcp send window */
-               uint32_t urg;                   /* Urgent data pointer */
-               uint32_t wl2;
-               int scale;                              /* how much to right shift window in xmitted packets */
-               /* to implement tahoe and reno TCP */
-               uint32_t dupacks;               /* number of duplicate acks rcvd */
-               int recovery;                   /* loss recovery flag */
-               uint32_t rxt;                   /* right window marker for recovery */
-       } snd;
-       struct {
-               uint32_t nxt;                   /* Receive pointer to next uint8_t slot */
-               uint32_t wnd;                   /* Receive window incoming */
-               uint32_t urg;                   /* Urgent pointer */
-               int blocked;
-               int una;                                /* unacked data segs */
-               int scale;                              /* how much to left shift window in rcved packets */
-       } rcv;
-       uint32_t iss;                           /* Initial sequence number */
-       int sawwsopt;                           /* true if we saw a wsopt on the incoming SYN */
-       uint32_t cwind;                         /* Congestion window */
-       int scale;                                      /* desired snd.scale */
-       uint32_t ssthresh;                      /* Slow start threshold */
-       int resent;                                     /* Bytes just resent */
-       int irs;                                        /* Initial received squence */
-       uint16_t mss;                           /* Max segment size */
-       uint16_t typical_mss;           /* MSS for most packets (< MSS for some opts) */
-       int rerecv;                                     /* Overlap of data rerecevived */
-       uint32_t window;                        /* Recevive window */
-       uint8_t backoff;                        /* Exponential backoff counter */
-       int backedoff;                          /* ms we've backed off for rexmits */
-       uint8_t flags;                          /* State flags */
-       Reseq *reseq;                           /* Resequencing queue */
-       Tcptimer timer;                         /* Activity timer */
-       Tcptimer acktimer;                      /* Acknowledge timer */
-       Tcptimer rtt_timer;                     /* Round trip timer */
-       Tcptimer katimer;                       /* keep alive timer */
-       uint32_t rttseq;                        /* Round trip sequence */
-       int srtt;                                       /* Shortened round trip */
-       int mdev;                                       /* Mean deviation of round trip */
-       int kacounter;                          /* count down for keep alive */
-       uint64_t sndsyntime;            /* time syn sent */
-       uint64_t time;                          /* time Finwait2 was sent */
-       int nochecksum;                         /* non-zero means don't send checksums */
-       int flgcnt;                                     /* number of flags in the sequence (FIN,SEQ) */
-       uint32_t ts_recent;                     /* timestamp received around last_ack_sent */
-       uint32_t last_ack_sent;         /* to determine when to update timestamp */
-       bool sack_ok;                           /* Can use SACK for this connection */
-
-       union {
-               Tcp4hdr tcp4hdr;
-               Tcp6hdr tcp6hdr;
-       } protohdr;                                     /* prototype header */
-};
-
-/*
- *  New calls are put in limbo rather than having a conversation structure
- *  allocated.  Thus, a SYN attack results in lots of limbo'd calls but not
- *  any real Conv structures mucking things up.  Calls in limbo rexmit their
- *  SYN ACK every SYNACK_RXTIMER ms up to 4 times, i.e., they disappear after 1 second.
- *
- *  In particular they aren't on a listener's queue so that they don't figure
- *  in the input queue limit.
- *
- *  If 1/2 of a T3 was attacking SYN packets, we'ld have a permanent queue
- *  of 70000 limbo'd calls.  Not great for a linear list but doable.  Therefore
- *  there is no hashing of this list.
- */
-typedef struct Limbo Limbo;
-struct Limbo {
-       Limbo *next;
-
-       uint8_t laddr[IPaddrlen];
-       uint8_t raddr[IPaddrlen];
-       uint16_t lport;
-       uint16_t rport;
-       uint32_t irs;                           /* initial received sequence */
-       uint32_t iss;                           /* initial sent sequence */
-       uint16_t mss;                           /* mss from the other end */
-       uint16_t rcvscale;                      /* how much to scale rcvd windows */
-       uint16_t sndscale;                      /* how much to scale sent windows */
-       uint64_t lastsend;                      /* last time we sent a synack */
-       uint8_t version;                        /* v4 or v6 */
-       uint8_t rexmits;                        /* number of retransmissions */
-       bool sack_ok;                           /* other side said SACK_OK */
-       uint32_t ts_val;                        /* timestamp val from sender */
-};
-
-int tcp_irtt = DEF_RTT;                        /* Initial guess at round trip time */
-uint16_t tcp_mss = DEF_MSS;            /* Maximum segment size to be sent */
-
-enum {
-       /* MIB stats */
-       MaxConn,
-       ActiveOpens,
-       PassiveOpens,
-       EstabResets,
-       CurrEstab,
-       InSegs,
-       OutSegs,
-       RetransSegs,
-       RetransTimeouts,
-       InErrs,
-       OutRsts,
-
-       /* non-MIB stats */
-       CsumErrs,
-       HlenErrs,
-       LenErrs,
-       OutOfOrder,
-
-       Nstats
-};
+static int tcp_irtt = DEF_RTT;                 /* Initial guess at round trip time */
+static uint16_t tcp_mss = DEF_MSS;             /* Maximum segment size to be sent */
 
+/* Must correspond to the enumeration in tcp.h */
 static char *statnames[] = {
        [MaxConn] "MaxConn",
        [ActiveOpens] "ActiveOpens",
@@ -383,26 +70,6 @@ static char *statnames[] = {
        [OutOfOrder] "OutOfOrder",
 };
 
-typedef struct Tcppriv Tcppriv;
-struct tcppriv {
-       /* List of active timers */
-       qlock_t tl;
-       Tcptimer *timers;
-
-       /* hash table for matching conversations */
-       struct Ipht ht;
-
-       /* calls in limbo waiting for an ACK to our SYN ACK */
-       int nlimbo;
-       Limbo *lht[NLHT];
-
-       /* for keeping track of tcpackproc */
-       qlock_t apl;
-       int ackprocstarted;
-
-       uint32_t stats[Nstats];
-};
-
 /*
  *  Setting tcpporthogdefense to non-zero enables Dong Lin's
  *  solution to hijacked systems staking out port's as a form
@@ -412,32 +79,36 @@ struct tcppriv {
  *  it that number gets acked by the other end, we shut down the connection.
  *  Look for tcpporthogedefense in the code.
  */
-int tcpporthogdefense = 0;
-
-int addreseq(Tcpctl *, struct tcppriv *, Tcp *, struct block *, uint16_t);
-void getreseq(Tcpctl *, Tcp *, struct block **, uint16_t *);
-void localclose(struct conv *, char *unused_char_p_t);
-void procsyn(struct conv *, Tcp *);
-void tcpiput(struct Proto *, struct Ipifc *, struct block *);
-void tcpoutput(struct conv *);
-int tcptrim(Tcpctl *, Tcp *, struct block **, uint16_t *);
-void tcpstart(struct conv *, int);
-void tcptimeout(void *);
-void tcpsndsyn(struct conv *, Tcpctl *);
-void tcprcvwin(struct conv *);
-void tcpacktimer(void *);
-void tcpkeepalive(void *);
-void tcpsetkacounter(Tcpctl *);
-void tcprxmit(struct conv *);
-void tcpsettimer(Tcpctl *);
-void tcpsynackrtt(struct conv *);
-void tcpsetscale(struct conv *, Tcpctl *, uint16_t, uint16_t);
+static int tcpporthogdefense = 0;
+
+static int addreseq(Tcpctl *, struct tcppriv *, Tcp *, struct block *,
+                    uint16_t);
+static void getreseq(Tcpctl *, Tcp *, struct block **, uint16_t *);
+static void localclose(struct conv *, char *unused_char_p_t);
+static void procsyn(struct conv *, Tcp *);
+static void tcpiput(struct Proto *, struct Ipifc *, struct block *);
+static void tcpoutput(struct conv *);
+static int tcptrim(Tcpctl *, Tcp *, struct block **, uint16_t *);
+static void tcpstart(struct conv *, int);
+static void tcptimeout(void *);
+static void tcpsndsyn(struct conv *, Tcpctl *);
+static void tcprcvwin(struct conv *);
+static void tcpacktimer(void *);
+static void tcpkeepalive(void *);
+static void tcpsetkacounter(Tcpctl *);
+static void tcprxmit(struct conv *);
+static void tcpsettimer(Tcpctl *);
+static void tcpsynackrtt(struct conv *);
+static void tcpsetscale(struct conv *, Tcpctl *, uint16_t, uint16_t);
+static void tcp_loss_event(struct conv *s, Tcpctl *tcb);
+static uint16_t derive_payload_mss(Tcpctl *tcb);
+static void set_in_flight(Tcpctl *tcb);
 
 static void limborexmit(struct Proto *);
-static void limbo(struct conv *, uint8_t * unused_uint8_p_t, uint8_t *, Tcp *,
+static void limbo(struct conv *, uint8_t *unused_uint8_p_t, uint8_t *, Tcp *,
                                  int);
 
-void tcpsetstate(struct conv *s, uint8_t newstate)
+static void tcpsetstate(struct conv *s, uint8_t newstate)
 {
        Tcpctl *tcb;
        uint8_t oldstate;
@@ -538,7 +209,6 @@ static void tcpshutdown(struct conv *c, int how)
        switch (tcb->state) {
        case Established:
                tcb->flgcnt++;
-               tcb->snd.nxt++;
                tcpsetstate(c, Finwait1);
                tcpoutput(c);
                break;
@@ -574,20 +244,18 @@ static void tcpclose(struct conv *c)
                        break;
                case Established:
                        tcb->flgcnt++;
-                       tcb->snd.nxt++;
                        tcpsetstate(c, Finwait1);
                        tcpoutput(c);
                        break;
                case Close_wait:
                        tcb->flgcnt++;
-                       tcb->snd.nxt++;
                        tcpsetstate(c, Last_ack);
                        tcpoutput(c);
                        break;
        }
 }
 
-void tcpkick(void *x)
+static void tcpkick(void *x)
 {
        ERRSTACK(1);
        struct conv *s = x;
@@ -620,8 +288,9 @@ void tcpkick(void *x)
        poperror();
 }
 
-void tcprcvwin(struct conv *s)
-{      /* Call with tcb locked */
+static void tcprcvwin(struct conv *s)
+{
+       /* Call with tcb locked */
        int w;
        Tcpctl *tcb;
 
@@ -629,12 +298,25 @@ void tcprcvwin(struct conv *s)
        w = tcb->window - qlen(s->rq);
        if (w < 0)
                w = 0;
-       tcb->rcv.wnd = w;
-       if (w == 0)
+
+       /* RFC 813: Avoid SWS.  We'll always reduce the window (because the qio
+        * increased - that's legit), and we'll always advertise the window
+        * increases (corresponding to qio drains) when those are greater than MSS.
+        * But we don't advertise increases less than MSS.
+        *
+        * Note we don't shrink the window at all - that'll result in tcptrim()
+        * dropping packets that were sent before the sender gets our update. */
+       if ((w < tcb->rcv.wnd) || (w >= tcb->mss))
+               tcb->rcv.wnd = w;
+       /* We've delayed sending an update to rcv.wnd, and we might never get
+        * another ACK to drive the TCP stack after the qio is drained.  We could
+        * replace this stuff with qio kicks or callbacks, but that might be
+        * trickier with the MSS limitation.  (and 'edge' isn't empty or not). */
+       if (w < tcb->mss)
                tcb->rcv.blocked = 1;
 }
 
-void tcpacktimer(void *v)
+static void tcpacktimer(void *v)
 {
        ERRSTACK(1);
        Tcpctl *tcb;
@@ -659,11 +341,13 @@ void tcpacktimer(void *v)
 
 static void tcpcreate(struct conv *c)
 {
-       c->rq = qopen(QMAX, Qcoalesce, 0, 0);
+       /* We don't use qio limits.  Instead, TCP manages flow control on its own.
+        * We only use qpassnolim().  Note for qio that 0 doesn't mean no limit. */
+       c->rq = qopen(0, Qcoalesce, 0, 0);
        c->wq = qopen(8 * QMAX, Qkick, tcpkick, c);
 }
 
-static void timerstate(struct tcppriv *priv, Tcptimer * t, int newstate)
+static void timerstate(struct tcppriv *priv, Tcptimer *t, int newstate)
 {
        if (newstate != TcptimerON) {
                if (t->state == TcptimerON) {
@@ -694,7 +378,7 @@ static void timerstate(struct tcppriv *priv, Tcptimer * t, int newstate)
        t->state = newstate;
 }
 
-void tcpackproc(void *a)
+static void tcpackproc(void *a)
 {
        ERRSTACK(1);
        Tcptimer *t, *tp, *timeo;
@@ -715,6 +399,37 @@ void tcpackproc(void *a)
                        if (loop++ > 10000)
                                panic("tcpackproc1");
                        tp = t->next;
+                       /* this is a little odd.  overall, we wake up once per 'tick' (50ms,
+                        * whatever).  then, we decrement count.  so the timer val is in
+                        * units of 50 ms.  the timer list isn't sorted either.  once
+                        * someone expires, we get moved to another LL, local, and we fire
+                        * those alarms.
+                        *
+                        * the best anyone could do would be 50 ms granularity.
+                        *
+                        * if things are slow, you could skew later too.
+                        *
+                        * actually, you're expected value is 25ms for the first count.  so
+                        * whatever your timer.start is, your wait time is start * 50 - 25.
+                        *              which is why we wait 25 ms to open up our window again.
+                        *
+                        * might be issues with concurrency.  once the alarm is set to done
+                        * and yanked off the list, what's to stop a concurrent setter from
+                        * putting it back on the list and setting TcptimerON?
+                        *              there's a lot of lockless peeks at the timer.state
+                        *
+                        * probably be better served with a kthread timer chain
+                        *              one assumption with the timerchain stuff is that the source
+                        *              is an IRQ, and thus IRQ context matters, etc.
+                        *
+                        *              with a kth tchain, we're in kth context already.  and you
+                        *              probably don't want to send another RKM for each timer.
+                        *              unless the locking matters.
+                        *
+                        *              interesting - even the pcpu tchains - should those be a
+                        *              per-core kth?  does any alarm need to run from IRQ ctx?
+                        *                              maybe.
+                        * */
                        if (t->state == TcptimerON) {
                                t->count--;
                                if (t->count == 0) {
@@ -742,7 +457,7 @@ void tcpackproc(void *a)
        }
 }
 
-void tcpgo(struct tcppriv *priv, Tcptimer * t)
+static void tcpgo(struct tcppriv *priv, Tcptimer *t)
 {
        if (t == NULL || t->start == 0)
                return;
@@ -753,7 +468,7 @@ void tcpgo(struct tcppriv *priv, Tcptimer * t)
        qunlock(&priv->tl);
 }
 
-void tcphalt(struct tcppriv *priv, Tcptimer * t)
+static void tcphalt(struct tcppriv *priv, Tcptimer *t)
 {
        if (t == NULL)
                return;
@@ -763,13 +478,14 @@ void tcphalt(struct tcppriv *priv, Tcptimer * t)
        qunlock(&priv->tl);
 }
 
-int backoff(int n)
+static int backoff(int n)
 {
        return 1 << n;
 }
 
-void localclose(struct conv *s, char *reason)
-{      /* called with tcb locked */
+static void localclose(struct conv *s, char *reason)
+{
+       /* called with tcb locked */
        Tcpctl *tcb;
        Reseq *rp, *rp1;
        struct tcppriv *tpriv;
@@ -806,13 +522,10 @@ void localclose(struct conv *s, char *reason)
 }
 
 /* mtu (- TCP + IP hdr len) of 1st hop */
-int tcpmtu(struct Proto *tcp, uint8_t * addr, int version, int *scale,
-          uint8_t *flags)
+static int tcpmtu(struct Ipifc *ifc, int version, int *scale)
 {
-       struct Ipifc *ifc;
        int mtu;
 
-       ifc = findipifc(tcp->f, addr, 0);
        switch (version) {
                default:
                case V4:
@@ -826,24 +539,23 @@ int tcpmtu(struct Proto *tcp, uint8_t * addr, int version, int *scale,
                                mtu = ifc->maxtu - ifc->m->hsize - (TCP6_PKT + TCP6_HDRSIZE);
                        break;
        }
-       *flags &= ~TSO;
-
-       if (ifc != NULL) {
-               if (ifc->mbps > 100)
-                       *scale = HaveWS | 3;
-               else if (ifc->mbps > 10)
-                       *scale = HaveWS | 1;
-               else
-                       *scale = HaveWS | 0;
-               if (ifc->feat & NETF_TSO)
-                       *flags |= TSO;
-       } else
-               *scale = HaveWS | 0;
+       *scale = HaveWS | 7;
 
        return mtu;
 }
 
-void inittcpctl(struct conv *s, int mode)
+static void tcb_check_tso(Tcpctl *tcb)
+{
+       /* This can happen if the netdev isn't up yet. */
+       if (!tcb->ifc)
+               return;
+       if (tcb->ifc->feat & NETF_TSO)
+               tcb->flags |= TSO;
+       else
+               tcb->flags &= ~TSO;
+}
+
+static void inittcpctl(struct conv *s, int mode)
 {
        Tcpctl *tcb;
        Tcp4hdr *h4;
@@ -855,7 +567,7 @@ void inittcpctl(struct conv *s, int mode)
        memset(tcb, 0, sizeof(Tcpctl));
 
        tcb->ssthresh = UINT32_MAX;
-       tcb->srtt = tcp_irtt << LOGAGAIN;
+       tcb->srtt = tcp_irtt;
        tcb->mdev = 0;
 
        /* setup timers */
@@ -902,6 +614,7 @@ void inittcpctl(struct conv *s, int mode)
                }
        }
 
+       tcb->ifc = findipifc(s->p->f, s->laddr, 0);
        tcb->mss = mss;
        tcb->typical_mss = mss;
        tcb->cwind = tcb->typical_mss * CWIND_SCALE;
@@ -911,13 +624,13 @@ void inittcpctl(struct conv *s, int mode)
        tcb->rcv.wnd = QMAX;
        tcb->rcv.scale = 0;
        tcb->snd.scale = 0;
-       qsetlimit(s->rq, QMAX);
+       tcb_check_tso(tcb);
 }
 
 /*
  *  called with s qlocked
  */
-void tcpstart(struct conv *s, int mode)
+static void tcpstart(struct conv *s, int mode)
 {
        Tcpctl *tcb;
        struct tcppriv *tpriv;
@@ -1010,6 +723,8 @@ static void compute_hdrlen_optpad(Tcp *tcph, uint16_t default_hdrlen,
                if (!(tcph->flags & SYN))
                        hdrlen += TS_SEND_PREPAD;
        }
+       if (tcb && tcb->rcv.nr_sacks)
+               hdrlen += 2 + tcb->rcv.nr_sacks * 8;
        optpad = hdrlen & 3;
        if (optpad)
                optpad = 4 - optpad;
@@ -1052,6 +767,16 @@ static void write_opts(Tcp *tcph, uint8_t *opt, uint16_t optpad, Tcpctl *tcb)
                hnputl(opt, tcph->ts_val);
                opt += 4;
        }
+       if (tcb && tcb->rcv.nr_sacks) {
+               *opt++ = SACK_OPT;
+               *opt++ = 2 + tcb->rcv.nr_sacks * 8;
+               for (int i = 0; i < tcb->rcv.nr_sacks; i++) {
+                       hnputl(opt, tcb->rcv.sacks[i].left);
+                       opt += 4;
+                       hnputl(opt, tcb->rcv.sacks[i].right);
+                       opt += 4;
+               }
+       }
        while (optpad-- > 0)
                *opt++ = NOOPOPT;
 }
@@ -1076,8 +801,8 @@ static struct block *alloc_or_pad_block(struct block *data,
        return data;
 }
 
-struct block *htontcp6(Tcp *tcph, struct block *data, Tcp6hdr *ph,
-                                          Tcpctl *tcb)
+static struct block *htontcp6(Tcp *tcph, struct block *data, Tcp6hdr *ph,
+                              Tcpctl *tcb)
 {
        int dlen = blocklen(data);
        Tcp6hdr *h;
@@ -1089,8 +814,9 @@ struct block *htontcp6(Tcp *tcph, struct block *data, Tcp6hdr *ph,
        data = alloc_or_pad_block(data, hdrlen + TCP6_PKT);
        if (data == NULL)
                return NULL;
-       /* relative to the block start (bp->rp) */
-       data->transport_header_end = hdrlen + TCP6_PKT;
+       /* relative to the block start (bp->rp).  Note TCP structs include IP. */
+       data->network_offset = 0;
+       data->transport_offset = offsetof(Tcp6hdr, tcpsport);
 
        /* copy in pseudo ip header plus port numbers */
        h = (Tcp6hdr *) (data->rp);
@@ -1126,8 +852,8 @@ struct block *htontcp6(Tcp *tcph, struct block *data, Tcp6hdr *ph,
        return data;
 }
 
-struct block *htontcp4(Tcp *tcph, struct block *data, Tcp4hdr *ph,
-                                          Tcpctl *tcb)
+static struct block *htontcp4(Tcp *tcph, struct block *data, Tcp4hdr *ph,
+                              Tcpctl *tcb)
 {
        int dlen = blocklen(data);
        Tcp4hdr *h;
@@ -1139,8 +865,9 @@ struct block *htontcp4(Tcp *tcph, struct block *data, Tcp4hdr *ph,
        data = alloc_or_pad_block(data, hdrlen + TCP4_PKT);
        if (data == NULL)
                return NULL;
-       /* relative to the block start (bp->rp) */
-       data->transport_header_end = hdrlen + TCP4_PKT;
+       /* relative to the block start (bp->rp).  Note TCP structs include IP. */
+       data->network_offset = 0;
+       data->transport_offset = offsetof(Tcp4hdr, tcpsport);
 
        /* copy in pseudo ip header plus port numbers */
        h = (Tcp4hdr *) (data->rp);
@@ -1159,16 +886,40 @@ struct block *htontcp4(Tcp *tcph, struct block *data, Tcp4hdr *ph,
        if (tcb != NULL && tcb->nochecksum) {
                h->tcpcksum[0] = h->tcpcksum[1] = 0;
        } else {
+               assert(data->transport_offset == TCP4_IPLEN + TCP4_PHDRSIZE);
                csum = ~ptclcsum(data, TCP4_IPLEN, TCP4_PHDRSIZE);
                hnputs(h->tcpcksum, csum);
-               data->checksum_start = TCP4_IPLEN + TCP4_PHDRSIZE;
-               data->checksum_offset = ph->tcpcksum - ph->tcpsport;
+               data->tx_csum_offset = ph->tcpcksum - ph->tcpsport;
                data->flag |= Btcpck;
        }
 
        return data;
 }
 
+static void parse_inbound_sacks(Tcp *tcph, uint8_t *opt, uint16_t optlen)
+{
+       uint8_t nr_sacks;
+       uint32_t left, right;
+
+       nr_sacks = (optlen - 2) / 8;
+       if (nr_sacks > MAX_NR_SACKS_PER_PACKET)
+               return;
+       opt += 2;
+       for (int i = 0; i < nr_sacks; i++, opt += 8) {
+               left = nhgetl(opt);
+               right = nhgetl(opt + 4);
+               if (seq_ge(left, right)) {
+                       /* bad / malicious SACK.  Skip it, and adjust. */
+                       nr_sacks--;
+                       i--;    /* stay on this array element next loop */
+                       continue;
+               }
+               tcph->sacks[i].left = left;
+               tcph->sacks[i].right = right;
+       }
+       tcph->nr_sacks = nr_sacks;
+}
+
 static void parse_inbound_opts(Tcp *tcph, uint8_t *opt, uint16_t optsize)
 {
        uint16_t optlen;
@@ -1195,6 +946,9 @@ static void parse_inbound_opts(Tcp *tcph, uint8_t *opt, uint16_t optsize)
                                if (optlen == SACK_OK_LENGTH)
                                        tcph->sack_ok = TRUE;
                                break;
+                       case SACK_OPT:
+                               parse_inbound_sacks(tcph, opt, optlen);
+                               break;
                        case TS_OPT:
                                if (optlen == TS_LENGTH) {
                                        tcph->ts_val = nhgetl(opt + 2);
@@ -1214,11 +968,12 @@ static void clear_tcph_opts(Tcp *tcph)
        tcph->mss = 0;
        tcph->ws = 0;
        tcph->sack_ok = FALSE;
+       tcph->nr_sacks = 0;
        tcph->ts_val = 0;
        tcph->ts_ecr = 0;
 }
 
-int ntohtcp6(Tcp * tcph, struct block **bpp)
+static int ntohtcp6(Tcp *tcph, struct block **bpp)
 {
        Tcp6hdr *h;
        uint16_t hdrlen;
@@ -1251,7 +1006,7 @@ int ntohtcp6(Tcp * tcph, struct block **bpp)
        return hdrlen;
 }
 
-int ntohtcp4(Tcp * tcph, struct block **bpp)
+static int ntohtcp4(Tcp *tcph, struct block **bpp)
 {
        Tcp4hdr *h;
        uint16_t hdrlen;
@@ -1286,29 +1041,27 @@ int ntohtcp4(Tcp * tcph, struct block **bpp)
 }
 
 /*
- *  For outgiing calls, generate an initial sequence
+ *  For outgoing calls, generate an initial sequence
  *  number and put a SYN on the send queue
  */
-void tcpsndsyn(struct conv *s, Tcpctl * tcb)
+static void tcpsndsyn(struct conv *s, Tcpctl *tcb)
 {
        urandom_read(&tcb->iss, sizeof(tcb->iss));
        tcb->rttseq = tcb->iss;
        tcb->snd.wl2 = tcb->iss;
        tcb->snd.una = tcb->iss;
-       tcb->snd.ptr = tcb->rttseq;
+       tcb->snd.rtx = tcb->rttseq;
        tcb->snd.nxt = tcb->rttseq;
        tcb->flgcnt++;
        tcb->flags |= FORCE;
        tcb->sndsyntime = NOW;
 
        /* set desired mss and scale */
-       tcb->mss = tcpmtu(s->p, s->laddr, s->ipversion, &tcb->scale,
-                         &tcb->flags);
+       tcb->mss = tcpmtu(tcb->ifc, s->ipversion, &tcb->scale);
 }
 
-void
-sndrst(struct Proto *tcp, uint8_t * source, uint8_t * dest,
-          uint16_t length, Tcp * seg, uint8_t version, char *reason)
+static void sndrst(struct Proto *tcp, uint8_t *source, uint8_t *dest,
+                   uint16_t length, Tcp *seg, uint8_t version, char *reason)
 {
        struct block *hbp;
        uint8_t rflags;
@@ -1316,7 +1069,7 @@ sndrst(struct Proto *tcp, uint8_t * source, uint8_t * dest,
        Tcp4hdr ph4;
        Tcp6hdr ph6;
 
-       netlog(tcp->f, Logtcp, "sndrst: %s\n", reason);
+       netlog(tcp->f, Logtcpreset, "sndrst: %s\n", reason);
 
        tpriv = tcp->priv;
 
@@ -1372,6 +1125,7 @@ sndrst(struct Proto *tcp, uint8_t * source, uint8_t * dest,
        seg->mss = 0;
        seg->ws = 0;
        seg->sack_ok = FALSE;
+       seg->nr_sacks = 0;
        /* seg->ts_val is already set with their timestamp */
        switch (version) {
                case V4:
@@ -1410,12 +1164,13 @@ static void tcphangup(struct conv *s)
                        seg.ack = tcb->rcv.nxt;
                        tcb->last_ack_sent = seg.ack;
                        tcb->rcv.una = 0;
-                       seg.seq = tcb->snd.ptr;
+                       seg.seq = tcb->snd.nxt;
                        seg.wnd = 0;
                        seg.urg = 0;
                        seg.mss = 0;
                        seg.ws = 0;
                        seg.sack_ok = FALSE;
+                       seg.nr_sacks = 0;
                        seg.ts_val = tcb->ts_recent;
                        switch (s->ipversion) {
                                case V4:
@@ -1440,7 +1195,7 @@ static void tcphangup(struct conv *s)
 /*
  *  (re)send a SYN ACK
  */
-int sndsynack(struct Proto *tcp, Limbo * lp)
+static int sndsynack(struct Proto *tcp, Limbo *lp)
 {
        struct block *hbp;
        Tcp4hdr ph4;
@@ -1474,14 +1229,16 @@ int sndsynack(struct Proto *tcp, Limbo * lp)
                default:
                        panic("sndrst: version %d", lp->version);
        }
+       lp->ifc = findipifc(tcp->f, lp->laddr, 0);
 
        seg.seq = lp->iss;
        seg.ack = lp->irs + 1;
        seg.flags = SYN | ACK;
        seg.urg = 0;
-       seg.mss = tcpmtu(tcp, lp->laddr, lp->version, &scale, &flag);
+       seg.mss = tcpmtu(lp->ifc, lp->version, &scale);
        seg.wnd = QMAX;
        seg.ts_val = lp->ts_val;
+       seg.nr_sacks = 0;
 
        /* if the other side set scale, we should too */
        if (lp->rcvscale) {
@@ -1523,8 +1280,8 @@ int sndsynack(struct Proto *tcp, Limbo * lp)
  *
  *  called with proto locked
  */
-static void
-limbo(struct conv *s, uint8_t * source, uint8_t * dest, Tcp * seg, int version)
+static void limbo(struct conv *s, uint8_t *source, uint8_t *dest, Tcp *seg,
+                  int version)
 {
        Limbo *lp, **l;
        struct tcppriv *tpriv;
@@ -1634,9 +1391,8 @@ static void limborexmit(struct Proto *tcp)
  *
  *  called with proto locked
  */
-static void
-limborst(struct conv *s, Tcp * segp, uint8_t * src, uint8_t * dst,
-                uint8_t version)
+static void limborst(struct conv *s, Tcp *segp, uint8_t *src, uint8_t *dst,
+                     uint8_t version)
 {
        Limbo *lp, **l;
        int h;
@@ -1686,8 +1442,8 @@ static void adjust_typical_mss_for_opts(Tcp *tcph, Tcpctl *tcb)
  *
  *  called with proto locked
  */
-static struct conv *tcpincoming(struct conv *s, Tcp * segp, uint8_t * src,
-                                                               uint8_t * dst, uint8_t version)
+static struct conv *tcpincoming(struct conv *s, Tcp *segp, uint8_t *src,
+                                                               uint8_t *dst, uint8_t version)
 {
        struct conv *new;
        Tcpctl *tcb;
@@ -1757,7 +1513,7 @@ static struct conv *tcpincoming(struct conv *s, Tcp * segp, uint8_t * src,
        tcb->rttseq = tcb->iss;
        tcb->snd.wl2 = tcb->iss;
        tcb->snd.una = tcb->iss + 1;
-       tcb->snd.ptr = tcb->iss + 1;
+       tcb->snd.rtx = tcb->iss + 1;
        tcb->snd.nxt = tcb->iss + 1;
        tcb->flgcnt = 0;
        tcb->flags |= SYNACK;
@@ -1773,9 +1529,11 @@ static struct conv *tcpincoming(struct conv *s, Tcp * segp, uint8_t * src,
         * actually decided on when we agreed to them in the SYNACK we sent.  We
         * didn't create an actual TCB until now, so we can copy those decisions out
         * of the limbo tracker and into the TCB. */
+       tcb->ifc = lp->ifc;
        tcb->sack_ok = lp->sack_ok;
        /* window scaling */
        tcpsetscale(new, tcb, lp->rcvscale, lp->sndscale);
+       tcb_check_tso(tcb);
 
        tcb->snd.wnd = segp->wnd;
        tcb->cwind = tcb->typical_mss * CWIND_SCALE;
@@ -1817,43 +1575,11 @@ static struct conv *tcpincoming(struct conv *s, Tcp * segp, uint8_t * src,
        return new;
 }
 
-int seq_within(uint32_t x, uint32_t low, uint32_t high)
-{
-       if (low <= high) {
-               if (low <= x && x <= high)
-                       return 1;
-       } else {
-               if (x >= low || x <= high)
-                       return 1;
-       }
-       return 0;
-}
-
-int seq_lt(uint32_t x, uint32_t y)
-{
-       return (int)(x - y) < 0;
-}
-
-int seq_le(uint32_t x, uint32_t y)
-{
-       return (int)(x - y) <= 0;
-}
-
-int seq_gt(uint32_t x, uint32_t y)
-{
-       return (int)(x - y) > 0;
-}
-
-int seq_ge(uint32_t x, uint32_t y)
-{
-       return (int)(x - y) >= 0;
-}
-
 /*
  *  use the time between the first SYN and it's ack as the
  *  initial round trip time
  */
-void tcpsynackrtt(struct conv *s)
+static void tcpsynackrtt(struct conv *s)
 {
        Tcpctl *tcb;
        uint64_t delta;
@@ -1863,8 +1589,8 @@ void tcpsynackrtt(struct conv *s)
        tpriv = s->p->priv;
 
        delta = NOW - tcb->sndsyntime;
-       tcb->srtt = delta << LOGAGAIN;
-       tcb->mdev = delta << LOGDGAIN;
+       tcb->srtt = delta;
+       tcb->mdev = delta / 2;
 
        /* halt round trip timer */
        tcphalt(tpriv, &tcb->rtt_timer);
@@ -1893,44 +1619,402 @@ static void adjust_tx_qio_limit(struct conv *s)
         * actual threshold was.  We want the limit to be the 'stable' cwnd * 2. */
 }
 
-void update(struct conv *s, Tcp * seg)
+/* Attempts to merge later sacks into sack 'into' (index in the array) */
+static void merge_sacks_into(Tcpctl *tcb, int into)
 {
-       int rtt, delta;
+       struct sack_block *into_sack = &tcb->snd.sacks[into];
+       struct sack_block *tcb_sack;
+       int shift = 0;
+
+       for (int i = into + 1; i < tcb->snd.nr_sacks; i++) {
+               tcb_sack = &tcb->snd.sacks[i];
+               if (seq_lt(into_sack->right, tcb_sack->left))
+                       break;
+               if (seq_gt(tcb_sack->right, into_sack->right))
+                       into_sack->right = tcb_sack->right;
+               shift++;
+       }
+       if (shift) {
+               memmove(tcb->snd.sacks + into + 1,
+                       tcb->snd.sacks + into + 1 + shift,
+                       sizeof(struct sack_block) * (tcb->snd.nr_sacks - into - 1
+                                                            - shift));
+               tcb->snd.nr_sacks -= shift;
+       }
+}
+
+/* If we update a sack, it means they received a packet (possibly out of order),
+ * but they have not received earlier packets.  Otherwise, they would do a full
+ * ACK.
+ *
+ * The trick is in knowing whether the reception growing this sack is due to a
+ * retrans or due to packets from before our last loss event.  The rightmost
+ * sack tends to grow a lot with packets we sent before the loss.  However,
+ * intermediate sacks that grow are signs of a loss, since they only grow as a
+ * result of retrans.
+ *
+ * This is only true for the first time through a retrans.  After we've gone
+ * through a full retrans blast, the sack that hinted at the retrans loss (and
+ * there could be multiple of them!) will continue to grow.  We could come up
+ * with some tracking for this, but instead we'll just do a one-time deal.  You
+ * can recover from one detected sack retrans loss.  After that, you'll have to
+ * use the RTO.
+ *
+ * This won't catch some things, like a sack that grew and merged with the
+ * rightmost sack.  This also won't work if you have a single sack.  We can't
+ * tell where the retrans ends and the sending begins. */
+static bool sack_hints_at_loss(Tcpctl *tcb, struct sack_block *tcb_sack)
+{
+       if (tcb->snd.recovery != SACK_RETRANS_RECOVERY)
+               return FALSE;
+       return &tcb->snd.sacks[tcb->snd.nr_sacks - 1] != tcb_sack;
+}
+
+static bool sack_contains(struct sack_block *tcb_sack, uint32_t seq)
+{
+       return seq_le(tcb_sack->left, seq) && seq_lt(seq, tcb_sack->right);
+}
+
+/* Debugging helper! */
+static void sack_asserter(Tcpctl *tcb, char *str)
+{
+       struct sack_block *tcb_sack;
+
+       for (int i = 0; i < tcb->snd.nr_sacks; i++) {
+               tcb_sack = &tcb->snd.sacks[i];
+               /* Checking invariants: snd.rtx is never inside a sack, sacks are always
+                * mutually exclusive. */
+               if (sack_contains(tcb_sack, tcb->snd.rtx) ||
+                   ((i + 1 < tcb->snd.nr_sacks) && seq_ge(tcb_sack->right,
+                                                              (tcb_sack + 1)->left))) {
+                       printk("SACK ASSERT ERROR at %s\n", str);
+                       printk("rtx %u una %u nxt %u, sack [%u, %u)\n",
+                              tcb->snd.rtx, tcb->snd.una, tcb->snd.nxt, tcb_sack->left,
+                                  tcb_sack->right);
+                       for (int i = 0; i < tcb->snd.nr_sacks; i++)
+                               printk("\t %d: [%u, %u)\n", i, tcb->snd.sacks[i].left,
+                                      tcb->snd.sacks[i].right);
+                       backtrace();
+                       panic("");
+               }
+       }
+}
+
+/* Updates bookkeeping whenever a sack is added or updated */
+static void sack_has_changed(struct conv *s, Tcpctl *tcb,
+                             struct sack_block *tcb_sack)
+{
+       /* Due to the change, snd.rtx might be in the middle of this sack.  Advance
+        * it to the right edge. */
+       if (sack_contains(tcb_sack, tcb->snd.rtx))
+               tcb->snd.rtx = tcb_sack->right;
+
+       /* This is a sack for something we retransed and we think it means there was
+        * another loss.  Instead of waiting for the RTO, we can take action. */
+       if (sack_hints_at_loss(tcb, tcb_sack)) {
+               if (++tcb->snd.sack_loss_hint == TCPREXMTTHRESH) {
+                       netlog(s->p->f, Logtcprxmt,
+                              "%I.%d -> %I.%d: sack rxmit loss: snd.rtx %u, sack [%u,%u), una %u, recovery_pt %u\n",
+                              s->laddr, s->lport, s->raddr, s->rport,
+                              tcb->snd.rtx, tcb_sack->left, tcb_sack->right, tcb->snd.una,
+                              tcb->snd.recovery_pt);
+                       /* Redo retrans, but keep the sacks and recovery point */
+                       tcp_loss_event(s, tcb);
+                       tcb->snd.rtx = tcb->snd.una;
+                       tcb->snd.sack_loss_hint = 0;
+                       /* Act like an RTO.  We just detected it earlier.  This prevents us
+                        * from getting another sack hint loss this recovery period and from
+                        * advancing the opportunistic right edge. */
+                       tcb->snd.recovery = RTO_RETRANS_RECOVERY;
+                       /* We didn't actually time out yet and we expect to keep getting
+                        * sacks, so we don't want to flush or worry about in_flight.  If we
+                        * messed something up, the RTO will still fire. */
+                       set_in_flight(tcb);
+               }
+       }
+}
+
+/* Advances tcb_sack's right edge, if new_right is farther, and updates the
+ * bookkeeping due to the change. */
+static void update_right_edge(struct conv *s, Tcpctl *tcb,
+                              struct sack_block *tcb_sack, uint32_t new_right)
+{
+       if (seq_le(new_right, tcb_sack->right))
+               return;
+       tcb_sack->right = new_right;
+       merge_sacks_into(tcb, tcb_sack - tcb->snd.sacks);
+       sack_has_changed(s, tcb, tcb_sack);
+}
+
+static void update_or_insert_sack(struct conv *s, Tcpctl *tcb,
+                                  struct sack_block *seg_sack)
+{
+       struct sack_block *tcb_sack;
+
+       for (int i = 0; i < tcb->snd.nr_sacks; i++) {
+               tcb_sack = &tcb->snd.sacks[i];
+               if (seq_lt(tcb_sack->left, seg_sack->left)) {
+                       /* This includes adjacent (which I've seen!) and overlap. */
+                       if (seq_le(seg_sack->left, tcb_sack->right)) {
+                               update_right_edge(s, tcb, tcb_sack, seg_sack->right);
+                               return;
+                       }
+                       continue;
+               }
+               /* Update existing sack */
+               if (tcb_sack->left == seg_sack->left) {
+                       update_right_edge(s, tcb, tcb_sack, seg_sack->right);
+                       return;
+               }
+               /* Found our slot */
+               if (seq_gt(tcb_sack->left, seg_sack->left)) {
+                       if (tcb->snd.nr_sacks == MAX_NR_SND_SACKS) {
+                               /* Out of room, but it is possible this sack overlaps later
+                                * sacks, including the max sack's right edge. */
+                               if (seq_ge(seg_sack->right, tcb_sack->left)) {
+                                       /* Take over the sack */
+                                       tcb_sack->left = seg_sack->left;
+                                       update_right_edge(s, tcb, tcb_sack, seg_sack->right);
+                               }
+                               return;
+                       }
+                       /* O/W, it's our slot and we have room (at least one spot). */
+                       memmove(&tcb->snd.sacks[i + 1], &tcb->snd.sacks[i],
+                               sizeof(struct sack_block) * (tcb->snd.nr_sacks - i));
+                       tcb_sack->left = seg_sack->left;
+                       tcb_sack->right = seg_sack->right;
+                       tcb->snd.nr_sacks++;
+                       merge_sacks_into(tcb, i);
+                       sack_has_changed(s, tcb, tcb_sack);
+                       return;
+               }
+       }
+       if (tcb->snd.nr_sacks == MAX_NR_SND_SACKS) {
+               /* We didn't find space in the sack array. */
+               tcb_sack = &tcb->snd.sacks[MAX_NR_SND_SACKS - 1];
+               /* Need to always maintain the rightmost sack, discarding the prev */
+               if (seq_gt(seg_sack->right, tcb_sack->right)) {
+                       tcb_sack->left = seg_sack->left;
+                       tcb_sack->right = seg_sack->right;
+                       sack_has_changed(s, tcb, tcb_sack);
+               }
+               return;
+       }
+       tcb_sack = &tcb->snd.sacks[tcb->snd.nr_sacks];
+       tcb->snd.nr_sacks++;
+       tcb_sack->left = seg_sack->left;
+       tcb_sack->right = seg_sack->right;
+       sack_has_changed(s, tcb, tcb_sack);
+}
+
+/* Given the packet seg, track the sacks in TCB.  There are a few things: if seg
+ * acks new data, some sacks might no longer be needed.  Some sacks might grow,
+ * we might add new sacks, either of which can cause a merger.
+ *
+ * The important thing is that we always have the max sack entry: it must be
+ * inserted for sure and findable.  We need that for our measurement of what
+ * packets are in the network.
+ *
+ * Note that we keep sacks that are below snd.rtx (and above
+ * seg.ack/tcb->snd.una) as best we can - we don't prune them.  We'll need those
+ * for the in_flight estimate.
+ *
+ * When we run out of room, we'll have to throw away a sack.  Anything we throw
+ * away below snd.rtx will be counted as 'in flight', even though it isn't.  If
+ * we throw away something greater than snd.rtx, we'll also retrans it.  For
+ * simplicity, we throw-away / replace the rightmost sack, since we're always
+ * maintaining a highest sack. */
+static void update_sacks(struct conv *s, Tcpctl *tcb, Tcp *seg)
+{
+       int prune = 0;
+       struct sack_block *tcb_sack;
+
+       for (int i = 0; i < tcb->snd.nr_sacks; i++) {
+               tcb_sack = &tcb->snd.sacks[i];
+               /* For the equality case, if they acked up to, but not including an old
+                * sack, they must have reneged it.  Otherwise they would have acked
+                * beyond the sack. */
+               if (seq_lt(seg->ack, tcb_sack->left))
+                       break;
+               prune++;
+       }
+       if (prune) {
+               memmove(tcb->snd.sacks, tcb->snd.sacks + prune,
+                       sizeof(struct sack_block) * (tcb->snd.nr_sacks - prune));
+               tcb->snd.nr_sacks -= prune;
+       }
+       for (int i = 0; i < seg->nr_sacks; i++) {
+               /* old sacks */
+               if (seq_lt(seg->sacks[i].left, seg->ack))
+                       continue;
+               /* buggy sack: out of range */
+               if (seq_gt(seg->sacks[i].right, tcb->snd.nxt))
+                       continue;
+               update_or_insert_sack(s, tcb, &seg->sacks[i]);
+       }
+}
+
+/* This is a little bit of an under estimate, since we assume a packet is lost
+ * once we have any sacks above it.  Overall, it's at most 2 * MSS of an
+ * overestimate.
+ *
+ * If we have no sacks (either reneged or never used) we'll assume all packets
+ * above snd.rtx are lost.  This will be the case for sackless fast rxmit
+ * (Dong's stuff) or for a timeout.  In the former case, this is probably not
+ * true, and in_flight should be higher, but we have no knowledge without the
+ * sacks. */
+static void set_in_flight(Tcpctl *tcb)
+{
+       struct sack_block *tcb_sack;
+       uint32_t in_flight = 0;
+       uint32_t from;
+
+       if (!tcb->snd.nr_sacks) {
+               tcb->snd.in_flight = tcb->snd.rtx - tcb->snd.una;
+               return;
+       }
+
+       /* Everything to the right of the unsacked */
+       tcb_sack = &tcb->snd.sacks[tcb->snd.nr_sacks - 1];
+       in_flight += tcb->snd.nxt - tcb_sack->right;
+
+       /* Everything retransed (from una to snd.rtx, minus sacked regions.  Note
+        * we only retrans at most the last sack's left edge.  snd.rtx will be
+        * advanced to the right edge of some sack (possibly the last one). */
+       from = tcb->snd.una;
+       for (int i = 0; i < tcb->snd.nr_sacks; i++) {
+               tcb_sack = &tcb->snd.sacks[i];
+               if (seq_ge(tcb_sack->left, tcb->snd.rtx))
+                       break;
+               assert(seq_ge(tcb->snd.rtx, tcb_sack->right));
+               in_flight += tcb_sack->left - from;
+               from = tcb_sack->right;
+       }
+       in_flight += tcb->snd.rtx - from;
+
+       tcb->snd.in_flight = in_flight;
+}
+
+static void reset_recovery(struct conv *s, Tcpctl *tcb)
+{
+       netlog(s->p->f, Logtcprxmt,
+              "%I.%d -> %I.%d: recovery complete, una %u, rtx %u, nxt %u, recovery %u\n",
+              s->laddr, s->lport, s->raddr, s->rport,
+              tcb->snd.una, tcb->snd.rtx, tcb->snd.nxt, tcb->snd.recovery_pt);
+       tcb->snd.recovery = 0;
+       tcb->snd.recovery_pt = 0;
+       tcb->snd.loss_hint = 0;
+       tcb->snd.flush_sacks = FALSE;
+       tcb->snd.sack_loss_hint = 0;
+}
+
+static bool is_dup_ack(Tcpctl *tcb, Tcp *seg)
+{
+       /* this is a pure ack w/o window update */
+       return (seg->ack == tcb->snd.una) &&
+              (tcb->snd.una != tcb->snd.nxt) &&
+              (seg->len == 0) &&
+              (seg->wnd == tcb->snd.wnd);
+}
+
+/* If we have sacks, we'll ignore dupacks and look at the sacks ahead of una
+ * (which are managed by the TCB).  The tcb will not have old sacks (below
+ * ack/snd.rtx).  Receivers often send sacks below their ack point when we are
+ * coming out of a loss, and we don't want those to count.
+ *
+ * Note the tcb could have sacks (in the future), but the receiver stopped using
+ * them (reneged).  We'll catch that with the RTO.  If we try to catch it here,
+ * we could get in a state where we never allow them to renege. */
+static bool is_potential_loss(Tcpctl *tcb, Tcp *seg)
+{
+       if (seg->nr_sacks > 0)
+               return tcb->snd.nr_sacks > 0;
+       else
+               return is_dup_ack(tcb, seg);
+}
+
+/* When we use timestamps for RTTM, RFC 7323 suggests scaling by
+ * expected_samples (per cwnd).  They say:
+ *
+ * ExpectedSamples = ceiling(FlightSize / (SMSS * 2))
+ *
+ * However, SMMS * 2 is really "number of bytes expected to be acked in a
+ * packet.".  We'll use 'acked' to approximate that.  When the receiver uses
+ * LRO, they'll send back large ACKs, which decreases the number of samples.
+ *
+ * If it turns out that all the divides are bad, we can just go back to not
+ * using expected_samples at all. */
+static int expected_samples_ts(Tcpctl *tcb, uint32_t acked)
+{
+       assert(acked);
+       return MAX(DIV_ROUND_UP(tcb->snd.nxt - tcb->snd.una, acked), 1);
+}
+
+/* Updates the RTT, given the currently sampled RTT and the number samples per
+ * cwnd.  For non-TS RTTM, that'll be 1. */
+static void update_rtt(Tcpctl *tcb, int rtt_sample, int expected_samples)
+{
+       int delta;
+
+       tcb->backoff = 0;
+       tcb->backedoff = 0;
+       if (tcb->srtt == 0) {
+               tcb->srtt = rtt_sample;
+               tcb->mdev = rtt_sample / 2;
+       } else {
+               delta = rtt_sample - tcb->srtt;
+               tcb->srtt += (delta >> RTTM_ALPHA_SHIFT) / expected_samples;
+               if (tcb->srtt <= 0)
+                       tcb->srtt = 1;
+               tcb->mdev += ((abs(delta) - tcb->mdev) >> RTTM_BRAVO_SHIFT) /
+                            expected_samples;
+               if (tcb->mdev <= 0)
+                       tcb->mdev = 1;
+       }
+       tcpsettimer(tcb);
+}
+
+static void update(struct conv *s, Tcp *seg)
+{
+       int rtt;
        Tcpctl *tcb;
-       uint32_t acked;
-       uint32_t expand;
+       uint32_t acked, expand;
        struct tcppriv *tpriv;
 
        tpriv = s->p->priv;
        tcb = (Tcpctl *) s->ptcl;
 
-       /* if everything has been acked, force output(?) */
-       if (seq_gt(seg->ack, tcb->snd.nxt)) {
-               tcb->flags |= FORCE;
+       if (!seq_within(seg->ack, tcb->snd.una, tcb->snd.nxt))
                return;
-       }
-
-       /* added by Dong Lin for fast retransmission */
-       if (seg->ack == tcb->snd.una
-               && tcb->snd.una != tcb->snd.nxt
-               && seg->len == 0 && seg->wnd == tcb->snd.wnd) {
-
-               /* this is a pure ack w/o window update */
-               netlog(s->p->f, Logtcprxmt, "dupack %lu ack %lu sndwnd %d advwin %d\n",
-                          tcb->snd.dupacks, seg->ack, tcb->snd.wnd, seg->wnd);
 
-               if (++tcb->snd.dupacks == TCPREXMTTHRESH) {
-                       /*
-                        *  tahoe tcp rxt the packet, half sshthresh,
-                        *  and set cwnd to one packet
-                        */
-                       tcb->snd.recovery = 1;
-                       tcb->snd.rxt = tcb->snd.nxt;
-                       netlog(s->p->f, Logtcprxmt, "fast rxt %lu, nxt %lu\n", tcb->snd.una,
-                                  tcb->snd.nxt);
+       acked = seg->ack - tcb->snd.una;
+       tcb->snd.una = seg->ack;
+       if (seq_gt(seg->ack, tcb->snd.rtx))
+               tcb->snd.rtx = seg->ack;
+
+       update_sacks(s, tcb, seg);
+       set_in_flight(tcb);
+
+       /* We treat either a dupack or forward SACKs as a hint that there is a loss.
+        * The RFCs suggest three dupacks before treating it as a loss (alternative
+        * is reordered packets).  We'll treat three SACKs the same way. */
+       if (is_potential_loss(tcb, seg) && !tcb->snd.recovery) {
+               tcb->snd.loss_hint++;
+               if (tcb->snd.loss_hint == TCPREXMTTHRESH) {
+                       netlog(s->p->f, Logtcprxmt,
+                              "%I.%d -> %I.%d: loss hint thresh, nr sacks %u, nxt %u, una %u, cwnd %u\n",
+                              s->laddr, s->lport, s->raddr, s->rport,
+                              tcb->snd.nr_sacks, tcb->snd.nxt, tcb->snd.una, tcb->cwind);
+                       tcp_loss_event(s, tcb);
+                       tcb->snd.recovery_pt = tcb->snd.nxt;
+                       if (tcb->snd.nr_sacks) {
+                               tcb->snd.recovery = SACK_RETRANS_RECOVERY;
+                               tcb->snd.flush_sacks = FALSE;
+                               tcb->snd.sack_loss_hint = 0;
+                       } else {
+                               tcb->snd.recovery = FAST_RETRANS_RECOVERY;
+                       }
                        tcprxmit(s);
-               } else {
-                       /* do reno tcp here. */
                }
        }
 
@@ -1943,30 +2027,23 @@ void update(struct conv *s, Tcp * seg)
                tcb->snd.wl2 = seg->ack;
        }
 
-       if (!seq_gt(seg->ack, tcb->snd.una)) {
+       if (!acked) {
                /*
                 *  don't let us hangup if sending into a closed window and
                 *  we're still getting acks
                 */
-               if ((tcb->flags & RETRAN) && tcb->snd.wnd == 0) {
+               if (tcb->snd.recovery && (tcb->snd.wnd == 0))
                        tcb->backedoff = MAXBACKMS / 4;
-               }
                return;
        }
-
-       /*
-        *  any positive ack turns off fast rxt,
-        *  (should we do new-reno on partial acks?)
-        */
-       if (!tcb->snd.recovery || seq_ge(seg->ack, tcb->snd.rxt)) {
-               tcb->snd.dupacks = 0;
-               tcb->snd.recovery = 0;
-       } else
-               netlog(s->p->f, Logtcp, "rxt next %lu, cwin %u\n", seg->ack,
-                          tcb->cwind);
-
-       /* Compute the new send window size */
-       acked = seg->ack - tcb->snd.una;
+       /* At this point, they have acked something new. (positive ack, ack > una).
+        *
+        * If we hadn't reached the threshold for recovery yet, the positive ACK
+        * will reset our loss_hint count. */
+       if (!tcb->snd.recovery)
+               tcb->snd.loss_hint = 0;
+       else if (seq_ge(seg->ack, tcb->snd.recovery_pt))
+               reset_recovery(s, tcb);
 
        /* avoid slow start and timers for SYN acks */
        if ((tcb->flags & SYNACK) == 0) {
@@ -2004,39 +2081,32 @@ void update(struct conv *s, Tcp * seg)
        }
        adjust_tx_qio_limit(s);
 
-       /* Adjust the timers according to the round trip time */
-       if (tcb->rtt_timer.state == TcptimerON && seq_ge(seg->ack, tcb->rttseq)) {
+       if (tcb->ts_recent) {
+               update_rtt(tcb, abs(milliseconds() - seg->ts_ecr),
+                          expected_samples_ts(tcb, acked));
+       } else if (tcb->rtt_timer.state == TcptimerON &&
+                  seq_ge(seg->ack, tcb->rttseq)) {
+               /* Adjust the timers according to the round trip time */
                tcphalt(tpriv, &tcb->rtt_timer);
-               if ((tcb->flags & RETRAN) == 0) {
-                       tcb->backoff = 0;
-                       tcb->backedoff = 0;
+               if (!tcb->snd.recovery) {
                        rtt = tcb->rtt_timer.start - tcb->rtt_timer.count;
                        if (rtt == 0)
-                               rtt = 1;        /* otherwise all close systems will rexmit in 0 time */
+                               rtt = 1;        /* o/w all close systems will rexmit in 0 time */
                        rtt *= MSPTICK;
-                       if (tcb->srtt == 0) {
-                               tcb->srtt = rtt << LOGAGAIN;
-                               tcb->mdev = rtt << LOGDGAIN;
-                       } else {
-                               delta = rtt - (tcb->srtt >> LOGAGAIN);
-                               tcb->srtt += delta;
-                               if (tcb->srtt <= 0)
-                                       tcb->srtt = 1;
-
-                               delta = abs(delta) - (tcb->mdev >> LOGDGAIN);
-                               tcb->mdev += delta;
-                               if (tcb->mdev <= 0)
-                                       tcb->mdev = 1;
-                       }
-                       tcpsettimer(tcb);
+                       update_rtt(tcb, rtt, 1);
                }
        }
 
 done:
-       if (qdiscard(s->wq, acked) < acked)
+       if (qdiscard(s->wq, acked) < acked) {
                tcb->flgcnt--;
+               /* This happened due to another bug where acked was very large
+                * (negative), which was interpreted as "hey, one less flag, since they
+                * acked one of our flags (like a SYN).  If flgcnt goes negative,
+                * get_xmit_segment() will attempt to send out large packets. */
+               assert(tcb->flgcnt >= 0);
+       }
 
-       tcb->snd.una = seg->ack;
        if (seq_gt(seg->ack, tcb->snd.urg))
                tcb->snd.urg = seg->ack;
 
@@ -2045,10 +2115,6 @@ done:
        else
                tcphalt(tpriv, &tcb->timer);
 
-       if (seq_lt(tcb->snd.ptr, tcb->snd.una))
-               tcb->snd.ptr = tcb->snd.una;
-
-       tcb->flags &= ~RETRAN;
        tcb->backoff = 0;
        tcb->backedoff = 0;
 }
@@ -2065,7 +2131,79 @@ static void update_tcb_ts(Tcpctl *tcb, Tcp *seg)
                tcb->ts_recent = seg->ts_val;
 }
 
-void tcpiput(struct Proto *tcp, struct Ipifc *unused, struct block *bp)
+/* Overlap happens when one sack's left edge is inside another sack. */
+static bool sacks_overlap(struct sack_block *x, struct sack_block *y)
+{
+       return (seq_le(x->left, y->left) && seq_le(y->left, x->right)) ||
+              (seq_le(y->left, x->left) && seq_le(x->left, y->right));
+}
+
+static void make_sack_first(Tcpctl *tcb, struct sack_block *tcb_sack)
+{
+       struct sack_block temp;
+
+       if (tcb_sack == &tcb->rcv.sacks[0])
+               return;
+       temp = tcb->rcv.sacks[0];
+       tcb->rcv.sacks[0] = *tcb_sack;
+       *tcb_sack = temp;
+}
+
+/* Track sack in our tcb for a block of data we received.  This handles all the
+ * stuff: making sure sack is first (since it's the most recent sack change),
+ * updating or merging sacks, and dropping excess sacks (we only need to
+ * maintain 3).  Unlike on the snd side, our tcb sacks are *not* sorted. */
+static void track_rcv_sack(Tcpctl *tcb, uint32_t left, uint32_t right)
+{
+       struct sack_block *tcb_sack;
+       struct sack_block sack[1];
+
+       if (!tcb->sack_ok)
+               return;
+       if (left == right)
+               return;
+       assert(seq_lt(left, right));
+       sack->left = left;
+       sack->right = right;
+       /* We can reuse an existing sack if we're merging or overlapping. */
+       for (int i = 0; i < tcb->rcv.nr_sacks; i++) {
+               tcb_sack = &tcb->rcv.sacks[i];
+               if (sacks_overlap(tcb_sack, sack)) {
+                       tcb_sack->left = seq_min(tcb_sack->left, sack->left);
+                       tcb_sack->right = seq_max(tcb_sack->right, sack->right);
+                       make_sack_first(tcb, tcb_sack);
+                       return;
+               }
+       }
+       /* We can discard the last sack (right shift) - we should have sent it at
+        * least once by now.  If not, oh well. */
+       memmove(tcb->rcv.sacks + 1, tcb->rcv.sacks, sizeof(struct sack_block) *
+               MIN(MAX_NR_RCV_SACKS - 1, tcb->rcv.nr_sacks));
+       tcb->rcv.sacks[0] = *sack;
+       if (tcb->rcv.nr_sacks < MAX_NR_RCV_SACKS)
+               tcb->rcv.nr_sacks++;
+}
+
+/* Once we receive everything and move rcv.nxt past a sack, we don't need to
+ * track it.  I've seen Linux report sacks in the past, but we probably
+ * shouldn't. */
+static void drop_old_rcv_sacks(Tcpctl *tcb)
+{
+       struct sack_block *tcb_sack;
+
+       for (int i = 0; i < tcb->rcv.nr_sacks; i++) {
+               tcb_sack = &tcb->rcv.sacks[i];
+               /* Moving up to or past the left is enough to drop it. */
+               if (seq_ge(tcb->rcv.nxt, tcb_sack->left)) {
+                       memmove(tcb->rcv.sacks + i, tcb->rcv.sacks + i + 1,
+                               sizeof(struct sack_block) * (tcb->rcv.nr_sacks - i - 1));
+                       tcb->rcv.nr_sacks--;
+                       i--;
+               }
+       }
+}
+
+static void tcpiput(struct Proto *tcp, struct Ipifc *unused, struct block *bp)
 {
        ERRSTACK(1);
        Tcp seg;
@@ -2184,7 +2322,7 @@ void tcpiput(struct Proto *tcp, struct Ipifc *unused, struct block *bp)
 
        /* s, the conv matching the n-tuple, was set above */
        if (s == NULL) {
-               netlog(f, Logtcp, "iphtlook failed: src %I:%u, dst %I:%u\n",
+               netlog(f, Logtcpreset, "iphtlook failed: src %I:%u, dst %I:%u\n",
                       source, seg.source, dest, seg.dest);
 reset:
                sndrst(tcp, source, dest, length, &seg, version, "no conversation");
@@ -2309,7 +2447,8 @@ reset:
 
        /* Cut the data to fit the receive window */
        if (tcptrim(tcb, &seg, &bp, &length) == -1) {
-               netlog(f, Logtcp, "tcp len < 0, %lu %d\n", seg.seq, length);
+               netlog(f, Logtcp, "%I.%d -> %I.%d: tcp len < 0, %lu %d\n",
+                      s->raddr, s->rport, s->laddr, s->lport, seg.seq, length);
                update(s, &seg);
                if (qlen(s->wq) + tcb->flgcnt == 0 && tcb->state == Closing) {
                        tcphalt(tpriv, &tcb->rtt_timer);
@@ -2457,6 +2596,7 @@ reset:
                                                        tcb->flags |= FORCE;
                                        }
                                        tcb->rcv.nxt += length;
+                                       drop_old_rcv_sacks(tcb);
 
                                        /*
                                         *  update our rcv window
@@ -2563,24 +2703,243 @@ static uint16_t derive_payload_mss(Tcpctl *tcb)
                 * and not really a problem. */
                opt_size += TS_SEND_PREPAD;
        }
+       if (tcb->rcv.nr_sacks)
+               opt_size += 2 + tcb->rcv.nr_sacks * 8;
        opt_size = ROUNDUP(opt_size, 4);
        payload_mss -= opt_size;
        return payload_mss;
 }
 
+/* Decreases the xmit amt, given the MSS / TSO. */
+static uint32_t throttle_for_mss(Tcpctl *tcb, uint32_t ssize,
+                                 uint16_t payload_mss, bool retrans)
+{
+       if (ssize > payload_mss) {
+               if ((tcb->flags & TSO) == 0) {
+                       ssize = payload_mss;
+               } else {
+                       /* Don't send too much.  32K is arbitrary.. */
+                       if (ssize > 32 * 1024)
+                               ssize = 32 * 1024;
+                       if (!retrans) {
+                               /* Clamp xmit to an integral MSS to avoid ragged tail segments
+                                * causing poor link utilization. */
+                               ssize = ROUNDDOWN(ssize, payload_mss);
+                       }
+               }
+       }
+       return ssize;
+}
+
+/* Reduces ssize for a variety of reasons.  Returns FALSE if we should abort
+ * sending the packet.  o/w returns TRUE and modifies ssize by reference. */
+static bool throttle_ssize(struct conv *s, Tcpctl *tcb, uint32_t *ssize_p,
+                           uint16_t payload_mss, bool retrans)
+{
+       struct Fs *f = s->p->f;
+       uint32_t usable;
+       uint32_t ssize = *ssize_p;
+
+       /* Compute usable segment based on offered window and limit
+        * window probes to one */
+       if (tcb->snd.wnd == 0) {
+               if (tcb->snd.in_flight != 0) {
+                       if ((tcb->flags & FORCE) == 0)
+                               return FALSE;
+               }
+               usable = 1;
+       } else {
+               usable = tcb->cwind;
+               if (tcb->snd.wnd < usable)
+                       usable = tcb->snd.wnd;
+               if (usable > tcb->snd.in_flight)
+                       usable -= tcb->snd.in_flight;
+               else
+                       usable = 0;
+               /* Avoid Silly Window Syndrome.  This is a little different thant RFC
+                * 813.  I took their additional enhancement of "< MSS" as an AND, not
+                * an OR.  25% of a large snd.wnd is pretty large, and our main goal is
+                * to avoid packets smaller than MSS.  I still use the 25% threshold,
+                * because it is important that there is *some* data in_flight.  If
+                * usable < MSS because snd.wnd is very small (but not 0), we might
+                * never get an ACK and would need to set up a timer.
+                *
+                * Also, I'm using 'ssize' as a proxy for a PSH point.  If there's just
+                * a small blob in the qio (or retrans!), then we might as well just
+                * send it. */
+               if ((usable < tcb->typical_mss) && (usable < tcb->snd.wnd >> 2)
+                   && (usable < ssize)) {
+                       return FALSE;
+               }
+       }
+       if (ssize && usable < 2)
+               netlog(s->p->f, Logtcpverbose,
+                      "%I.%d -> %I.%d: throttled snd.wnd %lu cwind %lu\n",
+                      s->laddr, s->lport, s->raddr, s->rport,
+                      tcb->snd.wnd, tcb->cwind);
+       if (usable < ssize)
+               ssize = usable;
+
+       ssize = throttle_for_mss(tcb, ssize, payload_mss, retrans);
+
+       *ssize_p = ssize;
+       return TRUE;
+}
+
+/* Helper, picks the next segment to send, which is possibly a retransmission.
+ * Returns TRUE if we have a segment, FALSE o/w.  Returns ssize, from_seq, and
+ * sent by reference.
+ *
+ * from_seq is the seq number we are transmitting from.
+ *
+ * sent includes all seq from una to from_seq *including* any previously sent
+ * flags (part of tcb->flgcnt), for instance an unacknowledged SYN (which counts
+ * as a seq number).  Those flags are in the e.g. snd.nxt - snd.una range, and
+ * they get dropped after qdiscard.
+ *
+ * ssize is the amount of data we are sending, starting from from_seq, and it
+ * will include any *new* flags, which haven't been accounted for yet.
+ *
+ * tcb->flgcnt consists of the flags both in ssize and in sent.
+ *
+ * Note that we could be in recovery and not sack_retrans a segment. */
+static bool get_xmit_segment(struct conv *s, Tcpctl *tcb, uint16_t payload_mss,
+                             uint32_t *from_seq_p, uint32_t *sent_p,
+                             uint32_t *ssize_p)
+{
+       struct Fs *f = s->p->f;
+       struct tcppriv *tpriv = s->p->priv;
+       uint32_t ssize, sent, from_seq;
+       bool sack_retrans = FALSE;
+       struct sack_block *tcb_sack = 0;
+
+       for (int i = 0; i < tcb->snd.nr_sacks; i++) {
+               tcb_sack = &tcb->snd.sacks[i];
+               if (seq_lt(tcb->snd.rtx, tcb_sack->left)) {
+                       /* So ssize is supposed to include any *new* flags to flgcnt, which
+                        * at this point would be a FIN.
+                        *
+                        * It might be possible that flgcnt is incremented so we send a FIN,
+                        * even for an intermediate sack retrans.  Perhaps the user closed
+                        * the conv.
+                        *
+                        * However, the way the "flgcnt for FIN" works is that it inflates
+                        * the desired amount we'd like to send (qlen + flgcnt).
+                        * Eventually, we reach the end of the queue and fail to extract all
+                        * of dsize.  At that point, we put on the FIN, and that's where the
+                        * extra 'byte' comes from.
+                        *
+                        * For sack retrans, since we're extracting from parts of the qio
+                        * that aren't the right-most edge, we don't need to consider flgcnt
+                        * when setting ssize. */
+                       from_seq = tcb->snd.rtx;
+                       sent = from_seq - tcb->snd.una;
+                       ssize = tcb_sack->left - from_seq;
+                       sack_retrans = TRUE;
+                       break;
+               }
+       }
+       /* SACK holes have first dibs, but we can still opportunisitically send new
+        * data.
+        *
+        * During other types of recovery, we'll just send from the retrans point.
+        * If we're in an RTO while we still have sacks, we could be resending data
+        * that wasn't lost.  Consider a sack that is still growing (usually the
+        * right-most), but we haven't received the ACK yet.  rxt may be included in
+        * that area.  Given we had two losses or otherwise timed out, I'm not too
+        * concerned.
+        *
+        * Note that Fast and RTO can send data beyond nxt.  If we change that,
+        * change the accounting below. */
+       if (!sack_retrans) {
+               switch (tcb->snd.recovery) {
+               default:
+               case SACK_RETRANS_RECOVERY:
+                       from_seq = tcb->snd.nxt;
+                       break;
+               case FAST_RETRANS_RECOVERY:
+               case RTO_RETRANS_RECOVERY:
+                       from_seq = tcb->snd.rtx;
+                       break;
+               }
+               sent = from_seq - tcb->snd.una;
+               /* qlen + flgcnt is every seq we want to have sent, including unack'd
+                * data, unacked flags, and new flags. */
+               ssize = qlen(s->wq) + tcb->flgcnt - sent;
+       }
+
+       if (!throttle_ssize(s, tcb, &ssize, payload_mss, sack_retrans))
+               return FALSE;
+
+       /* This counts flags, which is a little hokey, but it's okay since in_flight
+        * gets reset on each ACK */
+       tcb->snd.in_flight += ssize;
+       /* Log and track rxmit.  This covers both SACK (retrans) and fast rxmit. */
+       if (ssize && seq_lt(tcb->snd.rtx, tcb->snd.nxt)) {
+               netlog(f, Logtcpverbose,
+                      "%I.%d -> %I.%d: rxmit: rtx %u amt %u, nxt %u\n",
+                      s->laddr, s->lport, s->raddr, s->rport,
+                      tcb->snd.rtx, MIN(tcb->snd.nxt - tcb->snd.rtx, ssize),
+                      tcb->snd.nxt);
+               tpriv->stats[RetransSegs]++;
+       }
+       if (sack_retrans) {
+               /* If we'll send up to the left edge, advance snd.rtx to the right.
+                *
+                * This includes the largest sack.  It might get removed later, in which
+                * case we'll underestimate the amount in-flight.  The alternative is to
+                * not count the rightmost sack, but when it gets removed, we'll retrans
+                * it anyway.  No matter what, we'd count it. */
+               tcb->snd.rtx += ssize;
+               if (tcb->snd.rtx == tcb_sack->left)
+                       tcb->snd.rtx = tcb_sack->right;
+               /* RFC 6675 says we MAY rearm the RTO timer on each retrans, since we
+                * might not be getting ACKs for a while. */
+               tcpsettimer(tcb);
+       } else {
+               switch (tcb->snd.recovery) {
+               default:
+                       /* under normal op, we drag rtx along with nxt.  this prevents us
+                        * from sending sacks too early (up above), since rtx doesn't get
+                        * reset to una until we have a loss (e.g. 3 dupacks/sacks). */
+                       tcb->snd.nxt += ssize;
+                       tcb->snd.rtx = tcb->snd.nxt;
+                       break;
+               case SACK_RETRANS_RECOVERY:
+                       /* We explicitly do not want to increase rtx here.  We might still
+                        * need it to fill in a sack gap below nxt if we get new, higher
+                        * sacks. */
+                       tcb->snd.nxt += ssize;
+                       break;
+               case FAST_RETRANS_RECOVERY:
+               case RTO_RETRANS_RECOVERY:
+                       tcb->snd.rtx += ssize;
+                       /* Fast and RTO can send new data, advancing nxt. */
+                       if (seq_gt(tcb->snd.rtx, tcb->snd.nxt))
+                               tcb->snd.nxt = tcb->snd.rtx;
+                       break;
+               }
+       }
+       *from_seq_p = from_seq;
+       *sent_p = sent;
+       *ssize_p = ssize;
+
+       return TRUE;
+}
+
 /*
  *  always enters and exits with the s locked.  We drop
  *  the lock to ipoput the packet so some care has to be
  *  taken by callers.
  */
-void tcpoutput(struct conv *s)
+static void tcpoutput(struct conv *s)
 {
        Tcp seg;
        int msgs;
+       int next_yield = 1;
        Tcpctl *tcb;
        struct block *hbp, *bp;
-       int sndcnt, n;
-       uint32_t ssize, dsize, usable, sent;
+       uint32_t ssize, dsize, sent, from_seq;
        struct Fs *f;
        struct tcppriv *tpriv;
        uint8_t version;
@@ -2601,71 +2960,23 @@ void tcpoutput(struct conv *s)
                }
 
                /* force an ack when a window has opened up */
-               if (tcb->rcv.blocked && tcb->rcv.wnd > 0) {
+               if (tcb->rcv.blocked && tcb->rcv.wnd >= tcb->mss) {
                        tcb->rcv.blocked = 0;
                        tcb->flags |= FORCE;
                }
 
-               sndcnt = qlen(s->wq) + tcb->flgcnt;
-               sent = tcb->snd.ptr - tcb->snd.una;
-
                /* Don't send anything else until our SYN has been acked */
-               if (tcb->snd.ptr != tcb->iss && (tcb->flags & SYNACK) == 0)
+               if (tcb->snd.nxt != tcb->iss && (tcb->flags & SYNACK) == 0)
                        break;
 
-               /* Compute usable segment based on offered window and limit
-                * window probes to one
-                */
-               if (tcb->snd.wnd == 0) {
-                       if (sent != 0) {
-                               if ((tcb->flags & FORCE) == 0)
-                                       break;
-//              tcb->snd.ptr = tcb->snd.una;
-                       }
-                       usable = 1;
-               } else {
-                       usable = tcb->cwind;
-                       if (tcb->snd.wnd < usable)
-                               usable = tcb->snd.wnd;
-                       usable -= sent;
-               }
-               ssize = sndcnt - sent;
-               if (ssize && usable < 2)
-                       netlog(s->p->f, Logtcp, "throttled snd.wnd %lu cwind %lu\n",
-                                  tcb->snd.wnd, tcb->cwind);
-               if (usable < ssize)
-                       ssize = usable;
                /* payload_mss is the actual amount of data in the packet, which is the
-                * advertised mss - header opts.  This varies from packet to packet,
+                * advertised (mss - header opts).  This varies from packet to packet,
                 * based on the options that might be present (e.g. always timestamps,
                 * sometimes SACKs) */
                payload_mss = derive_payload_mss(tcb);
-               if (ssize > payload_mss) {
-                       if ((tcb->flags & TSO) == 0) {
-                               ssize = payload_mss;
-                       } else {
-                               int segs;
-
-                               /*  Don't send too much.  32K is arbitrary..
-                                */
-                               if (ssize > 32 * 1024)
-                                       ssize = 32 * 1024;
-
-                               /* Clamp xmit to an integral MSS to
-                                * avoid ragged tail segments causing
-                                * poor link utilization.  Also
-                                * account for each segment sent in
-                                * msg heuristic, and round up to the
-                                * next multiple of 4, to ensure we
-                                * still yeild.
-                                */
-                               segs = ssize / payload_mss;
-                               ssize = segs * payload_mss;
-                               msgs += segs;
-                               if (segs > 3)
-                                       msgs = (msgs + 4) & ~3;
-                       }
-               }
+
+               if (!get_xmit_segment(s, tcb, payload_mss, &from_seq, &sent, &ssize))
+                       break;
 
                dsize = ssize;
                seg.urg = 0;
@@ -2677,8 +2988,11 @@ void tcpoutput(struct conv *s)
                tcb->flags &= ~FORCE;
                tcprcvwin(s);
 
-               /* By default we will generate an ack */
-               tcphalt(tpriv, &tcb->acktimer);
+               /* By default we will generate an ack, so we can normally turn off the
+                * timer.  If we're blocked, we'll want the timer so we can send a
+                * window update. */
+               if (!tcb->rcv.blocked)
+                       tcphalt(tpriv, &tcb->acktimer);
                tcb->rcv.una = 0;
                seg.source = s->lport;
                seg.dest = s->rport;
@@ -2686,12 +3000,13 @@ void tcpoutput(struct conv *s)
                seg.mss = 0;
                seg.ws = 0;
                seg.sack_ok = FALSE;
+               seg.nr_sacks = 0;
                /* When outputting, Syn_sent means "send the Syn", for connections we
                 * initiate.  SYNACKs are sent from sndsynack directly. */
                if (tcb->state == Syn_sent) {
                        seg.flags = 0;
                        seg.sack_ok = SACK_SUPPORTED;   /* here's where we advertise SACK */
-                       if (tcb->snd.ptr == tcb->iss) {
+                       if (tcb->snd.nxt - ssize == tcb->iss) {
                                seg.flags |= SYN;
                                dsize--;
                                seg.mss = tcb->mss;
@@ -2701,7 +3016,7 @@ void tcpoutput(struct conv *s)
                                warn("TCP: weird Syn_sent state, tell someone you saw this");
                        }
                }
-               seg.seq = tcb->snd.ptr;
+               seg.seq = from_seq;
                seg.ack = tcb->rcv.nxt;
                tcb->last_ack_sent = seg.ack;
                seg.wnd = tcb->rcv.wnd;
@@ -2712,6 +3027,10 @@ void tcpoutput(struct conv *s)
                if (dsize != 0) {
                        bp = qcopy(s->wq, dsize, sent);
                        if (BLEN(bp) != dsize) {
+                               /* Here's where the flgcnt kicked in.  Note dsize is
+                                * decremented, but ssize isn't.  Not that we use ssize for much
+                                * anymore.  Decrementing dsize prevents us from sending a PSH
+                                * with the FIN. */
                                seg.flags |= FIN;
                                dsize--;
                        }
@@ -2721,29 +3040,9 @@ void tcpoutput(struct conv *s)
                        }
                }
 
-               if (sent + dsize == sndcnt)
+               if (sent + dsize == qlen(s->wq) + tcb->flgcnt)
                        seg.flags |= PSH;
 
-               /* keep track of balance of resent data */
-               if (seq_lt(tcb->snd.ptr, tcb->snd.nxt)) {
-                       n = tcb->snd.nxt - tcb->snd.ptr;
-                       if (ssize < n)
-                               n = ssize;
-                       tcb->resent += n;
-                       netlog(f, Logtcp, "rexmit: %I.%d -> %I.%d ptr 0x%lx nxt 0x%lx\n",
-                                  s->raddr, s->rport, s->laddr, s->lport, tcb->snd.ptr,
-                                  tcb->snd.nxt);
-                       tpriv->stats[RetransSegs]++;
-               }
-
-               tcb->snd.ptr += ssize;
-
-               /* Pull up the send pointer so we can accept acks
-                * for this window
-                */
-               if (seq_gt(tcb->snd.ptr, tcb->snd.nxt))
-                       tcb->snd.nxt = tcb->snd.ptr;
-
                /* Build header, link data and compute cksum */
                switch (version) {
                        case V4:
@@ -2774,10 +3073,10 @@ void tcpoutput(struct conv *s)
                        if (tcb->timer.state != TcptimerON)
                                tcpgo(tpriv, &tcb->timer);
 
-                       /* If round trip timer isn't running, start it. */
-                       if (tcb->rtt_timer.state != TcptimerON) {
+                       if (!tcb->ts_recent && (tcb->rtt_timer.state != TcptimerON)) {
+                               /* If round trip timer isn't running, start it. */
                                tcpgo(tpriv, &tcb->rtt_timer);
-                               tcb->rttseq = tcb->snd.ptr;
+                               tcb->rttseq = from_seq + ssize;
                        }
                }
 
@@ -2802,7 +3101,16 @@ void tcpoutput(struct conv *s)
                        default:
                                panic("tcpoutput2: version %d", version);
                }
-               if ((msgs % 4) == 1) {
+               if (ssize) {
+                       /* The outer loop thinks we sent one packet.  If we used TSO, we
+                        * might have sent several.  Minus one for the loop increment. */
+                       msgs += DIV_ROUND_UP(ssize, payload_mss) - 1;
+               }
+               /* Old Plan 9 tidbit - yield every four messages.  We want to break out
+                * and unlock so we can process inbound ACKs which might do things like
+                * say "slow down". */
+               if (msgs >= next_yield) {
+                       next_yield = msgs + 4;
                        qunlock(&s->qlock);
                        kthread_yield();
                        qlock(&s->qlock);
@@ -2813,7 +3121,7 @@ void tcpoutput(struct conv *s)
 /*
  *  the BSD convention (hack?) for keep alives.  resend last uint8_t acked.
  */
-void tcpsendka(struct conv *s)
+static void tcpsendka(struct conv *s)
 {
        Tcp seg;
        Tcpctl *tcb;
@@ -2829,6 +3137,7 @@ void tcpsendka(struct conv *s)
        seg.mss = 0;
        seg.ws = 0;
        seg.sack_ok = FALSE;
+       seg.nr_sacks = 0;
        if (tcpporthogdefense)
                urandom_read(&seg.seq, sizeof(seg.seq));
        else
@@ -2869,7 +3178,7 @@ void tcpsendka(struct conv *s)
 /*
  *  set connection to time out after 12 minutes
  */
-void tcpsetkacounter(Tcpctl * tcb)
+static void tcpsetkacounter(Tcpctl *tcb)
 {
        tcb->kacounter = (12 * 60 * 1000) / (tcb->katimer.start * MSPTICK);
        if (tcb->kacounter < 3)
@@ -2880,7 +3189,7 @@ void tcpsetkacounter(Tcpctl * tcb)
  *  if we've timed out, close the connection
  *  otherwise, send a keepalive and restart the timer
  */
-void tcpkeepalive(void *v)
+static void tcpkeepalive(void *v)
 {
        ERRSTACK(1);
        Tcpctl *tcb;
@@ -2936,22 +3245,68 @@ static void tcpsetchecksum(struct conv *s, char **f, int unused)
        tcb->nochecksum = !atoi(f[1]);
 }
 
-void tcprxmit(struct conv *s)
+static void tcp_loss_event(struct conv *s, Tcpctl *tcb)
+{
+       uint32_t old_cwnd = tcb->cwind;
+
+       /* Reno */
+       tcb->ssthresh = tcb->cwind / 2;
+       tcb->cwind = tcb->ssthresh;
+       netlog(s->p->f, Logtcprxmt,
+              "%I.%d -> %I.%d: loss event, cwnd was %d, now %d\n",
+              s->laddr, s->lport, s->raddr, s->rport,
+              old_cwnd, tcb->cwind);
+}
+
+/* Called when we need to retrans the entire outstanding window (everything
+ * previously sent, but unacknowledged). */
+static void tcprxmit(struct conv *s)
 {
        Tcpctl *tcb;
 
        tcb = (Tcpctl *) s->ptcl;
 
-       tcb->flags |= RETRAN | FORCE;
-       tcb->snd.ptr = tcb->snd.una;
+       tcb->flags |= FORCE;
+       tcb->snd.rtx = tcb->snd.una;
+       set_in_flight(tcb);
 
-       /* Reno */
-       tcb->ssthresh = tcb->cwind / 2;
-       tcb->cwind = tcb->ssthresh;
        tcpoutput(s);
 }
 
-void tcptimeout(void *arg)
+/* The original RFC said to drop sacks on a timeout, since the receiver could
+ * renege.  Later RFCs say we can keep them around, so long as we are careful.
+ *
+ * We'll go with a "flush if we have two timeouts" plan.  This doesn't have to
+ * be perfect - there might be cases where we accidentally flush the sacks too
+ * often.  Perhaps we never get dup_acks to start fast/sack rxmit.  The main
+ * thing is that after multiple timeouts we flush the sacks, since the receiver
+ * might renege.
+ *
+ * We also have an Akaros-specific problem.  We use the sacks to determine
+ * in_flight.  Specifically, the (snd.nxt - upper right edge) is tracked as in
+ * flight.  Usually the receiver will keep sacking that right edge all the way
+ * up to snd.nxt, but they might not, and the gap might be quite large.  After a
+ * timeout, that data is definitely not in flight.  If that block's size is
+ * greater than cwnd, we'll never transmit.  This should be rare, and in that
+ * case we can just dump the sacks.  The typical_mss fudge factor is so we can
+ * send a reasonably-sized packet. */
+static void timeout_handle_sacks(Tcpctl *tcb)
+{
+       struct sack_block *last_sack;
+
+       if (tcb->snd.nr_sacks) {
+               last_sack = &tcb->snd.sacks[tcb->snd.nr_sacks - 1];
+               if (tcb->snd.flush_sacks || (tcb->snd.nxt - last_sack->right >=
+                                            tcb->cwind - tcb->typical_mss)) {
+                       tcb->snd.nr_sacks = 0;
+                       tcb->snd.flush_sacks = FALSE;
+               } else {
+                       tcb->snd.flush_sacks = TRUE;
+               }
+       }
+}
+
+static void tcptimeout(void *arg)
 {
        ERRSTACK(1);
        struct conv *s;
@@ -2980,12 +3335,21 @@ void tcptimeout(void *arg)
                                localclose(s, "connection timed out");
                                break;
                        }
-                       netlog(s->p->f, Logtcprxmt, "timeout rexmit 0x%lx %llu/%llu\n",
-                                  tcb->snd.una, tcb->timer.start, NOW);
+                       netlog(s->p->f, Logtcprxmt,
+                              "%I.%d -> %I.%d: timeout rxmit una %u, rtx %u, nxt %u, in_flight %u, timer.start %u\n",
+                              s->laddr, s->lport, s->raddr, s->rport,
+                              tcb->snd.una, tcb->snd.rtx, tcb->snd.nxt, tcb->snd.in_flight,
+                              tcb->timer.start);
                        tcpsettimer(tcb);
+                       tcp_loss_event(s, tcb);
+                       /* Advance the recovery point.  Any dupacks/sacks below this won't
+                        * trigger a new loss, since we won't reset_recovery() until we ack
+                        * past recovery_pt. */
+                       tcb->snd.recovery = RTO_RETRANS_RECOVERY;
+                       tcb->snd.recovery_pt = tcb->snd.nxt;
+                       timeout_handle_sacks(tcb);
                        tcprxmit(s);
                        tpriv->stats[RetransTimeouts]++;
-                       tcb->snd.dupacks = 0;
                        break;
                case Time_wait:
                        localclose(s, NULL);
@@ -2997,7 +3361,7 @@ void tcptimeout(void *arg)
        poperror();
 }
 
-int inwindow(Tcpctl * tcb, int seq)
+static int inwindow(Tcpctl *tcb, int seq)
 {
        return seq_within(seq, tcb->rcv.nxt, tcb->rcv.nxt + tcb->rcv.wnd - 1);
 }
@@ -3005,7 +3369,7 @@ int inwindow(Tcpctl * tcb, int seq)
 /*
  *  set up state for a received SYN (or SYN ACK) packet
  */
-void procsyn(struct conv *s, Tcp * seg)
+static void procsyn(struct conv *s, Tcp *seg)
 {
        Tcpctl *tcb;
 
@@ -3027,9 +3391,8 @@ void procsyn(struct conv *s, Tcp * seg)
        tcb->cwind = tcb->typical_mss * CWIND_SCALE;
 }
 
-int
-addreseq(Tcpctl * tcb, struct tcppriv *tpriv, Tcp * seg,
-                struct block *bp, uint16_t length)
+static int addreseq(Tcpctl *tcb, struct tcppriv *tpriv, Tcp *seg,
+                    struct block *bp, uint16_t length)
 {
        Reseq *rp, *rp1;
        int i, rqlen, qmax;
@@ -3044,6 +3407,7 @@ addreseq(Tcpctl * tcb, struct tcppriv *tpriv, Tcp * seg,
        rp->bp = bp;
        rp->length = length;
 
+       track_rcv_sack(tcb, seg->seq, seg->seq + length);
        /* Place on reassembly list sorting by starting seq number */
        rp1 = tcb->reseq;
        if (rp1 == NULL || seq_lt(seg->seq, rp1->seg.seq)) {
@@ -3067,6 +3431,7 @@ addreseq(Tcpctl * tcb, struct tcppriv *tpriv, Tcp * seg,
                rp1 = rp1->next;
        }
        qmax = QMAX << tcb->rcv.scale;
+       /* Here's where we're reneging on previously reported sacks. */
        if (rqlen > qmax) {
                printd("resequence queue > window: %d > %d\n", rqlen, qmax);
                i = 0;
@@ -3087,13 +3452,14 @@ addreseq(Tcpctl * tcb, struct tcppriv *tpriv, Tcp * seg,
                        kfree(rp);
                }
                tcb->reseq = NULL;
+               tcb->rcv.nr_sacks = 0;
 
                return -1;
        }
        return 0;
 }
 
-void getreseq(Tcpctl * tcb, Tcp * seg, struct block **bp, uint16_t * length)
+static void getreseq(Tcpctl *tcb, Tcp *seg, struct block **bp, uint16_t *length)
 {
        Reseq *rp;
 
@@ -3110,7 +3476,7 @@ void getreseq(Tcpctl * tcb, Tcp * seg, struct block **bp, uint16_t * length)
        kfree(rp);
 }
 
-int tcptrim(Tcpctl * tcb, Tcp * seg, struct block **bp, uint16_t * length)
+static int tcptrim(Tcpctl *tcb, Tcp *seg, struct block **bp, uint16_t *length)
 {
        uint16_t len;
        uint8_t accept;
@@ -3178,7 +3544,7 @@ int tcptrim(Tcpctl * tcb, Tcp * seg, struct block **bp, uint16_t * length)
        return 0;
 }
 
-void tcpadvise(struct Proto *tcp, struct block *bp, char *msg)
+static void tcpadvise(struct Proto *tcp, struct block *bp, char *msg)
 {
        Tcp4hdr *h4;
        Tcp6hdr *h6;
@@ -3251,7 +3617,7 @@ static void tcpctl(struct conv *c, char **f, int n)
                error(EINVAL, "unknown command to %s", __func__);
 }
 
-int tcpstats(struct Proto *tcp, char *buf, int len)
+static int tcpstats(struct Proto *tcp, char *buf, int len)
 {
        struct tcppriv *priv;
        char *p, *e;
@@ -3274,7 +3640,7 @@ int tcpstats(struct Proto *tcp, char *buf, int len)
  *  of questionable validity so we try to use them only when we're
  *  up against the wall.
  */
-int tcpgc(struct Proto *tcp)
+static int tcpgc(struct Proto *tcp)
 {
        struct conv *c, **pp, **ep;
        int n;
@@ -3300,15 +3666,15 @@ int tcpgc(struct Proto *tcp)
        return n;
 }
 
-void tcpsettimer(Tcpctl * tcb)
+static void tcpsettimer(Tcpctl *tcb)
 {
        int x;
 
        /* round trip dependency */
-       x = backoff(tcb->backoff) *
-               (tcb->mdev + (tcb->srtt >> LOGAGAIN) + MSPTICK) / MSPTICK;
+       x = backoff(tcb->backoff) * (tcb->srtt + MAX(4 * tcb->mdev, MSPTICK));
+       x = DIV_ROUND_UP(x, MSPTICK);
 
-       /* bounded twixt 1/2 and 64 seconds */
+       /* Bounded twixt 1/2 and 64 seconds.  RFC 6298 suggested min is 1 second. */
        if (x < 500 / MSPTICK)
                x = 500 / MSPTICK;
        else if (x > (64000 / MSPTICK))
@@ -3359,18 +3725,16 @@ void tcpinit(struct Fs *fs)
        Fsproto(fs, tcp);
 }
 
-void
-tcpsetscale(struct conv *s, Tcpctl * tcb, uint16_t rcvscale, uint16_t sndscale)
+static void tcpsetscale(struct conv *s, Tcpctl *tcb, uint16_t rcvscale,
+                        uint16_t sndscale)
 {
        if (rcvscale) {
                tcb->rcv.scale = rcvscale & 0xff;
                tcb->snd.scale = sndscale & 0xff;
-               tcb->window = QMAX << tcb->snd.scale;
-               qsetlimit(s->rq, tcb->window);
+               tcb->window = QMAX << tcb->rcv.scale;
        } else {
                tcb->rcv.scale = 0;
                tcb->snd.scale = 0;
                tcb->window = QMAX;
-               qsetlimit(s->rq, tcb->window);
        }
 }