]> git.ipfire.org Git - thirdparty/zstd.git/commitdiff
Merge remote-tracking branch 'upstream/longRangeMatcher' into ldm-integrate
authorStella Lau <laus@fb.com>
Fri, 1 Sep 2017 17:19:38 +0000 (10:19 -0700)
committerStella Lau <laus@fb.com>
Fri, 1 Sep 2017 17:19:38 +0000 (10:19 -0700)
13 files changed:
1  2 
lib/common/zstd_internal.h
lib/compress/zstd_compress.c
lib/compress/zstd_opt.h
lib/compress/zstdmt_compress.c
lib/zstd.h
programs/bench.c
programs/bench.h
programs/fileio.c
programs/fileio.h
programs/zstdcli.c
tests/fuzzer.c
tests/playTests.sh
tests/zstreamtest.c

Simple merge
index 42d23759bd945efc5bd99aa99a42eff1d7349532,d048706c0bfc0b19f125101056c2af2d59aaed09..c02ee6cfb123ce67c5abf8c14c967e4cd101480e
@@@ -1715,10 -1647,11 +1732,11 @@@ static void ZSTD_fillHashTable (ZSTD_CC
      }
  }
  
- FORCE_INLINE
+ FORCE_INLINE_TEMPLATE
 -void ZSTD_compressBlock_fast_generic(ZSTD_CCtx* cctx,
 -                               const void* src, size_t srcSize,
 -                               const U32 mls)
 +size_t ZSTD_compressBlock_fast_generic(ZSTD_CCtx* cctx,
 +                                       const void* src, size_t srcSize,
 +                                       const U32 mls)
  {
      U32* const hashTable = cctx->hashTable;
      U32  const hBits = cctx->appliedParams.cParams.hashLog;
@@@ -1951,8 -1891,8 +1969,8 @@@ static void ZSTD_fillDoubleHashTable (Z
  }
  
  
- FORCE_INLINE
+ FORCE_INLINE_TEMPLATE
 -void ZSTD_compressBlock_doubleFast_generic(ZSTD_CCtx* cctx,
 +size_t ZSTD_compressBlock_doubleFast_generic(ZSTD_CCtx* cctx,
                                   const void* src, size_t srcSize,
                                   const U32 mls)
  {
@@@ -2618,10 -2562,10 +2636,10 @@@ FORCE_INLINE_TEMPLATE size_t ZSTD_HcFin
  /* *******************************
  *  Common parser - lazy strategy
  *********************************/
- FORCE_INLINE
+ FORCE_INLINE_TEMPLATE
 -void ZSTD_compressBlock_lazy_generic(ZSTD_CCtx* ctx,
 -                                     const void* src, size_t srcSize,
 -                                     const U32 searchMethod, const U32 depth)
 +size_t ZSTD_compressBlock_lazy_generic(ZSTD_CCtx* ctx,
 +                                       const void* src, size_t srcSize,
 +                                       const U32 searchMethod, const U32 depth)
  {
      seqStore_t* seqStorePtr = &(ctx->seqStore);
      const BYTE* const istart = (const BYTE*)src;
@@@ -2781,8 -2724,8 +2799,8 @@@ static size_t ZSTD_compressBlock_greedy
  }
  
  
- FORCE_INLINE
+ FORCE_INLINE_TEMPLATE
 -void ZSTD_compressBlock_lazy_extDict_generic(ZSTD_CCtx* ctx,
 +size_t ZSTD_compressBlock_lazy_extDict_generic(ZSTD_CCtx* ctx,
                                       const void* src, size_t srcSize,
                                       const U32 searchMethod, const U32 depth)
  {
@@@ -3037,663 -2984,6 +3055,663 @@@ static ZSTD_blockCompressor ZSTD_select
      return blockCompressor[extDict!=0][(U32)strat];
  }
  
- FORCE_INLINE
 +/*-*************************************
 +*  Long distance matching
 +***************************************/
 +
 +/** ZSTD_ldm_getSmallHash() :
 + *  numBits should be <= 32
 + *  @return : the most significant numBits of value */
 +static U32 ZSTD_ldm_getSmallHash(U64 value, U32 numBits)
 +{
 +    assert(numBits <= 32);
 +    return (U32)(value >> (64 - numBits));
 +}
 +
 +/** ZSTD_ldm_getChecksum() :
 + *  numBitsToDiscard should be <= 32
 + *  @return : the next most significant 32 bits after numBitsToDiscard */
 +static U32 ZSTD_ldm_getChecksum(U64 hash, U32 numBitsToDiscard)
 +{
 +    assert(numBitsToDiscard <= 32);
 +    return (hash >> (64 - 32 - numBitsToDiscard)) & 0xFFFFFFFF;
 +}
 +
 +/** ZSTD_ldm_getTag() ;
 + *  Given the hash, returns the most significant numTagBits bits
 + *  after (32 + hbits) bits.
 + *
 + *  If there are not enough bits remaining, return the last
 + *  numTagBits bits. */
 +static U32 ZSTD_ldm_getTag(U64 hash, U32 hbits, U32 numTagBits)
 +{
 +    if (32 - hbits < numTagBits) {
 +        return hash & ((1 << numTagBits) - 1);
 +    } else {
 +        return (hash >> (32 - hbits - numTagBits)) & ((1 << numTagBits) - 1);
 +    }
 +}
 +
 +/** ZSTD_ldm_getBucket() :
 + *  Returns a pointer to the start of the bucket associated with hash. */
 +static ldmEntry_t* ZSTD_ldm_getBucket(ldmState_t* ldmState, size_t hash)
 +{
 +    return ldmState->hashTable + (hash << ldmState->bucketLog);
 +}
 +
 +/** ZSTD_ldm_insertEntry() :
 + *  Insert the entry with corresponding hash into the hash table */
 +static void ZSTD_ldm_insertEntry(ldmState_t* ldmState,
 +                                 size_t const hash, const ldmEntry_t entry)
 +{
 +    BYTE* const bucketOffsets = ldmState->bucketOffsets;
 +    *(ZSTD_ldm_getBucket(ldmState, hash) + bucketOffsets[hash]) = entry;
 +    bucketOffsets[hash]++;
 +    bucketOffsets[hash] &= (1 << ldmState->bucketLog) - 1;
 +}
 +
 +/** ZSTD_ldm_makeEntryAndInsertByTag() :
 + *
 + *  Gets the small hash, checksum, and tag from the rollingHash.
 + *
 + *  If the tag matches (1 << ldmState->hashEveryLog)-1, then
 + *  creates an ldmEntry from the offset, and inserts it into the hash table.
 + *
 + *  hBits is the length of the small hash, which is the most significant hBits
 + *  of rollingHash. The checksum is the next 32 most significant bits, followed
 + *  by ldmState->hashEveryLog bits that make up the tag. */
 +static void ZSTD_ldm_makeEntryAndInsertByTag(ldmState_t* ldmState,
 +                                             U64 rollingHash, U32 hBits,
 +                                             U32 const offset)
 +{
 +    U32 const tag = ZSTD_ldm_getTag(rollingHash, hBits, ldmState->hashEveryLog);
 +    U32 const tagMask = (1 << ldmState->hashEveryLog) - 1;
 +    if (tag == tagMask) {
 +        U32 const hash = ZSTD_ldm_getSmallHash(rollingHash, hBits);
 +        U32 const checksum = ZSTD_ldm_getChecksum(rollingHash, hBits);
 +        ldmEntry_t entry;
 +        entry.offset = offset;
 +        entry.checksum = checksum;
 +        ZSTD_ldm_insertEntry(ldmState, hash, entry);
 +    }
 +}
 +
 +/** ZSTD_ldm_getRollingHash() :
 + *  Get a 64-bit hash using the first len bytes from buf.
 + *
 + *  Giving bytes s = s_1, s_2, ... s_k, the hash is defined to be
 + *  H(s) = s_1*(a^(k-1)) + s_2*(a^(k-2)) + ... + s_k*(a^0)
 + *
 + *  where the constant a is defined to be prime8bytes.
 + *
 + *  The implementation adds an offset to each byte, so
 + *  H(s) = (s_1 + HASH_CHAR_OFFSET)*(a^(k-1)) + ... */
 +static U64 ZSTD_ldm_getRollingHash(const BYTE* buf, U32 len)
 +{
 +    U64 ret = 0;
 +    U32 i;
 +    for (i = 0; i < len; i++) {
 +        ret *= prime8bytes;
 +        ret += buf[i] + LDM_HASH_CHAR_OFFSET;
 +    }
 +    return ret;
 +}
 +
 +/** ZSTD_ldm_ipow() :
 + *  Return base^exp. */
 +static U64 ZSTD_ldm_ipow(U64 base, U64 exp)
 +{
 +    U64 ret = 1;
 +    while (exp) {
 +        if (exp & 1) { ret *= base; }
 +        exp >>= 1;
 +        base *= base;
 +    }
 +    return ret;
 +}
 +
 +/** ZSTD_ldm_updateHash() :
 + *  Updates hash by removing toRemove and adding toAdd.
 + *
 + *  Note: this currently relies on compiler optimization to avoid
 + *  recalculating hashPower. */
 +static U64 ZSTD_ldm_updateHash(U64 hash, BYTE toRemove, BYTE toAdd)
 +{
 +    U64 const hashPower = ZSTD_ldm_ipow(prime8bytes, LDM_MIN_MATCH_LENGTH - 1);
 +    hash -= ((toRemove + LDM_HASH_CHAR_OFFSET) * hashPower);
 +    hash *= prime8bytes;
 +    hash += toAdd + LDM_HASH_CHAR_OFFSET;
 +    return hash;
 +}
 +
 +/** ZSTD_ldm_countBackwardsMatch() :
 + *  Returns the number of bytes that match backwards before pIn and pMatch.
 + *
 + *  We count only bytes where pMatch >= pBase and pIn >= pAnchor. */
 +static size_t ZSTD_ldm_countBackwardsMatch(
 +            const BYTE* pIn, const BYTE* pAnchor,
 +            const BYTE* pMatch, const BYTE* pBase)
 +{
 +    size_t matchLength = 0;
 +    while (pIn > pAnchor && pMatch > pBase && pIn[-1] == pMatch[-1]) {
 +        pIn--;
 +        pMatch--;
 +        matchLength++;
 +    }
 +    return matchLength;
 +}
 +
 +/** ZSTD_ldm_fillFastTables() :
 + *
 + *  Fills the relevant tables for the ZSTD_fast and ZSTD_dfast strategies.
 + *  This is similar to ZSTD_loadDictionaryContent.
 + *
 + *  The tables for the other strategies are filled within their
 + *  block compressors. */
 +static size_t ZSTD_ldm_fillFastTables(ZSTD_CCtx* zc, const void* end)
 +{
 +    const BYTE* const iend = (const BYTE*)end;
 +    const U32 mls = zc->appliedParams.cParams.searchLength;
 +
 +    switch(zc->appliedParams.cParams.strategy)
 +    {
 +    case ZSTD_fast:
 +        ZSTD_fillHashTable(zc, iend, mls);
 +        zc->nextToUpdate = (U32)(iend - zc->base);
 +        break;
 +
 +    case ZSTD_dfast:
 +        ZSTD_fillDoubleHashTable(zc, iend, mls);
 +        zc->nextToUpdate = (U32)(iend - zc->base);
 +        break;
 +
 +    case ZSTD_greedy:
 +    case ZSTD_lazy:
 +    case ZSTD_lazy2:
 +    case ZSTD_btlazy2:
 +    case ZSTD_btopt:
 +    case ZSTD_btultra:
 +        break;
 +    default:
 +        assert(0);  /* not possible : not a valid strategy id */
 +    }
 +
 +    return 0;
 +}
 +
 +/** ZSTD_ldm_fillLdmHashTable() :
 + *
 + *  Fills hashTable from (lastHashed + 1) to iend (non-inclusive).
 + *  lastHash is the rolling hash that corresponds to lastHashed.
 + *
 + *  Returns the rolling hash corresponding to position iend-1. */
 +static U64 ZSTD_ldm_fillLdmHashTable(ldmState_t* state,
 +                                     U64 lastHash, const BYTE* lastHashed,
 +                                     const BYTE* iend, const BYTE* base,
 +                                     U32 hBits)
 +{
 +    U64 rollingHash = lastHash;
 +    const BYTE* cur = lastHashed + 1;
 +
 +    while (cur < iend) {
 +        rollingHash = ZSTD_ldm_updateHash(rollingHash, cur[-1],
 +                                          cur[LDM_MIN_MATCH_LENGTH-1]);
 +        ZSTD_ldm_makeEntryAndInsertByTag(state,
 +                                         rollingHash, hBits,
 +                                         (U32)(cur - base));
 +        ++cur;
 +    }
 +    return rollingHash;
 +}
 +
 +
 +/** ZSTD_ldm_limitTableUpdate() :
 + *
 + *  Sets cctx->nextToUpdate to a position corresponding closer to anchor
 + *  if it is far way
 + *  (after a long match, only update tables a limited amount). */
 +static void ZSTD_ldm_limitTableUpdate(ZSTD_CCtx* cctx, const BYTE* anchor)
 +{
 +    U32 const current = (U32)(anchor - cctx->base);
 +    if (current > cctx->nextToUpdate + 1024) {
 +        cctx->nextToUpdate =
 +            current - MIN(512, current - cctx->nextToUpdate - 1024);
 +    }
 +}
 +
 +/** ZSTD_compressBlock_ldm_generic() :
 + *
 + *  This is a block compressor intended for long distance matching.
 + *
 + *  The function searches for matches of length at least LDM_MIN_MATCH_LENGTH
 + *  using a hash table in cctx->ldmState. Matches can be at a distance of
 + *  up to LDM_WINDOW_LOG.
 + *
 + *  Upon finding a match, the unmatched literals are compressed using a
 + *  ZSTD_blockCompressor (depending on the strategy in the compression
 + *  parameters), which stores the matched sequences. The "long distance"
 + *  match is then stored with the remaining literals from the
 + *  ZSTD_blockCompressor. */
++FORCE_INLINE_TEMPLATE
 +size_t ZSTD_compressBlock_ldm_generic(ZSTD_CCtx* cctx,
 +                                      const void* src, size_t srcSize)
 +{
 +    ldmState_t* const ldmState = &(cctx->ldmState);
 +    const U32 hBits = ldmState->hashLog - ldmState->bucketLog;
 +    const U32 ldmBucketSize = (1 << ldmState->bucketLog);
 +    const U32 ldmTagMask = (1 << ldmState->hashEveryLog) - 1;
 +    seqStore_t* const seqStorePtr = &(cctx->seqStore);
 +    const BYTE* const base = cctx->base;
 +    const BYTE* const istart = (const BYTE*)src;
 +    const BYTE* ip = istart;
 +    const BYTE* anchor = istart;
 +    const U32   lowestIndex = cctx->dictLimit;
 +    const BYTE* const lowest = base + lowestIndex;
 +    const BYTE* const iend = istart + srcSize;
 +    const BYTE* const ilimit = iend - LDM_MIN_MATCH_LENGTH;
 +
 +    const ZSTD_blockCompressor blockCompressor =
 +        ZSTD_selectBlockCompressor(cctx->appliedParams.cParams.strategy, 0);
 +    U32* const repToConfirm = seqStorePtr->repToConfirm;
 +    U32 savedRep[ZSTD_REP_NUM];
 +    U64 rollingHash = 0;
 +    const BYTE* lastHashed = NULL;
 +    size_t i, lastLiterals;
 +
 +    /* Save seqStorePtr->rep and copy repToConfirm */
 +    for (i = 0; i < ZSTD_REP_NUM; i++)
 +        savedRep[i] = repToConfirm[i] = seqStorePtr->rep[i];
 +
 +    /* Main Search Loop */
 +    while (ip < ilimit) {   /* < instead of <=, because repcode check at (ip+1) */
 +        size_t mLength;
 +        U32 const current = (U32)(ip - base);
 +        size_t forwardMatchLength = 0, backwardMatchLength = 0;
 +        ldmEntry_t* bestEntry = NULL;
 +        if (ip != istart) {
 +            rollingHash = ZSTD_ldm_updateHash(rollingHash, lastHashed[0],
 +                                              lastHashed[LDM_MIN_MATCH_LENGTH]);
 +        } else {
 +            rollingHash = ZSTD_ldm_getRollingHash(ip, LDM_MIN_MATCH_LENGTH);
 +        }
 +        lastHashed = ip;
 +
 +        /* Do not insert and do not look for a match */
 +        if (ZSTD_ldm_getTag(rollingHash, hBits, ldmState->hashEveryLog) !=
 +                ldmTagMask) {
 +           ip++;
 +           continue;
 +        }
 +
 +        /* Get the best entry and compute the match lengths */
 +        {
 +            ldmEntry_t* const bucket =
 +                ZSTD_ldm_getBucket(ldmState,
 +                                   ZSTD_ldm_getSmallHash(rollingHash, hBits));
 +            ldmEntry_t* cur;
 +            size_t bestMatchLength = 0;
 +            U32 const checksum = ZSTD_ldm_getChecksum(rollingHash, hBits);
 +
 +            for (cur = bucket; cur < bucket + ldmBucketSize; ++cur) {
 +                const BYTE* const pMatch = cur->offset + base;
 +                size_t curForwardMatchLength, curBackwardMatchLength,
 +                       curTotalMatchLength;
 +                if (cur->checksum != checksum || cur->offset <= lowestIndex) {
 +                    continue;
 +                }
 +
 +                curForwardMatchLength = ZSTD_count(ip, pMatch, iend);
 +                if (curForwardMatchLength < LDM_MIN_MATCH_LENGTH) {
 +                    continue;
 +                }
 +                curBackwardMatchLength = ZSTD_ldm_countBackwardsMatch(
 +                                             ip, anchor, pMatch, lowest);
 +                curTotalMatchLength = curForwardMatchLength +
 +                                      curBackwardMatchLength;
 +
 +                if (curTotalMatchLength > bestMatchLength) {
 +                    bestMatchLength = curTotalMatchLength;
 +                    forwardMatchLength = curForwardMatchLength;
 +                    backwardMatchLength = curBackwardMatchLength;
 +                    bestEntry = cur;
 +                }
 +            }
 +        }
 +
 +        /* No match found -- continue searching */
 +        if (bestEntry == NULL) {
 +            ZSTD_ldm_makeEntryAndInsertByTag(ldmState, rollingHash,
 +                                             hBits, current);
 +            ip++;
 +            continue;
 +        }
 +
 +        /* Match found */
 +        mLength = forwardMatchLength + backwardMatchLength;
 +        ip -= backwardMatchLength;
 +
 +        /* Call the block compressor on the remaining literals */
 +        {
 +            U32 const matchIndex = bestEntry->offset;
 +            const BYTE* const match = base + matchIndex - backwardMatchLength;
 +            U32 const offset = (U32)(ip - match);
 +
 +            /* Overwrite rep codes */
 +            for (i = 0; i < ZSTD_REP_NUM; i++)
 +                seqStorePtr->rep[i] = repToConfirm[i];
 +
 +            /* Fill tables for block compressor */
 +            ZSTD_ldm_limitTableUpdate(cctx, anchor);
 +            ZSTD_ldm_fillFastTables(cctx, anchor);
 +
 +            /* Call block compressor and get remaining literals */
 +            lastLiterals = blockCompressor(cctx, anchor, ip - anchor);
 +            cctx->nextToUpdate = (U32)(ip - base);
 +
 +            /* Update repToConfirm with the new offset */
 +            for (i = ZSTD_REP_NUM - 1; i > 0; i--)
 +                repToConfirm[i] = repToConfirm[i-1];
 +            repToConfirm[0] = offset;
 +
 +            /* Store the sequence with the leftover literals */
 +            ZSTD_storeSeq(seqStorePtr, lastLiterals, ip - lastLiterals,
 +                          offset + ZSTD_REP_MOVE, mLength - MINMATCH);
 +        }
 +
 +        /* Insert the current entry into the hash table */
 +        ZSTD_ldm_makeEntryAndInsertByTag(ldmState, rollingHash, hBits,
 +                                         (U32)(lastHashed - base));
 +
 +        assert(ip + backwardMatchLength == lastHashed);
 +
 +        /* Fill the hash table from lastHashed+1 to ip+mLength*/
 +        /* Heuristic: don't need to fill the entire table at end of block */
 +        if (ip + mLength < ilimit) {
 +            rollingHash = ZSTD_ldm_fillLdmHashTable(
 +                              ldmState, rollingHash, lastHashed,
 +                              ip + mLength, base, hBits);
 +            lastHashed = ip + mLength - 1;
 +        }
 +        ip += mLength;
 +        anchor = ip;
 +
 +        /* Check immediate repcode */
 +        while ( (ip < ilimit)
 +             && ( (repToConfirm[1] > 0) && (repToConfirm[1] <= (U32)(ip-lowest))
 +             && (MEM_read32(ip) == MEM_read32(ip - repToConfirm[1])) )) {
 +
 +            size_t const rLength = ZSTD_count(ip+4, ip+4-repToConfirm[1],
 +                                              iend) + 4;
 +            /* Swap repToConfirm[1] <=> repToConfirm[0] */
 +            {
 +                U32 const tmpOff = repToConfirm[1];
 +                repToConfirm[1] = repToConfirm[0];
 +                repToConfirm[0] = tmpOff;
 +            }
 +
 +            ZSTD_storeSeq(seqStorePtr, 0, anchor, 0, rLength-MINMATCH);
 +
 +            /* Fill the  hash table from lastHashed+1 to ip+rLength*/
 +            if (ip + rLength < ilimit) {
 +                rollingHash = ZSTD_ldm_fillLdmHashTable(
 +                                ldmState, rollingHash, lastHashed,
 +                                ip + rLength, base, hBits);
 +                lastHashed = ip + rLength - 1;
 +            }
 +            ip += rLength;
 +            anchor = ip;
 +
 +            continue;   /* faster when present ... (?) */
 +        }
 +    }
 +
 +    /* Overwrite rep */
 +    for (i = 0; i < ZSTD_REP_NUM; i++)
 +        seqStorePtr->rep[i] = repToConfirm[i];
 +
 +    ZSTD_ldm_limitTableUpdate(cctx, anchor);
 +    ZSTD_ldm_fillFastTables(cctx, anchor);
 +
 +    lastLiterals = blockCompressor(cctx, anchor, iend - anchor);
 +    cctx->nextToUpdate = (U32)(ip - base);
 +
 +    /* Restore seqStorePtr->rep */
 +    for (i = 0; i < ZSTD_REP_NUM; i++)
 +        seqStorePtr->rep[i] = savedRep[i];
 +
 +    /* Return the last literals size */
 +    return lastLiterals;
 +}
 +
 +static size_t ZSTD_compressBlock_ldm(ZSTD_CCtx* ctx,
 +                                     const void* src, size_t srcSize)
 +{
 +    return ZSTD_compressBlock_ldm_generic(ctx, src, srcSize);
 +}
 +
 +static size_t ZSTD_compressBlock_ldm_extDict_generic(
 +                                 ZSTD_CCtx* ctx,
 +                                 const void* src, size_t srcSize)
 +{
 +    ldmState_t* ldmState = &(ctx->ldmState);
 +    const U32 hBits = ldmState->hashLog - ldmState->bucketLog;
 +    const U32 ldmBucketSize = (1 << ldmState->bucketLog);
 +    const U32 ldmTagMask = (1 << ldmState->hashEveryLog) - 1;
 +    seqStore_t* const seqStorePtr = &(ctx->seqStore);
 +    const BYTE* const base = ctx->base;
 +    const BYTE* const dictBase = ctx->dictBase;
 +    const BYTE* const istart = (const BYTE*)src;
 +    const BYTE* ip = istart;
 +    const BYTE* anchor = istart;
 +    const U32   lowestIndex = ctx->lowLimit;
 +    const BYTE* const dictStart = dictBase + lowestIndex;
 +    const U32   dictLimit = ctx->dictLimit;
 +    const BYTE* const lowPrefixPtr = base + dictLimit;
 +    const BYTE* const dictEnd = dictBase + dictLimit;
 +    const BYTE* const iend = istart + srcSize;
 +    const BYTE* const ilimit = iend - LDM_MIN_MATCH_LENGTH;
 +
 +    const ZSTD_blockCompressor blockCompressor =
 +        ZSTD_selectBlockCompressor(ctx->appliedParams.cParams.strategy, 1);
 +    U32* const repToConfirm = seqStorePtr->repToConfirm;
 +    U32 savedRep[ZSTD_REP_NUM];
 +    U64 rollingHash = 0;
 +    const BYTE* lastHashed = NULL;
 +    size_t i, lastLiterals;
 +
 +    /* Save seqStorePtr->rep and copy repToConfirm */
 +    for (i = 0; i < ZSTD_REP_NUM; i++) {
 +        savedRep[i] = repToConfirm[i] = seqStorePtr->rep[i];
 +    }
 +
 +    /* Search Loop */
 +    while (ip < ilimit) {  /* < instead of <=, because (ip+1) */
 +        size_t mLength;
 +        const U32 current = (U32)(ip-base);
 +        size_t forwardMatchLength = 0, backwardMatchLength = 0;
 +        ldmEntry_t* bestEntry = NULL;
 +        if (ip != istart) {
 +          rollingHash = ZSTD_ldm_updateHash(rollingHash, lastHashed[0],
 +                                       lastHashed[LDM_MIN_MATCH_LENGTH]);
 +        } else {
 +            rollingHash = ZSTD_ldm_getRollingHash(ip, LDM_MIN_MATCH_LENGTH);
 +        }
 +        lastHashed = ip;
 +
 +        if (ZSTD_ldm_getTag(rollingHash, hBits, ldmState->hashEveryLog) !=
 +                ldmTagMask) {
 +            /* Don't insert and don't look for a match */
 +           ip++;
 +           continue;
 +        }
 +
 +        /* Get the best entry and compute the match lengths */
 +        {
 +            ldmEntry_t* const bucket =
 +                ZSTD_ldm_getBucket(ldmState,
 +                                   ZSTD_ldm_getSmallHash(rollingHash, hBits));
 +            ldmEntry_t* cur;
 +            size_t bestMatchLength = 0;
 +            U32 const checksum = ZSTD_ldm_getChecksum(rollingHash, hBits);
 +
 +            for (cur = bucket; cur < bucket + ldmBucketSize; ++cur) {
 +                const BYTE* const curMatchBase =
 +                    cur->offset < dictLimit ? dictBase : base;
 +                const BYTE* const pMatch = curMatchBase + cur->offset;
 +                const BYTE* const matchEnd =
 +                    cur->offset < dictLimit ? dictEnd : iend;
 +                const BYTE* const lowMatchPtr =
 +                    cur->offset < dictLimit ? dictStart : lowPrefixPtr;
 +                size_t curForwardMatchLength, curBackwardMatchLength,
 +                       curTotalMatchLength;
 +
 +                if (cur->checksum != checksum || cur->offset <= lowestIndex) {
 +                    continue;
 +                }
 +
 +                curForwardMatchLength = ZSTD_count_2segments(
 +                                            ip, pMatch, iend,
 +                                            matchEnd, lowPrefixPtr);
 +                if (curForwardMatchLength < LDM_MIN_MATCH_LENGTH) {
 +                    continue;
 +                }
 +                curBackwardMatchLength = ZSTD_ldm_countBackwardsMatch(
 +                                             ip, anchor, pMatch, lowMatchPtr);
 +                curTotalMatchLength = curForwardMatchLength +
 +                                      curBackwardMatchLength;
 +
 +                if (curTotalMatchLength > bestMatchLength) {
 +                    bestMatchLength = curTotalMatchLength;
 +                    forwardMatchLength = curForwardMatchLength;
 +                    backwardMatchLength = curBackwardMatchLength;
 +                    bestEntry = cur;
 +                }
 +            }
 +        }
 +
 +        /* No match found -- continue searching */
 +        if (bestEntry == NULL) {
 +            ZSTD_ldm_makeEntryAndInsertByTag(ldmState, rollingHash, hBits,
 +                                             (U32)(lastHashed - base));
 +            ip++;
 +            continue;
 +        }
 +
 +        /* Match found */
 +        mLength = forwardMatchLength + backwardMatchLength;
 +        ip -= backwardMatchLength;
 +
 +        /* Call the block compressor on the remaining literals */
 +        {
 +            /* ip = current - backwardMatchLength
 +             * The match is at (bestEntry->offset - backwardMatchLength) */
 +            U32 const matchIndex = bestEntry->offset;
 +            U32 const offset = current - matchIndex;
 +
 +            /* Overwrite rep codes */
 +            for (i = 0; i < ZSTD_REP_NUM; i++)
 +                seqStorePtr->rep[i] = repToConfirm[i];
 +
 +            /* Fill the hash table for the block compressor */
 +            ZSTD_ldm_limitTableUpdate(ctx, anchor);
 +            ZSTD_ldm_fillFastTables(ctx, anchor);
 +
 +            /* Call block compressor and get remaining literals  */
 +            lastLiterals = blockCompressor(ctx, anchor, ip - anchor);
 +            ctx->nextToUpdate = (U32)(ip - base);
 +
 +            /* Update repToConfirm with the new offset */
 +            for (i = ZSTD_REP_NUM - 1; i > 0; i--)
 +                repToConfirm[i] = repToConfirm[i-1];
 +            repToConfirm[0] = offset;
 +
 +            /* Store the sequence with the leftover literals */
 +            ZSTD_storeSeq(seqStorePtr, lastLiterals, ip - lastLiterals,
 +                          offset + ZSTD_REP_MOVE, mLength - MINMATCH);
 +        }
 +
 +        /* Insert the current entry into the hash table */
 +        ZSTD_ldm_makeEntryAndInsertByTag(ldmState, rollingHash, hBits,
 +                                         (U32)(lastHashed - base));
 +
 +        /* Fill the hash table from lastHashed+1 to ip+mLength */
 +        assert(ip + backwardMatchLength == lastHashed);
 +        if (ip + mLength < ilimit) {
 +            rollingHash = ZSTD_ldm_fillLdmHashTable(
 +                              ldmState, rollingHash, lastHashed,
 +                              ip + mLength, base, hBits);
 +            lastHashed = ip + mLength - 1;
 +        }
 +        ip += mLength;
 +        anchor = ip;
 +
 +        /* check immediate repcode */
 +        while (ip < ilimit) {
 +            U32 const current2 = (U32)(ip-base);
 +            U32 const repIndex2 = current2 - repToConfirm[1];
 +            const BYTE* repMatch2 = repIndex2 < dictLimit ?
 +                                    dictBase + repIndex2 : base + repIndex2;
 +            if ( (((U32)((dictLimit-1) - repIndex2) >= 3) &
 +                        (repIndex2 > lowestIndex))  /* intentional overflow */
 +               && (MEM_read32(repMatch2) == MEM_read32(ip)) ) {
 +                const BYTE* const repEnd2 = repIndex2 < dictLimit ?
 +                                            dictEnd : iend;
 +                size_t const repLength2 =
 +                        ZSTD_count_2segments(ip+4, repMatch2+4, iend,
 +                                             repEnd2, lowPrefixPtr) + 4;
 +
 +                U32 tmpOffset = repToConfirm[1];
 +                repToConfirm[1] = repToConfirm[0];
 +                repToConfirm[0] = tmpOffset;
 +
 +                ZSTD_storeSeq(seqStorePtr, 0, anchor, 0, repLength2-MINMATCH);
 +
 +                /* Fill the  hash table from lastHashed+1 to ip+repLength2*/
 +                if (ip + repLength2 < ilimit) {
 +                    rollingHash = ZSTD_ldm_fillLdmHashTable(
 +                                      ldmState, rollingHash, lastHashed,
 +                                      ip + repLength2, base, hBits);
 +                    lastHashed = ip + repLength2 - 1;
 +                }
 +                ip += repLength2;
 +                anchor = ip;
 +                continue;
 +            }
 +            break;
 +        }
 +    }
 +
 +    /* Overwrite rep */
 +    for (i = 0; i < ZSTD_REP_NUM; i++)
 +        seqStorePtr->rep[i] = repToConfirm[i];
 +
 +    ZSTD_ldm_limitTableUpdate(ctx, anchor);
 +    ZSTD_ldm_fillFastTables(ctx, anchor);
 +
 +    /* Call the block compressor one last time on the last literals */
 +    lastLiterals = blockCompressor(ctx, anchor, iend - anchor);
 +    ctx->nextToUpdate = (U32)(ip - base);
 +
 +    /* Restore seqStorePtr->rep */
 +    for (i = 0; i < ZSTD_REP_NUM; i++)
 +        seqStorePtr->rep[i] = savedRep[i];
 +
 +    /* Return the last literals size */
 +    return lastLiterals;
 +}
 +
 +static size_t ZSTD_compressBlock_ldm_extDict(ZSTD_CCtx* ctx,
 +                                             const void* src, size_t srcSize)
 +{
 +    return ZSTD_compressBlock_ldm_extDict_generic(ctx, src, srcSize);
 +}
 +
 +static void ZSTD_storeLastLiterals(seqStore_t* seqStorePtr,
 +                                   const BYTE* anchor, size_t lastLLSize)
 +{
 +    memcpy(seqStorePtr->lit, anchor, lastLLSize);
 +    seqStorePtr->lit += lastLLSize;
 +}
  
  static size_t ZSTD_compressBlock_internal(ZSTD_CCtx* zc, void* dst, size_t dstCapacity, const void* src, size_t srcSize)
  {
index 575cfa661536aa76d5a3c7a7bfd08c32256a151e,4d938c80d8769d6da0ba412618142215b7da339b..d5f503d0f702906de1a2834029ee751066f800f2
@@@ -412,10 -412,9 +412,9 @@@ static U32 ZSTD_BtGetAllMatches_selectM
  /*-*******************************
  *  Optimal parser
  *********************************/
- FORCE_INLINE
+ FORCE_INLINE_TEMPLATE
 -void ZSTD_compressBlock_opt_generic(ZSTD_CCtx* ctx,
 -                                    const void* src, size_t srcSize, const int ultra)
 +size_t ZSTD_compressBlock_opt_generic(ZSTD_CCtx* ctx,
-                                       const void* src, size_t srcSize,
-                                       const int ultra)
++                                      const void* src, size_t srcSize, const int ultra)
  {
      seqStore_t* seqStorePtr = &(ctx->seqStore);
      optState_t* optStatePtr = &(ctx->optState);
@@@ -660,10 -662,9 +659,9 @@@ _storeSequence:   /* cur, last_pos, bes
  }
  
  
- FORCE_INLINE
+ FORCE_INLINE_TEMPLATE
 -void ZSTD_compressBlock_opt_extDict_generic(ZSTD_CCtx* ctx,
 +size_t ZSTD_compressBlock_opt_extDict_generic(ZSTD_CCtx* ctx,
-                                               const void* src, size_t srcSize,
-                                               const int ultra)
+                                      const void* src, size_t srcSize, const int ultra)
  {
      seqStore_t* seqStorePtr = &(ctx->seqStore);
      optState_t* optStatePtr = &(ctx->optState);
index ae4308b86cff4a22baa334e72b33c8005c90860e,93d4a3cec162b0bcc3ae69a6d2f9c32b1c3d61eb..f6266ade77bbaebcf0107c0f8ccb2b565c99a1da
@@@ -449,7 -447,9 +449,7 @@@ ZSTDMT_CCtx* ZSTDMT_createCCtx_advanced
      ZSTDMT_initializeCCtxParameters(&mtctx->params, nbThreads);
      mtctx->cMem = cMem;
      mtctx->allJobsCompleted = 1;
-     mtctx->factory = POOL_create(nbThreads, 1);
 -    mtctx->sectionSize = 0;
 -    mtctx->overlapLog = ZSTDMT_OVERLAPLOG_DEFAULT;
+     mtctx->factory = POOL_create_advanced(nbThreads, 0, cMem);
      mtctx->jobs = ZSTDMT_allocJobsTable(&nbJobs, cMem);
      mtctx->jobIDMask = nbJobs - 1;
      mtctx->bufPool = ZSTDMT_createBufferPool(nbThreads, cMem);
diff --cc lib/zstd.h
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
index cf0710f7c5e9843518dc07a78f63336d935a552f,e7eb71db6e3783d61ea6b06b482c1c04c2faf0af..b5fd1be5a0d4ab31aede51b4e76d14c44b584af8
@@@ -119,9 -120,9 +120,10 @@@ static int usage_advanced(const char* p
      DISPLAY( " -v     : verbose mode; specify multiple times to increase verbosity\n");
      DISPLAY( " -q     : suppress warnings; specify twice to suppress errors too\n");
      DISPLAY( " -c     : force write to standard output, even if it is the console\n");
-     DISPLAY( " -l     : print information about zstd compressed files.\n");
+     DISPLAY( " -l     : print information about zstd compressed files \n");
  #ifndef ZSTD_NOCOMPRESS
      DISPLAY( "--ultra : enable levels beyond %i, up to %i (requires more memory)\n", ZSTDCLI_CLEVEL_MAX, ZSTD_maxCLevel());
++    DISPLAY( "--long  : enable long distance matching\n");
  #ifdef ZSTD_MULTITHREAD
      DISPLAY( " -T#    : use # threads for compression (default:1) \n");
      DISPLAY( " -B#    : select size of each job (default:0==automatic) \n");
@@@ -367,7 -394,7 +396,7 @@@ int main(int argCount, const char* argv
      /* init */
      (void)recursive; (void)cLevelLast;    /* not used when ZSTD_NOBENCH set */
      (void)dictCLevel; (void)dictSelect; (void)dictID;  (void)maxDictSize; /* not used when ZSTD_NODICT set */
--    (void)ultra; (void)cLevel; /* not used when ZSTD_NOCOMPRESS set */
++    (void)ultra; (void)cLevel; (void)ldmFlag; /* not used when ZSTD_NOCOMPRESS set */
      (void)memLimit;   /* not used when ZSTD_NODECOMPRESS set */
      if (filenameTable==NULL) { DISPLAY("zstd: %s \n", strerror(errno)); exit(1); }
      filenameTable[0] = stdinmark;
                      if (!strcmp(argument, "--quiet")) { g_displayLevel--; continue; }
                      if (!strcmp(argument, "--stdout")) { forceStdout=1; outFileName=stdoutmark; g_displayLevel-=(g_displayLevel==2); continue; }
                      if (!strcmp(argument, "--ultra")) { ultra=1; continue; }
++                    if (!strcmp(argument, "--long")) { ldmFlag = 1; continue; }
                      if (!strcmp(argument, "--check")) { FIO_setChecksumFlag(2); continue; }
                      if (!strcmp(argument, "--no-check")) { FIO_setChecksumFlag(0); continue; }
                      if (!strcmp(argument, "--sparse")) { FIO_setSparseWrite(2); continue; }
          BMK_setBlockSize(blockSize);
          BMK_setNbThreads(nbThreads);
          BMK_setNbSeconds(bench_nbSeconds);
 +        BMK_setLdmFlag(ldmFlag);
          BMK_benchFiles(filenameTable, filenameIdx, dictFileName, cLevel, cLevelLast, &compressionParams, setRealTimePrio);
  #endif
-         (void)bench_nbSeconds;
+         (void)bench_nbSeconds; (void)blockSize; (void)setRealTimePrio;
          goto _end;
      }
  
diff --cc tests/fuzzer.c
Simple merge
Simple merge
Simple merge