]> git.ipfire.org Git - thirdparty/bind9.git/commitdiff
masterformat: rename zone names to reflect intended meaning
authorPetr Špaček <pspacek@isc.org>
Wed, 29 May 2024 16:28:58 +0000 (18:28 +0200)
committerOndřej Surý <ondrej@isc.org>
Mon, 29 Jul 2024 10:27:25 +0000 (12:27 +0200)
(cherry picked from commit d34bfb1eeaa2f8faab80b1620b992b5495e6f88c)

bin/tests/system/masterformat/clean.sh
bin/tests/system/masterformat/ns1/255types.db.in [moved from bin/tests/system/masterformat/ns1/huge.db.in with 100% similarity]
bin/tests/system/masterformat/ns1/compile.sh
bin/tests/system/masterformat/ns1/named.conf.in
bin/tests/system/masterformat/ns1/on-limit.db.in [moved from bin/tests/system/masterformat/ns1/large.db.in with 100% similarity]
bin/tests/system/masterformat/ns1/over-limit.db.in [moved from bin/tests/system/masterformat/ns1/many.db.in with 100% similarity]
bin/tests/system/masterformat/ns1/under-limit.db.in [moved from bin/tests/system/masterformat/ns1/uber.db.in with 100% similarity]
bin/tests/system/masterformat/ns2/named.conf.in
bin/tests/system/masterformat/setup.sh
bin/tests/system/masterformat/tests.sh

index c606c6183ac2d1815188818984577cdbcc8c255b..2b93c2bbdb4f2941adc927d579dc44f1a2f6ac0f 100755 (executable)
@@ -18,6 +18,11 @@ rm -f ./ns1/large.db ./ns1/large.db.raw
 rm -f ./ns1/example.db.map ./ns1/signed.db.map
 rm -f ./ns1/huge.db ./ns1/huge.db.raw
 rm -f ./ns1/uber.db ./ns1/uber.db.raw
+rm -f ./ns1/255types.db ./ns1/255types.db.raw
+rm -f ./ns1/on-limit.db ./ns1/on-limit.db.raw
+rm -f ./ns1/over-limit.db ./ns1/over-limit.db.raw
+rm -f ./ns1/under-limit.db ./ns1/under-limit.db.raw
+rm -f ./ns2/under-limit.bk
 rm -f ./ns1/session.key
 rm -f ./dig.out.*
 rm -f ./dig.out
index 7e6931e3febbae2c4aba86a25bf8ce62980000f4..7eee7cc80400012b489bfa309e9dc54038a13ba5 100755 (executable)
@@ -26,12 +26,12 @@ $CHECKZONE -D -F raw=0 -o example.db.compat example-compat \
   example.db >/dev/null 2>&1
 $CHECKZONE -D -F raw -L 3333 -o example.db.serial.raw example \
   example.db >/dev/null 2>&1
-$CHECKZONE -D -F raw -o large.db.raw large large.db >/dev/null 2>&1
+$CHECKZONE -D -F raw -o under-limit.db.raw under-limit under-limit.db >/dev/null 2>&1
 $CHECKZONE -D -F map -o example.db.map example-map \
   example.db >/dev/null 2>&1
-$CHECKZONE -D -F raw -o huge.db.raw huge huge.db >/dev/null 2>&1
-$CHECKZONE -D -F raw -o uber.db.raw uber uber.db >/dev/null 2>&1
-$CHECKZONE -D -F raw -o many.db.raw many many.db >/dev/null 2>&1
+$CHECKZONE -D -F raw -o on-limit.db.raw on-limit on-limit.db >/dev/null 2>&1
+$CHECKZONE -D -F raw -o over-limit.db.raw over-limit over-limit.db >/dev/null 2>&1
+$CHECKZONE -D -F raw -o 255types.db.raw 255types 255types.db >/dev/null 2>&1
 
 $KEYGEN -q -a "$DEFAULT_ALGORITHM" -b "$DEFAULT_BITS" -f KSK signed >/dev/null 2>&1
 $KEYGEN -q -a "$DEFAULT_ALGORITHM" -b "$DEFAULT_BITS" signed >/dev/null 2>&1
index 6d55dfb5330fb35fdc74721f7819f638e8d622d3..85642a9af6553937aa799228bbb23178a90477bf 100644 (file)
@@ -72,31 +72,31 @@ zone "transfer4" {
 };
 
 
-zone "large" {
+zone "under-limit" {
        type primary;
-       file "large.db.raw";
+       file "under-limit.db.raw";
        masterfile-format raw;
        allow-transfer { any; };
 };
 
-zone "huge" {
+zone "on-limit" {
        type primary;
-       file "huge.db.raw";
+       file "on-limit.db.raw";
        masterfile-format raw;
        allow-transfer { any; };
 };
 
 
-zone "uber" {
+zone "over-limit" {
        type primary;
-       file "uber.db.raw";
+       file "over-limit.db.raw";
        masterfile-format raw;
        allow-transfer { any; };
 };
 
-zone "many" {
+zone "255types" {
        type primary;
-       file "many.db.raw";
+       file "255types.db.raw";
        masterfile-format raw;
        allow-transfer { any; };
 };
index 64640cdc6130b82af5f10a818e72f062381555c2..d4b2bb7b54004be15709ec02f4d061f507c90a0d 100644 (file)
@@ -57,23 +57,23 @@ zone "transfer4" {
        file "transfer.db.full";
 };
 
-zone "large" {
+zone "under-limit" {
        type secondary;
        primaries { 10.53.0.1; };
        masterfile-format raw;
-       file "large.bk";
+       file "under-limit.bk";
 };
 
-zone "huge" {
+zone "on-limit" {
        type secondary;
        primaries { 10.53.0.1; };
        masterfile-format raw;
-       file "huge.bk";
+       file "on-limit.bk";
 };
 
-zone "many" {
+zone "255types" {
        type secondary;
        primaries { 10.53.0.1; };
        masterfile-format raw;
-       file "many.bk";
+       file "255types.bk";
 };
index 737c59073ce4331aea211c87d24801053e29d27d..272bd31047c0cfbc21f09983b6719d05b35f8c2c 100755 (executable)
@@ -22,30 +22,34 @@ copy_setports ns3/named.conf.in ns3/named.conf
 
 cp ns1/example.db ns2/
 cp ns2/formerly-text.db.in ns2/formerly-text.db
-cp ns1/large.db.in ns1/large.db
+cp ns1/under-limit.db.in ns1/under-limit.db
+
+# counts are set with respect to these limits in named.conf:
+#      max-records-per-type 2050;
+#      max-types-per-name 500;
 awk 'END {
         for (i = 0; i < 500; i++ ) { print "500-txt TXT", i; }
         for (i = 0; i < 1000; i++ ) { print "1000-txt TXT", i; }
         for (i = 0; i < 2000; i++ ) { print "2000-txt TXT", i; }
-}' </dev/null >>ns1/large.db
-cp ns1/huge.db.in ns1/huge.db
+}' </dev/null >>ns1/under-limit.db
+cp ns1/on-limit.db.in ns1/on-limit.db
 awk 'END {
         for (i = 0; i < 500; i++ ) { print "500-txt TXT", i; }
         for (i = 0; i < 1000; i++ ) { print "1000-txt TXT", i; }
         for (i = 0; i < 2000; i++ ) { print "2000-txt TXT", i; }
         for (i = 0; i < 2050; i++ ) { print "2050-txt TXT", i; }
-}' </dev/null >>ns1/huge.db
-cp ns1/uber.db.in ns1/uber.db
+}' </dev/null >>ns1/on-limit.db
+cp ns1/over-limit.db.in ns1/over-limit.db
 awk 'END {
         for (i = 0; i < 500; i++ ) { print "500-txt TXT", i; }
         for (i = 0; i < 1000; i++ ) { print "1000-txt TXT", i; }
         for (i = 0; i < 2000; i++ ) { print "2000-txt TXT", i; }
         for (i = 0; i < 2050; i++ ) { print "2050-txt TXT", i; }
         for (i = 0; i < 2100; i++ ) { print "2100-txt TXT", i; }
-}' </dev/null >>ns1/uber.db
-cp ns1/many.db.in ns1/many.db
+}' </dev/null >>ns1/over-limit.db
+cp ns1/255types.db.in ns1/255types.db
 for ntype in $(seq 65280 65534); do
   echo "m TYPE${ntype} \# 0"
-done >>ns1/many.db
-echo "m TXT bunny" >>ns1/many.db
+done >>ns1/255types.db
+echo "m TXT bunny" >>ns1/255types.db
 cd ns1 && $SHELL compile.sh
index bcf6dbbf67db2bc4d6ec1a4b5ace965039447d37..029bf6251c76164434cdb706741b87deac4a358d 100755 (executable)
@@ -184,11 +184,11 @@ n=$((n + 1))
 [ $ret -eq 0 ] || echo_i "failed"
 status=$((status + ret))
 
-echo_i "checking that large rdatasets loaded ($n)"
+echo_i "checking that under-limit rdatasets loaded ($n)"
 for _attempt in 0 1 2 3 4 5 6 7 8 9; do
   ret=0
   for rrcount in 500-txt 1000-txt 2000-txt; do
-    $DIG +tcp txt "${rrcount}.large" @10.53.0.1 -p "${PORT}" >"dig.out.ns1.$rrcount.test$n"
+    $DIG +tcp txt "${rrcount}.under-limit" @10.53.0.1 -p "${PORT}" >"dig.out.ns1.$rrcount.test$n"
     grep "status: NOERROR" "dig.out.ns1.$rrcount.test$n" >/dev/null || ret=1
   done
   [ $ret -eq 0 ] && break
@@ -198,11 +198,11 @@ n=$((n + 1))
 [ $ret -eq 0 ] || echo_i "failed"
 status=$((status + ret))
 
-echo_i "checking that large rdatasets transfered ($n)"
+echo_i "checking that under-limit rdatasets transfered ($n)"
 for _attempt in 0 1 2 3 4 5 6 7 8 9; do
   ret=0
   for rrcount in 500-txt 1000-txt 2000-txt; do
-    $DIG +tcp txt "${rrcount}.large" @10.53.0.2 -p "${PORT}" >"dig.out.ns2.$rrcount.test$n"
+    $DIG +tcp txt "${rrcount}.under-limit" @10.53.0.2 -p "${PORT}" >"dig.out.ns2.$rrcount.test$n"
     grep "status: NOERROR" "dig.out.ns2.$rrcount.test$n" >/dev/null || ret=1
   done
   [ $ret -eq 0 ] && break
@@ -212,11 +212,11 @@ n=$((n + 1))
 [ $ret -eq 0 ] || echo_i "failed"
 status=$((status + ret))
 
-echo_i "checking that huge rdatasets loaded ($n)"
+echo_i "checking that on-limit rdatasets loaded ($n)"
 for _attempt in 0 1 2 3 4 5 6 7 8 9; do
   ret=0
   for rrcount in 500-txt 1000-txt 2000-txt 2050-txt; do
-    $DIG +tcp txt "${rrcount}.huge" @10.53.0.1 -p "${PORT}" >"dig.out.ns1.$rrcount.test$n"
+    $DIG +tcp txt "${rrcount}.on-limit" @10.53.0.1 -p "${PORT}" >"dig.out.ns1.$rrcount.test$n"
     grep "status: NOERROR" "dig.out.ns1.$rrcount.test$n" >/dev/null || ret=1
   done
   [ $ret -eq 0 ] && break
@@ -226,11 +226,11 @@ n=$((n + 1))
 [ $ret -eq 0 ] || echo_i "failed"
 status=$((status + ret))
 
-echo_i "checking that huge rdatasets not transfered ($n)"
+echo_i "checking that on-limit rdatasets not transfered ($n)"
 for _attempt in 0 1 2 3 4 5 6 7 8 9; do
   ret=0
   for rrcount in 500-txt 1000-txt 2000-txt 2050-txt; do
-    $DIG +tcp txt "${rrcount}.huge" @10.53.0.2 -p "${PORT}" >"dig.out.ns2.$rrcount.test$n"
+    $DIG +tcp txt "${rrcount}.on-limit" @10.53.0.2 -p "${PORT}" >"dig.out.ns2.$rrcount.test$n"
     grep "status: SERVFAIL" "dig.out.ns2.$rrcount.test$n" >/dev/null || ret=1
   done
   [ $ret -eq 0 ] && break
@@ -240,11 +240,11 @@ n=$((n + 1))
 [ $ret -eq 0 ] || echo_i "failed"
 status=$((status + ret))
 
-echo_i "checking that uber rdatasets not loaded ($n)"
+echo_i "checking that over-limit rdatasets not loaded ($n)"
 for _attempt in 0 1 2 3 4 5 6 7 8 9; do
   ret=0
   for rrcount in 500-txt 1000-txt 2000-txt 2050-txt 2100-txt; do
-    $DIG +tcp txt "${rrcount}.uber" @10.53.0.1 -p "${PORT}" >"dig.out.ns1.$rrcount.test$n"
+    $DIG +tcp txt "${rrcount}.over-limit" @10.53.0.1 -p "${PORT}" >"dig.out.ns1.$rrcount.test$n"
     grep "status: SERVFAIL" "dig.out.ns1.$rrcount.test$n" >/dev/null || ret=1
   done
   [ $ret -eq 0 ] && break
@@ -254,10 +254,10 @@ n=$((n + 1))
 [ $ret -eq 0 ] || echo_i "failed"
 status=$((status + ret))
 
-echo_i "checking that many types are loaded ($n)"
+echo_i "checking that 255 types are loaded ($n)"
 for _attempt in 0 1 2 3 4 5 6 7 8 9; do
   ret=0
-  $DIG +tcp TXT "m.many" @10.53.0.1 -p "${PORT}" >"dig.out.ns1.test$n"
+  $DIG +tcp TXT "m.255types" @10.53.0.1 -p "${PORT}" >"dig.out.ns1.test$n"
   grep "status: NOERROR" "dig.out.ns1.test$n" >/dev/null || ret=1
   [ $ret -eq 0 ] && break
   sleep 1
@@ -266,9 +266,9 @@ n=$((n + 1))
 [ $ret -eq 0 ] || echo_i "failed"
 status=$((status + ret))
 
-echo_i "checking that many types are not transfered ($n)"
+echo_i "checking that 255 types types are not transfered ($n)"
 for _attempt in 0 1 2 3 4 5 6 7 8 9; do
-  $DIG +tcp TXT "m.many" @10.53.0.2 -p "${PORT}" >"dig.out.ns2.test$n"
+  $DIG +tcp TXT "m.255types" @10.53.0.2 -p "${PORT}" >"dig.out.ns2.test$n"
   grep "status: SERVFAIL" "dig.out.ns2.test$n" >/dev/null || ret=1
   [ $ret -eq 0 ] && break
   sleep 1