]> git.ipfire.org Git - thirdparty/tor.git/commitdiff
The chunk_size field in memarea_t was never actually set. Remove the whole thing.
authorNick Mathewson <nickm@torproject.org>
Wed, 5 Nov 2008 20:34:22 +0000 (20:34 +0000)
committerNick Mathewson <nickm@torproject.org>
Wed, 5 Nov 2008 20:34:22 +0000 (20:34 +0000)
svn:r17195

ChangeLog
src/common/memarea.c
src/common/memarea.h
src/or/routerparse.c
src/or/test.c

index ed1bb0de22122351f28a53570656c22fa7b5b13a..4fd317f4a9b93ef644f2f990a9c6687a3fb2f66e 100644 (file)
--- a/ChangeLog
+++ b/ChangeLog
@@ -56,6 +56,8 @@ Changes in version 0.2.1.7-alpha - 2008-11-xx
       have already been marked for close.
     - Fix read-off-the-end-of-string error in unit tests when decoding
       introduction points.
+    - Fix uninitialized size field for memory area allocation: may improve
+      memory performance during directory parsing.
 
 
 Changes in version 0.2.1.6-alpha - 2008-09-30
index 28144c3bb999b80397544d80cee3541e4d7d1d19..d888cf076a930635e8fbb2b2a11fd441c7fbbceb 100644 (file)
@@ -53,13 +53,12 @@ typedef struct memarea_chunk_t {
 
 #define CHUNK_HEADER_SIZE STRUCT_OFFSET(memarea_chunk_t, u)
 
-#define CHUNK_SIZE 8192
+#define CHUNK_SIZE 4096
 
 /** A memarea_t is an allocation region for a set of small memory requests
  * that will all be freed at once. */
 struct memarea_t {
-  struct memarea_chunk_t *first; /**< Top of the chunk stack: never NULL. */
-  size_t chunk_size; /**<Size to use when allocating chunks.*/
+  memarea_chunk_t *first; /**< Top of the chunk stack: never NULL. */
 };
 
 #define MAX_FREELIST_LEN 4
@@ -101,11 +100,10 @@ chunk_free(memarea_chunk_t *chunk)
 
 /** Allocate and return new memarea. */
 memarea_t *
-memarea_new(size_t chunk_size)/*XXXX021 remove this argument.*/
+memarea_new(void)
 {
   memarea_t *head = tor_malloc(sizeof(memarea_t));
-  head->first = alloc_chunk(chunk_size, 1);
-  (void)chunk_size;
+  head->first = alloc_chunk(CHUNK_SIZE, 1);
   return head;
 }
 
@@ -185,7 +183,7 @@ memarea_alloc(memarea_t *area, size_t sz)
       chunk->next_chunk = new_chunk;
       chunk = new_chunk;
     } else {
-      memarea_chunk_t *new_chunk = alloc_chunk(area->chunk_size, 1);
+      memarea_chunk_t *new_chunk = alloc_chunk(CHUNK_SIZE, 1);
       new_chunk->next_chunk = chunk;
       area->first = chunk = new_chunk;
     }
index b08a033e4ad190029fdaf17f612e6a9e437ee04c..06c5be1198a16f60f83137ee8f548313cddc2331 100644 (file)
@@ -8,7 +8,7 @@
 
 typedef struct memarea_t memarea_t;
 
-memarea_t *memarea_new(size_t chunk_size);
+memarea_t *memarea_new(void);
 void memarea_drop_all(memarea_t *area);
 void memarea_clear(memarea_t *area);
 int memarea_owns_ptr(const memarea_t *area, const void *ptr);
index d093b72220f11768c8f0759145de891a991495d7..5230d481e7e5efb64e9bc5335dea126f83bb4343 100644 (file)
@@ -676,7 +676,7 @@ router_parse_directory(const char *str)
   const char *end, *cp;
   smartlist_t *tokens = NULL;
   crypto_pk_env_t *declared_key = NULL;
-  memarea_t *area = memarea_new(8192);
+  memarea_t *area = memarea_new();
 
   /* XXXX This could be simplified a lot, but it will all go away
    * once pre-0.1.1.8 is obsolete, and for now it's better not to
@@ -779,7 +779,7 @@ router_parse_runningrouters(const char *str)
     log_warn(LD_DIR, "Unable to compute digest of running-routers");
     goto err;
   }
-  area = memarea_new(8192);
+  area = memarea_new();
   tokens = smartlist_create();
   if (tokenize_string(area,str,eos,tokens,dir_token_table,0)) {
     log_warn(LD_DIR, "Error tokenizing running-routers"); goto err;
@@ -846,7 +846,7 @@ find_dir_signing_key(const char *str, const char *eos)
     return NULL;
   ++cp; /* Now cp points to the start of the token. */
 
-  area = memarea_new(1024);
+  area = memarea_new();
   tok = get_next_token(area, &cp, eos, dir_token_table);
   if (!tok) {
     log_warn(LD_DIR, "Unparseable dir-signing-key token");
@@ -1131,7 +1131,7 @@ router_parse_entry_from_string(const char *s, const char *end,
   while (end > s+2 && *(end-1) == '\n' && *(end-2) == '\n')
     --end;
 
-  area = memarea_new(4096);
+  area = memarea_new();
   tokens = smartlist_create();
   if (prepend_annotations) {
     if (tokenize_string(area,prepend_annotations,NULL,tokens,
@@ -1456,7 +1456,7 @@ extrainfo_parse_entry_from_string(const char *s, const char *end,
     return NULL;
   }
   tokens = smartlist_create();
-  area = memarea_new(8192);
+  area = memarea_new();
   if (tokenize_string(area,s,end,tokens,extrainfo_token_table,0)) {
     log_warn(LD_DIR, "Error tokenizing extra-info document.");
     goto err;
@@ -1574,7 +1574,7 @@ authority_cert_parse_from_string(const char *s, const char **end_of_string)
   len = eos - s;
 
   tokens = smartlist_create();
-  area = memarea_new(8192);
+  area = memarea_new();
   if (tokenize_string(area,s, eos, tokens, dir_key_certificate_table, 0) < 0) {
     log_warn(LD_DIR, "Error tokenizing key certificate");
     goto err;
@@ -1971,7 +1971,7 @@ networkstatus_v2_parse_from_string(const char *s)
     goto err;
   }
 
-  area = memarea_new(8192);
+  area = memarea_new();
   eos = find_start_of_next_routerstatus(s);
   if (tokenize_string(area, s, eos, tokens, netstatus_token_table,0)) {
     log_warn(LD_DIR, "Error tokenizing network-status header.");
@@ -2146,7 +2146,7 @@ networkstatus_parse_vote_from_string(const char *s, const char **eos_out,
     goto err;
   }
 
-  area = memarea_new(8192);
+  area = memarea_new();
   end_of_header = find_start_of_next_routerstatus(s);
   if (tokenize_string(area, s, end_of_header, tokens,
                       (ns_type == NS_TYPE_CONSENSUS) ?
@@ -2370,7 +2370,7 @@ networkstatus_parse_vote_from_string(const char *s, const char **eos_out,
 
   /* Parse routerstatus lines. */
   rs_tokens = smartlist_create();
-  rs_area = memarea_new(512);
+  rs_area = memarea_new();
   s = end_of_header;
   ns->routerstatus_list = smartlist_create();
 
@@ -2539,7 +2539,7 @@ networkstatus_parse_detached_signatures(const char *s, const char *eos)
   if (!eos)
     eos = s + strlen(s);
 
-  area = memarea_new(8192);
+  area = memarea_new();
   if (tokenize_string(area,s, eos, tokens,
                       networkstatus_detached_signature_token_table, 0)) {
     log_warn(LD_DIR, "Error tokenizing detached networkstatus signatures");
@@ -2666,7 +2666,7 @@ router_parse_addr_policy_item_from_string(const char *s, int assume_action)
   }
 
   eos = cp + strlen(cp);
-  area = memarea_new(128);
+  area = memarea_new();
   tok = get_next_token(area, &cp, eos, routerdesc_token_table);
   if (tok->tp == _ERR) {
     log_warn(LD_DIR, "Error reading address policy: %s", tok->error);
@@ -3476,7 +3476,7 @@ rend_parse_v2_service_descriptor(rend_service_descriptor_t **parsed_out,
     goto err;
   }
   /* Tokenize descriptor. */
-  area = memarea_new(4096);
+  area = memarea_new();
   if (tokenize_string(area, desc, eos, tokens, desc_token_table, 0)) {
     log_warn(LD_REND, "Error tokenizing descriptor.");
     goto err;
@@ -3748,7 +3748,7 @@ rend_parse_introduction_points(rend_service_descriptor_t *parsed,
   end_of_intro_points = intro_points_encoded + intro_points_encoded_size;
   tokens = smartlist_create();
   parsed->intro_nodes = smartlist_create();
-  area = memarea_new(4096);
+  area = memarea_new();
 
   while (!memcmpstart(current_ipo, end_of_intro_points-current_ipo,
                       "introduction-point ")) {
@@ -3860,7 +3860,7 @@ rend_parse_client_keys(strmap_t *parsed_clients, const char *ckstr)
   tokens = smartlist_create();
   /* Begin parsing with first entry, skipping comments or whitespace at the
    * beginning. */
-  area = memarea_new(4096);
+  area = memarea_new();
   current_entry = eat_whitespace(ckstr);
   while (!strcmpstart(current_entry, "client-name ")) {
     rend_authorized_client_t *parsed_entry;
index f3e1ae18e439b8710f3dcaca4f75f85edac693f7..044ca38e3acf46f62a4a895c9d05d5a2a20cdc37 100644 (file)
@@ -3908,7 +3908,7 @@ test_util_mempool(void)
 static void
 test_util_memarea(void)
 {
-  memarea_t *area = memarea_new(1024);
+  memarea_t *area = memarea_new();
   char *p1, *p2, *p3, *p1_orig;
   int i;
   test_assert(area);