]> git.ipfire.org Git - thirdparty/glibc.git/blobdiff - elf/dl-open.c
Update copyright notices with scripts/update-copyrights
[thirdparty/glibc.git] / elf / dl-open.c
index 0e06ca15d5899f3bd4d38af7388ea2a9948273f0..a9ca6b3b44c297e9ddda3dd008652ec4b1d2d4e1 100644 (file)
@@ -1,5 +1,5 @@
 /* Load a shared object at runtime, relocate it, and run its initializer.
-   Copyright (C) 1996-2004, 2005 Free Software Foundation, Inc.
+   Copyright (C) 1996-2014 Free Software Foundation, Inc.
    This file is part of the GNU C Library.
 
    The GNU C Library is free software; you can redistribute it and/or
@@ -13,9 +13,8 @@
    Lesser General Public License for more details.
 
    You should have received a copy of the GNU Lesser General Public
-   License along with the GNU C Library; if not, write to the Free
-   Software Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA
-   02111-1307 USA.  */
+   License along with the GNU C Library; if not, see
+   <http://www.gnu.org/licenses/>.  */
 
 #include <assert.h>
 #include <dlfcn.h>
 #include <sys/param.h>
 #include <bits/libc-lock.h>
 #include <ldsodefs.h>
-#include <bp-sym.h>
 #include <caller.h>
+#include <sysdep-cancel.h>
+#include <tls.h>
+#include <stap-probe.h>
+#include <atomic.h>
 
 #include <dl-dst.h>
 
 
-#ifndef SHARED
-/* Giving this initialized value preallocates some surplus bytes in the
-   static TLS area, see __libc_setup_tls (libc-tls.c).  */
-size_t _dl_tls_static_size = 2048;
-#endif
-
-extern ElfW(Addr) _dl_sysdep_start (void **start_argptr,
-                                   void (*dl_main) (const ElfW(Phdr) *phdr,
-                                                    ElfW(Word) phnum,
-                                                    ElfW(Addr) *user_entry));
-weak_extern (BP_SYM (_dl_sysdep_start))
-
 extern int __libc_multiple_libcs;      /* Defined in init-first.c.  */
 
-/* Undefine the following for debugging.  */
-/* #define SCOPE_DEBUG 1 */
-#ifdef SCOPE_DEBUG
-static void show_scope (struct link_map *new);
-#endif
-
-/* We must be carefull not to leave us in an inconsistent state.  Thus we
+/* We must be careful not to leave us in an inconsistent state.  Thus we
    catch any error and re-raise it after cleaning up.  */
 
 struct dl_open_args
@@ -64,7 +48,7 @@ struct dl_open_args
   int mode;
   /* This is the caller of the dlopen() function.  */
   const void *caller_dlopen;
-  /* This is the caller if _dl_open().  */
+  /* This is the caller of _dl_open().  */
   const void *caller_dl_open;
   struct link_map *map;
   /* Namespace ID.  */
@@ -102,17 +86,17 @@ add_to_global (struct link_map *new)
      in an realloc() call.  Therefore we allocate a completely new
      array the first time we have to add something to the locale scope.  */
 
-  if (GL(dl_ns)[new->l_ns]._ns_global_scope_alloc == 0)
+  struct link_namespaces *ns = &GL(dl_ns)[new->l_ns];
+  if (ns->_ns_global_scope_alloc == 0)
     {
       /* This is the first dynamic object given global scope.  */
-      GL(dl_ns)[new->l_ns]._ns_global_scope_alloc
-       = GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_nlist + to_add + 8;
+      ns->_ns_global_scope_alloc
+       = ns->_ns_main_searchlist->r_nlist + to_add + 8;
       new_global = (struct link_map **)
-       malloc (GL(dl_ns)[new->l_ns]._ns_global_scope_alloc
-               * sizeof (struct link_map *));
+       malloc (ns->_ns_global_scope_alloc * sizeof (struct link_map *));
       if (new_global == NULL)
        {
-         GL(dl_ns)[new->l_ns]._ns_global_scope_alloc = 0;
+         ns->_ns_global_scope_alloc = 0;
        nomem:
          _dl_signal_error (ENOMEM, new->l_libname->name, NULL,
                            N_("cannot extend global scope"));
@@ -120,29 +104,39 @@ add_to_global (struct link_map *new)
        }
 
       /* Copy over the old entries.  */
-      GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_list
-       = memcpy (new_global,
-                 GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_list,
-                 (GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_nlist
+      ns->_ns_main_searchlist->r_list
+       = memcpy (new_global, ns->_ns_main_searchlist->r_list,
+                 (ns->_ns_main_searchlist->r_nlist
                   * sizeof (struct link_map *)));
     }
-  else if (GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_nlist + to_add
-          > GL(dl_ns)[new->l_ns]._ns_global_scope_alloc)
+  else if (ns->_ns_main_searchlist->r_nlist + to_add
+          > ns->_ns_global_scope_alloc)
     {
       /* We have to extend the existing array of link maps in the
         main map.  */
+      struct link_map **old_global
+       = GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_list;
+      size_t new_nalloc = ((ns->_ns_global_scope_alloc + to_add) * 2);
+
       new_global = (struct link_map **)
-       realloc (GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_list,
-                ((GL(dl_ns)[new->l_ns]._ns_global_scope_alloc + to_add + 8)
-                 * sizeof (struct link_map *)));
+       malloc (new_nalloc * sizeof (struct link_map *));
       if (new_global == NULL)
        goto nomem;
 
-      GL(dl_ns)[new->l_ns]._ns_global_scope_alloc += to_add + 8;
-      GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_list = new_global;
+      memcpy (new_global, old_global,
+             ns->_ns_global_scope_alloc * sizeof (struct link_map *));
+
+      ns->_ns_global_scope_alloc = new_nalloc;
+      ns->_ns_main_searchlist->r_list = new_global;
+
+      if (!RTLD_SINGLE_THREAD_P)
+       THREAD_GSCOPE_WAIT ();
+
+      free (old_global);
     }
 
   /* Now add the new entries.  */
+  unsigned int new_nlist = ns->_ns_main_searchlist->r_nlist;
   for (cnt = 0; cnt < new->l_searchlist.r_nlist; ++cnt)
     {
       struct link_map *map = new->l_searchlist.r_list[cnt];
@@ -150,15 +144,42 @@ add_to_global (struct link_map *new)
       if (map->l_global == 0)
        {
          map->l_global = 1;
-         GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_list[GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_nlist]
-           = map;
-         ++GL(dl_ns)[new->l_ns]._ns_main_searchlist->r_nlist;
+         ns->_ns_main_searchlist->r_list[new_nlist++] = map;
+
+         /* We modify the global scope.  Report this.  */
+         if (__builtin_expect (GLRO(dl_debug_mask) & DL_DEBUG_SCOPES, 0))
+           _dl_debug_printf ("\nadd %s [%lu] to global scope\n",
+                             map->l_name, map->l_ns);
        }
     }
+  atomic_write_barrier ();
+  ns->_ns_main_searchlist->r_nlist = new_nlist;
 
   return 0;
 }
 
+/* Search link maps in all namespaces for the DSO that contains the object at
+   address ADDR.  Returns the pointer to the link map of the matching DSO, or
+   NULL if a match is not found.  */
+struct link_map *
+internal_function
+_dl_find_dso_for_object (const ElfW(Addr) addr)
+{
+  struct link_map *l;
+
+  /* Find the highest-addressed object that ADDR is not below.  */
+  for (Lmid_t ns = 0; ns < GL(dl_nns); ++ns)
+    for (l = GL(dl_ns)[ns]._ns_loaded; l != NULL; l = l->l_next)
+      if (addr >= l->l_map_start && addr < l->l_map_end
+         && (l->l_contiguous
+             || _dl_addr_inside_object (l, (ElfW(Addr)) addr)))
+       {
+         assert (ns == l->l_ns);
+         return l;
+       }
+  return NULL;
+}
+rtld_hidden_def (_dl_find_dso_for_object);
 
 static void
 dl_open_worker (void *a)
@@ -166,12 +187,6 @@ dl_open_worker (void *a)
   struct dl_open_args *args = a;
   const char *file = args->file;
   int mode = args->mode;
-  struct link_map *new, *l;
-  int lazy;
-  unsigned int i;
-#ifdef USE_TLS
-  bool any_tls = false;
-#endif
   struct link_map *call_map = NULL;
 
   /* Check whether _dl_open() has been called from a valid DSO.  */
@@ -193,72 +208,20 @@ dl_open_worker (void *a)
         By default we assume this is the main application.  */
       call_map = GL(dl_ns)[LM_ID_BASE]._ns_loaded;
 
-      for (Lmid_t ns = 0; ns < DL_NNS; ++ns)
-       for (l = GL(dl_ns)[ns]._ns_loaded; l != NULL; l = l->l_next)
-         if (caller_dlopen >= (const void *) l->l_map_start
-             && caller_dlopen < (const void *) l->l_map_end)
-           {
-             /* There must be exactly one DSO for the range of the virtual
-                memory.  Otherwise something is really broken.  */
-             assert (ns == l->l_ns);
-             call_map = l;
-             goto found_caller;
-           }
+      struct link_map *l = _dl_find_dso_for_object ((ElfW(Addr)) caller_dlopen);
+
+      if (l)
+        call_map = l;
 
-    found_caller:
       if (args->nsid == __LM_ID_CALLER)
-       {
-#ifndef SHARED
-         /* In statically linked apps there might be no loaded object.  */
-         if (call_map == NULL)
-           args->nsid = LM_ID_BASE;
-         else
-#endif
-           args->nsid = call_map->l_ns;
-       }
+       args->nsid = call_map->l_ns;
     }
 
   assert (_dl_debug_initialize (0, args->nsid)->r_state == RT_CONSISTENT);
 
-  /* Maybe we have to expand a DST.  */
-  if (__builtin_expect (dst != NULL, 0))
-    {
-      size_t len = strlen (file);
-      size_t required;
-      char *new_file;
-
-      /* DSTs must not appear in SUID/SGID programs.  */
-      if (INTUSE(__libc_enable_secure))
-       /* This is an error.  */
-       _dl_signal_error (0, "dlopen", NULL,
-                         N_("DST not allowed in SUID/SGID programs"));
-
-
-      /* Determine how much space we need.  We have to allocate the
-        memory locally.  */
-      required = DL_DST_REQUIRED (call_map, file, len, _dl_dst_count (dst, 0));
-
-      /* Get space for the new file name.  */
-      new_file = (char *) alloca (required + 1);
-
-      /* Generate the new file name.  */
-      _dl_dst_substitute (call_map, file, new_file, 0);
-
-      /* If the substitution failed don't try to load.  */
-      if (*new_file == '\0')
-       _dl_signal_error (0, "dlopen", NULL,
-                         N_("empty dynamic string token substitution"));
-
-      /* Now we have a new file name.  */
-      file = new_file;
-
-      /* It does not matter whether call_map is set even if we
-        computed it only because of the DST.  Since the path contains
-        a slash the value is not used.  See dl-load.c.  */
-    }
-
   /* Load the named object.  */
-  args->map = new = _dl_map_object (call_map, file, 0, lt_loaded, 0,
+  struct link_map *new;
+  args->map = new = _dl_map_object (call_map, file, lt_loaded, 0,
                                    mode | __RTLD_CALLMAP, args->nsid);
 
   /* If the pointer returned is NULL this means the RTLD_NOLOAD flag is
@@ -281,23 +244,14 @@ dl_open_worker (void *a)
     {
       /* Let the user know about the opencount.  */
       if (__builtin_expect (GLRO(dl_debug_mask) & DL_DEBUG_FILES, 0))
-       _dl_debug_printf ("opening file=%s [%lu]; opencount=%u\n\n",
-                         new->l_name, new->l_ns, new->l_opencount + 1);
+       _dl_debug_printf ("opening file=%s [%lu]; direct_opencount=%u\n\n",
+                         new->l_name, new->l_ns, new->l_direct_opencount);
 
       /* If the user requested the object to be in the global namespace
         but it is not so far, add it now.  */
       if ((mode & RTLD_GLOBAL) && new->l_global == 0)
        (void) add_to_global (new);
 
-      if (new->l_direct_opencount == 1)
-       /* This is the only direct reference.  Increment all the
-          dependencies' reference counter.  */
-       for (i = 0; i < new->l_searchlist.r_nlist; ++i)
-         ++new->l_searchlist.r_list[i]->l_opencount;
-      else
-       /* Increment just the reference counter of the object.  */
-       ++new->l_opencount;
-
       assert (_dl_debug_initialize (0, args->nsid)->r_state == RT_CONSISTENT);
 
       return;
@@ -308,15 +262,11 @@ dl_open_worker (void *a)
                       mode & (__RTLD_DLOPEN | RTLD_DEEPBIND | __RTLD_AUDIT));
 
   /* So far, so good.  Now check the versions.  */
-  for (i = 0; i < new->l_searchlist.r_nlist; ++i)
+  for (unsigned int i = 0; i < new->l_searchlist.r_nlist; ++i)
     if (new->l_searchlist.r_list[i]->l_real->l_versions == NULL)
       (void) _dl_check_map_versions (new->l_searchlist.r_list[i]->l_real,
                                     0, 0);
 
-#ifdef SCOPE_DEBUG
-  show_scope (new);
-#endif
-
 #ifdef SHARED
   /* Auditing checkpoint: we have added all objects.  */
   if (__builtin_expect (GLRO(dl_naudit) > 0, 0))
@@ -341,144 +291,275 @@ dl_open_worker (void *a)
   struct r_debug *r = _dl_debug_initialize (0, args->nsid);
   r->r_state = RT_CONSISTENT;
   _dl_debug_state ();
+  LIBC_PROBE (map_complete, 3, args->nsid, r, new);
 
-  /* Only do lazy relocation if `LD_BIND_NOW' is not set.  */
-  lazy = (mode & RTLD_BINDING_MASK) == RTLD_LAZY && GLRO(dl_lazy);
-
-  /* Relocate the objects loaded.  We do this in reverse order so that copy
-     relocs of earlier objects overwrite the data written by later objects.  */
+  /* Print scope information.  */
+  if (__builtin_expect (GLRO(dl_debug_mask) & DL_DEBUG_SCOPES, 0))
+    _dl_show_scope (new, 0);
 
+  /* Only do lazy relocation if `LD_BIND_NOW' is not set.  */
+  int reloc_mode = mode & __RTLD_AUDIT;
+  if (GLRO(dl_lazy))
+    reloc_mode |= mode & RTLD_LAZY;
+
+  /* Sort the objects by dependency for the relocation process.  This
+     allows IFUNC relocations to work and it also means copy
+     relocation of dependencies are if necessary overwritten.  */
+  size_t nmaps = 0;
+  struct link_map *l = new;
+  do
+    {
+      if (! l->l_real->l_relocated)
+       ++nmaps;
+      l = l->l_next;
+    }
+  while (l != NULL);
+  struct link_map *maps[nmaps];
+  nmaps = 0;
   l = new;
-  while (l->l_next)
-    l = l->l_next;
-  while (1)
+  do
     {
       if (! l->l_real->l_relocated)
+       maps[nmaps++] = l;
+      l = l->l_next;
+    }
+  while (l != NULL);
+  if (nmaps > 1)
+    {
+      uint16_t seen[nmaps];
+      memset (seen, '\0', sizeof (seen));
+      size_t i = 0;
+      while (1)
+       {
+         ++seen[i];
+         struct link_map *thisp = maps[i];
+
+         /* Find the last object in the list for which the current one is
+            a dependency and move the current object behind the object
+            with the dependency.  */
+         size_t k = nmaps - 1;
+         while (k > i)
+           {
+             struct link_map **runp = maps[k]->l_initfini;
+             if (runp != NULL)
+               /* Look through the dependencies of the object.  */
+               while (*runp != NULL)
+                 if (__builtin_expect (*runp++ == thisp, 0))
+                   {
+                     /* Move the current object to the back past the last
+                        object with it as the dependency.  */
+                     memmove (&maps[i], &maps[i + 1],
+                              (k - i) * sizeof (maps[0]));
+                     maps[k] = thisp;
+
+                     if (seen[i + 1] > nmaps - i)
+                       {
+                         ++i;
+                         goto next_clear;
+                       }
+
+                     uint16_t this_seen = seen[i];
+                     memmove (&seen[i], &seen[i + 1],
+                              (k - i) * sizeof (seen[0]));
+                     seen[k] = this_seen;
+
+                     goto next;
+                   }
+
+             --k;
+           }
+
+         if (++i == nmaps)
+           break;
+       next_clear:
+         memset (&seen[i], 0, (nmaps - i) * sizeof (seen[0]));
+       next:;
+       }
+    }
+
+  int relocation_in_progress = 0;
+
+  for (size_t i = nmaps; i-- > 0; )
+    {
+      l = maps[i];
+
+      if (! relocation_in_progress)
        {
+         /* Notify the debugger that relocations are about to happen.  */
+         LIBC_PROBE (reloc_start, 2, args->nsid, r);
+         relocation_in_progress = 1;
+       }
+
 #ifdef SHARED
-         if (GLRO(dl_profile) != NULL)
+      if (__builtin_expect (GLRO(dl_profile) != NULL, 0))
+       {
+         /* If this here is the shared object which we want to profile
+            make sure the profile is started.  We can find out whether
+            this is necessary or not by observing the `_dl_profile_map'
+            variable.  If it was NULL but is not NULL afterwards we must
+            start the profiling.  */
+         struct link_map *old_profile_map = GL(dl_profile_map);
+
+         _dl_relocate_object (l, l->l_scope, reloc_mode | RTLD_LAZY, 1);
+
+         if (old_profile_map == NULL && GL(dl_profile_map) != NULL)
            {
-             /* If this here is the shared object which we want to profile
-                make sure the profile is started.  We can find out whether
-                this is necessary or not by observing the `_dl_profile_map'
-                variable.  If was NULL but is not NULL afterwars we must
-                start the profiling.  */
-             struct link_map *old_profile_map = GL(dl_profile_map);
+             /* We must prepare the profiling.  */
+             _dl_start_profile ();
 
-             _dl_relocate_object (l, l->l_scope, 1, 1);
+             /* Prevent unloading the object.  */
+             GL(dl_profile_map)->l_flags_1 |= DF_1_NODELETE;
+           }
+       }
+      else
+#endif
+       _dl_relocate_object (l, l->l_scope, reloc_mode, 0);
+    }
 
-             if (old_profile_map == NULL && GL(dl_profile_map) != NULL)
-               {
-                 /* We must prepare the profiling.  */
-                 _dl_start_profile ();
+  /* If the file is not loaded now as a dependency, add the search
+     list of the newly loaded object to the scope.  */
+  bool any_tls = false;
+  unsigned int first_static_tls = new->l_searchlist.r_nlist;
+  for (unsigned int i = 0; i < new->l_searchlist.r_nlist; ++i)
+    {
+      struct link_map *imap = new->l_searchlist.r_list[i];
+      int from_scope = 0;
+
+      /* If the initializer has been called already, the object has
+        not been loaded here and now.  */
+      if (imap->l_init_called && imap->l_type == lt_loaded)
+       {
+         struct r_scope_elem **runp = imap->l_scope;
+         size_t cnt = 0;
+
+         while (*runp != NULL)
+           {
+             if (*runp == &new->l_searchlist)
+               break;
+             ++cnt;
+             ++runp;
+           }
 
-                 /* Prevent unloading the object.  */
-                 GL(dl_profile_map)->l_flags_1 |= DF_1_NODELETE;
+         if (*runp != NULL)
+           /* Avoid duplicates.  */
+           continue;
+
+         if (__builtin_expect (cnt + 1 >= imap->l_scope_max, 0))
+           {
+             /* The 'r_scope' array is too small.  Allocate a new one
+                dynamically.  */
+             size_t new_size;
+             struct r_scope_elem **newp;
+
+#define SCOPE_ELEMS(imap) \
+  (sizeof (imap->l_scope_mem) / sizeof (imap->l_scope_mem[0]))
+
+             if (imap->l_scope != imap->l_scope_mem
+                 && imap->l_scope_max < SCOPE_ELEMS (imap))
+               {
+                 new_size = SCOPE_ELEMS (imap);
+                 newp = imap->l_scope_mem;
                }
+             else
+               {
+                 new_size = imap->l_scope_max * 2;
+                 newp = (struct r_scope_elem **)
+                   malloc (new_size * sizeof (struct r_scope_elem *));
+                 if (newp == NULL)
+                   _dl_signal_error (ENOMEM, "dlopen", NULL,
+                                     N_("cannot create scope list"));
+               }
+
+             memcpy (newp, imap->l_scope, cnt * sizeof (imap->l_scope[0]));
+             struct r_scope_elem **old = imap->l_scope;
+
+             imap->l_scope = newp;
+
+             if (old != imap->l_scope_mem)
+               _dl_scope_free (old);
+
+             imap->l_scope_max = new_size;
            }
-         else
-#endif
-           _dl_relocate_object (l, l->l_scope, lazy, 0);
+
+         /* First terminate the extended list.  Otherwise a thread
+            might use the new last element and then use the garbage
+            at offset IDX+1.  */
+         imap->l_scope[cnt + 1] = NULL;
+         atomic_write_barrier ();
+         imap->l_scope[cnt] = &new->l_searchlist;
+
+         /* Print only new scope information.  */
+         from_scope = cnt;
        }
+      /* Only add TLS memory if this object is loaded now and
+        therefore is not yet initialized.  */
+      else if (! imap->l_init_called
+              /* Only if the module defines thread local data.  */
+              && __builtin_expect (imap->l_tls_blocksize > 0, 0))
+       {
+         /* Now that we know the object is loaded successfully add
+            modules containing TLS data to the slot info table.  We
+            might have to increase its size.  */
+         _dl_add_to_slotinfo (imap);
 
-      if (l == new)
-       break;
-      l = l->l_prev;
-    }
+         if (imap->l_need_tls_init
+             && first_static_tls == new->l_searchlist.r_nlist)
+           first_static_tls = i;
 
-  /* Increment the open count for all dependencies.  If the file is
-     not loaded as a dependency here add the search list of the newly
-     loaded object to the scope.  */
-  for (i = 0; i < new->l_searchlist.r_nlist; ++i)
-    if (++new->l_searchlist.r_list[i]->l_opencount > 1
-       && new->l_real->l_searchlist.r_list[i]->l_type == lt_loaded)
-      {
-       struct link_map *imap = new->l_searchlist.r_list[i];
-       struct r_scope_elem **runp = imap->l_scope;
-       size_t cnt = 0;
-
-       while (*runp != NULL)
-         {
-           /* This can happen if imap was just loaded, but during
-              relocation had l_opencount bumped because of relocation
-              dependency.  Avoid duplicates in l_scope.  */
-           if (__builtin_expect (*runp == &new->l_searchlist, 0))
-             break;
-
-           ++cnt;
-           ++runp;
-         }
-
-       if (*runp != NULL)
-         /* Avoid duplicates.  */
-         continue;
-
-       if (__builtin_expect (cnt + 1 >= imap->l_scope_max, 0))
-         {
-           /* The 'r_scope' array is too small.  Allocate a new one
-              dynamically.  */
-           struct r_scope_elem **newp;
-           size_t new_size = imap->l_scope_max * 2;
-
-           if (imap->l_scope == imap->l_scope_mem)
-             {
-               newp = (struct r_scope_elem **)
-                 malloc (new_size * sizeof (struct r_scope_elem *));
-               if (newp == NULL)
-                 _dl_signal_error (ENOMEM, "dlopen", NULL,
-                                   N_("cannot create scope list"));
-               imap->l_scope = memcpy (newp, imap->l_scope,
-                                       cnt * sizeof (imap->l_scope[0]));
-             }
-           else
-             {
-               newp = (struct r_scope_elem **)
-                 realloc (imap->l_scope,
-                          new_size * sizeof (struct r_scope_elem *));
-               if (newp == NULL)
-                 _dl_signal_error (ENOMEM, "dlopen", NULL,
-                                   N_("cannot create scope list"));
-               imap->l_scope = newp;
-             }
-
-           imap->l_scope_max = new_size;
-         }
-
-       imap->l_scope[cnt++] = &new->l_searchlist;
-       imap->l_scope[cnt] = NULL;
-      }
-#if USE_TLS
-    else if (new->l_searchlist.r_list[i]->l_opencount == 1
-            /* Only if the module defines thread local data.  */
-            && __builtin_expect (new->l_searchlist.r_list[i]->l_tls_blocksize
-                                 > 0, 0))
-      {
-       /* Now that we know the object is loaded successfully add
-          modules containing TLS data to the slot info table.  We
-          might have to increase its size.  */
-       _dl_add_to_slotinfo (new->l_searchlist.r_list[i]);
-
-       if (new->l_searchlist.r_list[i]->l_need_tls_init)
-         {
-           new->l_searchlist.r_list[i]->l_need_tls_init = 0;
-# ifdef SHARED
-           /* Update the slot information data for at least the
-              generation of the DSO we are allocating data for.  */
-           _dl_update_slotinfo (new->l_searchlist.r_list[i]->l_tls_modid);
-# endif
-
-           GL(dl_init_static_tls) (new->l_searchlist.r_list[i]);
-           assert (new->l_searchlist.r_list[i]->l_need_tls_init == 0);
-         }
-
-       /* We have to bump the generation counter.  */
-       any_tls = true;
-      }
+         /* We have to bump the generation counter.  */
+         any_tls = true;
+       }
+
+      /* Print scope information.  */
+      if (__builtin_expect (GLRO(dl_debug_mask) & DL_DEBUG_SCOPES, 0))
+       _dl_show_scope (imap, from_scope);
+    }
 
   /* Bump the generation number if necessary.  */
   if (any_tls && __builtin_expect (++GL(dl_tls_generation) == 0, 0))
     _dl_fatal_printf (N_("\
 TLS generation counter wrapped!  Please report this."));
+
+  /* We need a second pass for static tls data, because _dl_update_slotinfo
+     must not be run while calls to _dl_add_to_slotinfo are still pending.  */
+  for (unsigned int i = first_static_tls; i < new->l_searchlist.r_nlist; ++i)
+    {
+      struct link_map *imap = new->l_searchlist.r_list[i];
+
+      if (imap->l_need_tls_init
+         && ! imap->l_init_called
+         && imap->l_tls_blocksize > 0)
+       {
+         /* For static TLS we have to allocate the memory here and
+            now.  This includes allocating memory in the DTV.  But we
+            cannot change any DTV other than our own.  So, if we
+            cannot guarantee that there is room in the DTV we don't
+            even try it and fail the load.
+
+            XXX We could track the minimum DTV slots allocated in
+            all threads.  */
+         if (! RTLD_SINGLE_THREAD_P && imap->l_tls_modid > DTV_SURPLUS)
+           _dl_signal_error (0, "dlopen", NULL, N_("\
+cannot load any more object with static TLS"));
+
+         imap->l_need_tls_init = 0;
+#ifdef SHARED
+         /* Update the slot information data for at least the
+            generation of the DSO we are allocating data for.  */
+         _dl_update_slotinfo (imap->l_tls_modid);
+#endif
+
+         GL(dl_init_static_tls) (imap);
+         assert (imap->l_need_tls_init == 0);
+       }
+    }
+
+  /* Notify the debugger all new objects have been relocated.  */
+  if (relocation_in_progress)
+    LIBC_PROBE (reloc_complete, 3, args->nsid, r, new);
+
+#ifndef SHARED
+  DL_STATIC_INIT (new);
 #endif
 
   /* Run the initializer functions of new objects.  */
@@ -504,8 +585,8 @@ TLS generation counter wrapped!  Please report this."));
 
   /* Let the user know about the opencount.  */
   if (__builtin_expect (GLRO(dl_debug_mask) & DL_DEBUG_FILES, 0))
-    _dl_debug_printf ("opening file=%s [%lu]; opencount=%u\n\n",
-                     new->l_name, new->l_ns, new->l_opencount);
+    _dl_debug_printf ("opening file=%s [%lu]; direct_opencount=%u\n\n",
+                     new->l_name, new->l_ns, new->l_direct_opencount);
 }
 
 
@@ -513,11 +594,6 @@ void *
 _dl_open (const char *file, int mode, const void *caller_dlopen, Lmid_t nsid,
          int argc, char *argv[], char *env[])
 {
-  struct dl_open_args args;
-  const char *objname;
-  const char *errstring;
-  int errcode;
-
   if ((mode & RTLD_BINDING_MASK) == 0)
     /* One of the flags must be set.  */
     _dl_signal_error (EINVAL, file, NULL, N_("invalid mode for dlopen()"));
@@ -525,14 +601,14 @@ _dl_open (const char *file, int mode, const void *caller_dlopen, Lmid_t nsid,
   /* Make sure we are alone.  */
   __rtld_lock_lock_recursive (GL(dl_load_lock));
 
-  if (nsid == LM_ID_NEWLM)
+  if (__builtin_expect (nsid == LM_ID_NEWLM, 0))
     {
       /* Find a new namespace.  */
-      for (nsid = 1; nsid < DL_NNS; ++nsid)
+      for (nsid = 1; DL_NNS > 1 && nsid < GL(dl_nns); ++nsid)
        if (GL(dl_ns)[nsid]._ns_loaded == NULL)
          break;
 
-      if (nsid == DL_NNS)
+      if (__builtin_expect (nsid == DL_NNS, 0))
        {
          /* No more namespace available.  */
          __rtld_lock_unlock_recursive (GL(dl_load_lock));
@@ -540,18 +616,24 @@ _dl_open (const char *file, int mode, const void *caller_dlopen, Lmid_t nsid,
          _dl_signal_error (EINVAL, file, NULL, N_("\
 no more namespaces available for dlmopen()"));
        }
+      else if (nsid == GL(dl_nns))
+       {
+         __rtld_lock_initialize (GL(dl_ns)[nsid]._ns_unique_sym_table.lock);
+         ++GL(dl_nns);
+       }
 
       _dl_debug_initialize (0, nsid)->r_state = RT_CONSISTENT;
     }
   /* Never allow loading a DSO in a namespace which is empty.  Such
      direct placements is only causing problems.  Also don't allow
      loading into a namespace used for auditing.  */
-  else if (nsid != LM_ID_BASE && nsid != __LM_ID_CALLER
+  else if (__builtin_expect (nsid != LM_ID_BASE && nsid != __LM_ID_CALLER, 0)
           && (GL(dl_ns)[nsid]._ns_nloaded == 0
               || GL(dl_ns)[nsid]._ns_loaded->l_auditing))
     _dl_signal_error (EINVAL, file, NULL,
                      N_("invalid target namespace in dlmopen()"));
 
+  struct dl_open_args args;
   args.file = file;
   args.mode = mode;
   args.caller_dlopen = caller_dlopen;
@@ -561,33 +643,25 @@ no more namespaces available for dlmopen()"));
   args.argc = argc;
   args.argv = argv;
   args.env = env;
-  errcode = _dl_catch_error (&objname, &errstring, dl_open_worker, &args);
 
-#ifndef MAP_COPY
-  /* We must munmap() the cache file.  */
+  const char *objname;
+  const char *errstring;
+  bool malloced;
+  int errcode = _dl_catch_error (&objname, &errstring, &malloced,
+                                dl_open_worker, &args);
+
+#if defined USE_LDCONFIG && !defined MAP_COPY
+  /* We must unmap the cache file.  */
   _dl_unload_cache ();
 #endif
 
-  /* Release the lock.  */
-  __rtld_lock_unlock_recursive (GL(dl_load_lock));
-
+  /* See if an error occurred during loading.  */
   if (__builtin_expect (errstring != NULL, 0))
     {
-      /* Some error occurred during loading.  */
-      char *local_errstring;
-      size_t len_errstring;
-
       /* Remove the object from memory.  It may be in an inconsistent
         state if relocation failed, for example.  */
       if (args.map)
        {
-         /* Increment open counters for all objects since this
-            sometimes has not happened yet.  */
-         if (args.map->l_searchlist.r_list[0]->l_opencount == 0)
-           for (unsigned int i = 0; i < args.map->l_searchlist.r_nlist; ++i)
-             ++args.map->l_searchlist.r_list[i]->l_opencount;
-
-#ifdef USE_TLS
          /* Maybe some of the modules which were loaded use TLS.
             Since it will be removed in the following _dl_close call
             we have to mark the dtv array as having gaps to fill the
@@ -597,14 +671,19 @@ no more namespaces available for dlmopen()"));
             up.  */
          if ((mode & __RTLD_AUDIT) == 0)
            GL(dl_tls_dtv_gaps) = true;
-#endif
 
-         _dl_close (args.map);
+         _dl_close_worker (args.map);
        }
 
+      assert (_dl_debug_initialize (0, args.nsid)->r_state == RT_CONSISTENT);
+
+      /* Release the lock.  */
+      __rtld_lock_unlock_recursive (GL(dl_load_lock));
+
       /* Make a local copy of the error string so that we can release the
         memory allocated for it.  */
-      len_errstring = strlen (errstring) + 1;
+      size_t len_errstring = strlen (errstring) + 1;
+      char *local_errstring;
       if (objname == errstring + len_errstring)
        {
          size_t total_len = len_errstring + strlen (objname) + 1;
@@ -618,49 +697,60 @@ no more namespaces available for dlmopen()"));
          memcpy (local_errstring, errstring, len_errstring);
        }
 
-      if (errstring != _dl_out_of_memory)
+      if (malloced)
        free ((char *) errstring);
 
-      assert (_dl_debug_initialize (0, args.nsid)->r_state == RT_CONSISTENT);
-
       /* Reraise the error.  */
       _dl_signal_error (errcode, objname, NULL, local_errstring);
     }
 
   assert (_dl_debug_initialize (0, args.nsid)->r_state == RT_CONSISTENT);
 
-#ifndef SHARED
-  DL_STATIC_INIT (args.map);
-#endif
+  /* Release the lock.  */
+  __rtld_lock_unlock_recursive (GL(dl_load_lock));
 
   return args.map;
 }
 
 
-#ifdef SCOPE_DEBUG
-#include <unistd.h>
-
-static void
-show_scope (struct link_map *new)
+void
+_dl_show_scope (struct link_map *l, int from)
 {
-  int scope_cnt;
-
-  for (scope_cnt = 0; new->l_scope[scope_cnt] != NULL; ++scope_cnt)
-    {
-      char numbuf[2];
-      unsigned int cnt;
+  _dl_debug_printf ("object=%s [%lu]\n",
+                   DSO_FILENAME (l->l_name), l->l_ns);
+  if (l->l_scope != NULL)
+    for (int scope_cnt = from; l->l_scope[scope_cnt] != NULL; ++scope_cnt)
+      {
+       _dl_debug_printf (" scope %u:", scope_cnt);
 
-      numbuf[0] = '0' + scope_cnt;
-      numbuf[1] = '\0';
-      _dl_printf ("scope %s:", numbuf);
+       for (unsigned int cnt = 0; cnt < l->l_scope[scope_cnt]->r_nlist; ++cnt)
+         if (*l->l_scope[scope_cnt]->r_list[cnt]->l_name)
+           _dl_debug_printf_c (" %s",
+                               l->l_scope[scope_cnt]->r_list[cnt]->l_name);
+         else
+           _dl_debug_printf_c (" %s", RTLD_PROGNAME);
 
-      for (cnt = 0; cnt < new->l_scope[scope_cnt]->r_nlist; ++cnt)
-       if (*new->l_scope[scope_cnt]->r_list[cnt]->l_name)
-         _dl_printf (" %s", new->l_scope[scope_cnt]->r_list[cnt]->l_name);
-       else
-         _dl_printf (" <main>");
+       _dl_debug_printf_c ("\n");
+      }
+  else
+    _dl_debug_printf (" no scope\n");
+  _dl_debug_printf ("\n");
+}
 
-      _dl_printf ("\n");
-    }
+#ifdef IS_IN_rtld
+/* Return non-zero if ADDR lies within one of L's segments.  */
+int
+internal_function
+_dl_addr_inside_object (struct link_map *l, const ElfW(Addr) addr)
+{
+  int n = l->l_phnum;
+  const ElfW(Addr) reladdr = addr - l->l_addr;
+
+  while (--n >= 0)
+    if (l->l_phdr[n].p_type == PT_LOAD
+       && reladdr - l->l_phdr[n].p_vaddr >= 0
+       && reladdr - l->l_phdr[n].p_vaddr < l->l_phdr[n].p_memsz)
+      return 1;
+  return 0;
 }
 #endif