]> sjero.net Git - wget/blobdiff - src/recur.c
Improved exit status handling.
[wget] / src / recur.c
index 33e32bec734d23a936e6f1ba7e6440c9479af7a2..66ef2e0fd9b566d0c9c809562daa2d4ee32ddb70 100644 (file)
@@ -1,11 +1,12 @@
 /* Handling of recursive HTTP retrieving.
 /* Handling of recursive HTTP retrieving.
-   Copyright (C) 1996-2006 Free Software Foundation, Inc.
+   Copyright (C) 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003,
+   2004, 2005, 2006, 2007, 2008 Free Software Foundation, Inc.
 
 This file is part of GNU Wget.
 
 GNU Wget is free software; you can redistribute it and/or modify
 it under the terms of the GNU General Public License as published by
 
 This file is part of GNU Wget.
 
 GNU Wget is free software; you can redistribute it and/or modify
 it under the terms of the GNU General Public License as published by
-the Free Software Foundation; either version 2 of the License, or
+the Free Software Foundation; either version 3 of the License, or
  (at your option) any later version.
 
 GNU Wget is distributed in the hope that it will be useful,
  (at your option) any later version.
 
 GNU Wget is distributed in the hope that it will be useful,
@@ -14,20 +15,20 @@ MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 GNU General Public License for more details.
 
 You should have received a copy of the GNU General Public License
 GNU General Public License for more details.
 
 You should have received a copy of the GNU General Public License
-along with Wget; if not, write to the Free Software Foundation, Inc.,
-51 Franklin St, Fifth Floor, Boston, MA 02110-1301 USA.
+along with Wget.  If not, see <http://www.gnu.org/licenses/>.
 
 
-In addition, as a special exception, the Free Software Foundation
-gives permission to link the code of its release of Wget with the
-OpenSSL project's "OpenSSL" library (or with modified versions of it
-that use the same license as the "OpenSSL" library), and distribute
-the linked executables.  You must obey the GNU General Public License
-in all respects for all of the code used other than "OpenSSL".  If you
-modify this file, you may extend this exception to your version of the
-file, but you are not obligated to do so.  If you do not wish to do
-so, delete this exception statement from your version.  */
+Additional permission under GNU GPL version 3 section 7
 
 
-#include <config.h>
+If you modify this program, or any covered work, by linking or
+combining it with the OpenSSL project's OpenSSL library (or a
+modified version of that library), containing parts covered by the
+terms of the OpenSSL or SSLeay licenses, the Free Software Foundation
+grants you additional permission to convey the resulting work.
+Corresponding Source for a non-source form of such a combination
+shall include the source code for the parts of OpenSSL used as well
+as that of the covered work.  */
+
+#include "wget.h"
 
 #include <stdio.h>
 #include <stdlib.h>
 
 #include <stdio.h>
 #include <stdlib.h>
@@ -38,7 +39,6 @@ so, delete this exception statement from your version.  */
 #include <errno.h>
 #include <assert.h>
 
 #include <errno.h>
 #include <assert.h>
 
-#include "wget.h"
 #include "url.h"
 #include "recur.h"
 #include "utils.h"
 #include "url.h"
 #include "recur.h"
 #include "utils.h"
@@ -48,17 +48,22 @@ so, delete this exception statement from your version.  */
 #include "hash.h"
 #include "res.h"
 #include "convert.h"
 #include "hash.h"
 #include "res.h"
 #include "convert.h"
+#include "html-url.h"
+#include "css-url.h"
+#include "spider.h"
 \f
 /* Functions for maintaining the URL queue.  */
 
 struct queue_element {
 \f
 /* Functions for maintaining the URL queue.  */
 
 struct queue_element {
-  const char *url;             /* the URL to download */
-  const char *referer;         /* the referring document */
-  int depth;                   /* the depth */
-  bool html_allowed;           /* whether the document is allowed to
-                                  be treated as HTML. */
-
-  struct queue_element *next;  /* next element in queue */
+  const char *url;              /* the URL to download */
+  const char *referer;          /* the referring document */
+  int depth;                    /* the depth */
+  bool html_allowed;            /* whether the document is allowed to
+                                   be treated as HTML. */
+  struct iri *iri;                /* sXXXav */
+  bool css_allowed;             /* whether the document is allowed to
+                                   be treated as CSS. */
+  struct queue_element *next;   /* next element in queue */
 };
 
 struct url_queue {
 };
 
 struct url_queue {
@@ -89,23 +94,31 @@ url_queue_delete (struct url_queue *queue)
    into it.  */
 
 static void
    into it.  */
 
 static void
-url_enqueue (struct url_queue *queue,
-            const char *url, const char *referer, int depth, bool html_allowed)
+url_enqueue (struct url_queue *queue, struct iri *i,
+             const char *url, const char *referer, int depth,
+             bool html_allowed, bool css_allowed)
 {
   struct queue_element *qel = xnew (struct queue_element);
 {
   struct queue_element *qel = xnew (struct queue_element);
+  qel->iri = i;
   qel->url = url;
   qel->referer = referer;
   qel->depth = depth;
   qel->html_allowed = html_allowed;
   qel->url = url;
   qel->referer = referer;
   qel->depth = depth;
   qel->html_allowed = html_allowed;
+  qel->css_allowed = css_allowed;
   qel->next = NULL;
 
   ++queue->count;
   if (queue->count > queue->maxcount)
     queue->maxcount = queue->count;
 
   qel->next = NULL;
 
   ++queue->count;
   if (queue->count > queue->maxcount)
     queue->maxcount = queue->count;
 
-  DEBUGP (("Enqueuing %s at depth %d\n", url, depth));
+  DEBUGP (("Enqueuing %s at depth %d\n",
+           quotearg_n_style (0, escape_quoting_style, url), depth));
   DEBUGP (("Queue count %d, maxcount %d.\n", queue->count, queue->maxcount));
 
   DEBUGP (("Queue count %d, maxcount %d.\n", queue->count, queue->maxcount));
 
+  if (i)
+    DEBUGP (("[IRI Enqueuing %s with %s\n", quote_n (0, url),
+             i->uri_encoding ? quote_n (1, i->uri_encoding) : "None"));
+
   if (queue->tail)
     queue->tail->next = qel;
   queue->tail = qel;
   if (queue->tail)
     queue->tail->next = qel;
   queue->tail = qel;
@@ -118,9 +131,9 @@ url_enqueue (struct url_queue *queue,
    succeeded, or false if the queue is empty.  */
 
 static bool
    succeeded, or false if the queue is empty.  */
 
 static bool
-url_dequeue (struct url_queue *queue,
-            const char **url, const char **referer, int *depth,
-            bool *html_allowed)
+url_dequeue (struct url_queue *queue, struct iri **i,
+             const char **url, const char **referer, int *depth,
+             bool *html_allowed, bool *css_allowed)
 {
   struct queue_element *qel = queue->head;
 
 {
   struct queue_element *qel = queue->head;
 
@@ -131,14 +144,17 @@ url_dequeue (struct url_queue *queue,
   if (!queue->head)
     queue->tail = NULL;
 
   if (!queue->head)
     queue->tail = NULL;
 
+  *i = qel->iri;
   *url = qel->url;
   *referer = qel->referer;
   *depth = qel->depth;
   *html_allowed = qel->html_allowed;
   *url = qel->url;
   *referer = qel->referer;
   *depth = qel->depth;
   *html_allowed = qel->html_allowed;
+  *css_allowed = qel->css_allowed;
 
   --queue->count;
 
 
   --queue->count;
 
-  DEBUGP (("Dequeuing %s at depth %d\n", qel->url, qel->depth));
+  DEBUGP (("Dequeuing %s at depth %d\n",
+           quotearg_n_style (0, escape_quoting_style, qel->url), qel->depth));
   DEBUGP (("Queue count %d, maxcount %d.\n", queue->count, queue->maxcount));
 
   xfree (qel);
   DEBUGP (("Queue count %d, maxcount %d.\n", queue->count, queue->maxcount));
 
   xfree (qel);
@@ -146,9 +162,9 @@ url_dequeue (struct url_queue *queue,
 }
 \f
 static bool download_child_p (const struct urlpos *, struct url *, int,
 }
 \f
 static bool download_child_p (const struct urlpos *, struct url *, int,
-                             struct url *, struct hash_table *);
-static bool descend_redirect_p (const char *, const char *, int,
-                               struct url *, struct hash_table *);
+                              struct url *, struct hash_table *, struct iri *);
+static bool descend_redirect_p (const char *, struct url *, int,
+                                struct url *, struct hash_table *, struct iri *);
 
 
 /* Retrieve a part of the web beginning with START_URL.  This used to
 
 
 /* Retrieve a part of the web beginning with START_URL.  This used to
@@ -170,10 +186,10 @@ static bool descend_redirect_p (const char *, const char *, int,
 
        7. if the URL is not one of those downloaded before, and if it
           satisfies the criteria specified by the various command-line
 
        7. if the URL is not one of those downloaded before, and if it
           satisfies the criteria specified by the various command-line
-         options, add it to the queue. */
+          options, add it to the queue. */
 
 uerr_t
 
 uerr_t
-retrieve_tree (const char *start_url)
+retrieve_tree (struct url *start_url_parsed, struct iri *pi)
 {
   uerr_t status = RETROK;
 
 {
   uerr_t status = RETROK;
 
@@ -185,21 +201,27 @@ retrieve_tree (const char *start_url)
   struct hash_table *blacklist;
 
   int up_error_code;
   struct hash_table *blacklist;
 
   int up_error_code;
-  struct url *start_url_parsed = url_parse (start_url, &up_error_code);
+  struct iri *i = iri_new ();
 
 
-  if (!start_url_parsed)
+#define COPYSTR(x)  (x) ? xstrdup(x) : NULL;
+  /* Duplicate pi struct if not NULL */
+  if (pi)
     {
     {
-      logprintf (LOG_NOTQUIET, "%s: %s.\n", start_url,
-                url_error (up_error_code));
-      return URLERROR;
+      i->uri_encoding = COPYSTR (pi->uri_encoding);
+      i->content_encoding = COPYSTR (pi->content_encoding);
+      i->utf8_encode = pi->utf8_encode;
     }
     }
+  else
+    set_uri_encoding (i, opt.locale, true);
+#undef COPYSTR
 
   queue = url_queue_new ();
   blacklist = make_string_hash_table (0);
 
   /* Enqueue the starting URL.  Use start_url_parsed->url rather than
      just URL so we enqueue the canonical form of the URL.  */
 
   queue = url_queue_new ();
   blacklist = make_string_hash_table (0);
 
   /* Enqueue the starting URL.  Use start_url_parsed->url rather than
      just URL so we enqueue the canonical form of the URL.  */
-  url_enqueue (queue, xstrdup (start_url_parsed->url), NULL, 0, true);
+  url_enqueue (queue, i, xstrdup (start_url_parsed->url), NULL, 0, true,
+               false);
   string_set_add (blacklist, start_url_parsed->url);
 
   while (1)
   string_set_add (blacklist, start_url_parsed->url);
 
   while (1)
@@ -207,176 +229,225 @@ retrieve_tree (const char *start_url)
       bool descend = false;
       char *url, *referer, *file = NULL;
       int depth;
       bool descend = false;
       char *url, *referer, *file = NULL;
       int depth;
-      bool html_allowed;
+      bool html_allowed, css_allowed;
+      bool is_css = false;
       bool dash_p_leaf_HTML = false;
 
       if (opt.quota && total_downloaded_bytes > opt.quota)
       bool dash_p_leaf_HTML = false;
 
       if (opt.quota && total_downloaded_bytes > opt.quota)
-       break;
+        break;
       if (status == FWRITEERR)
       if (status == FWRITEERR)
-       break;
+        break;
 
       /* Get the next URL from the queue... */
 
 
       /* Get the next URL from the queue... */
 
-      if (!url_dequeue (queue,
-                       (const char **)&url, (const char **)&referer,
-                       &depth, &html_allowed))
-       break;
+      if (!url_dequeue (queue, (struct iri **) &i,
+                        (const char **)&url, (const char **)&referer,
+                        &depth, &html_allowed, &css_allowed))
+        break;
 
       /* ...and download it.  Note that this download is in most cases
 
       /* ...and download it.  Note that this download is in most cases
-        unconditional, as download_child_p already makes sure a file
-        doesn't get enqueued twice -- and yet this check is here, and
-        not in download_child_p.  This is so that if you run `wget -r
-        URL1 URL2', and a random URL is encountered once under URL1
-        and again under URL2, but at a different (possibly smaller)
-        depth, we want the URL's children to be taken into account
-        the second time.  */
+         unconditional, as download_child_p already makes sure a file
+         doesn't get enqueued twice -- and yet this check is here, and
+         not in download_child_p.  This is so that if you run `wget -r
+         URL1 URL2', and a random URL is encountered once under URL1
+         and again under URL2, but at a different (possibly smaller)
+         depth, we want the URL's children to be taken into account
+         the second time.  */
       if (dl_url_file_map && hash_table_contains (dl_url_file_map, url))
       if (dl_url_file_map && hash_table_contains (dl_url_file_map, url))
-       {
-         file = xstrdup (hash_table_get (dl_url_file_map, url));
-
-         DEBUGP (("Already downloaded \"%s\", reusing it from \"%s\".\n",
-                  url, file));
-
-         if (html_allowed
-             && downloaded_html_set
-             && string_set_contains (downloaded_html_set, file))
-           descend = true;
-       }
+        {
+          file = xstrdup (hash_table_get (dl_url_file_map, url));
+
+          DEBUGP (("Already downloaded \"%s\", reusing it from \"%s\".\n",
+                   url, file));
+
+          /* this sucks, needs to be combined! */
+          if (html_allowed
+              && downloaded_html_set
+              && string_set_contains (downloaded_html_set, file))
+            {
+              descend = true;
+              is_css = false;
+            }
+          if (css_allowed
+              && downloaded_css_set
+              && string_set_contains (downloaded_css_set, file))
+            {
+              descend = true;
+              is_css = true;
+            }
+        }
       else
       else
-       {
-         int dt = 0;
-         char *redirected = NULL;
-
-         status = retrieve_url (url, &file, &redirected, referer, &dt, false);
-
-         if (html_allowed && file && status == RETROK
-             && (dt & RETROKF) && (dt & TEXTHTML))
-           descend = true;
-
-         if (redirected)
-           {
-             /* We have been redirected, possibly to another host, or
-                different path, or wherever.  Check whether we really
-                want to follow it.  */
-             if (descend)
-               {
-                 if (!descend_redirect_p (redirected, url, depth,
-                                          start_url_parsed, blacklist))
-                   descend = false;
-                 else
-                   /* Make sure that the old pre-redirect form gets
-                      blacklisted. */
-                   string_set_add (blacklist, url);
-               }
-
-             xfree (url);
-             url = redirected;
-           }
-       }
+        {
+          int dt = 0, url_err;
+          char *redirected = NULL;
+          struct url *url_parsed = url_parse (url, &url_err, i, true);
+
+          status = retrieve_url (url_parsed, url, &file, &redirected, referer,
+                                 &dt, false, i, true);
+
+          if (html_allowed && file && status == RETROK
+              && (dt & RETROKF) && (dt & TEXTHTML))
+            {
+              descend = true;
+              is_css = false;
+            }
+
+          /* a little different, css_allowed can override content type
+             lots of web servers serve css with an incorrect content type
+          */
+          if (file && status == RETROK
+              && (dt & RETROKF) &&
+              ((dt & TEXTCSS) || css_allowed))
+            {
+              descend = true;
+              is_css = true;
+            }
+
+          if (redirected)
+            {
+              /* We have been redirected, possibly to another host, or
+                 different path, or wherever.  Check whether we really
+                 want to follow it.  */
+              if (descend)
+                {
+                  if (!descend_redirect_p (redirected, url_parsed, depth,
+                                           start_url_parsed, blacklist, i))
+                    descend = false;
+                  else
+                    /* Make sure that the old pre-redirect form gets
+                       blacklisted. */
+                    string_set_add (blacklist, url);
+                }
+
+              xfree (url);
+              url = redirected;
+            }
+          else
+            {
+              xfree (url);
+              url = xstrdup (url_parsed->url);
+            }
+          url_free(url_parsed);
+        }
 
       if (opt.spider)
 
       if (opt.spider)
-       {
+        {
           visited_url (url, referer);
           visited_url (url, referer);
-       }
+        }
 
       if (descend
 
       if (descend
-         && depth >= opt.reclevel && opt.reclevel != INFINITE_RECURSION)
-       {
-         if (opt.page_requisites
-             && (depth == opt.reclevel || depth == opt.reclevel + 1))
-           {
-             /* When -p is specified, we are allowed to exceed the
-                maximum depth, but only for the "inline" links,
-                i.e. those that are needed to display the page.
-                Originally this could exceed the depth at most by
-                one, but we allow one more level so that the leaf
-                pages that contain frames can be loaded
-                correctly.  */
-             dash_p_leaf_HTML = true;
-           }
-         else
-           {
-             /* Either -p wasn't specified or it was and we've
-                already spent the two extra (pseudo-)levels that it
-                affords us, so we need to bail out. */
-             DEBUGP (("Not descending further; at depth %d, max. %d.\n",
-                      depth, opt.reclevel));
-             descend = false;
-           }
-       }
-
-      /* If the downloaded document was HTML, parse it and enqueue the
-        links it contains. */
+          && depth >= opt.reclevel && opt.reclevel != INFINITE_RECURSION)
+        {
+          if (opt.page_requisites
+              && (depth == opt.reclevel || depth == opt.reclevel + 1))
+            {
+              /* When -p is specified, we are allowed to exceed the
+                 maximum depth, but only for the "inline" links,
+                 i.e. those that are needed to display the page.
+                 Originally this could exceed the depth at most by
+                 one, but we allow one more level so that the leaf
+                 pages that contain frames can be loaded
+                 correctly.  */
+              dash_p_leaf_HTML = true;
+            }
+          else
+            {
+              /* Either -p wasn't specified or it was and we've
+                 already spent the two extra (pseudo-)levels that it
+                 affords us, so we need to bail out. */
+              DEBUGP (("Not descending further; at depth %d, max. %d.\n",
+                       depth, opt.reclevel));
+              descend = false;
+            }
+        }
+
+      /* If the downloaded document was HTML or CSS, parse it and enqueue the
+         links it contains. */
 
       if (descend)
 
       if (descend)
-       {
-         bool meta_disallow_follow = false;
-         struct urlpos *children
-           = get_urls_html (file, url, &meta_disallow_follow);
-
-         if (opt.use_robots && meta_disallow_follow)
-           {
-             free_urlpos (children);
-             children = NULL;
-           }
-
-         if (children)
-           {
-             struct urlpos *child = children;
-             struct url *url_parsed = url_parsed = url_parse (url, NULL);
-             assert (url_parsed != NULL);
-
-             for (; child; child = child->next)
-               {
-                 if (child->ignore_when_downloading)
-                   continue;
-                 if (dash_p_leaf_HTML && !child->link_inline_p)
-                   continue;
-                 if (download_child_p (child, url_parsed, depth, start_url_parsed,
-                                       blacklist))
-                   {
-                     url_enqueue (queue, xstrdup (child->url->url),
-                                  xstrdup (url), depth + 1,
-                                  child->link_expect_html);
-                     /* We blacklist the URL we have enqueued, because we
-                        don't want to enqueue (and hence download) the
-                        same URL twice.  */
-                     string_set_add (blacklist, child->url->url);
-                   }
-               }
-
-             url_free (url_parsed);
-             free_urlpos (children);
-           }
-       }
-
-      if (file 
-          && (opt.delete_after 
+        {
+          bool meta_disallow_follow = false;
+          struct urlpos *children
+            = is_css ? get_urls_css_file (file, url) :
+                       get_urls_html (file, url, &meta_disallow_follow, i);
+
+          if (opt.use_robots && meta_disallow_follow)
+            {
+              free_urlpos (children);
+              children = NULL;
+            }
+
+          if (children)
+            {
+              struct urlpos *child = children;
+              struct url *url_parsed = url_parse (url, NULL, i, true);
+              struct iri *ci;
+              char *referer_url = url;
+              bool strip_auth = (url_parsed != NULL
+                                 && url_parsed->user != NULL);
+              assert (url_parsed != NULL);
+
+              /* Strip auth info if present */
+              if (strip_auth)
+                referer_url = url_string (url_parsed, URL_AUTH_HIDE);
+
+              for (; child; child = child->next)
+                {
+                  if (child->ignore_when_downloading)
+                    continue;
+                  if (dash_p_leaf_HTML && !child->link_inline_p)
+                    continue;
+                  if (download_child_p (child, url_parsed, depth, start_url_parsed,
+                                        blacklist, i))
+                    {
+                      ci = iri_new ();
+                      set_uri_encoding (ci, i->content_encoding, false);
+                      url_enqueue (queue, ci, xstrdup (child->url->url),
+                                   xstrdup (referer_url), depth + 1,
+                                   child->link_expect_html,
+                                   child->link_expect_css);
+                      /* We blacklist the URL we have enqueued, because we
+                         don't want to enqueue (and hence download) the
+                         same URL twice.  */
+                      string_set_add (blacklist, child->url->url);
+                    }
+                }
+
+              if (strip_auth)
+                xfree (referer_url);
+              url_free (url_parsed);
+              free_urlpos (children);
+            }
+        }
+
+      if (file
+          && (opt.delete_after
               || opt.spider /* opt.recursive is implicitely true */
               || !acceptable (file)))
               || opt.spider /* opt.recursive is implicitely true */
               || !acceptable (file)))
-       {
-         /* Either --delete-after was specified, or we loaded this
-            (otherwise unneeded because of --spider or rejected by -R) 
-            HTML file just to harvest its hyperlinks -- in either case, 
-            delete the local file. */
-         DEBUGP (("Removing file due to %s in recursive_retrieve():\n",
-                  opt.delete_after ? "--delete-after" :
-                  (opt.spider ? "--spider" : 
-                   "recursive rejection criteria")));
-         logprintf (LOG_VERBOSE,
-                    (opt.delete_after || opt.spider
-                     ? _("Removing %s.\n")
-                     : _("Removing %s since it should be rejected.\n")),
-                    file);
-         if (unlink (file))
-           logprintf (LOG_NOTQUIET, "unlink: %s\n", strerror (errno));
-         logputs (LOG_VERBOSE, "\n");
-         register_delete_file (file);
-       }
+        {
+          /* Either --delete-after was specified, or we loaded this
+             (otherwise unneeded because of --spider or rejected by -R)
+             HTML file just to harvest its hyperlinks -- in either case,
+             delete the local file. */
+          DEBUGP (("Removing file due to %s in recursive_retrieve():\n",
+                   opt.delete_after ? "--delete-after" :
+                   (opt.spider ? "--spider" :
+                    "recursive rejection criteria")));
+          logprintf (LOG_VERBOSE,
+                     (opt.delete_after || opt.spider
+                      ? _("Removing %s.\n")
+                      : _("Removing %s since it should be rejected.\n")),
+                     file);
+          if (unlink (file))
+            logprintf (LOG_NOTQUIET, "unlink: %s\n", strerror (errno));
+          logputs (LOG_VERBOSE, "\n");
+          register_delete_file (file);
+        }
 
       xfree (url);
       xfree_null (referer);
       xfree_null (file);
 
       xfree (url);
       xfree_null (referer);
       xfree_null (file);
+      iri_free (i);
     }
 
   /* If anything is left of the queue due to a premature exit, free it
     }
 
   /* If anything is left of the queue due to a premature exit, free it
@@ -384,18 +455,18 @@ retrieve_tree (const char *start_url)
   {
     char *d1, *d2;
     int d3;
   {
     char *d1, *d2;
     int d3;
-    bool d4;
-    while (url_dequeue (queue,
-                       (const char **)&d1, (const char **)&d2, &d3, &d4))
+    bool d4, d5;
+    struct iri *d6;
+    while (url_dequeue (queue, (struct iri **)&d6,
+                        (const char **)&d1, (const char **)&d2, &d3, &d4, &d5))
       {
       {
-       xfree (d1);
-       xfree_null (d2);
+        iri_free (d6);
+        xfree (d1);
+        xfree_null (d2);
       }
   }
   url_queue_delete (queue);
 
       }
   }
   url_queue_delete (queue);
 
-  if (start_url_parsed)
-    url_free (start_url_parsed);
   string_set_free (blacklist);
 
   if (opt.quota && total_downloaded_bytes > opt.quota)
   string_set_free (blacklist);
 
   if (opt.quota && total_downloaded_bytes > opt.quota)
@@ -416,7 +487,8 @@ retrieve_tree (const char *start_url)
 
 static bool
 download_child_p (const struct urlpos *upos, struct url *parent, int depth,
 
 static bool
 download_child_p (const struct urlpos *upos, struct url *parent, int depth,
-                 struct url *start_url_parsed, struct hash_table *blacklist)
+                  struct url *start_url_parsed, struct hash_table *blacklist,
+                  struct iri *iri)
 {
   struct url *u = upos->url;
   const char *url = u->url;
 {
   struct url *u = upos->url;
   const char *url = u->url;
@@ -426,13 +498,13 @@ download_child_p (const struct urlpos *upos, struct url *parent, int depth,
 
   if (string_set_contains (blacklist, url))
     {
 
   if (string_set_contains (blacklist, url))
     {
-      if (opt.spider) 
-       {
-          char *referrer = url_string (parent, true);
-          DEBUGP (("download_child_p: parent->url is: `%s'\n", parent->url));
+      if (opt.spider)
+        {
+          char *referrer = url_string (parent, URL_AUTH_HIDE_PASSWD);
+          DEBUGP (("download_child_p: parent->url is: %s\n", quote (parent->url)));
           visited_url (url, referrer);
           visited_url (url, referrer);
-         xfree (referrer);
-       }
+          xfree (referrer);
+        }
       DEBUGP (("Already on the black list.\n"));
       goto out;
     }
       DEBUGP (("Already on the black list.\n"));
       goto out;
     }
@@ -473,8 +545,8 @@ download_child_p (const struct urlpos *upos, struct url *parent, int depth,
   if (u_scheme_like_http)
     if (opt.relative_only && !upos->link_relative_p)
       {
   if (u_scheme_like_http)
     if (opt.relative_only && !upos->link_relative_p)
       {
-       DEBUGP (("It doesn't really look like a relative link.\n"));
-       goto out;
+        DEBUGP (("It doesn't really look like a relative link.\n"));
+        goto out;
       }
 
   /* 3. If its domain is not to be accepted/looked-up, chuck it
       }
 
   /* 3. If its domain is not to be accepted/looked-up, chuck it
@@ -497,11 +569,11 @@ download_child_p (const struct urlpos *upos, struct url *parent, int depth,
       && !(opt.page_requisites && upos->link_inline_p))
     {
       if (!subdir_p (start_url_parsed->dir, u->dir))
       && !(opt.page_requisites && upos->link_inline_p))
     {
       if (!subdir_p (start_url_parsed->dir, u->dir))
-       {
-         DEBUGP (("Going to \"%s\" would escape \"%s\" with no_parent on.\n",
-                  u->dir, start_url_parsed->dir));
-         goto out;
-       }
+        {
+          DEBUGP (("Going to \"%s\" would escape \"%s\" with no_parent on.\n",
+                   u->dir, start_url_parsed->dir));
+          goto out;
+        }
     }
 
   /* 5. If the file does not match the acceptance list, or is on the
     }
 
   /* 5. If the file does not match the acceptance list, or is on the
@@ -510,10 +582,10 @@ download_child_p (const struct urlpos *upos, struct url *parent, int depth,
   if (opt.includes || opt.excludes)
     {
       if (!accdir (u->dir))
   if (opt.includes || opt.excludes)
     {
       if (!accdir (u->dir))
-       {
-         DEBUGP (("%s (%s) is excluded/not-included.\n", url, u->dir));
-         goto out;
-       }
+        {
+          DEBUGP (("%s (%s) is excluded/not-included.\n", url, u->dir));
+          goto out;
+        }
     }
 
   /* 6. Check for acceptance/rejection rules.  We ignore these rules
     }
 
   /* 6. Check for acceptance/rejection rules.  We ignore these rules
@@ -523,31 +595,31 @@ download_child_p (const struct urlpos *upos, struct url *parent, int depth,
      necesary, overstep the maximum depth to get the page requisites.)  */
   if (u->file[0] != '\0'
       && !(has_html_suffix_p (u->file)
      necesary, overstep the maximum depth to get the page requisites.)  */
   if (u->file[0] != '\0'
       && !(has_html_suffix_p (u->file)
-          /* The exception only applies to non-leaf HTMLs (but -p
-             always implies non-leaf because we can overstep the
-             maximum depth to get the requisites): */
-          && (/* non-leaf */
-              opt.reclevel == INFINITE_RECURSION
-              /* also non-leaf */
-              || depth < opt.reclevel - 1
-              /* -p, which implies non-leaf (see above) */
-              || opt.page_requisites)))
+           /* The exception only applies to non-leaf HTMLs (but -p
+              always implies non-leaf because we can overstep the
+              maximum depth to get the requisites): */
+           && (/* non-leaf */
+               opt.reclevel == INFINITE_RECURSION
+               /* also non-leaf */
+               || depth < opt.reclevel - 1
+               /* -p, which implies non-leaf (see above) */
+               || opt.page_requisites)))
     {
       if (!acceptable (u->file))
     {
       if (!acceptable (u->file))
-       {
-         DEBUGP (("%s (%s) does not match acc/rej rules.\n",
-                  url, u->file));
-         goto out;
-       }
+        {
+          DEBUGP (("%s (%s) does not match acc/rej rules.\n",
+                   url, u->file));
+          goto out;
+        }
     }
 
   /* 7. */
   if (schemes_are_similar_p (u->scheme, parent->scheme))
     if (!opt.spanhost && 0 != strcasecmp (parent->host, u->host))
       {
     }
 
   /* 7. */
   if (schemes_are_similar_p (u->scheme, parent->scheme))
     if (!opt.spanhost && 0 != strcasecmp (parent->host, u->host))
       {
-       DEBUGP (("This is not the same hostname as the parent's (%s and %s).\n",
-                u->host, parent->host));
-       goto out;
+        DEBUGP (("This is not the same hostname as the parent's (%s and %s).\n",
+                 u->host, parent->host));
+        goto out;
       }
 
   /* 8. */
       }
 
   /* 8. */
@@ -555,31 +627,42 @@ download_child_p (const struct urlpos *upos, struct url *parent, int depth,
     {
       struct robot_specs *specs = res_get_specs (u->host, u->port);
       if (!specs)
     {
       struct robot_specs *specs = res_get_specs (u->host, u->port);
       if (!specs)
-       {
-         char *rfile;
-         if (res_retrieve_file (url, &rfile))
-           {
-             specs = res_parse_from_file (rfile);
-             xfree (rfile);
-           }
-         else
-           {
-             /* If we cannot get real specs, at least produce
-                dummy ones so that we can register them and stop
-                trying to retrieve them.  */
-             specs = res_parse ("", 0);
-           }
-         res_register_specs (u->host, u->port, specs);
-       }
+        {
+          char *rfile;
+          if (res_retrieve_file (url, &rfile, iri))
+            {
+              specs = res_parse_from_file (rfile);
+
+              /* Delete the robots.txt file if we chose to either delete the
+                 files after downloading or we're just running a spider. */
+              if (opt.delete_after || opt.spider)
+                {
+                  logprintf (LOG_VERBOSE, "Removing %s.\n", rfile);
+                  if (unlink (rfile))
+                      logprintf (LOG_NOTQUIET, "unlink: %s\n",
+                                 strerror (errno));
+                }
+
+              xfree (rfile);
+            }
+          else
+            {
+              /* If we cannot get real specs, at least produce
+                 dummy ones so that we can register them and stop
+                 trying to retrieve them.  */
+              specs = res_parse ("", 0);
+            }
+          res_register_specs (u->host, u->port, specs);
+        }
 
       /* Now that we have (or don't have) robots.txt specs, we can
 
       /* Now that we have (or don't have) robots.txt specs, we can
-        check what they say.  */
+         check what they say.  */
       if (!res_match_path (specs, u->path))
       if (!res_match_path (specs, u->path))
-       {
-         DEBUGP (("Not following %s because robots.txt forbids it.\n", url));
-         string_set_add (blacklist, url);
-         goto out;
-       }
+        {
+          DEBUGP (("Not following %s because robots.txt forbids it.\n", url));
+          string_set_add (blacklist, url);
+          goto out;
+        }
     }
 
   /* The URL has passed all the tests.  It can be placed in the
     }
 
   /* The URL has passed all the tests.  It can be placed in the
@@ -600,26 +683,25 @@ download_child_p (const struct urlpos *upos, struct url *parent, int depth,
    it is merely a simple-minded wrapper around download_child_p.  */
 
 static bool
    it is merely a simple-minded wrapper around download_child_p.  */
 
 static bool
-descend_redirect_p (const char *redirected, const char *original, int depth,
-                   struct url *start_url_parsed, struct hash_table *blacklist)
+descend_redirect_p (const char *redirected, struct url *orig_parsed, int depth,
+                    struct url *start_url_parsed, struct hash_table *blacklist,
+                    struct iri *iri)
 {
 {
-  struct url *orig_parsed, *new_parsed;
+  struct url *new_parsed;
   struct urlpos *upos;
   bool success;
 
   struct urlpos *upos;
   bool success;
 
-  orig_parsed = url_parse (original, NULL);
   assert (orig_parsed != NULL);
 
   assert (orig_parsed != NULL);
 
-  new_parsed = url_parse (redirected, NULL);
+  new_parsed = url_parse (redirected, NULL, NULL, false);
   assert (new_parsed != NULL);
 
   upos = xnew0 (struct urlpos);
   upos->url = new_parsed;
 
   success = download_child_p (upos, orig_parsed, depth,
   assert (new_parsed != NULL);
 
   upos = xnew0 (struct urlpos);
   upos->url = new_parsed;
 
   success = download_child_p (upos, orig_parsed, depth,
-                             start_url_parsed, blacklist);
+                              start_url_parsed, blacklist, iri);
 
 
-  url_free (orig_parsed);
   url_free (new_parsed);
   xfree (upos);
 
   url_free (new_parsed);
   xfree (upos);
 
@@ -628,3 +710,5 @@ descend_redirect_p (const char *redirected, const char *original, int depth,
 
   return success;
 }
 
   return success;
 }
+
+/* vim:set sts=2 sw=2 cino+={s: */