]> sjero.net Git - wget/commitdiff
[svn] Handle starting URL of recursing download being non-parsable.
authorhniksic <devnull@localhost>
Tue, 19 Feb 2002 06:09:57 +0000 (22:09 -0800)
committerhniksic <devnull@localhost>
Tue, 19 Feb 2002 06:09:57 +0000 (22:09 -0800)
Published in <sxszo26t33k.fsf@florida.arsdigita.de>.

src/ChangeLog
src/recur.c

index e22b1bbcb9190890d675e00a61b7c60b67523dcf..15139f197f01b7b97d33e2b351f7dc0dd92cce5d 100644 (file)
@@ -1,3 +1,8 @@
+2002-02-19  Hrvoje Niksic  <hniksic@arsdigita.com>
+
+       * recur.c (retrieve_tree): Handle the case when start_url doesn't
+       parse.
+
 2002-02-19  Andreas Damm  <andreas-sourceforge@radab.org>
 
        * wget.h (DO_REALLOC_FROM_ALLOCA): Multiply with sizeof(type) when
index a20f7d5fbe4b94ee6e225310a08e6a5e9190d24c..a1fe72ae9bcfb568e737a1af0573afca3678604b 100644 (file)
@@ -186,15 +186,24 @@ retrieve_tree (const char *start_url)
   uerr_t status = RETROK;
 
   /* The queue of URLs we need to load. */
-  struct url_queue *queue = url_queue_new ();
+  struct url_queue *queue;
 
   /* The URLs we do not wish to enqueue, because they are already in
      the queue, but haven't been downloaded yet.  */
-  struct hash_table *blacklist = make_string_hash_table (0);
+  struct hash_table *blacklist;
 
-  /* We'll need various components of this, so better get it over with
-     now. */
-  struct url *start_url_parsed = url_parse (start_url, NULL);
+  int up_error_code;
+  struct url *start_url_parsed = url_parse (start_url, &up_error_code);
+
+  if (!start_url_parsed)
+    {
+      logprintf (LOG_NOTQUIET, "%s: %s.\n", start_url,
+                url_error (up_error_code));
+      return URLERROR;
+    }
+
+  queue = url_queue_new ();
+  blacklist = make_string_hash_table (0);
 
   /* Enqueue the starting URL.  Use start_url_parsed->url rather than
      just URL so we enqueue the canonical form of the URL.  */