]> sjero.net Git - wget/blobdiff - src/retr.c
[svn] * *.{gmo,po,pot}: Regenerated after modifying wget --help output.
[wget] / src / retr.c
index 81cf5b7373723993c6581717a1d038b7f0e0d8ad..62b98a34c89306420689cd9bb3a77784441e9c9c 100644 (file)
@@ -322,10 +322,14 @@ retrieve_url (const char *origurl, char **file, char **newloc,
   /* Set the referer.  */
   if (refurl)
     u->referer = xstrdup (refurl);
-  else {
-    u->referer = opt.referer;
-  }
-  
+  else
+    {
+      if (opt.referer)
+       u->referer = xstrdup (opt.referer);
+      else
+       u->referer = NULL;
+    }
+
   local_use_proxy = USE_PROXY_P (u);
   if (local_use_proxy)
     {
@@ -426,9 +430,9 @@ retrieve_url (const char *origurl, char **file, char **newloc,
   return result;
 }
 
-/* Find the URL-s in the file and call retrieve_url() for each of
+/* Find the URLs in the file and call retrieve_url() for each of
    them.  If HTML is non-zero, treat the file as HTML, and construct
-   the URL-s accordingly.
+   the URLs accordingly.
 
    If opt.recursive is set, call recursive_retrieve() for each file.  */
 uerr_t
@@ -439,7 +443,7 @@ retrieve_from_file (const char *file, int html, int *count)
 
   /* If spider-mode is on, we do not want get_urls_html barfing
      errors on baseless links.  */
-  url_list = (html ? get_urls_html (file, NULL, opt.spider)
+  url_list = (html ? get_urls_html (file, NULL, opt.spider, FALSE)
              : get_urls_file (file));
   status = RETROK;             /* Suppose everything is OK.  */
   *count = 0;                  /* Reset the URL count.  */