]> sjero.net Git - wget/blobdiff - TODO
[svn] Implemented breadth-first retrieval.
[wget] / TODO
diff --git a/TODO b/TODO
index fd748ad388622432cd32ea5a74395b36707c1e0f..9632add71ec08818084baf84607d4e4ec0de1c40 100644 (file)
--- a/TODO
+++ b/TODO
@@ -7,27 +7,30 @@ items are not listed in any particular order (except that recently-added items
 may tend towards the top).  Not all of these represent user-visible
 changes.
 
-* It would be nice to have a simple man page for wget that refers you to the 
-  .info files for more information.  It could be as simple as the output of wget
-  --help plus some boilerplate.  This should stop wget re-packagers like RedHat
-  who include the out-of-date 1.4.5 man page in order to have one.  Perhaps we
-  can automatically generate a man page from the .texi file like gcc does?
+* -p should probably go "_two_ more hops" on <FRAMESET> pages.
+
+* Only normal link-following recursion should respect -np.  Page-requisite
+  recursion should not.  When -np -p is specified, Wget should still retrieve
+  requisite images and such on the server, even if they aren't in that directory
+  or a subdirectory of it.  Likewise, -H -np -p should retrieve requisite files
+  from other hosts. 
+
+* Add a --range parameter allowing you to explicitly specify a range of bytes to
+  get from a file over HTTP (FTP only supports ranges ending at the end of the
+  file, though forcibly disconnecting from the server at the desired endpoint
+  might be workable).
+
+* If multiple FTP URLs are specified that are on the same host, Wget should
+  re-use the connection rather than opening a new one for each file.
 
 * Try to devise a scheme so that, when password is unknown, Wget asks
   the user for one.
 
 * Limit the number of successive redirection to max. 20 or so.
 
-* If -c used on a file that's already completely downloaded, don't re-download
-  it (unless normal --timestamping processing would cause you to do so).
-
 * If -c used with -N, check to make sure a file hasn't changed on the server
   before "continuing" to download it (preventing a bogus hybrid file).
 
-* Take a look at
-  <http://info.webcrawler.com/mak/projects/robots/norobots-rfc.html>
-  and support the new directives.
-
 * Generalize --html-extension to something like --mime-extensions and have it
   look at mime.types/mimecap file for preferred extension.  Non-HTML files with
   filenames changed this way would be re-downloaded each time despite -N unless
@@ -49,8 +52,6 @@ changes.
 
 * Make wget return non-zero status in more situations, like incorrect HTTP auth.
 
-* Timestamps are sometimes not copied over on files retrieved by FTP.
-
 * Make -K compare X.orig to X and move the former on top of the latter if 
   they're the same, rather than leaving identical .orig files laying around.
 
@@ -70,9 +71,6 @@ changes.
   turning it off.  Get rid of `--foo=no' stuff.  Short options would
   be handled as `-x' vs. `-nx'.
 
-* Implement "thermometer" display (not all that hard; use an
-  alternative show_progress() if the output goes to a terminal.)
-
 * Add option to only list wildcard matches without doing the download.
 
 * Add case-insensitivity as an option.
@@ -85,26 +83,18 @@ changes.
 
 * Allow time-stamping by arbitrary date.
 
-* Fix Unix directory parser to allow for spaces in file names.
-
 * Allow size limit to files (perhaps with an option to download oversize files 
   up through the limit or not at all, to get more functionality than [u]limit.
 
-* Implement breadth-first retrieval.
-
 * Download to .in* when mirroring.
 
 * Add an option to delete or move no-longer-existent files when mirroring.
 
-* Implement a switch to avoid downloading multiple files (e.g. x and x.gz).
-
 * Implement uploading (--upload URL?) in FTP and HTTP.
 
 * Rewrite FTP code to allow for easy addition of new commands.  It
   should probably be coded as a simple DFA engine.
 
-* Recognize more FTP servers (VMS).
-
 * Make HTTP timestamping use If-Modified-Since facility.
 
 * Implement better spider options.
@@ -114,12 +104,10 @@ changes.
 
 * Implement a concept of "packages" a la mirror.
 
-* Implement correct RFC1808 URL parsing.
-
-* Implement HTTP cookies.
-
-* Implement more HTTP/1.1 bells and whistles (ETag, Content-MD5 etc.)
+* Add a "rollback" option to have continued retrieval throw away a
+  configurable number of bytes at the end of a file before resuming
+  download.  Apparently, some stupid proxies insert a "transfer
+  interrupted" string we need to get rid of.
 
-* Add a "rollback" option to have --continue throw away a configurable number of
-  bytes at the end of a file before resuming download.  Apparently, some stupid
-  proxies insert a "transfer interrupted" string we need to get rid of.
+* When using --accept and --reject, you can end up with empty directories.  Have
+  Wget any such at the end.