]> sjero.net Git - wget/blobdiff - TODO
[svn] Added support for cookies.
[wget] / TODO
diff --git a/TODO b/TODO
index d831903973be6ec8adf28ae80a5783cb20b74676..fd5e00ec4f16a5bfb1fd3befcd84d959785fbfed 100644 (file)
--- a/TODO
+++ b/TODO
@@ -7,6 +7,42 @@ items are not listed in any particular order (except that recently-added items
 may tend towards the top).  Not all of these represent user-visible
 changes.
 
+* -p should probably go "_two_ more hops" on <FRAMESET> pages.
+
+* Only normal link-following recursion should respect -np.  Page-requisite
+  recursion should not.  When -np -p is specified, Wget should still retrieve
+  requisite images and such on the server, even if they aren't in that directory
+  or a subdirectory of it.  Likewise, -H -np -p should retrieve requisite files
+  from other hosts. 
+
+* Add a --range parameter allowing you to explicitly specify a range of bytes to
+  get from a file over HTTP (FTP only supports ranges ending at the end of the
+  file, though forcibly disconnecting from the server at the desired endpoint
+  might be workable).
+
+* RFC 1738 says that if logging on to an FTP server puts you in a directory
+  other than '/', the way to specify a file relative to '/' in a URL (let's use
+  "/bin/ls" in this example) is "ftp://host/%2Fbin/ls".  Wget needs to support
+  this (and ideally not consider "ftp://host//bin/ls" to be equivalent, as that
+  would equate to the command "CWD " rather than "CWD /").  To accomodate people
+  used to broken FTP clients like Internet Explorer and Netscape, if
+  "ftp://host/bin/ls" doesn't exist, Wget should try again (perhaps under
+  control of an option), acting as if the user had typed "ftp://host/%2Fbin/ls".
+
+* If multiple FTP URLs are specified that are on the same host, Wget should
+  re-use the connection rather than opening a new one for each file.
+
+* Try to devise a scheme so that, when password is unknown, Wget asks
+  the user for one.
+
+* Limit the number of successive redirection to max. 20 or so.
+
+* If -c used on a file that's already completely downloaded, don't re-download
+  it (unless normal --timestamping processing would cause you to do so).
+
+* If -c used with -N, check to make sure a file hasn't changed on the server
+  before "continuing" to download it (preventing a bogus hybrid file).
+
 * Take a look at
   <http://info.webcrawler.com/mak/projects/robots/norobots-rfc.html>
   and support the new directives.
@@ -32,14 +68,9 @@ changes.
 
 * Make wget return non-zero status in more situations, like incorrect HTTP auth.
 
-* Timestamps are sometimes not copied over on files retrieved by FTP.
-
 * Make -K compare X.orig to X and move the former on top of the latter if 
   they're the same, rather than leaving identical .orig files laying around.
 
-* Allow mirroring of FTP URLs where logging in puts you somewhere else besides 
-  '/'. 
-
 * If CGI output is saved to a file, e.g. cow.cgi?param, -k needs to change the
   '?' to a "%3F" in links to that file to avoid passing part of the filename as
   a parameter.
@@ -49,15 +80,6 @@ changes.
 * Make `-k' check for files that were downloaded in the past and convert links 
   to them in newly-downloaded documents.
 
-* -k should convert relative references to absolute if not downloaded.
-
-* -k should convert "hostless absolute" URLs, like <A HREF="/index.html">.
-  However, Brian McMahon <bm@iucr.org> wants the old incorrect behavior to still
-  be available as an option, as he depends on it to allow mirrors of his site to
-  send CGI queries to his original site, but still get graphics off of the
-  mirror site.  Perhaps this would be better dealt with by adding an option to
-  tell -k not to convert certain URL patterns?
-
 * Add option to clobber existing file names (no `.N' suffixes).
 
 * Introduce a concept of "boolean" options.  For instance, every
@@ -85,9 +107,6 @@ changes.
 * Allow size limit to files (perhaps with an option to download oversize files 
   up through the limit or not at all, to get more functionality than [u]limit.
 
-* Recognize HTML comments correctly.  Add more options for handling
-  bogus HTML found all over the 'net.
-
 * Implement breadth-first retrieval.
 
 * Download to .in* when mirroring.
@@ -101,8 +120,6 @@ changes.
 * Rewrite FTP code to allow for easy addition of new commands.  It
   should probably be coded as a simple DFA engine.
 
-* Recognize more FTP servers (VMS).
-
 * Make HTTP timestamping use If-Modified-Since facility.
 
 * Implement better spider options.
@@ -114,8 +131,11 @@ changes.
 
 * Implement correct RFC1808 URL parsing.
 
-* Implement HTTP cookies.
-
 * Implement more HTTP/1.1 bells and whistles (ETag, Content-MD5 etc.)
 
-* Support SSL encryption through SSLeay or OpenSSL.
+* Add a "rollback" option to have --continue throw away a configurable number of
+  bytes at the end of a file before resuming download.  Apparently, some stupid
+  proxies insert a "transfer interrupted" string we need to get rid of.
+
+* When using --accept and --reject, you can end up with empty directories.  Have
+  Wget any such at the end.