]> sjero.net Git - wget/blob - TODO
[svn] * configure.in: Look for perl and pod2man and make substitutions.
[wget] / TODO
1                                  Hey Emacs, this is -*- outline -*- mode
2
3 This is the to-do list for Wget.  There is no timetable of when we plan to
4 implement these features -- this is just a list of things it'd be nice to see in
5 Wget.  Patches to implement any of these items would be gladly accepted.  The
6 items are not listed in any particular order (except that recently-added items
7 may tend towards the top).  Not all of these represent user-visible
8 changes.
9
10 * Try to devise a scheme so that, when password is unknown, Wget asks
11   the user for one.
12
13 * Limit the number of successive redirection to max. 20 or so.
14
15 * If -c used on a file that's already completely downloaded, don't re-download
16   it (unless normal --timestamping processing would cause you to do so).
17
18 * If -c used with -N, check to make sure a file hasn't changed on the server
19   before "continuing" to download it (preventing a bogus hybrid file).
20
21 * Take a look at
22   <http://info.webcrawler.com/mak/projects/robots/norobots-rfc.html>
23   and support the new directives.
24
25 * Generalize --html-extension to something like --mime-extensions and have it
26   look at mime.types/mimecap file for preferred extension.  Non-HTML files with
27   filenames changed this way would be re-downloaded each time despite -N unless
28   .orig files were saved for them.  Since .orig would contain the same data as
29   non-.orig, the latter could be just a link to the former.  Another possibility
30   would be to implement a per-directory database called something like
31   .wget_url_mapping containing URLs and their corresponding filenames.
32
33 * When spanning hosts, there's no way to say that you are only interested in
34   files in a certain directory on _one_ of the hosts (-I and -X apply to all).
35   Perhaps -I and -X should take an optional hostname before the directory?
36
37 * Add an option to not encode special characters like ' ' and '~' when saving
38   local files.  Would be good to have a mode that encodes all special characters
39   (as now), one that encodes none (as above), and one that only encodes a
40   character if it was encoded in the original URL (e.g. %20 but not %7E).
41
42 * --retr-symlinks should cause wget to traverse links to directories too.
43
44 * Make wget return non-zero status in more situations, like incorrect HTTP auth.
45
46 * Timestamps are sometimes not copied over on files retrieved by FTP.
47
48 * Make -K compare X.orig to X and move the former on top of the latter if 
49   they're the same, rather than leaving identical .orig files laying around.
50
51 * If CGI output is saved to a file, e.g. cow.cgi?param, -k needs to change the
52   '?' to a "%3F" in links to that file to avoid passing part of the filename as
53   a parameter.
54
55 * Make `-k' convert <base href=...> too.
56
57 * Make `-k' check for files that were downloaded in the past and convert links 
58   to them in newly-downloaded documents.
59
60 * Add option to clobber existing file names (no `.N' suffixes).
61
62 * Introduce a concept of "boolean" options.  For instance, every
63   boolean option `--foo' would have a `--no-foo' equivalent for
64   turning it off.  Get rid of `--foo=no' stuff.  Short options would
65   be handled as `-x' vs. `-nx'.
66
67 * Implement "thermometer" display (not all that hard; use an
68   alternative show_progress() if the output goes to a terminal.)
69
70 * Add option to only list wildcard matches without doing the download.
71
72 * Add case-insensitivity as an option.
73
74 * Handle MIME types correctly.  There should be an option to (not)
75   retrieve files based on MIME types, e.g. `--accept-types=image/*'.
76
77 * Implement "persistent" retrieving.  In "persistent" mode Wget should
78   treat most of the errors as transient.
79
80 * Allow time-stamping by arbitrary date.
81
82 * Fix Unix directory parser to allow for spaces in file names.
83
84 * Allow size limit to files (perhaps with an option to download oversize files 
85   up through the limit or not at all, to get more functionality than [u]limit.
86
87 * Implement breadth-first retrieval.
88
89 * Download to .in* when mirroring.
90
91 * Add an option to delete or move no-longer-existent files when mirroring.
92
93 * Implement a switch to avoid downloading multiple files (e.g. x and x.gz).
94
95 * Implement uploading (--upload URL?) in FTP and HTTP.
96
97 * Rewrite FTP code to allow for easy addition of new commands.  It
98   should probably be coded as a simple DFA engine.
99
100 * Recognize more FTP servers (VMS).
101
102 * Make HTTP timestamping use If-Modified-Since facility.
103
104 * Implement better spider options.
105
106 * Add more protocols (e.g. gopher and news), implementing them in a
107   modular fashion.
108
109 * Implement a concept of "packages" a la mirror.
110
111 * Implement correct RFC1808 URL parsing.
112
113 * Implement HTTP cookies.
114
115 * Implement more HTTP/1.1 bells and whistles (ETag, Content-MD5 etc.)
116
117 * Add a "rollback" option to have --continue throw away a configurable number of
118   bytes at the end of a file before resuming download.  Apparently, some stupid
119   proxies insert a "transfer interrupted" string we need to get rid of.
120
121 * When using --accept and --reject, you can end up with empty directories.  Have
122   Wget any such at the end.