]> sjero.net Git - wget/blob - src/spider.c
Update copyright lists, conforming to maintainer guidelines
[wget] / src / spider.c
1 /* Keep track of visited URLs in spider mode.
2    Copyright (C) 2006, 2007 Free Software Foundation, Inc.
3
4 This file is part of GNU Wget.
5
6 GNU Wget is free software; you can redistribute it and/or modify
7 it under the terms of the GNU General Public License as published by
8 the Free Software Foundation; either version 3 of the License, or
9  (at your option) any later version.
10
11 GNU Wget is distributed in the hope that it will be useful,
12 but WITHOUT ANY WARRANTY; without even the implied warranty of
13 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14 GNU General Public License for more details.
15
16 You should have received a copy of the GNU General Public License
17 along with Wget.  If not, see <http://www.gnu.org/licenses/>.
18
19 In addition, as a special exception, the Free Software Foundation
20 gives permission to link the code of its release of Wget with the
21 OpenSSL project's "OpenSSL" library (or with modified versions of it
22 that use the same license as the "OpenSSL" library), and distribute
23 the linked executables.  You must obey the GNU General Public License
24 in all respects for all of the code used other than "OpenSSL".  If you
25 modify this file, you may extend this exception to your version of the
26 file, but you are not obligated to do so.  If you do not wish to do
27 so, delete this exception statement from your version.  */
28
29 #include <config.h>
30
31 #include <stdio.h>
32 #include <errno.h>
33 #include <assert.h>
34
35 #include "wget.h"
36 #include "spider.h"
37 #include "url.h"
38 #include "utils.h"
39 #include "hash.h"
40 #include "res.h"
41
42
43 static struct hash_table *nonexisting_urls_set;
44
45 /* Cleanup the data structures associated with this file.  */
46
47 void
48 spider_cleanup (void)
49 {
50   if (nonexisting_urls_set)
51     string_set_free (nonexisting_urls_set);
52 }
53 \f
54 /* Remembers broken links.  */
55 void
56 nonexisting_url (const char *url)
57 {
58   /* Ignore robots.txt URLs */
59   if (is_robots_txt_url (url))
60     return;
61   if (!nonexisting_urls_set)
62     nonexisting_urls_set = make_string_hash_table (0);
63   string_set_add (nonexisting_urls_set, url);
64 }
65
66 void
67 print_broken_links (void)
68 {
69   hash_table_iterator iter;
70   int num_elems;
71   
72   if (!nonexisting_urls_set) 
73     {
74       logprintf (LOG_NOTQUIET, _("Found no broken links.\n\n"));
75       return;
76     }
77   
78   num_elems = hash_table_count (nonexisting_urls_set);
79   assert (num_elems > 0);
80
81   logprintf (LOG_NOTQUIET, ngettext("Found %d broken link.\n\n",
82                                     "Found %d broken links.\n\n", num_elems),
83              num_elems);
84   
85   for (hash_table_iterate (nonexisting_urls_set, &iter);
86        hash_table_iter_next (&iter); )
87     {
88       struct url_list *list;
89       const char *url = (const char *) iter.key;
90           
91       logprintf (LOG_NOTQUIET, _("%s\n"), url);
92     }
93   logputs (LOG_NOTQUIET, "\n");
94 }
95
96 /*
97  * vim: et ts=2 sw=2
98  */
99