Tell crawlers not to follow links to non-existing pages
authorBernie Innocenti <bernie@codewiz.org>
Sat, 15 Oct 2011 01:39:43 +0000 (21:39 -0400)
committerBernie Innocenti <bernie@codewiz.org>
Sat, 15 Oct 2011 01:39:43 +0000 (21:39 -0400)
geekigeeki.py

index 4a7ffea7e6250f80fe59a09e9053cf11f4128b4e..341978e44a9fccd7be38ff4d10ff8727d7424644 100755 (executable)
@@ -3,7 +3,7 @@
 #
 # Copyright (C) 1999, 2000 Martin Pool <mbp@humbug.org.au>
 # Copyright (C) 2002 Gerardo Poggiali
-# Copyright (C) 2007, 2008, 2009, 2010 Bernie Innocenti <bernie@codewiz.org>
+# Copyright (C) 2007, 2008, 2009, 2010, 2011 Bernie Innocenti <bernie@codewiz.org>
 #
 # This program is free software: you can redistribute it and/or modify
 # it under the terms of the GNU Affero General Public License as
@@ -152,9 +152,9 @@ def link_tag(dest, text=None, privileged=False, **kvargs):
             text = config_get('nonexist_pfx', '') + text
             link_class = 'nonexistent'
 
-    # Prevent crawlers from following links potentially added by spammers or to generated pages
+    # Prevent crawlers from following links potentially added by spammers and to autogenerated pages
     nofollow = ''
-    if link_class == 'external' or link_class == 'navlink':
+    if link_class in ('external', 'navlink', 'nonexistent'):
         nofollow = 'rel="nofollow" '
 
     return '<a class="%s" %shref="%s">%s</a>' % (link_class, nofollow, relative_url(dest, privileged=privileged), text)