# robots.txt fuer https://www.turck.de/ User-agent: * #zur Info [2016-01-28]: robots sind in diesen Ordnern auch per web.config ausgesperrt (robots.txt greift nicht 100%ig) #zur Info [2020-08-27 SBi]: Disallow funktioniert nur so lange keine Links auf eine hier angegebenen Seite verweist. Disallow heußt die Seite wird nicht gecrawlt, kann aber Trotzdem in einem Suchergebnis angezeigt werden, wenn sie ein Linkziel ist # siehe https://www.sistrix.de/frag-sistrix/google-index-google-bot-crawler/warum-erscheint-eine-mittels-robots-txt-gesperrte-url-in-den-suchergebnissen/ Disallow: /en/test/ # Nicht indexieren Disallow: /de/test/ # Nicht indexieren Disallow: /softwaredownload/ # Nicht indexieren Disallow: /honeywell/ # Nicht indexieren Disallow: /attachments/ # Nicht indexieren Disallow: /de/cloud/ # Nicht indexieren Disallow: /en/cloud/ # Nicht indexieren Disallow: /10062.htm # Nicht indexieren Disallow: /de/compare/ # Nicht indexieren Disallow: /en/compare/ # Nicht indexieren Disallow: /de/turck9__mal_sehen_wer_sich_meldet # Nicht indexieren Disallow: /de/turck9 # Nicht indexieren Disallow: /de/LandingPages/landingpages-10437.php # Nicht indexieren Disallow: /en/LandingPages/landingpages-10437.php # Nicht indexieren Disallow: /de/Newsletter/ # Nicht indexieren Disallow: /en/Newsletter/ # Nicht indexieren Disallow: /de/newsletterabonnement-bestaetigen-36218.php # Nicht indexieren Disallow: /en/newsletterconfirmation-36218.php # Nicht indexieren Sitemap: https://www.turck.de/de/sitemap.xml Sitemap: https://www.turck.de/en/sitemap.xml