Robots.txt

TL; DR: Robots.txt é um arquivo usado por sites para se comunicar com rastreadores da web e outros robôs da web, indicando quais partes do site não devem ser processadas ou verificadas. Ajuda a controlar o acesso desses bots a áreas específicas de um site.
Partilhar

Robots.txt é um arquivo de texto pertencente a um grupo de protocolos da web chamado Robots Exclusion Protocol ou REP. Este arquivo comanda bots de mecanismos de pesquisa, como o Googlebots, sobre quais páginas rastrear e indexar. O Robot.txt ajuda os sites a evitar serem bombardeados por muitas solicitações. Ele desempenha um papel enorme em ter uma boa pontuação de SEO.

Atualizado em fevereiro de 17, 2024
Axel Grubba é o fundador da Findstack, uma plataforma de comparação de software B2B, com experiência em consultoria de gerenciamento e capital de risco, onde investiu em software. Recentemente, Axel desenvolveu uma paixão por codificação e gosta de viajar quando não está construindo e melhorando Findstack.