Robots.txt é um arquivo de texto pertencente a um grupo de protocolos da web chamado Robots Exclusion Protocol ou REP. Este arquivo comanda bots de mecanismos de pesquisa, como o Googlebots, sobre quais páginas rastrear e indexar. O Robot.txt ajuda os sites a evitar serem bombardeados por muitas solicitações. Ele desempenha um papel enorme em ter uma boa pontuação de SEO.