Bots de IA invasivos têm se espalhado pela web em busca de grandes volumes de dados para treinar modelos de linguagem e imagem. Ao contrário dos crawlers tradicionais, usados por motores de busca como Google ou Bing, esses bots muitas vezes ignoram regras básicas de convivência digital, como as diretrizes do robots.txt
, e se comportam de maneira agressiva — como descrito por Xe Iaso, desenvolvedor da ferramenta Anubis. Segundo ele, os bots clicam em todos os links, inclusive repetidamente, e acessam as mesmas páginas várias vezes por segundo, o que pode levar sites menores a quedas temporárias.
Muitos projetos já sentem os efeitos desse volume de acessos, mas os mais impactados são, curiosamente, os de código aberto. Esses mesmos projetos que ajudaram a construir a internet mais livre e acessível agora enfrentam as consequências da abertura que sempre defenderam.
Como bots de IA invasivos afetam projetos open source
Projetos open source costumam expor parte de sua infraestrutura como parte de seu compromisso com a transparência. No entanto, isso os torna alvos fáceis para bots que ignoram limites. Ferramentas como o robots.txt
, criadas para indicar o que pode ou não ser acessado, muitas vezes são simplesmente desconsideradas por crawlers de IA.
Limitações técnicas não causam esse comportamento. Bots como o Googlebot, Bingbot e DuckDuckBot mostram que é possível seguir essas diretrizes. Quando um bot escolhe ignorar o robots.txt
, isso reflete uma decisão consciente, não uma dificuldade de implementação.
Com recursos limitados, alguns administradores de projetos se viram forçados a adotar medidas drásticas. Kevin Fenzi, do projeto Fedora, chegou a bloquear o acesso de todo o Brasil aos seus servidores, enquanto outros relataram a necessidade temporária de banir IPs da China. A escala do problema ultrapassa o que seria razoável para qualquer desenvolvedor individual lidar.
A solução de Anubis
Para lidar com esse problema, alguns desenvolvedores começaram a reagir. Um dos exemplos mais conhecidos é o de Xe Iaso, criador da ferramenta Anubis. Inspirada no deus egípcio que pesa corações para decidir o destino das almas, a solução funciona como um filtro entre o visitante e o servidor.
Anubis exige uma prova de trabalho antes de liberar o acesso. Se o pedido é legítimo, passa. Se não, é bloqueado. Em um ambiente onde o acesso irrestrito é a norma, essa foi a forma encontrada para proteger o que restava de controle.
Armadilhas digitais como defesa
Outros desenvolvedores seguiram caminhos semelhantes. Ferramentas como Nepenthes e AI Labyrinth foram criadas para confundir bots, prendê-los em páginas falsas e fazer com que desperdicem recursos. Em vez de apenas impedir o acesso, essas soluções transformam a coleta de dados em perda de tempo.
Os nomes dessas ferramentas, inspirados em plantas carnívoras e mitologias antigas, revelam um lado simbólico dessa resistência. Essa linguagem não apenas usa código, mas comunica limites em um ambiente que os ignora cada vez mais.
Um apelo que revela a exaustão
Diante desse cenário, Drew DeVault, fundador da SourceHut, fez um apelo para que as pessoas abandonem o uso de LLMs (modelos de linguagem como o ChatGPT), geradores de imagem e ferramentas como o Copilot. Seu pedido veio carregado de frustração, após lidar com problemas constantes causados por bots abusivos.
Embora seja compreensível o cansaço, talvez o problema não esteja nas tecnologias, e sim no modo como as usamos. A inteligência artificial pode ser exploratória ou colaborativa, destrutiva ou criativa. Tudo depende das escolhas que guiam seu desenvolvimento e aplicação.
Enquanto houver quem opte pelo respeito e pela responsabilidade, ainda haverá espaço para uma tecnologia que constrói em vez de explorar.
Descubra mais!
Se interessou pelo impacto das IAs no mundo digital? Então vale conferir também: