Todd Wilson

President at screen-scraper
Screen-scraper logo

Na Scraper, atuamos na coleta de dados da web desde 2002. Portanto, já estamos no mercado há algum tempo. Nesse período, trabalhamos em praticamente todos os setores que você possa imaginar, de viagens a comércio eletrônico, e lidamos bastante com registros públicos oficiais.

Somos uma empresa relativamente pequena, composta principalmente por desenvolvedores e engenheiros. Essa é a minha formação também; trabalho bastante com engenharia. Temos nossos próprios produtos que lidam com extração de dados e utilizamos principalmente dados da web para alimentar nosso produto de Scraper.

Um dos nossos principais focos são os registros oficiais, porque grande parte do nosso trabalho envolve isso. Há muito valor nos registros judiciais. Podem ser escrituras ou registros de condados locais. Podem até ser informações públicas que podem ser usadas para fins de marketing ou verificação de antecedentes, por exemplo.

Ao coletar dados públicos da web, a experiência e o conhecimento de como diferentes sites se comportam, tendo observado diferentes padrões, são fundamentais. Portanto, em termos do que eu acho que nos torna atraentes para clientes em potencial, é o nosso nível de especialização e o fato de que fazemos isso há mais tempo e melhor do que praticamente qualquer outro.

Sinto que temos muita experiência e estamos muito familiarizados com as ferramentas disponíveis. Acessar e baixar essas informações de um site também é algo que se assemelha mais a uma arte do que a uma ciência. Se você nunca fez isso antes, é difícil entrar de cabeça e simplesmente começar a fazer isso de forma eficaz.

Coletar dados da web e prepará-los para análise internamente não é fácil. Fazemos o possível para reunir e estruturar insights para nossos clientes, mas, às vezes, os sites implementam medidas para se proteger contra ataques de negação de serviço (DDoS).

Para responder aos administradores de sites, precisamos ajustar parâmetros do nosso lado, o que envolve escrever milhões de linhas de código, ao mesmo tempo em que estruturamos os dados que recebemos e ficamos atentos a outros desafios de coleta de dados que possam surgir. E isso vai e volta.

É aí que entra a Bright Data. Se um site implementa medidas para impedir nosso acesso, podemos utilizar a plataforma da Bright Data para recuperar os dados públicos da web de que precisamos da maneira mais eficiente, confiável e flexível — normalmente por meio das redes Residential, Datacenter e Mobile da Bright Data, bem como do Web Unlocker. Isso nos permite pesquisar, monitorar e analisar os dados e, então, repassar as informações valiosas aos nossos clientes.

A Bright Data é o serviço premium no que diz respeito à coleta e otimização de dados da web. É como ligar um interruptor. Eles nos poupam muito tempo. Em vez de termos que investigar, ajustar e solucionar problemas, temos dados que fluem como água. É simplesmente o melhor em termos da extensa rede que oferece, da plataforma em si do ponto de vista técnico, das APIs, da flexibilidade que temos e do atendimento ao cliente superior que recebemos. É simplesmente o pacote completo.

À medida que entramos em 2022, eu ficaria surpreso se a necessidade de coleta de dados não continuasse a crescer, especialmente com mais ênfase na incorporação de estratégias de big data, o que permite que as empresas analisem dados, identifiquem tendências e impactem positivamente seus resultados financeiros.

Começar é fácil!

Experimente Agora