Entenda como as empresas perdem dinheiro com o sequestro de dados

Entenda como as empresas perdem dinheiro com o sequestro de dados

Akamai aponta como as empresas podem proteger seus dados e evitar prejuízos financeiros

No cenário digital atual, as empresas enfrentam diversos desafios, sendo um deles os ataques de web scraping, que apesar de serem uma das ameaças mais prevalentes, são negligenciadas. Esses ataques, que envolvem a extração automatizada de dados de sites, tornaram-se cada vez mais sofisticados, representando riscos significativos para empresas e consumidores. Compreender as complexidades desses ataques, seus impactos abrangentes e como mitigar os riscos associados é crucial para as empresas de todos os setores.

Esses ataques ocorrem quando cibercriminosos implantam bots ou scripts automatizados para extrair sistematicamente dados sem a permissão do dono do site. Esses bots navegam pelas páginas da web, colhendo informações valiosas, como preços de produtos, avaliações de clientes, por exemplo. Embora o web scraping em si não seja inerentemente malicioso e muitas vezes seja usado para fins legítimos, como agregação de dados e pesquisa de mercado, os ataques de scraping ultrapassam limites éticos e legais ao contornar os termos de serviço do site e violar os direitos de propriedade intelectual.

Os danos causados por esse ataque podem ser amplos e afetar diversos aspectos. Financeiramente, as empresas podem enfrentar custos mais altos devido ao aumento da carga do servidor e ao uso de largura de banda gerados pelas atividades intensivas de scraping. Além disso, o scraping não autorizado de conteúdo protegido por direitos autorais pode levar à violação de propriedade intelectual, colocando em risco as receitas de criadores de conteúdo e proprietários de sites. 

Além das implicações financeiras e legais, os ataques de web scraping também podem infligir danos duradouros à reputação de uma empresa, pois quando ataques contra empresas de capital aberto ocorrem e vêm a público, têm impacto de curto a médio prazo, podendo fazer com que negócios percam até 7,5% no valor de mercado e tenham uma perda que pode chegar a US$ 5,4 bilhões, de acordo com um estudo da Harvard Business Review publicado em 2023.  

Um exemplo recente é a MGM Resorts, que sofreu um ataque cibernético no qual seu site principal, sistemas de reservas online, máquinas caça-níqueis, terminais de cartão de crédito e caixas eletrônicos, foram afetados. No total, a empresa teve prejuízo de mais de US$ 100 milhões, afetando seu desempenho financeiro no trimestre do incidente.

“Existem algumas funções personalizadas que podem ajudar as companhias a proteger sua reputação e seu potencial de receita. Isso inclui detectar e parar programas maliciosos que roubam informações, melhorar a experiência do usuário, proteger o capital intelectual e melhorar a capacidade de identificar problemas sem cometer erros”,  explica Helder Ferrão, Gerente de Marketing para as Indústrias da Akamai Technologies na América Latina.

Com os ataques cibernéticos ficando cada vez mais sofisticados, a Akamai Technologies, empresa de nuvem que potencializa e protege a vida online, anuncia o lançamento do Content Protector, um novo produto que oferece uma solução para este cenário ao impedir ataques de scraping sem atrapalhar o tráfego que as empresas precisam para impulsionar seus negócios.

Com valor comercial, o Content Protector da Akamai Technologies é uma ferramenta que vai além da segurança e atua para viabilizar negócios, impedindo que seus concorrentes causem danos as suas ofertas, melhorando a performance do site para manter seus clientes satisfeitos e protegendo sua marca contra falsificações. Em um case recente, o sistema diminuiu permanentemente o tráfego de scrapers evasivos de alto risco da The Forrester Wave, permitindo a redução de 25 milhões de solicitações semanais para 70 mil sem aumentar os falsos positivos – ou seja, quando o acesso legítimo de usuários reais é classificado como uma ameaça. 

Outras detecções personalizadas inclusas no Content Protector são: 

Avaliação no nível do protocolo e de aplicação: a identificação de protocolos verifica como os visitantes se conectam ao site para garantir que sejam legítimos. Ele analisa como o cliente se conecta ao servidor em diferentes camadas de um modelo chamado Open Systems Interconnection (OSI), garantido que as configurações de conexão estão corretas e seguras, como esperamos dos navegadores da web e aplicativos móveis comuns.

Já a avaliação da aplicação verifica se o cliente pode usar código JavaScript no site. Quando isso acontece, o site pode coletar informações sobre os dispositivos e navegadores dos usuários, além das preferências deles. Essas informações são comparadas com as configurações de conexão para garantir que tudo esteja consistente e seguro.

Interação e comportamento do usuário: o sistema analisa as interações do usuário para distinguir entre tráfego humano e de bots. Ele avalia como os usuários interagem com dispositivos, como telas sensíveis ao toque, teclados e mouse, identificando bots por meio de sua falta de interação ou padrões de uso anormais. Também é possível monitorar o comportamento dos visitantes em seu website para identificar padrões incomuns indicativos de bots.

Classificação de risco: dá uma nota que indica se o tráfego é de baixo, médio ou alto risco, usando as diferenças estranhas encontradas durante a análise.

Ao implementar medidas proativas, como desafios CAPTCHA, limitação de taxa, bloqueio de IP e monitoramento regular do tráfego da web, as empresas podem se fortalecer contra essas ameaças em constante evolução representadas pelos ataques de web scraping. “A detecção personalizada oferecida pelo Content Protector torna essa solução uma estratégia essencial para empresas que buscam expandir seus negócios digitais com confiança”, finaliza Helder. 

Em resumo, a proteção contra ataques de web scraping não apenas preserva a reputação e a receita das empresas, mas também fortalece sua presença online, garantindo um crescimento sustentável em um ambiente online desafiador.