Durante el 2016, tan solo el 48,2% de la información que circula por Internet fue generada por seres humanos, y es que, un estudio destaca que la mayor parte del tráfico de datos fue ejecutado por programas informáticos conocidos como ‘bots’ o robots automatizados y de hecho, mucha de esa información es maliciosa.
Para el estudio, recuerda la firma especializada, se investigaron más de 16.000 millones de visitas a más de 100.000 sitios web elegidos aleatoriamente. Una de las conclusiones más destacadas es que los bots maliciosos superan ligeramente al número de bots buenos, como se puede ve en el gráfico realizado por la empresa británica.
Estos programas de automatización se usan para robar información o lanzar ataques DDoS (de negación de servicio, para tumbar una página web por ejemplo) y utilizan los recursos y datos de la máquina infectada, como explican los expertos. Otros de los usos que encontramos que hacen los bots maliciosos es crear sitios web similares a otros famosos y robar el dinero de la publicidad digital o para socavar información y datos de los navegantes de la web.
Veeam amplía la protección de las principales plataformas de virtualización con el soporte de Oracle…
Esta guía anual proporciona información esencial a los proveedores de soluciones que exploran programas de…
El Convenio establece las bases generales de coordinación para promover la transformación digital, el desarrollo…
Cisco Hypershield lleva la potencia de la seguridad y conectividad de Hyperscaler a las empresas.
La compañía resume los logros clave del último trimestre para clientes, socios y el mercado.
ESET comparte ejemplos reales de cómo los cibercriminales inducen al error, haciéndose pasar por organismos…