Durante el 2016, tan solo el 48,2% de la información que circula por Internet fue generada por seres humanos, y es que, un estudio destaca que la mayor parte del tráfico de datos fue ejecutado por programas informáticos conocidos como ‘bots’ o robots automatizados y de hecho, mucha de esa información es maliciosa.
Para el estudio, recuerda la firma especializada, se investigaron más de 16.000 millones de visitas a más de 100.000 sitios web elegidos aleatoriamente. Una de las conclusiones más destacadas es que los bots maliciosos superan ligeramente al número de bots buenos, como se puede ve en el gráfico realizado por la empresa británica.
Estos programas de automatización se usan para robar información o lanzar ataques DDoS (de negación de servicio, para tumbar una página web por ejemplo) y utilizan los recursos y datos de la máquina infectada, como explican los expertos. Otros de los usos que encontramos que hacen los bots maliciosos es crear sitios web similares a otros famosos y robar el dinero de la publicidad digital o para socavar información y datos de los navegantes de la web.
DispatchTrack hace una serie de recomendaciones para potenciar la experiencia de compra durante esta temporada…
Por Marco Cosío, vicepresidente de Smart Infrastructure de Siemens México, Centroamérica y el Caribe.
Una y otra vez, ASUS ha demostrado que los usuarios pueden confiar en la durabilidad…
El informe 'Worldwide Semiannual Software Tracker' de IDC estima que el mercado de CRM aumentará…
Por Carlos Hernandez, Director Senior de Ventas Regionales de Ciena.
El rastreador informa que Veeam, con una tasa de crecimiento interanual (sin ajustar a tipo…