Experto de Semalt en el desguace de datos del sitio web - Bots buenos y malos

El raspado web ha existido durante mucho tiempo y se considera útil para webmasters, periodistas, autónomos, programadores, no programadores, investigadores de marketing, académicos y expertos en redes sociales. Hay dos tipos de bots: bots buenos y bots malos. Los buenos bots permiten a los motores de búsqueda indexar el contenido web y los expertos del mercado y los especialistas en marketing digital les dan alta preferencia. Los bots malos, por otro lado, son inútiles y tienen como objetivo dañar el ranking del motor de búsqueda de un sitio. La legalidad del raspado web depende del tipo de bots que haya utilizado.

Por ejemplo, si está utilizando los robots defectuosos que obtienen el contenido de diferentes páginas web con la intención de usarlo ilegalmente, el raspado web puede ser dañino. Pero si hace uso de los buenos bots y evita las actividades dañinas que incluyen la denegación de ataques de servicio, fraudes en línea, estrategias competitivas de extracción de datos, robos de datos, secuestros de cuentas, escaneo de vulnerabilidades no autorizadas, fraudes de publicidad digital y robo de propiedades intelectuales, entonces el procedimiento de raspado web es bueno y útil para hacer crecer su negocio en Internet.

Desafortunadamente, la mayoría de los freelancers y startups adoran los bots malos porque son una forma económica, poderosa e integral de recopilar datos sin necesidad de una asociación. Sin embargo, las grandes compañías utilizan los raspadores web legales para sus ganancias y no quieren arruinar su reputación en Internet con raspadores ilegales. Las opiniones generales sobre la legalidad del raspado de la web no parecen importar porque en los últimos meses ha quedado claro que los sistemas de tribunales federales están tomando medidas enérgicas contra las estrategias de raspado de la red cada vez más ilegales.

El raspado de la web comenzó como un proceso ilegal en el año 2000, cuando el uso de bots y arañas para raspar sitios web se consideraba una tontería. No se adaptaron muchas prácticas para detener la propagación de este procedimiento en Internet hasta 2010. eBay presentó por primera vez las medidas cautelares preliminares contra Bidder's Edge, alegando que el uso de bots en el sitio web había violado las leyes de Traspaso a Chattels. El tribunal pronto otorgó las órdenes judiciales porque los usuarios tenían que aceptar los términos y condiciones del sitio y una gran cantidad de bots se desactivaron, ya que podrían ser destructivos para las máquinas informáticas de eBay. La demanda pronto se resolvió fuera de la corte, y eBay impidió que todos usaran bots para el raspado de la web, sin importar si son buenos o malos.

En 2001, una agencia de viajes demandó a los competidores que eliminaron su contenido del sitio web con la ayuda de arañas dañinas y bots malos. Los jueces nuevamente tomaron medidas contra el crimen y favorecieron a las víctimas, diciendo que tanto el raspado de la web como el uso de bots podrían dañar a varios negocios en línea.

Hoy en día, para la agregación académica, privada y de información, muchas personas confían en procedimientos de raspado web justos, y se han desarrollado muchas herramientas de raspado web a este respecto. Ahora los funcionarios dicen que no todas esas herramientas son confiables, pero las que vienen en versiones pagas o premium son mejores que los raspadores web gratuitos .

En 2016, el Congreso aprobó la primera legislación para apuntar a los bots malos y favorecer a los bots buenos. La Ley de Mejores Ventas de Boletos en Línea (BOTS) se formó y prohibió el uso de software ilegal que podría apuntar a los sitios web, dañando sus motores de búsqueda y destruyendo sus negocios. Hay cuestiones de equidad. Por ejemplo, LinkedIn ha gastado mucho dinero en las herramientas que bloquean o eliminan los bots malos y alientan a los bots buenos. Como los tribunales han estado tratando de decidir la legalidad del raspado de la web, las empresas están robando sus datos.

mass gmail