Red de conocimiento informático - Conocimiento del nombre de dominio - ¿Cómo evitar que los recopiladores de información universales y el software vampiro busquen en los datos de su sitio web?

¿Cómo evitar que los recopiladores de información universales y el software vampiro busquen en los datos de su sitio web?

Algunas ideas sobre cómo prevenir la recopilación

1. Usar diferentes plantillas

No es factible para sitios web que utilizan programas. Un sitio web sólo puede tener unos pocos conjuntos de plantillas como máximo.

2. Utilizar robots para prohibir el acceso a directorios web.

Este método puede impedir eficazmente la inclusión, pero el motor de búsqueda también se bloquea, lo que no vale la pena perder para los webmasters que dependen de los motores de búsqueda para ganarse la vida.

Un ejemplo después de Disallow es deshabilitar un directorio:

Agente de usuario: *

No permitido: /admin

No permitido : / Adjuntos

No permitido: /images

No permitido: /forumdata

No permitido: /include

Usar HTTP_REFERER prohibir cobrar. Si encuentra una conexión a un sitio no local, tiene prohibido ver la página. Al igual que en el párrafo anterior, im286.net prohíbe las llamadas para DDOS.

Este método puede impedir eficazmente la inclusión, pero también bloquea los motores de búsqueda. Para los webmasters que dependen de los motores de búsqueda para ganarse la vida, la ganancia supera la pérdida.

No es válido para expertos porque HTTP_REFERER puede ser falsificado. Pero para las personas que generalmente usan colecciones, es suficiente.

Ejemplo:

Lenguaje de programación del lado del servidor (abreviatura de Preprocesador de hipertexto profesional)

if(preg _ replace("/');

}

4. Utilice HTTP_REFERER para falsificar contenido

Este método puede prevenir eficazmente la recopilación, pero para los motores de búsqueda, lo que encuentra es lo mismo que usted falsificó. puede afectar la colección (si hay algún problema, indíquelo).

Igual que el anterior, no válido para master

Utilice Java para cifrar el contenido. >

De esta manera puede ser más efectivo, pero no sé nada sobre Java y no sé cómo empezar.

Pero creo que como dejas que otros recopilen caracteres confusos. Los motores de búsqueda también pueden recopilar caracteres confusos (no sé cómo funcionan los motores de búsqueda, pero supongo que están mirando el código fuente de la página web), lo que afectará la inclusión.

6. Utilice Java para cifrar la URL. Puede hacer que su página web no esté disponible.

7. Genere archivos pdf e imágenes.

Este método puede evitar que los motores de búsqueda lo hagan. incluido

8.Agregue su propia información de derechos de autor

La mayor ventaja de este método es que no afecta a los motores de búsqueda y tiene un efecto general. Generalmente, los coleccionistas pueden recopilar. contenido manuscrito con sus propios derechos de autor, pero para programas de colección que pueden filtrar anuncios el efecto no es bueno

El siguiente es el MP que me dio el autor:

Cita:

¿Tiene los derechos de autor para agregar su sitio web y su URL?

p>

Simplemente cambie la URL y el nombre del sitio web por el suyo. /p>

De todos modos, la prevención de la minería es realmente un dolor de cabeza...

Es un poco problemático mi idea es mostrar los nombres de los sitios web uno por uno, ¿verdad? Por ejemplo, dividí mi sitio web de Wuxia en dos partes. p>Martial Arts.com

, $rand_color* es un color aleatorio, que usted mismo puede controlar. En términos generales, cuanto más difícil sea la plantilla, mejor será la aleatoriedad y se crearán varias plantillas similares a la vez, lo que aumenta la dificultad de recopilación. , no hay forma de que lo hagan, pero al menos les llevará mucho tiempo aprender. Hasta entonces, es posible que no tengan la paciencia para cambiar a otras estaciones.

Además, es mejor no dejar que la gente sepa que estás utilizando una función aleatoria. La mayoría de la gente simplemente mira el código de una página web y comienza a recopilarlo.

De hecho, a nuestro sitio web también le gusta coleccionar cosas de otras personas. Creo que mientras sea bueno, debería compartirse. Si se trata de datos realmente confidenciales, es mejor agregar una contraseña aleatoria a cada página, pero esto también evitará que los motores de búsqueda lo encuentren y la ganancia superará la pérdida.