Red de conocimiento informático - Conocimiento del nombre de dominio - Cómo analizar la situación SEO de un sitio web

Cómo analizar la situación SEO de un sitio web

Puede utilizar herramientas para webmasters o herramientas de amor por el sitio para analizar directamente la optimización del sitio web. Primero, analice la estructura del sitio. El primero es analizar el sitio web de TDK, es decir, título, descripción y palabras clave. El segundo es analizar la jerarquía de URL del sitio web. Cuantos menos niveles de URL, mejor será el efecto de optimización.

1. Reglas de nomenclatura de URL

La regla de nomenclatura de URL de la mayoría de los sitios web es "nombre de dominio raíz, columna, página de artículo" y la regla de nomenclatura de URL de algunos sitios web es "dominio raíz". nombre, página del artículo". La mayoría de las variables se pueden encontrar en la convención de nomenclatura de la página del artículo. Muchos amigos pueden notar que sus reglas de nomenclatura no son razonables. Entonces, ¿qué tipo de reglas de nomenclatura de URL son más propicias para el rastreo de los motores de búsqueda? Algunas sugerencias dadas por Google en el artículo "Creación de una estructura de URL que sea fácil de procesar para Google" son:

a. Mantenga la estructura de direcciones del sitio web lo más simple posible y considere el contenido de la organización del sitio web. la construcción de la dirección del sitio web es lógica y fácil de entender (intente utilizar texto fácil de leer, no utilice números de identificación largos).

b. Se recomienda utilizar signos de puntuación en la URL para ayudar a los motores de búsqueda a analizar mejor el contenido de la página web. Por ejemplo, utilice un guión (-) en la URL y evite el uso de guiones bajos (_) tanto como sea posible. El uso de un guión para separar dos palabras es más propicio para el análisis semántico de las arañas de los motores de búsqueda.

c. Intente utilizar URL menos complejas, especialmente URL con múltiples parámetros variables (URL estáticas), porque se puede generar una gran cantidad de URL innecesarias, todas apuntando al mismo contenido o similar en su sitio web. lo que causará confusión. El rastreador causa problemas, consume una gran cantidad de ancho de banda innecesario del robot de Google y es posible que no pueda indexar completamente todo el contenido de su sitio.

2. La profundidad de los niveles de URL

Creo que hemos discutido los niveles de URL con suficiente profundidad. Los requisitos para los sitios web de segundo, tercer y cuarto nivel son diferentes. Al elegir una estructura de URL de dos capas, queremos que la autoridad del sitio web se pase directamente a estas páginas. Elegir una estructura de URL de tres capas es la forma más común, principalmente para distinguir las URL entre columnas. La mayoría de las estructuras de URL de cuatro capas son sitios web relativamente grandes. Hay páginas de canal entre las columnas y la página de inicio, por lo que la estructura de URL de cuatro capas se puede distinguir bien.

3. Estandarización de las URL

Creo que todos conceden gran importancia a la estandarización de las URL. Por ejemplo, la estandarización de URL más común es realizar la redirección 301 en las cuatro formas posibles de la URL de la página de inicio, de modo que el peso del sitio web se concentre en el dominio preferido. Sin embargo, esta es sólo la operación de normalización de URL más básica. Después de considerar el nombre y la estructura jerárquica de la URL, aún debemos verificar si hay URL similares a la página web en la colección de páginas web, especialmente para algunas páginas web dinámicas. Por ejemplo, al configurar el programa WordPress, es fácil que aparezcan varias URL de páginas dinámicas duplicadas. En este caso, podemos escribir reglas de rastreo en el archivo robots.txt para prohibir que las arañas rastreen todas las direcciones URL dinámicas. La operación específica es escribir el comando Disallow: /*. *,

Cuatro

4. Controlabilidad del peso de la URL

Por supuesto, la optimización de la estructura de la URL también implica otros detalles, uno de los cuales es la posterior controlabilidad de la URL. peso. Por ejemplo, al principio necesitamos pensar a largo plazo y diseñar muchas columnas para el sitio web, pero estas columnas no son en lo que invertiremos en la primera etapa. En este momento, podemos usar robots para bloquear a las arañas. O utilice la etiqueta nofollow para evitar que pase el peso, de modo que pueda guiar razonablemente el peso de la página web. Si tenemos la energía para empezar a desarrollar nuevas columnas en el futuro, podemos liberar los permisos de rastreo de las arañas de los motores de búsqueda. Luego analice la página 404 del sitio web, el redireccionamiento 301 y si la estructura de la barra de navegación es clara. Luego analice la relación señal-ruido en el código fuente, es decir, la relación palabra-código. En general, las palabras representan el 30% del código y son el análisis básico del sitio. Luego cuando salgas del sitio analiza la calidad de los anti-enlaces y enlaces amigables, cuánto peso tienen, si ha habido K casos y si hay enlaces muertos.