Crear un archivo robots.txt


Evaluando propuestas
Descripción:
Hola busco expertos en crear un archivo robots.txt para evitar el contenido duplicado, la pagina esta basado en php scripts.

¿Qué se necesita para mirar?

- Hemos descubierto una duplicación de la descripción del meta.
- Hemos descubierto un duplicado etiqueta del título.
- El sitio tiene la dinámica de direcciones URL .
- Hemos descubierto 50 páginas que faltan las etiquetas H1.
- 50 de 500 imágenes no tienen etiquetas alt.
- Hemos encontrado 500 imágenes que no tienen atributos altura y anchura.

Dominio: https://www.cadetepnp.pe/

Saludos!

Categoría: Marketing y Ventas
Subcategoría: SEO
¿Qué necesitas?: Implementar un plan de SEO
Es un proyecto o una posición?: Un proyecto
Disponibilidad requerida: Según se necesite

Abierto

Presupuesto

2

Propuestas

2

Freelancers interesados

Publicado: Hace 10 meses

Plazo: No definido

Crea tu propio proyecto

¿Buscas un freelancer para realizar un proyecto similar? Crea tu propio proyecto y recibirás ofertas de los mejores freelancers.


Otros proyectos de este cliente

Para ver más detalles del cliente

Ingresa a Workana

Freelancers que ya aplicaron para este trabajo

Chuck P. Soy un Ingeniero Industrial apasionado por el marketing digital. Cuento con la capacidad y experiencia para realizar consultorías y estrategias para proyectos digitales, donde me encargo de analizar, investigar e impl... + detalles

Israel T. Z. Analista programador con conocimientos en Oracle, Apex, ASPX (C#), Wordpress, Woocommerce, PHP, Mysql, SQL Server, Javascript, Jquery, Ajax, HTML 5, CSS 3. + detalles