¿El último de la fila?

91iNxjbLKXL. SL1500

Más de quince años llevando proyectos SEO de todo tipos y colores te hacen pararte a pensar. Primero en la cantidad de años que llevas haciendo lo mismo, lo que me gusta y además quince años en los que tienes que estar actualizado constantemente. Porque aunque muchos se empeñen en hacer el mismo seo que hace una decada… este no es el mismo.

Por fin se le ha dado a la parte técnica la importancia que merece, y no sólo hablamos de encabezados, sitemaps y robots o incluso no utilizar javascript, eso es de antaño.

La incorporación de etiquetas como canonicals, hreflangs, términos como Crawl Budget, microformatos Schema, HTTPS, Core Web Vitals o análisis de logs de Servidores nos tienen que hacer abrir los ojos y darnos cuenta que no sólo el contenido es importante como se empeñan en meternos entre ceja los que se quieren dedicar al SEO y son menos habilidosos o constantes a la hora de aprender temas técnicos.

Y qué busco con esto… pues contar mi experiencia en proyectos donde el SEO es el patito feo y se deja para el final. Como algo residual que si se puede hacer se hace y si no se puede pues es lo menos importante porque el marketing, la marca, el contenido, UX y otros factores van antes. Y esto era así en 2005 cuando empecé y ahora sigue siéndolo en el 90% de los casos y agencias con las que he colaborado. Grandes, medianas y pequeñas, agencias de PR, 360, Offline, agencias de desarrollo, programadores freelances unidos, boutiques marketing, etc…

El valor añadido del SEO no es tan directamente tangible o demostrable de cara al cliente a la hora del lanzamiento o rediseño de un sitio web, y por lo tanto, menos apreciable a la hora de sacar pecho de un trabajo bien hecho.

¿Y porqué es el SEO siempre el último?

Realmente y después de ver de todo… los motivos siempre son los mismos.

La dificultad de vender algo intangible sin conocimientos sobre el tema es mucho mayor que poder vender algo visible. Ya sea a nivel de diseño, prototipos, acciones dentro del sitio web como comprar, filtrar, buscar, subir contenido por parte del cliente, etc…

Los “comerciales” deben centrar el enfoque en el trabajo que no se ve, trabajo de research que queda plasmado en un % dentro del código y contenido y es apreciable directamente por el cliente y otro % estratégico plasmado en documentos pero no apreciable directamente.

Y no apreciable ¿por qué?… Pues porque el seo “busca” algo que no depende única y exclusivamente de su trabajo, y además, algo que no está probado 100% que sea eficaz. Mucho menos con los cambios de algortimo de Google, la poca luz sobre el tema y las directrices para Webmasters de Google. Por no hablar de que existen competidores que pueden hacer más cosas o mejor que nosotros.

Es por esto que el SEO se vende como algo residual, algo que si cae bien y si no cae pues nada… Lo importante es sacar un pico en el desarrollo del sitio web, diseño, migración, cambio de CMS, etc…

La dificultad de vender algo en lo que no se cree hace que instintivamente se ofrezca menos por la inseguridad en debatir objecciones por parte de futuros clientes. Ya sea a la hora de demostrar resultados, de ofrecer posibles soluciones o una visión estratégica a medio plazo.

Como no hay una consecuencia directa y probada entre acción y reacción se ofrece el SEO como algo adicional, con poco esfuerzo y presión en la venta. Sólo hay que ver listados de servicios de empresas digitales, boutiques de marketing online o agencias de publicidad, diseño y branding. Todos los portfolios tienen explicaciones, imágenes de diseños, del antes y el después, etc…

En el SEO no, no hay cultura de medición de resultados ni de asignación de consecuencias a nivel de tráfico a ciertas acciones, con lo que los portfolios, en el 90% de los casos, son enumeraciones de webs de clientes.

El miedo a contratar SEOs con experiencia y la pescadilla que se muerde la cola. Todo esto deriva de puntos anteriores y no es más que una consecuencia de no creer en el SEO y en no saber ni querer demostrarlo, además de no querer complicaciones a la hora de tener que defender algo intangible de una manera fácil y rápida.

Si una agencia no cree en el servicio, no lo ofrece o lo hace con menos intensidad, con lo que los proyectos SEO son escasos y siempre existe el miedo a contratar a algún experto SEO y tenerlo contratado y sin volumen de trabajo para llegar a ser rentable. Y esto es curioso porque siempre que hay recortes de plantilla… el SEO va fuera.

Si no hay creencia en el SEO y se contrata uno con poca experiencia, incluso becarios, y con menor salario consecuentemente… los resultados van a tardar en llegar o incluso no llegarán. Con lo que la dificultad para conseguir resultados y demostrarlos como refuerzos de venta será nula, haciendo menos esfuerzos en esta y consiguiendo menos proyectos.

Lo que hará que no se crea, que no se venda, que se contraten profesionales baratos, que no consigan resultados, que el cliente abandone el servicio, que se crea menos todavía, que se venda menos todavía, etc…

En definitiva el SEO es algo residual que se ofrece para ver si cae y si así ofrecemos un servicio más completo al cliente pero que a nivel de negocio no es un servicio imprescindible y que siempre existe la posibilidad de subcontratar por un precio ridículo para justificar lo básico y lo que todo el mundo sabe a base de leer posts y libros. Un servicio que debe suponer poco riesgo para la empresa para el riesgo que supone para el cliente ya que está mal vendido, mal explicado y mal defendido desde un principio.

FIN

SEO Basics: La importancia de documentarlo todo.

Cada vez veo más en Linkedin posts sobre hacks para potenciar rápido y exponencialmente el SEO de una web, como automatizarlo todo, como hacer más cosas y más rápidas con el mínimo esfuerzo. Y bueno, pienso que eso es pan para hoy y hambre para mañana.

Pero siguiendo esa base de que los nuevos “SEO automatizados” son más efectivos, cosa que es mentira, quiero hacer hincapié en la importancia de medir lo qué hacemos, ponerle fecha a nuestras acciones y ya después sacar conclusiones.

Cada acción puede tener efectos positivos o negativos y en el SEO, donde casi todo es una lotería y sólo sabemos que funciona lo de siempre, debemos establecer puntos de control para poder volver atrás en caso de error.

Y los errores, donde no hay nada claro, los podemos cometer y seguro que acabaremos cometiéndolos.

Os comparto las 4 gráficas esenciales de Search Console (clics, impresiones, CTR y posiciones) para ver que cada acción o reacción tiene su consecuencia y que estas no son inmediatas como dicen muchos ahora con todo eso de automatización, hacks, tips y rollo “aumenta tus ventas a nivel DIOS”.

Proceso de optimización SEO:

  • Durante la fase 1 se realiza la auditoría y no se hace cambios ningunos.
  • Ya en la fase 2 se nota un incremento en posiciones una vez se van implementando cambios de la audit. Sobre todo subida del nuevo site y migración.
  • La fase 3 es el proceso donde Google ya conoce las urls que van a sustituir a las anteriores y las nuevas urls. Asigna puntuaciones a las nuevas urls, estudia puntuaciones de urls antiguas y las compara con las puntuaciones de las urls nuevas para mejorar o empeorar el ranking actual de dicha url por cierta keyword.
  • En la fase 4 se empiezan a hacer ajustes más relevantes a nivel de contenido y OnPage. Google ya sabe qué urls juegan y se volverá a pasar por ellas. Es el momento de optimizarlas en ciertos factores secundarios.
  • En la fase 5 empezamos a hilar fino con temas más relacionados con etiquetado, CTRS, UX, etc…
  • En la fase 6 definitivamente empezamos un trabajo de mejora continua, url por url, y con mucho recorrido de fondo. Se abarca el trabajo más duro, subir de posiciones con competidores fuertes y keywords competidas
Captura de pantalla 2021 02 18 a las 17.20.33
Impresiones

Captura de pantalla 2021 02 18 a las 17.20.40
Clics
Captura de pantalla 2021 02 18 a las 17.20.48
Posiciones medias

Captura de pantalla 2021 02 18 a las 17.20.57
CTRs

Como vemos en la siguiente gráfica cada acción tiene su consecuencia, en este caso casi todas afortunadas, pero en el caso de las impresiones hay un estancamiento entre la fase 5 y 6 debido a ciertos cambios que se documentaron, midieron y después se corrigieron.

Si esto no hubiera estado documentado con fecha y acción concreta hubiera sido difícil de identificar en una auditoría más agresiva y con cambios menos escalados en el tiempo

Grafica

La gráfica es contundente a la hora de identificar acciones y reacciones a ciertos cambios SEO, unos quince días para empezar a identificar patrones, con lo que otro punto importante en una auditoría SEO es establecer timings y prioridades de implementaciones.

No es óptimo hacerlo todo a la vez ya que varios cambios importantes al mismo tiempo pueden tener consecuencias y no saber cuáles de dichos cambios son los causantes del aumento o pérdida de posicionamiento.

Recomendaciones:

  • Estableces un documento con tareas clasificadas en incidencias sobre el SEO y Prioridades.
  • Establecer una fecha de implementación y otra de revisión.
  • Alternar tareas de incidencia alta con tareas de incidencia baja en el mismo intervalo de tiempo.
  • Revisar todas las tareas y sólo darlas por cerradas cuando estén revisadas.
  • Añadir modificaciones sobre la auditoría inicial en el documento. Incidencias, modificaciones, etc…
  • Dividir las secciones de la auditoría en documentos independientes asociados a cada implementación (Si lo enlazamos en un doc con Google Sheets mejor)

Captura de pantalla 2021 02 18 a las 18.29.23
Listado de asignación de tareas, priodidad, timings e incidencias
Captura de pantalla 2021 02 18 a las 18.31.05
Visión general del proyecto

Fin…

¿Cómo hacer un keyword research y no morir en el intento?

pulp 1

Las búsquedas e intenciones de los usuarios en internet se basan palabras, aunque últimamente también en voz, pero no es tanto el % como llevan diciendo los últimos años.

De cara a establecer la estrategia de contenidos, fases de la compra del usuario y arquitectura de la información mediante categorías, subcategorías y relaciones entre las mismas lo ideal es hacer un estudio de palabras claves y dar sentido a la navegación del usuario.

El estudio, además, puede bajar hasta niveles de indexación o no de ciertos filtros que configuren búsquedas relevantes para el usuario.

En la metodología que uso el análisis es bastante exhaustivo y minicioso, categorizando keywords por categorías, subcategorías e incluso filtros posibles que formarían el conocido “long tail”.

Es un trabajo muy coñazo, detallista pero después muy agradecido. Vamos a ello.

Entender el sitio, el target y el negocio.

Antes de irnos a Semrush como locos hay que hablar con el cliente, saber el tipo de usuario al que va dirigido, saber cómo gana dinero y qué productos son más rentables para el.

Como ejemplo para este post vamos a utilizar una tienda de padel, así controlo más sobre el mercado.

Con esto concluimos que:

  • Es un ecommerce que vende cualquier cosa relacionada con el padel, desde palas hasta pelotas de padel y material para entrenadores.
  • Que su principal punto fuerte no es el precio, es un catálogo muy amplio de productos y las reviews de la comunidad de usuarios.
  • Que su cliente navega bastante antes de hacer la compra, con lo que no tiene bastante claro lo que necesita.
  • Que los filtros de ordenar por precios se utilizan bastante y que la tasa de rebote de dichos filtros es muy alta.
  • Y que existen ciertas marcas que acaparan el 80% de las ventas.
  • Donde además, existe cierta correlación en los carritos de compra entre ciertas categorías. (Esto es importante para enlazado interno y cross selling)

Herramientas para Keyword Research.

Aunque existen muchas herramientas para recopilar palabras claves y volúmenes de búsquedas vamos a centrarnos en Semrush, ya que es la más popular, la más barata y la que mayor base de datos tiene. Aúnque la metodología para el tratamiento una vez estén recopiladas las keywords será la misma.

Otra opción gratis en Ubbersugest, la cual para empezar y con pcos recursos funciona bastante bien. Además las búsquedas se asemejan bastante a las de Semrush

Si el proyecto está vivo y no es nuevo, deberíamos de tener en cuenta búsquedas actuales mediante los datos de Search Console

Para el filtrado y selección y tratamiento de keywords usaremos Microsoft Excel o Google Sheets.

Recopilación de palabras claves.

Búsquedas iniciales imitando al posible cliente.

Una vez en semrush buscamos toda la información posible a nivel de keywords con palabras claves generales como “padel”,”palas de padel”,”zapatillas de padel”, etc…

Captura de pantalla 2020 07 03 a las 8.38.52

Con varias de estas búsquedas ya tendríamos para empezar, pero queremos saber más y recopilar la mayor cantidad posible de búsquedas, con lo que lo ideal es ver competidores en top 1,2 y 3 para dichas palabras claves y exportar también sus palabras claves.

Por ejemplo, en este caso, PadelNuestro. Líder en sector padel en España desde hace unos años.

Captura de pantalla 2020 07 03 a las 8.41.05

Ya sólo con esos dos excel, disponemos de más de 30.000 keywords, las cuales lógicamente estarán repetidas, otras serán de la marca padel nuestro, y miles tendrán menos de 20 o 30 búsquedas mensuales.

Limpieza y filtrado de keywords.

Ya con los excel descargados los copiamos y pegamos todo en una misma hoja.

  • Eliminamos las palabras claves duplicadas
  • Además las columnas de tendencias, competitive density y CPC
  • Y aquellas keywords con volúmenes de búsquedas menor a X, en este caso 30.

Obtenienndo algo así.

Captura de pantalla 2020 07 07 a las 12.12.28

6.000 keywords son muchas keywords con lo que seguiremos filtrando…

Cuando hay palabras claves tan generales exsten muchos resultados irrelevantes para nosotros a la hora de categorizar. Sobre todo nombres de empresas, comercios, marcas, locales, etc…

Por ello filtrando la columna de SERP Features podemos filtrar aquellas palabras claves que contienen “Knowledge” que son los microformatos usados generalmente para webs, organizaciones, etc…

Captura de pantalla 2020 07 07 a las 12.19.21

Como vemos en los resultados aparecen nombres de federaciones de padel, clubes de padel, marcas de padel, webs de padel, etc…

Con el filtro aplicado iremos viendo cuales eliminar y cuales no. Por ejemplo, aunque no es una keyword idónea para empezar, “padel” no debería eliminarse, ya que los metadatos knowledge también incluyen “entradas de la wikipedia” en las SERPS.

Captura de pantalla 2020 07 07 a las 12.22.28 2
Captura de pantalla 2020 07 07 a las 12.22.55 1

Sólo con este filtrado ya vamos por 4600 keywords. De las cuales sólo hemos dejado “padel”.

Si queremos seguir afinando… En palabras clave filtrariamos todas las keywords que contienen “nuestro” de padel nuestro o “world padel tour” que aunque existen productos de padel con el nombre del torneo, no es el caso ni vamos a orientarnos a esa keyword. Eliminando de nuevo más resultados, y muchos de ellos, irrelevantes.

Captura de pantalla 2020 07 07 a las 12.31.28

Por último añadir otros criterios que se van obteniendo echando una primera visual al listado de keywords. Y repito, esto es un trabajo manual, minucioso y detallista que después da sus frutos.

Así que se eliminan:

  • Clases
  • Pistas
  • Federación
  • Curso
  • Club
  • Juego
  • Liga
  • Campeonato
  • tutoriales
  • videos
  • 2017 o 2016 (Catálogos de 2 años de antigüedad máximo)
  • Torneo
  • Tiendas (Ya que no tenemos tienda física)
  • Decathlon
  • Amazon
  • Reglas
  • Calentamiento
  • Campus
  • Cancha
  • Corte inglés
  • Jugadores
  • Aprender
  • Entradas
  • Entrenamiento
  • Milanuncios
  • Mundial
  • Partidos
  • Máster
  • Niveles
  • Etc…

Siguiendo en la limpieza empezamos a aplicar dos filtros para intentar aligerar lo máximo posible la limpieza. Con lo que filtraremos por Serps Features y por keywords.

Si en Serp Features seleccionamos las columnas con Local Pack y además en las keywords filtramos aquellas que empiecen por “padel” obtenemos keywords de la tipología “padel Madrid, padel Barcelona, etc”…

El método es un poco tosco, no me canso de decirlo, pero es una forma de filtrar y depurar las palabras claves que nos conviene sin tener que revisar más de 10.000 keywords una a una. Y por supuesto, algunas se perderán en el camino.

Aún así, vemos que los filtros aciertan en un 90% de los casos.

Captura de pantalla 2020 07 07 a las 12.43.50

Filtrando también por “People also ask” en Serps Features podemos sacar contenido para el Blog y nuestra estraegia de contenidos e incluso para FAQS.

Captura de pantalla 2020 07 07 a las 12.52.17

En este caso, no se desecharán esas keywords, las trasladaremos para tratarlas independientemente en la estrategia de contenidos.

Otro tipo de contenidos muy propensos para esto son los “cómo”, “cuánto”, “mejores”, etc… Y aunque las palabras claves “mejores” se pueden enfocar a un target que no tiene claro lo que busca… La estrategia personalmente la enfocaría a contenido del blog orientado a palas de principiantes con precios asequibles, ya que orientar este tipo de keywords a categorías principales es perder fuerzas en las mismas.

Captura de pantalla 2020 07 07 a las 13.00.27

Como el target era un usuario que no tenia claro lo que quería y en el que el precio no era un punto clave, sino la amplitud del catálogo, descartamos para una arquitectura general y estrategia de palabras claves los términos “barata/os y ofertas”.

Enfocando dichas keywords a las secciones de ofertas, promociones, etc… que no formarán parte de la estrategia a nivel de categorías y subcategorías, pero si a nivel de secciones específicas de ofertas, promociones u outlet.

Captura de pantalla 2020 07 07 a las 13.03.54

Ya con todo esto… vamos por 2000 y aún así ahora empezaremos a categorizarlas. Otro coñazo, lo siento, pero con la categorización quedarán muchas keywords sueltas sin categorías que ya veremos qué hacer con ella.

Categorizando keywords y asignando atributos.

Con el excel bastante limpito vamos a añadir dos columnas, una de categoría principal y otra de subcategorías o filtros para ir agrupando keywords.

En el ejemplo nos vamos a centrar en la categoría estrella “Palas de padel”, donde conforme vamos filtrando identificamos patrones de búsquedas importantes como:

  • El año de lanzamiento de las palas.
  • Las marcas de las palas
  • Material
  • Nivel
  • Tipos de palas.
  • Y mujeres o niños.

Tras un largo trabajo, obtenemos algo parecido a esto, habiendo clasificado las palabras claves según los criterios anteriores.

Captura de pantalla 2020 07 08 a las 0.19.06

Donde ya tenemos una selección de keywords para “palas de padel” con 310 keywords, las cuales se dividirán en 8 tipos de filtros generales y 32 derivados de esos 8 filtros.

Con todo esto lo ideal, es aplicar una tabla dinámica a dicha hoja para poner un poco en orden toda esta avalancha de datos, agruparlas y sacar conclusiones.

Captura de pantalla 2020 07 08 a las 0.24.08

Viendo la categorización o “filtrado” de keywords observamos que las búsquedas de palas de padel por nivel o material no son rentables, ya que tienen pocas búsquedas, al igual que las opiniones de las palas.

Serían filtros que en principio no sería recomendable indexar por volumen. Más adelante veremos porqué no indexar filtros según la capacidad de estos mismos de duplicar contenidos.

Aún así, si pensamos que 296 keywords dividas en todos estos filtros son muchas podemos hilar más fino con nuestra estrategia y seleccionar keywords con más de 90 búsquedas mensuales y competencia menor de 80, con lo que de 296 pasaríamos a 104 keywords.

Y lógicamente se perderán también muchas categorías que no existirán.

Captura de pantalla 2020 07 08 a las 0.43.04

Desarrollo de la arquitectura de la información.

Con todos los datos de keywords filtradas sacamos conclusiones finales y arquitectura de la sección de palas, donde podemos ver que mujeres y niños serían subcategorías por sí mismas, ya que son cualidades sin opciones. O eras mujer o eres un niño/a.

Para los demás atributos al no ser por si solos un criterio único se aplicarán como filtros, siendo indexables todas las combinaciones en un principio por tener un volumen de búsquedas interesante y por no caer en duplicidad de contenido. Exceptuando materiales y niveles que son filtros destinados a mejorar la usabilidad de los resultados de búsqueda.

Captura de pantalla 2020 07 08 a las 0.56.06

Uniendo todos estos nodos para otras secciones como zapatillas de padel, textil, paleteros, material de entrenamiento, etc… Podemos sacar la arquitectura global de la información.

Diferencia entre categoría y filtro.

Podríamos decir que una categoría es conjunto de características cerradas que la forman, por ejemplo, una pala es una pala de padel y punto. Tiene un mango y las caras de la pala.

Sin embargo una subcategoría tiene composiciones distintas que las hacen diferentes a las categorías que la incluyen. Por ejemplo, un grip para el mango, un protector o antivibradores son elementos totalmente distintos a las palas de padel pero están vinculados a las mismas, ya que se colocan sobre estas.

Por otro lado los filtros son atributos o variaciones de dichas categorías o subcategorías, como lo pudieran ser materiales, tipos, año de fabricación, etc…

Un ejemplo más claro serían las zapatillas de padel, donde de un mismo modelo pueden haber distintos colores, tallas e incluso tipos de suelas. La categoría es la misma, pero son ciertos atributos de las mismas los que varían.

Criterios de indexación de filtros.

La indexación de los filtros siempre va ligada a 3 factores importantes:

  • La capacidad de los mismos para duplicar contenido y ser mútuamente excluyentes
  • El volumen de búsqueda de dichos filtros según el keyword Research anterior.
  • La capacidad de IT o el equipo de desarrollo para modificar el CMS si no estuviera preparado para indexar unos filtros y otros no.

Duplicación de contenidos.

La capacidad para duplicar contenido viene dada generalmente por atributos comunes y generalizados como los colores o las tallas y la exclusividad de estos.

Si filtramos zapatillas de la talla 38 de la marca Asics, por regla general, duplicará contenido con los filtros de la misma marca para las tallas más comunes como la 40,42,44, etc… Ya que las mismas zapatillas estarán para varias tallas. Con las camisetas igual con tallas. Con lo cual dichos filtros no deberían indexarse.

Volviendo a las palas de padel, el año del modelo es mutuamente excluyente, ya que una pala del 2020 no puede aparecer en 2019 o 2018, con lo que si además las palas de padel tienen búsquedas por (pala de padel + año) por ejemplo si que deberían ser indexadas.

Volúmenes de búsquedas.

Existen filtros que no se deben indexar ya que no tienen relevancia significativa a nivel de búsquedas, como el ejemplo de “nivel”en las palas de padel. El poco volumen de visitas no compensa con las posibilidades de duplicar contenido e incluso canibalizar resultados.

Dificultad para la implementación técnica.

Cuando el ecommerce está desarrollado sobre una plataforma cerrada o algun software open source que no está preparado para seleccionar que tipos de filtros indexar o no, es cuando aparecen los problemas.

Generalmente todo lo que sea tocar plantillas y programar variaciones y el backend la gestión de los filtros trae problemas a nivel de recursos y consecuentemente precio. E incluso a veces por falta de gana del equipo de desarrollo.

Lo ideal a la hora de no indexar estos filtros seleccionados es:

  • Poder seleccionar qué filtros indexar y cuales no a través del backend del ecommerce.
  • Que estos filtros añadidos contengan un “canonical” apuntando a la categoría o subcategoría sin el filtro aplicado.
  • Que además y por si acaso el enlace al filtro sea “nofollow” para no desperdiciar Crawl Budget.
  • Y si es posible añadir al robots.txt un Disallow para dicho filtro.

Enlazado interno y crosselling.

Yendo un poco más allá del primer filtrado de keywords y asignación de categorías y filtros, podemos observar que ciertos filtros combinados conforman unas pautas de búsquedas óptimas para el long tail.

Por ejemplo, podemos sacar la conclusión del estudio de keywords que las búsquedas por tipos de palas van ligadas a las marcas. Así desde el filtro marcas se podrían enlazar a los tipos de palas de esa marca más comunes e incluso indexar dicha combinación de ambos filtros.

Captura de pantalla 2020 07 08 a las 10.23.24

Conclusiones

La verdad es que he intentado desglosaros la metodología que uso e intentar hacerlo liviano, pero creo que se ha hecho bola. Es complicado porque al hacer un keyword research entran en juego bastantes factores y según he ido viendo en Linkedin e internet, la mayoría de los posts que explican researchs fallan en lo mismo.

  • Hay que tener en cuenta siempre la parte de negocio del cliente a nivel de producto y a nivel de usuario.
  • No hay un método analítico exacto. Puedes filtrar y cruzar volúmenes de búsqueda con competencia o número de resultados, pero al fin y al cabo son estimaciones.
  • No se tienen en cuenta los competidores para esa keyword que están por encima tuya. Sería imposible para un pequeño sitio posicionar por hoteles en Madrid teniendo entre los 10 primeros a Booking, destinia, viajes el corte inglés, etc…
  • No se usa la lógica ni criterios excluyentes como las duplicidades de contenido, tamaño de los catálogos de ciertos productos o marcas…

Consideraciones a la hora de buscar un SEO

Por último, comentar, que un estudio de palabras claves no es exportar de Semrush y ya está, que hacer sólo la categoría de palas de padel han sido casi 4 horas. Si esto se multiplica por 10 categorías son 40 horas, y por 40€/hora de un seo senior que puedas encontrar te vas a 1.600€ por un keyword research en condiciones.

Keywords research de 200€ para 10 categorías en una hora solo exportando, copiando y pegando lo tienes. Con lo que la hora sale 5 veces más cara que la de un seo profesional y no os va a servir para nada.

¿Qué es y porqué debes tener en cuenta el ciclo de vida de tus urls?

El ciclo de vida de una url es el tiempo que transcurre desde que una url nace hasta que muere, incluyendo los distintos estados por los que pasa. Es decir, desde Status 200 OK, pasando por 301 y muriendo en 404, 410, etc…

Al modificar dichas urls existen ciertos factores SEO que están relacionados entre urls que puede que no hayan cambiado su estado y dependan de dicha url.

Factores SEO que influyen en el ciclo de vida

  • Canonicals
  • Hreflangs
  • Enlazado interno
  • Archivo sitemap.xml
  • Página de error 404 optimizada
  • Backlinks externos y señales de vida.

¿Cómo desarrollar el ciclo de vida de una url?

Tomando como referencia un ecommerce, con rotación de productos, stock, versiones idiomáticas, variables de productos, etc… pensaremos y desarrollaremos la metodología de las acciones que repercuten a los factores de arriba cuando damos de alta un producto, lo modificamos o eliminamos. Por ejemplo.

Captura de pantalla 2020 06 18 a las 10.37.50

Casuísticas generales

Creación de una ficha de producto

Cuando se da de alta un producto, estos deben inluir:

  • Debe dar Staus 200 OK
  • Etiqueta canonical (si tienen variaciones de colores u otros atributos como tallas).
  • Etiquetas hreflang de las versiones idiomáticas correspondientes.
  • Sitemap.xml
  • Enlazado interno desde urls de categorías, posts del blog, etc…

Redirección de una ficha de producto.

Las redirecciones de una ficha de producto pueden darse por varias opciones, las principales son:

  • Que el producto haya dejado de estar a la venta y se redireccione a la categoría.
  • Que haya salido nueva versión del producto y este se redireccione a la nueva versión.
  • O que haya cambiado de categoría y las urls del ecommerce añadan la categoría en forma de carpeta a la url.

Muerte definitiva de una ficha de producto.

Las fichas de productos suelen morir por varios motivos, pero los principales corresponden a:

  • Descatalogación del producto sin nueva versión.
  • Cierre del fabricante o proveedor definitivo.
  • Decisiones estratégicas sobre rentabilidad, éxito de ventas, bajo margen de beneficios, cambios de target, etc…
  • Problemas con proveedores, tiempo elevado de suministro, bajo stock, etc…

¿Cómo afectan las distintas casuísticas a los distintos factores SEO?

Etiquetas canonicals

Cuando se da de alta un producto y este tiene variaciones de colores, tallas, atributos, etc… con una url independiente por combinación… todas las combinaciones deben apuntar a una principal, sin variables aplicadas y lo más limpias posibles. Lo mismo si son páginas de categorías y en vez de variables son filtros aplicados que no se quieren indexar ni posicionar.

Generalmente con las redirecciones en los CMS se sustituyen los canonicals por los nuevos al cambiar las urls y la categoría. En el caso de que no fuera así, los canonicals que apuntan a la url antigua deberían de hacerlo a la nueva.

En las fichas de productos pasa lo mismo, si la url de la ficha principal varía, los canónicals de las variaciones de productos deberían cambiar y apuntar a la nueva url.

Por último, si en vez de cambiar la ficha del producto por cambio de versión, nombre, etc… esta deja de existir… No podrá haber canonicals apuntando a una url con error 404 y aquí viene el problema. No se vende porque se ha descatalogado las zapatillas rojas pero si siguen a la venta las verdes y azules, y las rojas eran la versión canónica…

Hay que seleccionar otras y asegurarse que los canonicals de los demás colores se actualizan.

Etiquetas Hreflang

Las etiquetas Hreflang son algo más complicadas. Sobre todo cuando existen productos que se vende en un páis con un idioma pero en otro no.

Cuando se crea una url esta debe apuntar a su versión idiomática con la etiqueta hreflang y viceversa.

Si existen variables de productos en otros idiomas también, deberán apuntar a la url limpia del producto, como en los canonicals pero a la versión idiomática correspondiente. Es decir, el hreflang del idioma debe corresponder con el canonical. Hasta ahí es lo normal.

Pero ¿cuando se hace una redirección y se modifica la url que había sido seleccionado inicialmente como canónica?

Ahora tenemos un hreflang a una url canonica que redirecciona a otra url. Hay que cambiar ese hreflang a la url nueva a la que se redirecciona. Eso en todos los idiomas que tenga esa url como hreflang.

Lo mismo pasa con los errores 404, si un producto deja de existir por cualquiera de las circunstacias mencionadas anteriormente, dicha referencia hreflang debe dejar de aparecer en las versiones idiomáticas.

Enlazado interno.

El enlazado interno es el menor de los problemas, generalmente todos los CMS suelen actualizarse automáticamente al cambiar la url de una ficha o categoría. Con lo que el enlazado desde menús y listados de fichas no es el problema.

Con las redirecciones solo hay que tener en cuenta que la nueva url se sustituya en el código HTML y no que aparezca la antigua y redireccione, ya que el enlazado se perderá automáticamente. Eso en el caso de que no se sustituyan sino que redireccionen.

Los posts de blogs escritos a mano y con enlaces manuales si deberán ser modificados, ya que quizás añadan las redirecciones pero no cambién la url antigua del código.

Para la muerte de la url hay que investigar que esos enlaces antiguos no den error 404 y susituirlos por fichas de productos nuevos o eliminarlos si no existen.

Sitemap.xml

Los sitemap.xml no deben incluir urls con:

  1. Redirecciones 301
  2. Errores 404
  3. Urls con noindex
  4. Urls apuntando a otros canonicals distintos a la propia url
  5. Urls apuntando a otros hreflangs distintos a la propia url

Si algunos de estos casos se da, dificultaremos la desindexación de esas urls que han muerto o redireccionado a otras.

¿Qué pasa cuando un producto que ha sido top ventas se descataloga, no hay versión nueva o por cualquier motivo la url debería morir… pero sigue trayendo mucho tráfico?¿O si tiene enlaces desde sitios relevantes?

¿Qué hacemos?¿Redireccionamos o la dejamos viva sin stock pero dando sugerencias al usuario?

Mi opinión es que si la url tiene tráfico importante y hay un producto equivalente (nueva versión, modelo muy similar, etc…) redireccionar.

Si los enlaces son pobres o de calidad dudosa y no tiene señales de tráfico, ni impresiones, ni clicks la marcaremos como 410 GONE.

Página de error 404 optimizada.

Si la url tiene además backlinks relevantes y tráfico… mantenerla con Status 200 OK e implementar un sistema de productos relacionados ya sea de:

  • La misma categoría
  • La misma marca
  • Mismo año
  • O añadir un motor de búsqueda de productos.

Con el único objetivo de evitar un rebote alto desde la url al mostrarte en las SERPS

Algunos ejemplos

Se retira de la venta un producto sin variaciones o con un canonical activo.

Si la ficha no ha generado señales SEO, desactivar la ficha, respondiendo 404 o 410 y desenlazar la ficha de cualquier parte donde estuviera enlazada internamente.

Además se revisarán canonicals, etiquetas hreflang y sitemap.xml para que no sean rastreables por los bots de Google.

Para indicar STATUS 410 se añadirá la cabecera siguiente al documento.

header(“HTTP/1.0 410 Gone”);

Se retira de la venta sólo la versión canónica.

Si la ficha no ha generado señales SEO, desactivar la ficha, respondiendo 404 o 410 y desenlazar la ficha de cualquier parte donde estuviera enlazada internamente.

Si por ejemplo de unas zapatillas Adidas no se vende ni se consulta la versión amarilla con lunares rojos que se creía iba a ser un éxito y se seleccionó como canónica… Existirán X productos con un canonical que devolverá 404 o 410.

Además se revisarán canonicals, etiquetas hreflang y sitemap.xml para que no se incluya la versión canonica eliminada y se modificará en las variaciones de productos para seleccionar otra url canónica que devuelva 200 OK.

Se retira sólo la versión canónica de un producto y sólo un idioma, los demás se mantienen.

Si la ficha no ha generado señales SEO, desactivar la ficha, respondiendo 404 o 410 y desenlazar la ficha de cualquier parte donde estuviera enlazada internamente.

Si por ejemplo de unas zapatillas Adidas no se vende ni se consulta la versión amarilla con lunares rojos que se creía iba a ser un éxito y se seleccionó como canónica… Existirán X productos con un canonical y hreflangs de distintos idiomas que devolverán error 404 o 410.

Se sutituirán los canonicals de las versiones que apuntaban a las zapatillas amarillas con lunares rojos por otros canonicals apuntando a la nueva versión canonical.

Además, desde los distintos idiomas que apuntaban mediante hreflang a esa versión amarilla con lunares se deberá apuntar mediante hreflang a la nueva versión canónica elegida de zapatillas Adidas.

Conclusiones

Los ciclos de vida de urls dependen de cada sitio web, de decisiones de negocio, técnicas (a veces se hace algo no porque sea lo ideal,sino porque a nivel técnico es lo más rapido y barato según los recursos disponibles).

Por eso, he intentado dar una pautas sobre cómo actuar. Espero no haberos liado mucho pero lo principal es tener en mente que el objetivo es no perder el tráfico orgánico actual al cambiar el estado de una url y a la vez que este no afecte a la totalidad del sitio web.

Hoy que todo está tan centrado en el contenido, descuidamos aspectos simples como estos que nivel técnico no se tienen en cuenta.

Si os parais a pensar… 10 camisetas descatalogadas al año con 5 colores y 5 tallas disponibles son 250 urls (en el caso que cada combinación sea una url y actualmente existen CMS ecommerce que lo hacen así) que van a dar error 404, o canonicals erróneos, hreflangs missings, etc…

Si el ecommerce lleva un par de años haciendo las cosas así, nos vamos a 500 urls con ese tipo de conflictos que Sí o Sí tienen que afectar al SEO del sitio.

Cualquier duda, me preguntáis por aquí.

Cómo hacer un histórico SEO cuando nadie sabe qué se ha hecho y el anterior seo se dio a la fuga.

No es nada raro hablar con un posible cliente que te pide propuesta y que te diga que “No sabe bien qué se ha cambiado de la web y el anterior SEO is missing”.

La importancia de documentarlo todo con fechas, explicaciones de para qué y por qué así, junto a la persona que lo implantó y una forma de contacto es muy importante. Este tipo de seguimiento básico permite el traspaso del proyecto a quien venga detrás, reduce costes al cliente y permite mejorar la escalabilidad del proyecto. Sabemos qué se ha hecho, cuando y quién.

Cuando esto no se ha hecho puedes recopilar información sobre el proyecto en la medida de lo posible, pero ¿qué pasa si ha habido una migración anterior de la que ya no quedan restos de nada?

  1. ¿Qué urls existían antes?
  2. ¿Se han redireccionado a las actuales?
  3. ¿Cuáles se han dejado morir?
  4. ¿Han cambiado títulos, encabezados, descriptions, etc…?
  5. ¿Tienen más o mejor contenido?

¿Y si además de todo esto no tenemos acceso a Search Console porque no estaba dado de alta el proyecto, ni Google Analytics ni información de ningún tipo?

Parece complicado, pero haciendo uso de Waybackmachine, Screaming Frog y Excel podemos rescatar cierta información más o menos fiable, ya que dependerá de los registros que tenga Waybackmachine, pero eso es mejor que nada.

Buscando la última versión pre migración.

Teniendo en cuenta la fecha de migración, buscamos la versión última anterior a la nueva, en este caso la migración se hizo a finales de 2019 y la fecha es del 6 de noviembre.

Captura de pantalla 2020 06 10 a las 9.33.00

Y aquí el snapshot de la versión previa.

web antigua

Y aquí la actual

web nueva

Recopilando información con Screaming Frog

Con la url ya identificada pasamos a meterla en Screaming frog para empezar a recopilar datos de información.

Waybackmachine contruye las urls en base al /[año][dia][mes][hora]/ con lo que lo ideal es crawlear la url añadiendo filtros como por ejemplo exclusiones de todos los años anteriores.

Captura de pantalla 2020 06 10 a las 9.58.25

Obteniendo un listado de urls con mucha mierda que habrá que limpiar…

screaming

Limpiando el contenido con Microsoft Exel

Ya con esto tenemos las urls a bulk, muy feas y con el prefijo https://web.archive.org, con lo que habrá que limpiarlas con excel. Una opción es buscar y reemplazar todo lo que empiece por https://web.archive.org/ y reemplazarlo por “nada”.

Se puede utilizar los datos en columnas para usar como separadores las / y eliminar también las fechas… La idea es recopilar el máximo numero de urls posibles en el intervalo.

Con todo esto… y “guarreando” un poco el archivo excel, ya que es un trabajo tedioso y feo podemos sacar un listado con las principales métricas…

urls screaming

Y esas son las urls pre-migración de las que disponemos…

Obteniendo las redirecciones con Screaming Frog

Ahora, sólo queda pasar esas urls por screaming frog para ver o”intentar ver” qué han hecho en la migración, con lo que veremos aquellas que no se ha hecho nada, aquellas que se han mantenido o aquellas que se han redireccionado.

urls match

Obteniendo a nivel global…

image

Por último, lo ideal… sería comprar títulos, descripciones, encabezados, etc… para ver si al menos lo “básico” se ha mantenido, mejorado o empeorado.

Otro factor es ver los ratios de texto/código de urls antiguas para ver si el contenido era de poca calidad y se ha mejorado con la nueva versión del sitio o incluso ha empeorado.

Por último, otra opción es la de usar herramientas como Semrush o Hrefs para conseguir enlaces a las urls del dominio y poder conseguir urls que no aparecían en Wayback Machine…

Más info con Semrush

Para ello, filtrar los enlaces por”lost” o perdidos puede ayudar mucho…

Captura de pantalla 2020 06 14 a las 20.34.13

Por último, un pequeño truco, es buscar el archivo robots.txt donde si tenemos suerte está cacheado por WaybackMachine y podemos acceder al sitemap.xml donde aparecerá todo el listado de urls disponibles, aunque esta opción es difícil, puede ser un “pelotazo”.

Probando suerte con robots.txt y sitemap.xml cacheados

Captura de pantalla 2020 06 10 a las 11.04.49

Con esto, aunque sea una solución o “parche” alternativo podemos empezar a entender todo y construir un histórico de acciones SEO para plantear una estrategia y tener una visión de dónde estamos y por qué.

Diferencias entre “original HTML”​ y “rendered HTML”​ en Javascript y SEO.

Si hacemos uso de javascript para ciertos aspectos como buscadores en la web debemos tener cuidado con las diferencias entre el archivo original que descarga el navegador y la interpretación de dicho archivo que hace Google en sus bots mediante Chromiun.

Como podemos observar en https://www.xxxxxx.com/ aparece un buscador en principio de lo más inocente…

Si nos observamos en las secciones principales del buscador, se crean urls como https://www.xxxxxxxx.com/#destinationTab_0, las cuales duplican contenido y son accesibles desde Google. Aunque no las indexa y toma como canonical la url hasta la # si que es idóneo restringir el acceso a las mismas bien por robots.txt o mediante “nofollow”.

Si vemos el código fuente inicial, la llamada al código javascript no contiene dichos enlaces ni elementos.

<script type="text/javascript">
													jQuery(document).ready(function () {
													            var jsonAjax = {"renderAjax": true};
													            var url = "/stage/00/gridSystemArea/0";
													            jQuery.get(url, jsonAjax, function (data) {
													               jQuery('.phx-searcher-container-a438d722-58cf-40b4-be02-cc8ed3a8573d').html(data);
													            });
													         });
												</script>
											</div>
										</div>
									</div>
								</div>
							</div>
						</div>
						<div class="gridSystemWrapper " style=" ">
							<div class="hTt-container-fluid">
								<div class="row"> </div>
							</div>
						</div>

Pero en la interpretación y construcción del DOM de dicho código javascript mediante Chromiun, se añaden cientos de líneas crawleables e interpretables por los bots que no aparecían en el código HTML inicial.

Entre el inicio del código anterior con <script type=”text/javascript”> y el final <div class=”gridSystemWrapper ” style=” “> se añaden líneas de código que no aparecían en el HTML sin renderizar.

<li data-type="Location" data-code="ESAND04"> <a href="#destinationTab_1" data-toggle="tab" data-type="Location" data-code="ESAND04" data-name="ALMERÍA">ALMERÍA</a> </li>

Creando urls del tipo:

  1. https://www.xxxxxxx.com/#destinationTab_0
  2. https://www.xxxxxxx.com/#destinationTab_1
  3. https://www.xxxxxxxxxx.com/#destinationTab_2
  4. https://www.xxxxxxxx.com/#destinationTab_3

que dan status 200 OK.

Así que siempre se recomienda:

  1. Deshabilitar Javascript.
  2. Crawlear con Screaming Frog un site que utilice Javascript.
  3. Utilizar la extensión para Google Chrome View Rendered Source (https://chrome.google.com/webstore/detail/view-rendered-source/ejgngohbdedoabanmclafpkoogegdpob)
  4. Buscar la procedencia de dichos enlaces y actuar en consecuencia.

La importancia de disponer de “Personas SEO” en una estrategia.

Tras más de 15 años peleando con todo tipo de proyectos tengo claro que el desarrollo de personas SEO es vital en una estrategia de posicionamiento a largo plazo. Esto ni es o ni debería ser negociable.

Algunos SEOs enfocan el desarrollo de la estrategia en el “custom journey”o etapas del proceso de compra (necesidades de información que requiere el usuario en cada una de ellas). Pero claro, cada tipo de usuario tendrá unas necesidades u otras, con lo que está claro que sin ese tipo de usuarios no puede haber un custom journey. La única excepción a todo esto es entender que el sitio web sólo tiene un tipo de usuario.

El desarrollo de personas se debe hacer en un primer punto con el cliente.

Ellos conocen a sus clientes mejor que nadie. Por eso es vital definir las personas y las distintas necesidades con ellos, sin olvidar que debe existir alguna forma de “llevarse” todo esto al tráfico orgánico en forma de “palabras clave”.

¿Qué servicios ofrece el cliente?

Usando un ejemplo, un site, que ofrece la valoración gratuita de un inmueble como servicio principal puede tener distintos usos dependiendo del tipo de cliente, comprador o vendedor, arrendador o arrendatario. Como por ejemplo:

  1. Vendedor/arrendador
    1. Obtener una valoración inicial (máximo) para establecer un precio de venta de partida.
    2. Comparar dicho precio con ventas de inmuebles cercanos.
    3. Conocer servicios “cercanos” a la zona y que pueden incrementar el precio de venta. Como parques infantiles, supermercados, paradas de metros, etc…
    4. Precio mínimo de venta con el que es inviable seguir con el proceso de negociación.
    5. Estimación de gastos de compraventa.
    6. Estado de las viviendas referencia, reformas, placas de vado, trasteros, garajes, etc…

  1. Compradores/arrendatarios
    1. Precio medio por m2 de la zona
    2. Gastos de comunidad, piscina, garajes, trasteros…
    3. Servicios adicionales de la zona como parques infantiles, supermercados, etc… que justifiquen dicho precio.
    4. Inmobiliarias de la zona donde buscar inmuebles similares.
    5. Precio máximo de compra y fecha
    6. Datos de urbanisno, m2 registrados.
    7. Coste del IBI (no para arrendatarios)

Ya con estos desgloses podemos establecer distintos tipos de personas desde un nivel “heurístico” y basándonos en la lógica del proceso.

Vendedores que quieren saber un precio estimado de venta de su inmueble. Sobre todo para poner un precio mínimo del que no están dispuestos a bajar y precio máximo sobre el cual empezarán a rebajar conforme avance el tiempo.

Compradores que establecen un rango máximo de precio que pueden abarcar y un precio mínimo sobre el que sería considerada una buena compra.

Arrendadores que quieren alquilar un inmueble y pretenden saber el valor medio por metro cuadrado de la zona, en base a la cual, establecerán un precio de alquiler tomando como referencia otros sitios web de alquiler

Agencias inmobiliarias que utilicen los informes para comparar tasaciones de tasadores oficiales a la hora de estimar pre-tasaciones y reclamar tasaciones realizadas a clientes con otras tasaciones de referencia cercanas a la zona.

¿Cómo convertir esa información en contenido?

A través del estudio de palabras claves. Para ello existen dos vías claras:

  1. Estudio por lotes de palabras claves con intenciones de búsquedas simulando ser el comprador o vendedor y depuración de las mismas filtrando palabras claves por:
    1. Volúmenes de búsqueda bajos
    2. Competencia alta
    3. Alto CPC en el caso de que la estrategia SEO vaya a estar apoyada en un inicio con campañas de CPC
    4. Ambigüedad en keywords que puedan canivalizar
    5. Keywords que nunca podremos competir ya que los principales players son “imposibles”.
  2. Estudiando las “keywords” que posicionan los competidores principales y limpiando y filtrando las palabras claves en base a nuestras personas.

Primera aproximación de “keywords”.

Ya con estos datos podemos sacar una primera aproximación de keywords, seleccionando un número de ellas que realmente podamos abarcar.

Captura de pantalla 2020 06 08 a las 17.51.24

A partir de ahí pasamos a definir los tipos de contenidos que se pueden asociar a las personas y los procesos de compra. Siempre con la idea de satisfacer las necesidades de información y posicionar dichas palabras claves seleccionadas arriba. Por lo que será necesario optimizar dicho contenido con:

  1. Títulos
  2. Descripciones
  3. Encabezados H1, H2, etc…
  4. Urls
  5. Microformatos de preguntas y respuestas en este caso y por cómo está generado el contenido. Podría ser otro tipo de microformatos como precios, reviews, etc… si fueran fichas de productos.
  6. Enlazado interno entre el contenido de la misma persona (ahora se llama clusters) y hacia la landing principal a la cual transimitiremos relevancia.

Contenido agrupado por tipos de personas.

Captura de pantalla 2020 06 08 a las 17.55.49

Arquitectura de la información acorde a personas y SEO.

Por último, todo esto debe ir apoyado con una estructura de la información adecuada y una auditoría seo. Y aunque este no es el mejor de los casos ya que era una web con poco contenido y demasiado centrada en el foco.

Captura de pantalla 2020 06 08 a las 18.01.15

Otro punto de vista: Estrategia de keywords por fases en la toma de decisión.

Otra forma de “estructurar y generar” contenido relevante para el SEO y la conversión es por fases del proceso de adquisición. Y como ejemplo, un site que se dedicaba a la venta de tests de paternidad como principal servicio.

Ejemplo de un proceso o custom journey:

  1. Surge la necesidad en el usuario.
  2. Se informa sobre qué tipo de pruebas existen para su necesidad.
  3. Se informa sobre cuáles valen para su caso.
  4. Consulta los requisitos necesarios para hacerlas
  5. Se informa sobre el precio, tiempo de entrega de resultados, valides judicial y otros factores determinantes.
  6. Contrata la prueba.

Fase 2 Se informa sobre qué tipo de pruebas existen para su necesidad.

  • ¿Qué tipos de tests hay disponibles para demostrar lo que quiero?
  • ¿Son válidos para lo que busco?¿Tienen margen de error?
  • ¿Qué muestras necesito para el análisis?
  • ¿Necesito su consentimiento para las muestras?

Fase 3 Se informa de cuáles valen para su caso.

  • Qué diferencias existen entre los distintos tipos de tests para el mismo objetivo.
  • De quién necesito una muestra para el análisis.
  • ¿En el caso de ser durante el embarazo, hay riesgo para el bebe?
  • ¿Hay algún método no invasivo?¿es seguro?

Fase 4 Consulta los requisitos necesarios.

  • ¿Qué tipos de muestras necesito? Saliva, piel, uñas…
  • ¿Necesito su consentimiento?
  • ¿Puede tener validez Judicial?
  • Si quiero que la tenga, ¿debo solicitarlo a los juzgados?

Fase 5 Se informa sobre otros factores determinantes.

  • ¿Cuál es el precio de las pruebas?
  • ¿Cuánto tiempo tardan en estar los resultados?
  • ¿Existen clínicas o laboratorios dónde pueda realizarme las pruebas?
  • Si no existen, ¿hay alguna forma de enviarlas por mensajería?
  • ¿Existe una cadena de custodia o seguridad de que mis muestras no son manipuladas?

Contenidos fase 5

Captura de pantalla 2020 06 08 a las 18.18.18

Arquitectura de la información final

Captura de pantalla 2020 06 08 a las 18.14.26