Colaborar para incrementar niveles de servicio: Alejandro Mendoza, Latam IT Director de Sherwin Williams Company

Categorías relacionadas:

Alejandro-Mendoza-Sherwin-Williams-CIO100-2018-710x434

CIO100 Alineación con el negocio

PROYECTO: Alineación hacia el negocio.

DESCRIPCIÓN: Haciendo uso de tecnología Business Intelligence (BI) y de herramientas de colaboración Sherwin Williams se propuso incrementar el nivel de servicio en los ocho países de Latinoamérica donde tiene presencia.

Leer más...



No permita que sus proyectos fracasen

Categorías relacionadas:

Los proyectos de TI no son a prueba de balas. Son tan propensos a fallar o encontrar obstáculos antes de ser completados, como a resultar libres de problemas. Pero cuando se trata de proyectos de nube y big data, el índice de fracaso es preocupantemente alto.

Un estudio de McKinsey en el 2012 encontró que en promedio el 45% de los proyectos grandes de TI exceden su presupuesto y un 7% se retrasa, y entregan 56% menos del valor esperado. Otro 17% resultaron tan mal que la propia existencia de la compañía estuvo amenazada. Los grandes proyectos de ERP son el ejemplo clásico del fracaso de los proyectos TI, con un índice de fracaso de al menos 25%.

Si cree que eso es malo, los proyectos de nube y big data son aún peores. Un desconcertante reporte de CapGemini afirmó que solo el 13% de los proyectos de big data alcanzaron el nivel de producción a escala completa. Solo el 27% de los que respondieron al estudio describieron sus iniciativas de big data como “exitosas”, y solo un 8% las describió como “muy exitosas”.

El analista de Gartner, Tom Bittman, quien encuestó a 140 clientes de Gartner y reportó en una entrada de blog que solo el 5% tuvieron un resultado sin problemas en su despliegue de proyectos de nube. El otro 95% tuvo uno de seis diferentes problemas.

¿Por qué estas compañías están experimentando un índice tan alto de fracasos? Existen varias razones, pero ellas tienen una causa raíz: Las compañías se están involucrando en proyectos de nube y big data porque está de moda, y no se molestan en preguntarse si de hecho los necesitan.

“Comienza en el inicio con un buen caso de negocios”, señaló Bittman. “¿Definió los servicios que se beneficiarían? Ahí es donde la mayoría falla. Segundo, más que tecnología, la nube privada tiene que ver más con la gente y los procesos. Muy frecuentemente las organizaciones dicen ‘Quiero una nube privada, ¿qué compro?’ El hardware es la parte más sencilla. La parte más difícil es el cambio de procesos y de la gente. Así que concéntrese en eso primero. Haga esas dos cosas y enfóquelas correctamente, eso resolverá la vasta mayoría de estos temas.

Gordon Haff, vicepresidente de estrategia de nube en Red Hat, está de acuerdo. “Yo atribuyo una gran cantidad de los fracasos que ocurren en el campo de los proyectos de big data a no tener una meta clara y un camino claro hacia esa meta”, anotó.

“Muchas organizaciones están llevando a cabo proyectos de big data mayormente porque es algo que creen que deberían estar haciendo, inclusive si no saben cómo o por qué. Por supuesto que no van tener éxito”, añadió.

Haff afirmó que le recuerda a la promoción en torno al almacenamiento de datos y fuente abierta en décadas pasadas. “Existe este sentimiento de que con todo los datos que hay, debemos ser capaces de hacer algo con ellos, inclusive si no sabemos las preguntas correctas que hacer o los modelos correctos para aplicar”, dijo.

El primer paso de un proyecto de big data o nube debería ser preguntar, “¿realmente necesitamos esto?” Puede haber varias razones respecto a por qué las compañías no lo hacen: No hay los suficientes datos para justificar un sistema de big data, existe dependencia de sistemas más antiguos como los ERP que no encajan muy bien en la nube, existen regulaciones que requieren mantener los datos on premise, y así por el estilo.

“Los usuarios dicen que van a optar por la nube porque es el próximo paso a tomar cuando no se trata del caso de negocio. Ellos no se están preguntando ‘¿dónde necesito incrementar mi agilidad inclusive más de lo que la virtualización lo hizo y que cargas de trabajo no estoy entregando?’”, señaló Bittman.

Otro problemas

No identificar una necesidad del negocio es una razón para que se produzcan los fracasos de nube y big data. Hay otras razones también. Estas incluyen las coordinaciones poco eficaces entre el lado del negocio y el de la tecnología, lidiar con compartimentos estancos de datos dispersos, una coordinación ineficiente de iniciativas de analítica, falta de un argumento de negocio claro para el financiamiento del big data, y la dependencia de sistemas legacy para procesar y analizar big data, de acuerdo a Jeff Hunter, líder de North American para administración de información de negocios en CapGemini.

Él dijo muchas veces que encuentra clientes que quieren usar big data de una forma, cuando ve que es la mejor opción para rescatar esos compartimentos estancos de datos. “¿Necesitan big data para alimentar la próxima generación de analítica que alimente el paradigma de su negocio? La respuesta puede ser no, pero ¿la pueden usar para la inteligencia de negocio y la toma de decisiones?”, anotó.

Entonces, CapGemini les dice volteen sus prioridades y en lugar de usar big data para crear conjuntos de datos, deben ir en sentido contrario y usarlo para arreglar temas con los datos existente del ERP, CRM y otras fuentes tradicionales de datos que han sido mantenidos en compartimentos estancos y por lo tanto se han mantenido separados.

“Un cliente podrá tener 50 instancias de datos de clientes de todo el mundo en diferentes formatos para aplicaciones distintas. Algunas veces cuando usted resuelve ese tema primero, hace que la conversación sea más significativa y atractiva para el cliente”, señaló Hunter.

Después está la brecha de las habilidades, que ha sido bien documentada. Si los miembros de un equipo que se encuentra detrás de un proyecto de nube o big data no tienen las habilidades requeridas para desplegar el proyecto, puede apostar a que va a fallar.

“Las tecnologías de big data son bastante diferentes a la mayoría de plataformas de datos que la mayoría de personas está acostumbrada a usar”, señaló Yaniv Mor, CEO y cofundador de Xplenty, que hace despliegues de big data para compañías como un despliegue SaaS.

“SQL no resalta en big data pero todos tienen habilidades SQL. Asimismo, son bastante dependientes de tecnologías de código abierto, algo completamente nuevo para un muchacho Microsoft. Entonces, necesita contratar nuevas personas que son caras y difíciles de encontrar, o entrenar a sus empleados”, añadió Mor.

Esto lleva a otro problema. Las empresas frecuentemente ven la nube o el big data como una extensión de las tecnologías existentes. Un proyecto de nube no puede ser simplemente una extensión de su infraestructura de virtualización existente.

Aunque las nubes usan virtualización frecuentemente, requieren de nuevos acercamientos y nuevas tecnologías. La virtualización de empresa e infraestructura nativa de nube están optimizadas para diferentes cargas de trabajo que proveen disponibilidad a través de software, que puede escalar, y que están fundamentalmente basadas en una arquitectura distribuida más dinámica y flexiblemente emparejada. Esto es diferente de la infraestructura tradicional de TI, donde se usa la frase “despliega y no toques”.

Asimismo, la firmas no cambian sus procesos o modelos operativos cuando se mudan a la nube, lo que desencadena el problema antes mencionado. Del 80% al 90% de lo que se despliega en AWS no es contenido nuevo, indicó Bittman. Son cargas escalables horizontalmente que son de vida corta.

“El tiempo de vida promedio de una máquina virtual on premises es de unos pocos años. En la época de las aplicaciones físicas era de una década. Una máquina virtual en Amazon tiene un tiempo de vida de días o semanas”, anotó. El problema es que muchas firmas encienden una máquina virtual en AWS y se olvidan de apagarla cuando han terminado. Usted termina con una factura por los ciclos de inactividad. Él estimó que del 30% al 50% de los costos de uso de máquinas virtuales de nube es desperdicio, porque la gente se olvida de apagar la máquina virtual cuando han acabado o no la están usando.

Qué hacer

Entonces ¿qué deben hacer las compañías para reducir la probabilidad del fracaso? Existen varios pasos que dar y no le costarán mucho, o nada.

“En primer lugar, pregúntese si necesita un proyecto de big data”, señaló Mor. “Con big data, existe tanta promoción que creo que la gente no entiende lo que puede obtener de un proyecto big data, entonces no saben cómo definir las métricas. No saben que es lo que quieren obtener del proyecto”.

El paso siguiente es tener a un líder que pueda crear y dirigir una visión para el proyecto, agregó Hunter. “La visión es más importante que el liderazgo. Puede venir de cualquier nivel. Si hay una visión que claramente articula por qué queremos ir tras el big data y cómo avanzaremos, y siempre y cuando se impregne en la compañía y se acepte, se tendrá más éxito”, expresó.

En tercer lugar, reconozca que existen dos modos básicos para las aplicaciones y las infraestructuras en las empresas típicas: La tradicional y la nube. Tratar de montarse en las dos sin reconocer las diferencias esenciales va a causar problemas.

“Los despliegues de nube deberían concentrarse en las nuevas cargas de trabajo nativas de la nube, mientras que al mismo tiempo deberían conectarse con los servicios clásicos existentes de TI, los flujos de trabajo, y los almacenes de datos y proporcionar administración unificada. No deberían, sin embargo, tratar de ser todas las cosas para todas las aplicaciones”, mencionó Haff.

Y en ese respecto, las organizaciones necesitan darse cuenta de que no hay una sola forma para todo lo que entrega TI. “Llamamos a esto bimodal”, anotó Bittman. “Uno tiene que acostumbrarse a la idea de diferentes arquitecturas on premises y diferentes proveedores off premises. Entonces, en lugar de poner todo en una arquitectura grande, necesitan pensar en administrar fuentes y arquitecturas heterogéneas”.

Asimismo, comience tan pequeño como pueda. No intente resolver todos sus problemas de datos al comenzar un proyecto de big data. “Solo escoja un caso de negocio, asegúrese de que las fuentes de datos se encuentren limitadas a unas cuantas fuentes de datos. Defina exactamente qué es lo que quiere conseguir con este proyecto. Necesita comenzar poco a poco porque cuando piensa en big data, no debería intentar resolver todos los problemas de datos de su organización de una sola vez”, finalizó Mor.

– Andy Patrizio, Network World EE.UU.

Leer más...



Tres claves en la implementación de SDN

Categorías relacionadas:

Cada cliente debe ser capaz de migrar su infraestructura de red a SDN (Software Defined Networking) sin gastar fortunas en ello, expresó Extreme Networks.   Además una migración SDN sin parches o fallas críticas, requiere tanto estándares abiertos, así como un enfoque integral con una visión colaborativa y un ecosistema que facilite el soporte e integración de partners.

Esta firma propone una plataforma SDN integral con un controlador OpenDaylight (ODL) que incluye: administración de la red, network access control, análisis de aplicaciones y tecnología para el control de redes inalámbricas. El enfoque del fabricante busca preservar la integridad de la API abierta provista por ODL, mientras se fortalece la orquestación del centro de datos, automatización y aprovisionamiento a toda la red, en un mismo panel de control.

Una plataforma de SDN debe ser simple, rápida e inteligente; que pueda integrarse fácilmente a diferentes equipos y software de otros fabricantes, no intentar amarrar al cliente con estándares cerrados, que con el tiempo, serán caros y poco escalables. Estas características propuestas por Extreme Networks, buscan hacer más ágil la compatibilidad en infraestructuras multi-fabricante con estándares OpenFlow standard y otras API abiertas. En este sentido, contar con herramientas como OpenDaylight based API, software development kit (SDK), permite a cada cliente evolucionar su red conforme a sus propias necesidades de seguridad, Wireless e infraestructura SDN de convergencia.

El resultado es simple: una plataforma sin las limitaciones que comúnmente se encuentran en otros modelos SDN en el mercado, muchos de ellos, no son aplicables y obligan a las organizaciones a atarse a un mismo fabricante. A continuación se mencionan tres beneficios claves en la implementación de SDN:

Simplicidad en la automatización End-to-end. Las redes SDN son complejas, sin embargo, Extreme Networks busca hacerlas simples apalancando un sistema operativo y de administración (EXOS) a través de todas las plataformas, así como del controlador SDN. Esto permite un despliegue mucho más simple a través de diversas plataformas. De la misma forma, Extreme Networks está incluyendo en la solución SDN OpenDaylight al desarrollar plug-ins para herramientas desarrolladas por la compañía (como Netsight) y reforzando el ecosistema OpenDaylight para mejorar la confiabilidad.

Rápido aprovisionamiento de servicios en la red y aplicaciones. El segundo beneficio es contar con la rapidez y flexibilidad necesaria para desplegar aplicaciones y soluciones. Una solución SDN realmente efectiva debe por definición, ser programable e integrable con casi cualquier otra solución y aplicación en el mercado. Extreme Networks está impulsando ambos protocolos abiertos, interfaces de programación de aplicaciones (APIs) y NFV, como OpenDaylight y OpenFlow. De igual manera, combinarlos con soluciones como EXOS y OpenFabric Connect SDN más otras aplicaciones predefinidas y utilizadas. Un cliente debe ser capaz de elegir la aplicación exacta que cumpla sus necesidades, presupuestos y tiempos sin preocuparse por la interoperabilidad.

Inteligencia de orquestación que soporte redes heterogéneas, protegiendo las inversiones existentes. Desplegar una nueva aplicación SDN en una red existente, regularmente es una tarea algo compleja. Las soluciones de SDN con estándares abiertos permiten a los clientes contar con estos servicios sin importar quien los provea. Un ejemplo es el ecosistema abierto que Extreme Networks propone, al no sólo estar probado en diferentes condiciones, sino que abre la puerta a nuevas aplicaciones que estén siendo desarrolladas con estándares OpenDaylight. Sólo algunos administradores de red aprecian el tener un campo listo para sembrar lo que deseen sin estar atados a un mismo fabricante. Las soluciones SDN deben trabajar a partir de la red existente con la finalidad de proteger la inversión que ya se ha hecho, mientras se cuenta con una arquitectura modular, basada en estándares que reduzca la incertidumbre.

Leer más...



Días contados para el fin del soporte de Windows Server 2003

Categorías relacionadas:

A pesar de los años de anticipación, muchas empresas tuvieron que luchar este año cuando Microsoft concluyó con el soporte para su popular sistema operativo de escritorio Windows XP. La interrupción ocasionada por el fin del soporte para Windows XP puede que no sea nada comparada con la interrupción que ocasionará el término del soporte para Windows Server 2003, programada para el 14 de julio del 2015.

“Cuando Microsoft concluyó con el soporte para Windows XP en abril, casi un cuarto de todas las empresas aún utilizaban el sistema operativo, lo cual ocasionó una serie de problemas operativos y potenciales riesgos de seguridad”, señala David Mayer, director de práctica de soluciones Microsoft en la firma de servicios de TI Insight Enterprises.

“Aunque XP fue primariamente un problema de escritorio, estamos advirtiendo a nuestros clientes que el fin del servicio de Server 2003 afectará los servidores completos, con el potencial de esparcir el impacto en muchas más operaciones del negocio”, añade Mayer. “Con menos de un año para comenzar a atacar el problema, estamos delineando a los clientes que trabajamos con una serie de pasos programados y opciones que comenzar a explorar ahora, de modo que puedan implementar su propio resultado”.

Mayer señala que un estimado de 39% de todos los sistemas operativos Microsoft Server instalados son de la versión 2003. Eso representa cerca de 24 millones de servidores, de los cuales 9,4 millones están en los EE.UU. Muchas instancias corren una versión más antigua de SQL Server u otras aplicaciones de bases de datos (El altamente popular SQL Server 2005 de Microsoft se dirige al final de su soporte en el 2016), anota Mayer.

“Windows Server 2003 fue un sistema operativo de servidor muy estable y robusto”, agrega Mayer, explicando el por qué de su longevidad.

Pero para muchas empresas, añade, el ocaso del Windows Server 2003 no es solo un reto, es una oportunidad. “El asunto que vemos con las organizaciones con las que hablamos es que esto representa en gran medida un punto de inflexión en el diseño, la administración y la arquitectura de sus data centers”, señala Mayer. “¿Es este el punto en el que ellos se mueven hacia el software como servicio o infraestructura como servicio? ¿Virtualizarán completamente?

Para muchos, la elección decantará hacia Windows Server 2012 R2 en un despliegue físico o a Windows Azure en la nube. Él anota que Windows Server 2012 R2 es un sistema operativo de servidor moderno que ofrece una serie de nuevas capacidades, pero probablemente también requiera hardware más potente. Pero ese hardware más potente también puede ofrecer beneficios como capacidades de virtualización avanzada, la capacidad de manejar cargas de trabajo más grandes con menos hardware y una reducción en gastos generales.

Mayer señala que si las organizaciones no han empezado su proceso de migración aún, deberían hacerlo ahora para asegurarse una transición suave. Insight sugiere a las organizaciones los siguientes pasos:

* Fase I: Descubrimiento y análisis. En este paso las empresas deben realizar un descubrimiento detallado del entorno para descubrir qué servidores y aplicaciones están operando en el software.

* Fase 2: Migración real. Las organizaciones tienen una serie de alternativas que pueden ser adoptadas en combinación. Pueden seguir actualizaciones de software, incluyendo centro de datos de clase empresarial y soluciones de nube híbrida que pueden ser sencillas de desplegar, eficientes en costos, enfocadas en la aplicación y centradas en el usuario. Asimismo, pueden emprender actualizaciones de hardware, ya que Windows Server 2012 requiere un hardware nuevo más potente que pueda ofrecer una eficiencia energética mejorada. Y pueden adoptar soluciones basadas en la nube, dándoles una plataforma flexible que permite a los negocios construir rápidamente, desplegar y gestionar aplicaciones en una red mundial de centros de datos gestionados por Microsoft.

* Fase 3: Monitoreo. Finalmente, para asegurarse que no habrá tiempo de caídas o efectos negativos de la migración, la organización de TI debe continuar monitoreando de 24 a 48 horas posteriores a la migración.

“No hay una solución única para todas las empresas”, señala Mayer. “Con base en nuestra experiencia trabajando con clientes, vemos que este problema se presenta en empresas de todos los rubros y tamaños, y todas las compañías deberían destinar tiempo y recursos financieros y humanos para enfrentarlo. Ya sea que la empresa en la que trabajamos elija reemplazar servidores, actualizar software o migrar a la nube, hay decisiones críticas que deben ser tomadas que pueden tomar buena parte de la atención del próximo año para ser resueltas”, finaliza.

Thor Olavsrud, CIO México

Leer más...



Cómo (y por qué) realizar una auditoría SEO

Categorías relacionadas:

Incontables rankings de motores de búsqueda de páginas web fueron afectados por las actualizaciones de los algoritmos de Google en los últimos años. Las prioridades de SEO también han variado en este mundo tan cambiante. Una auditoría SEO de páginas web es una forma esencial de hacer un balance de cómo funciona su sitio web, especialmente en lo que respecta a sus rankings de motores de búsqueda.

“Conducir una auditoría SEO es clave para cualquier negocio”, señala Jeanine Krzyzanowski, directora de estrategias de construcción de links en Teknicks. “Para que su negocio tenga éxito, necesita una fundación sólida, es como construir una casa. Google se ha vuelto sumamente sofisticado en estos últimos años, y si hay algo malo con la fundación de su página web, podría estar en riesgo de ser penalizado por Google”.

La mayoría de expertos señalan que los verdaderos principios detrás de una auditoría SEO no han cambiado tanto, pero algunos aspectos son más importantes ahora de lo que solían hacer.

“Google todavía quiere contenido increíble, valioso y útil”, anota Philip DiPatrizio, director de marketing por Internet en LILLY + Associates. “En el pasado, puede no haberse preocupado tanto por el contenido duplicado o los spammy backlinks. Ambas no eran buenas ideas con las que comenzar, pero Google no era tan bueno captando esas señales como lo es hoy en día. Ahora, más que nunca, es vital buscar estas cosas en una auditoría y corregirlas inmediatamente”.

Las auditorías SEO se han vuelto más holísticas, según Oleg Korneitchpuk, director de marketing digital en SmartSites. “Si antes las auditorías se enfocaban en el diseño técnico, la navegación y el perfil backlink del sitio web, deberían ahora incluir análisis de contenido y análisis social. Todas estas partes deberían ser examinadas de forma separada y juntas para esbozar las posibles mejoras para su SEO”.

Aunque una auditoría SEO de páginas web a fondo es normalmente puesto a cargo de profesionales, aquellos que no lo son también pueden desarrollar unas de alto nivel usando herramientas online gratuitas. Aquí les damos los mejores consejos de auditoría SEO del tipo hágalo-usted-mismo (DIY, por sus siglas en inglés) de páginas web y las mejor prácticas narradas por los expertos en búsqueda y marketing digital.

Qué buscar en las auditorías SEO de páginas web

Lo básico: Si no tiene tanta experiencia con SEO, debería comenzar su auditoría con cosas no técnicas, según Courtney Herda, CEO de Smarter Searches. Pregúntese, “¿Es que todas las páginas del sitio web tiene un enfoque claro y definido? ¿Están escritas de manera clara para explicar el qué, quién, cómo, cuándo, dónde y por qué? ¿Está la navegación lo suficientemente clara y con un propósito específico como para llamar a los usuarios a la acción? ¿Está todo bien escrito? ¿El sitio web tiene sentido?”

HTML y URLs: Después de considerar lo básico, échele una mirada al aspecto técnico de su sitio web. “¿Tiene etiquetas de título HTML, descripciones de meta, encabezados e imágenes etiquetadas apropiadamente para las búsquedas?”, pregunta Herda. “¿Ha incluido un mapa del sitio? ¿Es la navegación rápida y fácil? ¿Quién se le está linkeando y a qué páginas lo están haciendo? Haga un inventario de los links y determine si hay algunos negativos o que hagan daño”.

“La etiqueta de título es una de las señales más importantes de Google que dice de qué se trata una página”, según DiPatrizio. Debería asegurarse que cada página tenga una etiqueta de título HTML única con palabras clave que sean relevantes para cada página y “hacer su mejor esfuerzo para aseverar que el texto está ‘vivo’ y no es simplemente parte de una imagen”, añade. Los textos en imágenes no son buscables. Asimismo, “mantenga al mínimo los tamaños de imágenes para acelerar todas las cargas. Use URLs estáticos, como’example.com/services/example-service’ en vez de ‘example.com/services.php?id=12’. Revise si las etiquetas de encabezado (H1, H2 y H3) están siendo usadas y si no lo están, úselas”.

Contenido duplicado: Duplicar contenido hace que Google elija qué página mostrar en los resultados de la búsqueda y eso puede afectar los esfuerzos del SEO.

“Asegurar que su sitio web no está siendo host no intencional de contenido duplicado es uno de los aspectos más importantes a chequear cuando se realiza una auditoría”, anota Richard Kline, director de marketing por Internet en LegalAdvice.com. Kline recomienda usar Open Site Explorer de Moz para revisar si hay contenido duplicado.

Velocidad: ¿Qué tan rápido o lento carga su sitio web? Una espera de pocos segundos puede no parecer algo tan grave, pero los expertos de SEO señalan que Google premia a los sitios web que tienen rápidos tiempos de descarga. Page Speed Tool de Google funciona muy bien revisando la velocidad de su sitio web en dispositivos móviles y computadoras de escritorio, según DiPatrizio.

Rastrear: ¿Es Google capaz de rastrear e indexar su sitio web completo fácilmente? Puede y debería usar las herramientas gratuitas Google Webmaster para revisar cuántas páginas de su sitio Google indexa, según Petar Traychev, CEO de Hop Online.

Competidores: No se olvide de echarle un vistazo a las páginas web de los competidores cuando le esté haciendo una auditoria a la suya, anota Michael Riley, co fundador de Boxter.

Mire cómo los competidores rankean las palabras clave que le interesan en los resultados de la búsqueda. Si lo están venciendo en los rankings de Google, échele un vistazo a sus sitios web para encontrar razones. ¿Qué es lo que ellos están haciendo que usted no?

Debería ver cómo el contenido de su página web se compara al de los competidores que son más rankeados que usted, según Luke Marchie, co fundador de Majux Marketing. “Si ambos tienen páginas que compites por la misma palabra clave, ¿está el contenido y los detalles de su página superando al de su competencia?”.

También debería buscar y echarle un vistazo a los backlinks de los competidores, o los links a sus sitios web de otros sitios web. “Cómo están obteniendo esos links”, pregunta Marchie. “Analizar las fuentes de los backlinks de sus competidores puede revelar muchísimo tráfico escondido y oportunidades de backlinks que quisiera que el equipo de marketing persiga”.

Uso o usabilidad y diseño: Debería auditar su sitio web desde la perspectiva de su visitador target, según Herda. Hay que tomar en cuenta la experiencia del usuario y cómo se relaciona a la usabilidad del sitio web, mientras que también tiene que tener en cuenta la experiencia del motor de búsqueda de su sitio web, incluyendo que tan fácil o difícil es buscar e indexar.

“No muchas compañías SEO incluyen diseño en sus auditorías, pero nosotros lo hacemos porque conforma gran parte de la experiencia del usuario”, señala Stephanie Biscow, vice presidenta de medios digitales en DCW Media. “Si su sitio es feo, la gente no se va a sentir intrigada. La simplicidad y limpieza les da a los usuarios la habilidad de leer fácilmente el contenido sin distracción alguna. También queremos evaluar donde es que las propagandas han sido colocadas. A veces las páginas web contienen avisos por todos lados y esto no permite que el usuario tenga una experiencia amigable”.

Herramientas de auditoría de sitios web recomendadas

Además de las herramientas ya mencionadas, los expertos de SEO recomiendas las siguientes herramientas para ayudar con la auditoría de sitios web.

Brandamos y Flair Interactive Services ofrecen herramientas básicas de análisis de sitios web SEO que evalúan sitios web basándose en que tan bien optimizados están para las frases clave del público objetivo.

Screaming Frog SEO Spider es uno de los favoritos entre los expertos de SEO. “Hay una versión gratuita que los individuos DIY SEO inexpertos pueden usar para familiarizarse con los datos”, señala DiPatrizio de LILLY + Associates. “Simplemente ingrese el URL y dele clic a ‘Start’. Hacer clic en cada una de las pestañas usando filtros locales, puede darle una gran idea de lo que podría necesitar para mejorar su sitio”.

Copyscape es un software de detección de contenido duplicado y otro tipo de plagio, y es otro de los favoritos entre los expertos de SEO. Una versión gratuita está disponible. Copyscape Premium analizará el contenido completo de un sitio web por cinco centavos la página. “En cuestión de minutos tendrá un sinfín de datos sobre qué páginas en su sitio web contienen contenido duplicado, el contenido exacto se verá resaltado y se le proporcionará una lista completa de otras páginas web donde su contenido fue descubierto”, comenta DiPatrizio.

MajesticSEO ofrece un plan básico gratuito tan bueno como los planes pagados y “evalúa todos los links y ayuda a separar los de alta calidad de los de baja”, según Kline de LegalAdvice.com. “El sitio también descompone el texto de anclaje y lo organiza en un gráfico en forma de pie. Es una muy buena herramienta para ver si su texto de anclaje está sobre optimizado. Esto significa que Google consideraría la fraseología del texto de anclaje, un intento fuera de cumplimiento para spamear los motores de búsqueda.” (El texto de anclaje es el texto dentro de la frase con hipervínculos.)

El plugin WordPress SEO de Yoast (gratuito) es para sitios web que usan el CMS de fuente abierta de WordPress.org, y puede “arreglar y racionalizar automáticamente muchos errores técnicos que un sitio web puede tener sin necesidad de poseer un conocimiento técnico avanzado”, anota Marchie. “También puede usarlo para ingresas sus títulos de etiquetas HTML y descripciones de meta”.

La prueba gratuita por treinta días de Raven proporciona una auditoría a fondo usando su herramienta Site Auditor. “Esto le va a dar otra herramienta para revisar su meta data, etiquetas, encabezados y uso de palabras clave, así como algunos puntos adicionales”, señala Marchie. El reporte está en formato PDF y puede usarlo para medir el progreso a medida que arregla los problemas del sitio web.

Crazy Egg le muestra un mapa de calor de dónde es que los usuarios que visitan su sitio web tienden a hacer clic más frecuentemente. Los planes cuestan desde nueve dólares al mes y según Dave Davies, CEO de Beanstalk, esta herramienta lo ayuda a descubrir qué páginas son las más importantes para sus visitas.

Siteliner es una utilidad gratuita diseñada para ayudar a encontrar contenido duplicado, links rotos y otros problemas del sitio web que pueden impactar negativamente en el SEO.

Ahrefs Site Explorer es una herramienta sumamente popular para investigar los link hacia y desde su sitio web.

QuickSprout ofrece herramientas de análisis gratuito en formato gráfico y proporciona recomendaciones para arreglar problemas.

Qué hacer con los datos recolectados

Muchos expertos de SEO usan programas de hojas de cálculo, como Excel, para incorporar y ordenar los datos que recolectan de las auditorías a sitios web, y además escriben reportes o hacen presentaciones.

“Normalmente entregamos dos documentos en la auditoría del sitio web”, anota Marchie. “El primero es una hoja de cálculo con toda la lista de URLs activos y una nota de los cambios que recomendamos se hagan a cada URL, como redirecciones, actualización de contenido, cambios en las etiquetas de títulos y más. Adicionalmente, usamos todo esto para alinear la palabra clave a la página que queremos optimizar”.

Marchie también prepara un documento de Word o PDF con más recomendaciones para los dueños de los sitios web. “Esto puede señalar URLs mal estructurados, problemas de velocidad y diseño, y algún otros error, así como las oportunidades que la competencia puede estar usando. También resumimos los cambios que recomendamos en nuestra hoja de cálculo”.

Las auditorías SEO no son asuntos para implementar y olvidar

“Usted no puede simplemente ejecutar una auditoría SEO, arreglar todos los ítems y problemas, y asumir que todo va a seguir igual”, indica Lisa Kirshcner, directora ejecutiva de Flari Interactive Services Inc. “Tiene que ir mucho más allá de eso y asegurarse de que en realidad está ofreciendo contenido único y valioso de muchas formas. Eso es lo que atrae a los usuarios y los convierte en aquellos que pagan y hace que los lectores compartan su mensaje e incremente sus rankings. SEO es un esfuerzo constante que requiere mejorías constantes y contenido realmente valioso”.

Una auditoría no es suficiente según Davies. “Una vez que una auditoría es completada, es momento de agendar el trabajo que hay que realizar y la fecha para una segunda auditoría. Si realiza una cada año o cada seis meses, habrá una gran cantidad de información nueva para digerir y considerar muchos ajustes de algoritmos e industrias”.

SEO está cambiando todo el tiempo y encima de este se encuentra un proceso que consume mucho tiempo, según James Blews, consultor de presencia online en Smart Ideal Lane. “Y si comienza hoy día, verá resultados rápidos”, añade Blews.

James A. Martin, CIO EE.UU.

Leer más...