Mejorar el tráfico SEO optimizando el contenido existente

mejorando contenido SEO existente

En mi opinión uno de los mayores errores que cometemos algunos webmasters a la hora de comenzar una web de cero es ponerse a (crear) comprar contenido como locos y a lo bestia. Una compra de contenidos que la mayoría de las veces ofrece una calidad, cuanto menos, dudosa.

Por eso, antes ponerte a crear o adquirir contenido, te recomiendo que explores la posibilidad de mejorar el contenido que ya existe en tu web.
Te propongo un método muy fácil y para el que no necesitas -casi- ninguna herramienta.

Optimizar el contenido con Search Console

Paso 1: Descargarte de Search Console toda la información de páginas, keywords, clics, impresiones y posición media del periodo que estimes. Yo te recomiendo que descargues al menos 3 meses y, como mucho, 13. (*si cuentas con herramientas como Supermetrics te será más rápido y sencillo)
Paso 2: Haz un filtrado por un mínimo de impresiones. El valor mínimo dependerá mucho de tu sector o negocio.
Paso 3: Haz un filtrado por máximo de número clics. Otra vez el valor dependerá mucho de tu sector o negocio.
Paso 4: Filtra por las palabras clave que estén entre las posiciones 3 y 10.

Nos quedará una tabla con los siguientes encabezados: url, término de búsqueda, clics, impresiones y posición media.

Lo normal es que tengamos una página posicionada para varias keywords, así que lo mejor para trabajar con la información de la manera más simple y sencilla es crear una tabla dinámica (si no estás familiarizado con las TD, te recomiendo que aprendas a usarlas). Tendría esta forma:

Captura Tabla Dinámica

En el siguiente ejemplo trabajaríamos con las páginas del medio (imagina esto con miles de celdas).

  • Caso1: 4100 clics / 5000 impresiones / Posición media 3
  • Caso2: 3700 clics / 4000 impresiones / Posición media 5
  • Caso3: 1100 clics / 3700 impresiones / Posición media 4
  • Caso4: 500 clics / 2900 impresiones / Posición media 9
  • Caso5: 100 clics / 1500 impresiones / Posición media 7
  • Caso6: 40 clics / 150 impresiones / Posición media 4
  • Caso7: 20 clics / 50 impresiones / Posición media 2

Cuando ya nos hayamos quedado con un número X de páginas, la idea es simple. Hay que actualizar y ampliar estas urls usando nuevas keywords relacionadas y esperar a que Google la vuelva a rastrear o mandarla vía Search Console. Finalmente, confiar en que el nuevo contenido mejore la posición de esa página.

También es un buen momento para repasar los snnipets. Optimzando el Title y la Metadescription mejoraremos el CTR, que es un importante factor de posicionamiento.

Evergreen content

Para que esta estrategia funcione de forma óptima, lo ideal es tener en su mayoría un contenido atemporal o evergreen content.

¿Qué es el evergreen content? Es ese contenido fresco que siempre tiene capacidad de buscarse. Un contenido que no solo puede llevar tráfico a tu web de forma indefinida, sino que también se convierte en un gran generador de enlaces.

Ejemplos: Artículos de consejos, recetas, tutoriales, how-to, etc. También funcionan muy bien los artículos de listas: «Las 7 mejores peliculas de acción de los 90» «Las 6 mejores maratones del mundo». Nota: funcionan mejor los números aleatorios bajos, que números redondos o muy altos.

Bajada clics y CTR, pero no de posición

Hay que tener en cuenta que no todas las búsquedas devuelven un clic. Hay varios factores que influyen:

Respuestas directas de Google

Imagina que estabas bien posicionado para “edad de Obama”. Pues estás muerto. Google devuelve la respuesta directa. Esto pasa con muchos tios de negocios e irá a más en el futuro.

Featured snippet

Parecido al ejemplo anterior. Google proporciona un fragmento extraído de uno de los resultados de Google, que no tiene por qué ser siempre el 1º resultado.

SEM

Por ejemplo, si pujas en SEM por tu marca, la gente puede quedarse en el anuncio y no pinchar en tu resultado, que seguramente sea el primero.

Otro resultado mejor

Es posible que haya otro resultado por debajo tuyo con un copy más llamativo, con un CTA, con iconos…

Algunas herramientas como ahrefs han incoporado una métrica llamada CPS (Clicks Per Search), que es el ratio de clics por búsqueda.

¿Qué te parece este sencillo método? ¿Mejorarías algo?

Javascript – Guía SEO definitiva

El Javascript se ha convertido una parte fundamental de la web. El número de bytes de Javascript descargados aumenta de forma sustancial cada año.

bytes de javascript descargados

¿Cómo lee Google Javascript?

Google lee más de 160 trillones (trillones americanos xD) de documentos diarios, lo que es, incluso para Google, un gran trabajo. Leer Javascript cuesta tiempo y dinero.

Los SEOs han visto como la forma tradicional crawling-indexing ha cambiado. Google deja el renderizado de Javascript para una segunda ola de indexación. Es como si dijera, «uyy esto me va a llevar tiempo y lo dejara en un cajón para después». Lo podemos ver en esta gráfica:

Indexación Javascript

Tipos de Frameworks

Los Javascript Frameworks contienen librerías, componentes e instrucciones para crear websites. Cada una de ellas contiene sus particularidades, por lo que habrá que analizar pros y contras antes de decantarse por una de ellas.

Principales Frameworks de Javascript

Métodos de renderizado

SSR Server side rendering

El cliente (navegador) recibe un HTML final y que funciona sin necesidad de ejecutar y renderizar el JavaScript. El servidor se encarga de renderizar todo el Javascript.

A favor:

+ Mejor para SEO y Crawlers

+ Mejor funcionamiento

+ Más velocidad

En contra:

  • Más caro
  • Puede ser más difícil de implementar
  • Más carga para el servidor
  • Mayor tiempo de TTFB (TIME TO FIRST BYTE)

CSR – Client Side Rendering

El navegador hace una petición y se encarga de pintar la página en base a todos los recursos que recibe.

A favor:

+ Es bueno para aligerar la carga en el servidor.

En contra:

  • Carga la CPU y los dispositivos
  • Más tiempo en cargar
  • Malo para SEO. Muchos crawlers (Google normalmente sí) no lo siguen

DR – Dynamic Rendering

Googlebot (y otros bots) recibe una versión SSR, y el resto de User-Agents aquella que consideremos mejor (CSR o Hybrid Rendering)

A favor:

+ Bueno para SEO

+ BING lo recomienda

+ Esencial para sitios JS en los que el contenido cambie a menudo

En contra:

  • Los navegadores siguen teniendo que renderizar el JS
  • Complejidad
  • Carga el servidor

Pre Renderizado

Instala y configura un procesador dinámico para transformar tu contenido en código HTML estático que los rastreadores puedan consumir con mayor facilidad. Algunos procesadores dinámicos conocidos son Puppeteer, Rendertron y prerender.io. Google developers

Este procedimiento puede hacer que el servidor funcione más lento

Hybrid rendering

Hybrid Rendering es una combinación de Server-Side y Client-Side. El contenido core o esencial es renderizado en el servidor y cuando el contenido éste ha sido mostrado, más JavaScript es enviado para ser renderizado del lado del cliente para que pueda interactuar con la página.

A favor:

+ Rapidez

+ Bueno para SEO

En contra:

  • Todas las utilidades JavaScript no están disponibles hasta que no se ha renderizado parte del lado del cliente
  • Complejidad de implementación

Ejemplo: Nike

Isomorphic JavaScript

Javascript que puede ser renderizado en el lado del servidor y el lado del cliente. Se pre renderiza del lado del servidor, pero para ser interactivo requiere de renderizarse del lado del cliente.

A favor:

+ Bueno para SEO

+ Bueno para el usuario

+ Rapidez

Pocos ejemplos. AIrbnb y Twitter están haciendo pruebas.

En contra:

  • Servidor necesita soportar Node JS
  • Complejo de implementar

*Recomendado por el SEO de EA Sports

Qué ver en una Auditoría Javascript:

  • Hay que comprobar el HTML inicial vs el DOM renderizado. Ver qué cambia y si lo que cambia es importante.
  • Comprobar si Google puede acceder al contenido. Comprobar LOGS.
  • Comprobar si se está indexando el contenido.
  • Comprobar como renderiza el contenido en diferentes dispositivos.

Herramientas

Existen numerosos métodos para comprobar el renderizado JS de tu web. Destacamos estos métodos o herramientas:

Inspection Tool en Search Console

Mobile-friendly Test

El Test Mobile-friendly de Google nos devuelve el HTML renderizado

Mobile-friendly Test de Google

Rich Results Test

El test de formatos enriquecidos de Google nos devuelve también el html renderizado.

Rich Results Test

View Render (extensión de Chrome)

Una extensión de Chrome muy útil para ver el raw html vs el renderizado.

https://chrome.google.com/webstore/detail/view-rendered-source/ejgngohbdedoabanmclafpkoogegdpob

Chrome DevTools

Haciendo botón derecho en un elemento y dando clic a inspeccionar podemos ver el código renderizado.

Velocidad y Perfomance

  • WebPageTest, PageSpeed Insights y Lighthouse para auditar el funcionamiento de los archivos javascript.

Crawlers

  • Screaming Frog. Un crawler semi gratuito con opción de rastrear javascript.
  • Botify, Deepcrawl, Oncrawl, Ryte y otras herramientas crawling de pago que rastrean javascript.

Otros Apuntes JavaScript

  • El código JavaScript no dice nada por sí mismo. Necesita ser procesado y renderizado antes de poder tener un output.
  • No implementar meta tags importantes vía JS.
  • La etiqueta canonical debe estar siempre en el HTML inicial.
  • En la medida de lo posible no servir JS en el Head.
  • Hay que tener en cuenta que el JS puede ser válido para Google, pero el resto no para el resto de buscadores como Bing.
  • Google usaba Chrome 41 para renderizar, pero ahora es evergreen. Quiere decir que usa la última versión disponible de Chrome para renderizar. En la práctica no cambia mucho. Google sigue dejando el código JS para la segunda ola de indexación.
  • Cuando pensemos en el renderizado del lado del cliente hay que tener en cuenta todos los dispositivos disponibles en el mercado. No es lo mismo el último modelo iPhone, que un smartphone de hace 4 años (imagen).
Javascript por dispositivo

Recursos para leer y ver:

https://medium.com/@benjburkholder/javascript-seo-server-side-rendering-vs-client-side-rendering-bc06b8ca2383

https://www.analistaseo.es/posicionamiento-buscadores/seo-progressive-web-apps-pwa/#Client_Side_Rendering_CSR

https://www.deepcrawl.com/wp-content/uploads/2019/03/DeepCrawl-Ultimate-Guide-to-JavaScript-for-SEO.pdf

Los vídeos de Martin Splitt (Google) sobre SEO y Jasvascript: https://www.youtube.com/watch?v=LXF8bM4g-J4&list=PLKoqnv2vTMUPOalM1zuWDP9OQl851WMM9

Redirecciones Meta Refresh en una entrada de WordPress

Logo de WordPress

Leyendo el otro día un artículo de sobre la posibilidad de optimizar los meta datos editando una entrada de WordPress (disculpad que no mencione, pero no recuerdo de quién era y no lo encuentro), se me ocurrió una cosa: ¿funcionaría también con las meta redirecciones?

Es decir, ¿implementar un meta refresh 0 funcionaría si lo situamos dentro del contenido? Pues bien, la respuesta es sí. Hice la prueba y la página hizo una redirección sin problemas.

Evidentemente, la redirección tarda más tiempo en surgir efecto porque Google tiene que procesar la web

Problema

Al ir dentro de una entrada, al hacer el experimento se redireccionaba todo el blog porque ésta estaba a su vez en la Homepage. Podríamos evitar esto con la mayoría de plantillas haciendo que este artículo tuviera solo una categoría nueva que no se mostrara en ningún otro lugar de la web.

La verdad que de momento con mi plantilla actual (la que viene por defecto en WordPress) no he conseguido hacerlo.

Google no lo recomienda

Google ya ha dicho en multitud ocasiones que el meta refresh redirect es un método que no recomienda.

John Mueller dijo hace poco sobre este tema: “No lo recomendamos por dos razones: UX (mantiene la página en el historial del navegador) y el tiempo de procesamiento (tenemos que analizar la página para verla)».

Si lo queréis usar como recurso último recurso, el meta sería de esta forma:

<meta http-equiv=»refresh» content=»0;URL=https://EJEMPLODEREDIRECCION.COM/»>

Hay que insertarlo vía html

Verificación de hechos, la etiqueta de Google para asegurar el contenido de calidad

Google Panda

Uno de los grandes retos que Google está afrontando los últimos años es el combatir los contenidos de baja calidad o, peor aún, los contenidos que directamente son falsos y no tienen otro propósito que el de ganar tráfico cómo sea y por lo que sea.

Para hacer frente a esta práctica Google lanzó hace unos meses la etiqueta de hechos verificados que permite constatar que verdaderamente una información es real y está documentada y contrastada.

Contenido falso

Desde que existe internet, pero con un aumento drástico los últimos años, son muchos los medios que se nutren de informaciones falsas, leyendas, rumores y noticias no contrastadas para tratar de lograr un buen posicionamiento y competir así con los grandes diarios nacionales e internacionales.

Hace unos meses se creó una gran polémica en Estados Unidos cuando la página mejor posicionada para “votos finales” en las últimas elecciones no contenía ni los datos finales, ni los oficiales.

Otra gran polémica surgió también en Estados Unidos cuando varias de las páginas mejor posicionadas para holocausto, eran negacionistas.

Más info: http://searchengineland.com/google-search-quality-crisis-272174

Cómo funciona la etiqueta de verificación de hechos

Para que tu página puede ser verificada lo primero es marcarla con la etiqueta de schema ClaimReview.

Una vez en el código, serán los quality raters de Google los que se encarguen de decidir si la información está contrastada y es vedad.

Contenido de Calidad

Otro de los problemas que afronta Google desde su creación es saber distinguir cuando un contenido es de calidad y cuando no. Aprender a diferenciar entre un texto de 500 palabras de Vargas Llosa y un artículo de 1.000 de, en el mejor de los casos, un estudiante de primero de periodismo.

Existe la teoría -negada por Google- que asegura que cuanto más largo es un artículo mejor posiciona. En mi opinión es una teoría real, no solo porque Google ante la imposibilidad de saber cuándo un artículo está bien escrito y cuando no, siempre va a “pensar” que un artículo más largo debe ser de mayor calidad (algo lógico por otra parte ya que a mayor longitud se presupone más investigación, más teoría y más ejemplos), sino porque además cuanta mayor longitud tenga éste, mayor será la posibilidad de usar keywords, relaciones semánticas, etc

Google trabaja también en maneras de mejorar su algoritmo para tratar de identificar los contenidos llenos de paja y prioridad los contenidos buenos y que responden realmente a las necesidades del usuario. ¿Y cuántas palabras son esto? Pues depende. Para explicar la situación económica de las economías emergentes seguramente necesitemos más de 1.000 palabras, pero para un artículo sobre cómo preparar un gintonic, seguramente no.

¿Ayudan a posicionar imágenes el Nombre del Archivo y el Title?

logo de Google

Para comprobar si el nombre del archivo y el title sirven para posicionar una página web he creado 3 urls diferentes, con una imagen y una palabra clave inventada:

  • La primera tiene la palabra clave solo en el nombre del archivo
  • La segunda tiene la palabra clave en el nombre del archivo y el atributo ALT
  • La tercera tiene la palabra clave en el nombre del archivo y el atributo Title

URL1

URL2

URL3

No escribiré la palabra clave para no interferir en el experimento.

Creo que indexarán las del atributo ALT y el Title, pero no la del nombre de archivo.

 

EDITO (20 de abril de 2017)

Ha pasado más de un mes y solo se ha indexado la que tenía la palabra clave en el ALT. Por lo tanto en términos de posicionamiento en buscadores podemos decir que mejor no perder el tiempo en cambiar los otros atributos.

 

 

11885 INFOGUS, la gran estafa SEM de la información telefónica

estafa infogus y movistar

He recibido la última factura de Movistar en la que para mi sorpresa se incluye un cargo de más de 40 euros por una llamada de tarificación especial a un número 11885. Una llamada de algo más de 5 minutos a una empresa que responde al nombre de TELEFONIA INFOGUS SL. Tras hablar con la persona que realizó la llamada, me afirma que fue una llamada al número de atención al cliente de la empresa de autobuses ALSA -y encima para solucionar un error de ellos-. Me pongo a investigar el caso y me doy cuenta que el número de ALSA, aún siendo de los que Movistar cataloga de tarificación especial (902XXXXXX), no es el 11885 que viene registrado en la factura.

Pero, ¿cómo ha llegado esta persona hasta ese número?

Basta con hacer una búsqueda en Google y no estar familiarizado con el sistema de anuncios (Adwords) que tiene el gigante informático. Si uno busca “numero atencion al cliente alsa” o frases con palabras clave similares, nos aparece una página en la que los 3 primeros resultados son anuncios. Estos resultados son de pago y aparecen cuando se buscan determinadas palabras.

atención al cliente, ALSA

En este caso pueden estar programados por ejemplo para aparecer ante las búsquedas “numero atencion al cliente” o «atencion cliente alsa». Cuando uno hace clic en uno de estos resultados se le cobra una determinada cantidad a la persona o empresa que ha puesto el anuncio.

Si alguien no conoce bien cómo funciona este sistema de anuncios es lógico que pueda pensar que el resultado mejor posicionado en Google es el resultado más fiable, pero no, son empresas diferentes que utilizan el desconocimiento de los internautas para levar a cabo sus estafas. La empresa responsable de esta estafa es TELEFONIA INFOGUS SL. En estos anuncios uno puede usar la palabra o marca que quiera para los titulares, descripciones y direcciones web que aparecen. En este caso se aprovechan de la marca «ALSA«.

Por supuesto ALSA dice no saber nada de este número (digo yo que su equipo de marketing digital algo tendrá que saber) y MOVISTAR, pues os lo podéis imaginar, que “mala suerte”.

Vale hacer la búsqueda en Google de «11885» para darse cuenta que hemos sido muchos los estafados por esta empresa. El Gobierno, por supuesto, está más pendiente de poner trabas a los autónomos y de rescatar aeropuertos sin aviones, que de combatir este tipo de prácticas, que se suelen cebar con los más débiles

Acostumbrados a este tipo de estafas

Samsung, Movistar y la Tablet

El último caso le ha sucedido a este que escribe con la compra del último móvil de Samsung, el Galaxy s7. Resulta que con la compra del dispositivo en Movistar, la empresa coreana te regalaba supuestamente una Tablet. En Movistar me dijeron que sólo hacía falta una foto de la caja donde viene el IMEI, una foto del IMEI (captura de pantalla) y una copia de la factura. Pues bien, cuando fui a reclamar la Tablet a Samsung me dicen que lo que hace falta es una foto de la minúscula pegatina que viene detrás del móvil. Una pegatina que evidentemente había tirado al segundo de abrir el móvil. Movistar se puso en contacto con Samsung para confirmar que soy el comprador de ese modelo, pero para los coreanos soy solo un consumidor enfadado. Un consumidor que lleva 10 años comprando sus productos, pero eso que más da.

Google nos deja sin trabajo

Juegos olímpicos Google

Estoy impresionado con la información que Google está ofreciendo sobre los Juegos de Río. Me refiero a la caja que te ofrece ante prácticamente cualquier búsqueda relacionada con los juegos.

Puedes probar con juegos Olímpicos:

Juegos olímpicos Google

Con la información de un país:

Juegos olímpicos Google

O con un atleta:

Juegos olímpicos Google

La gran cantidad de información de la que dispones sin necesidad de hacer un solo clic la verdad que es increíble y para el usuario es inmejorable, pero esto me lleva a preguntarme sobre la idoneidad que tiene para el buscador hacer esto, ya que va en contra del motivo de su propia existencia: ofrecer para cada búsqueda la mejor página web.

Me imagino que muchos de los dominios más pequeños que llevan años luchando por alguna de las keywords relacionadas con los Juegos, no lo volverán a intentar en Tokyo 2020. Las answer box hacen que el número de clics por posicionar en primera página bajen sustancialmente y por lo tanto la rentabilidad de estás webs. Y si no hay rentabilidad, no tiene mucho sentido el trabajo.

RankBrain de Google o por qué el tomate es una fruta

RankBrain de Google

A finales de 2015 Google confirmó el uso de su algoritmo sistema RankBrain. El hecho no hacía sino confirmar lo que el buscador lleva buscando desde hace años: ser cada vez no sólo más rápido, sino también más inteligente. Y lo será aún más en el futuro.

RankBrain es el nombre que Google utiliza para denominar a su sistema de inteligencia artificial que procesa las búsquedas. El método es capaz de aprender y reconocer nuevos patrones de búsqueda y contenido y de esta manera mostrar los SERPS basándose en su nuevo conocimiento y conocimiento anterior. RankBrain relaciona unas palabras con otras en forma de vectores matemáticos. Entender cómo funciona este sistema de palabras conectadas es el principal reto al que se enfrentan los SEO.

¿Qué cambia entonces?

El objetivo número 1 de RankBrain es dar respuesta a queries complejas, pero en mi opinión RankBrain viene a mejorar Hummingbird y sus búsquedas semánticas. El principal cambio en SEO será el keyword research. Ya no nos valdrá solo con el típico “Qué es y cómo funciona…” y tendremos que ser mucho más abiertos y flexibles con las palabras que acompañan al texto. Además, las keywords que hoy posicionan, pueden dejar de hacerlo en el futuro. RankBrain aprende en tiempo real y nunca deja de hacerlo.

Ejemplos:

El primer resultado fue un artículo de Coca Cola que a priori no había sido optimizado por un SEO.

Ejemplo RanBrain de Google

El primer resultado fue un artículo de ICEMD, que sí tiene un title optimizado para buscadores.

 

Conclusión

No hay fórmulas mágicas para posicionarse en Google, ni palabras clave infalibles. RankBrain entiende que a cada búsqueda le corresponde un SERP lo más relevante posible para el usuario y qué si alguien busca qué es el tomate, no quiere artículos que digan “qué es el tomate”, sino que expliquen que el tomate es una fruta.

Sobre los falsos gurús en el mundo del SEO

Falsos gurús mundo del SEO

Como no podía ser de otra manera mi primer post va a ir sobre SEO, o mejor dicho, sobre lo que menos me gusta del SEO. Apenas llevo 4 años en el mundillo, pero ha sido más que suficiente para darme cuenta de cuanto sabioncillo hay suelto. Este artículo va dedicado a los falsos gurús que existen en esto del posicionamiento digital.

Para los que no estén familiarizados con el SEO y resumiendo rápidamente, SEO significa Search Engine Optimization, es decir, todas las técnicas que tienen como objetivo posicionar una página web en los buscadores Google.

El algoritmo que usa Google para ordenar los resultados cuando alguien busca algo es secreto. La empresa da pistas sobre este algoritmo y consejos a los responsables web para conseguir posicionarse en su buscador. Se sabe que hay unos 200 factores que influyen en el proceso, pero el % que aporta cada factor es un misterio.

En estos 4 años y pico he asistido a cuatro congresos de expertos SEO y de la mayoría de los ponentes he podido aprender bastante poco. Unas veces por la reticencia de los mismos a contar sus secretos de posicionamiento (un problema bastante extendido en este mundo) y otras veces porque su nivel simplemente era muy bajo. Por ejemplo, aquí en México asistí a una conferencia de supuesto “SEO avanzado” en la que los primeros 20 minutos sirvieron para explicar qué es el SEO… ¿?.

Luego también están los sabioncillos que te dicen que cumpliendo determinadas condiciones te vas a posicionar seguro. “Con un titular de 7 palabras, 3 enlaces, una foto y una web responsive serás el rey”. Mentira, nunca hagáis caso a esta gente. Como digo se supone que son más de 200 factores los que influyen en SEO y no está claro en que orden. Otro día haré un artículo con los factores que creemos más determinantes. Y digo “creemos” porque nadie puede saberlo con seguridad excepto -supongo- los que mandan en Google.

Ejemplo práctico

Yo tengo una web sobre el mundo del running en la que apenas genero contenido, no tengo casi enlaces entrantes (que apunten a mi web), tiene fallos de carga,  las imágenes no están bien optimizadas… y varias cosas más que los SEO robot pensarán que son un horror y, sin embargo, estoy posicionado segundo (o primero o tercero dependiendo del Google) para unas keywords tan competidas como “mejores maratones del mundo” o “mejores maratones”.

Quiero decir, claro que hay ciertas reglas que hay que cumplir para posicionar un artículo, pero cumplirlas no significa que lo vayas a conseguir seguro.

Creo que esto es extrapolable a otras ramas del marketing digital como las redes sociales o la publicidad, pero el SEO es lo que me toca más de cerca.

Por cierto, también he conocido muchos ponentes y SEOs que saben muchísimo. Se me vienen a la cabeza Fernando Macíá o Lino Uruñuela, pero hay más.