Volver al blogDashboard de métricas GEO para tracking de visibilidad en LLMsEstrategia GEO

    Las 7 métricas GEO que debes seguir en 2026 (más allá del Share of Voice)

    2026-05-05·8 min de lectura

    Si solo estás midiendo cuántas veces ChatGPT menciona tu marca, te estás perdiendo el 80% de la película. Share of Voice es la métrica que más se cita en los reportes de GEO, pero por sí sola dice muy poco. Una marca puede tener un SoV del 40% y estar perdiendo dinero porque las menciones la sitúan en último lugar de la lista, con sentimiento neutro y sin link de salida.

    Este post es un framework práctico con las 7 métricas que sí predicen ventas en la era de los LLMs, cómo medirlas y qué decisiones tomar con cada una.

    ¿Por qué medir GEO es distinto a medir SEO?

    En SEO tradicional la cadena causal es clara: posición en SERP → CTR → tráfico → conversión. Cada eslabón es trackeable con Google Search Console y Analytics.

    En GEO esa cadena se rompe en dos puntos. Primero, no hay "una" SERP: ChatGPT, Gemini, Perplexity y AI Overviews construyen respuestas distintas para el mismo prompt. Segundo, una mención sin click sigue teniendo valor (la marca queda en la respuesta), pero también sin click no hay tráfico atribuible.

    Esto fuerza a usar métricas nuevas. Las que vienen del SEO clásico (impresiones, posición media, CTR) son útiles pero insuficientes. Las que de verdad importan miden tres cosas: frecuencia de aparición, calidad de aparición y consistencia entre modelos.

    Las 7 métricas que sí importan

    1. Share of Voice (SoV)

    Qué mide: el porcentaje de respuestas de IA en tu categoría donde aparece tu marca, frente al total de marcas mencionadas.

    Cómo se calcula: (menciones de tu marca / menciones totales de la categoría) × 100, sobre un set de prompts representativos de tu vertical.

    Por qué importa: es el equivalente al market share en GEO. Si en tu categoría hay 5 marcas dominantes y tú no estás, tienes problema.

    Cuándo es engañosa: cuando solo apareces en respuestas a queries muy específicas (long tail) y no en las queries comerciales que mueven decisiones de compra. Un SoV alto en queries informacionales y bajo en queries transaccionales es señal de alarma, no de victoria.

    Benchmark sano: depende de tu categoría, pero por debajo del 15% en tus queries top significa que la IA recomienda otras marcas antes que la tuya.

    2. Citation Rate

    Qué mide: el porcentaje de respuestas donde la IA enlaza a tu sitio web como fuente, no solo te menciona como nombre.

    Por qué es distinta de SoV: ChatGPT puede mencionarte sin citarte. Perplexity casi siempre cita. Gemini cita cuando tiene grounding activado. Una mención sin cita es branding; una cita es tráfico potencial.

    Por qué importa más que SoV en muchos casos: la cita es lo único que te trae visitas. Si optimizas solo para mención (que es más fácil) puedes acabar con un SoV alto y cero clicks atribuidos.

    Cómo subirla: contenido con datos originales, schema markup correcto, autoridad de dominio en el tema concreto.

    3. Position in Response

    Qué mide: en qué posición aparece tu marca dentro de la respuesta del LLM cuando este lista varias opciones.

    Cómo se calcula: para cada mención, registrar si apareces en posición 1, 2, 3, etc. Calcular la posición media.

    Por qué importa: cuando ChatGPT recomienda "las 5 mejores herramientas de X", aparecer primero o quinto son mundos distintos. Datos internos sugieren que la posición 1 captura entre 40-60% del intent de compra de la respuesta completa.

    Acción típica: si tu posición media es 4-5, el problema no es la presencia, es la jerarquía. Necesitas señales de autoridad (reviews, casos de éxito, prensa especializada).

    4. Sentiment Score

    Qué mide: el tono con el que la IA describe tu marca cuando te menciona.

    Escala típica: -1 (muy negativo) a +1 (muy positivo). Lo más útil es la distribución, no la media: una marca con 50% positivo y 50% negativo necesita acciones distintas que una con 100% neutro.

    Por qué importa: la IA puede mencionarte siempre pero en contextos como "marca con problemas de soporte" o "no recomendada por X razón". Un SoV alto con sentimiento negativo es peor que no aparecer.

    Señal de alarma: si la IA te asocia con problemas de pricing, soporte o producto, hay un cluster de contenido negativo (reviews, foros, threads en Reddit) que el modelo está aprendiendo. Hay que limpiarlo o contrapesarlo.

    5. Source Quality Score

    Qué mide: la autoridad de las fuentes que la IA usa para hablar de ti.

    Cómo se evalúa: para cada respuesta, identificar qué fuentes consumen las IAs y clasificarlas: tu propio sitio, prensa tier 1, prensa tier 2, foros, Reddit, competidores, sitios spam.

    Por qué importa: dos marcas pueden tener el mismo SoV pero una está siendo descrita por Forbes y la otra por un thread de Reddit de hace 3 años. Eso predice el sentimiento futuro y la estabilidad de la presencia.

    Acción típica: si la mayoría de tus citas vienen de fuentes débiles, necesitas PR digital y outreach a publicaciones de tu sector.

    6. Cross-Model Consistency

    Qué mide: cuán coherente es la información sobre tu marca entre ChatGPT, Gemini, Perplexity, Claude y AI Overviews.

    Por qué importa: si ChatGPT dice que tu sede está en Madrid, Gemini en Barcelona y Perplexity te llama por el nombre antiguo de antes del rebranding, hay un problema de información incorrecta de tu empresa que confunde al usuario y daña la confianza.

    Cómo se mide: para cada dato clave (sede, fundadores, productos, pricing, año de fundación), comparar la respuesta de cada modelo. Cualquier divergencia es un punto de fricción.

    Acción típica: identificar la fuente que está dando información incorrecta y forzar su corrección (Wikipedia, Crunchbase, tu propia web con schema Organization correcto).

    7. Brand Click-Through atribuido

    Qué mide: el tráfico real a tu web que viene de respuestas de IA.

    Cómo se mide: complicado. Requiere combinar Google Analytics (referrers de ChatGPT, Perplexity, Gemini), parámetros UTM en links que insertas en tu schema, y atribución last-touch para el tráfico que llega como "directo" después de ver tu marca en una respuesta.

    Por qué importa: es la única métrica que conecta GEO con ingresos reales. Las otras 6 son leading indicators; esta es la lagging que valida que las otras están funcionando.

    Realidad incómoda: hoy esta métrica está rota en la mayoría de las herramientas. Los referrers de IA llegan inconsistentes, mucho tráfico aparece como "direct" y la atribución es probabilística. Aun así, mide la tendencia, no el valor absoluto.

    Qué métrica priorizar según tu objetivo

    No tienes que medir las 7 con la misma intensidad. Depende del momento del producto y del problema que resuelves.

    Si acabas de empezar (SoV bajo, cero presencia): prioriza Citation Rate y Source Quality Score. Necesitas que la IA te conozca y te cite. La calidad de la cita importa más que el sentimiento todavía.

    Si ya tienes presencia pero conviertes mal: prioriza Position in Response y Sentiment Score. Apareces, pero apareces tarde o mal descrito. Aquí la palanca es contenido y autoridad, no más exposición.

    Si tu marca cambió de nombre o pasó por un M&A: prioriza Cross-Model Consistency. Cada modelo aprende a velocidades distintas; uno puede estar 8 meses por detrás. Sin consistencia, los otros KPIs son ruido.

    Si tu CMO te pide impacto en revenue: prioriza Brand Click-Through aunque sea imperfecto, combinado con SoV como contexto.

    Cómo automatizar el seguimiento (sin volverte loco)

    Medir las 7 manualmente es inviable. Para una sola marca con 50 prompts representativos, son 50 prompts × 5 modelos × 7 métricas = 1.750 puntos de datos por ronda. Si quieres tendencia semanal, multiplica por 4.

    La automatización pasa por tres capas:

    1. Definir tu set de prompts: 30-100 prompts que representen las queries reales de tu audiencia. No los inventes; sácalos de Google Search Console, de tu equipo de ventas y de Reddit.
    2. Ejecutar el set contra cada modelo de forma recurrente: diariamente o semanalmente, dependiendo del volumen de cambios en tu categoría.
    3. Parsear las respuestas y calcular las 7 métricas: aquí es donde herramientas como Mentio te quitan el problema. Lo que pides es un dashboard que te muestre las 7 métricas, su evolución y alertas cuando algo cambia.

    Sin automatización, GEO se queda en un experimento. Con automatización, se convierte en un canal medible como cualquier otro. Si quieres ver cómo se ven las 7 métricas en un dashboard real, mira nuestro análisis de visibilidad.

    Errores comunes al medir GEO

    Lo que veo repetido en la mayoría de los reportes de visibilidad en IA — y que cubrimos en profundidad en la guía completa para medir visibilidad de marca en IA:

    • Confundir SoV con éxito. Si tu SoV sube pero tu Citation Rate baja, no estás ganando, estás siendo mencionado más sin generar tráfico.
    • Medir solo en inglés cuando vendes en español. Cada idioma es un mercado distinto. ChatGPT responde diferente en español que en inglés y las fuentes que cita varían.
    • Promediar sentimiento. Una distribución 50/50 positivo-negativo da media 0, igual que 100% neutro, pero son situaciones radicalmente distintas.
    • Mirar solo ChatGPT. Es el más usado, pero Perplexity tiene mayor intent comercial por usuario y Gemini está creciendo en B2B.
    • Medir una vez al mes. Los modelos se actualizan continuamente. La frecuencia mínima útil es semanal.

    FAQ

    ¿Qué métrica GEO debería medir primero si nunca lo he hecho? Empieza por Share of Voice y Citation Rate. SoV te dice si la IA te conoce; Citation Rate te dice si esa presencia tiene valor real. Ambas son baratas de medir y dan dirección clara para los siguientes pasos.

    ¿Cada cuánto debo medir mi visibilidad en LLMs? Mínimo semanal, idealmente diario para marcas en categorías muy competitivas. Los modelos cambian, los datasets se actualizan y la competencia también optimiza. Una medición mensual te deja ciego durante 30 días.

    ¿Es fiable comparar Share of Voice entre ChatGPT y Perplexity? No directamente. Perplexity tiende a citar más fuentes por respuesta, lo que infla el SoV en términos absolutos. Compara dentro de cada modelo a lo largo del tiempo, no entre modelos en un único corte.

    ¿Cómo sé si mi sentimiento es positivo o negativo si la IA es neutra por diseño? Las IAs son neutras en tono pero no en framing. Si la respuesta dice "marca X es popular pero ha tenido problemas de soporte" eso es sentimiento mixto, aunque suene neutro. Lo mide bien una capa de NLP por encima de la respuesta cruda.

    ¿Cuál es la métrica que mejor predice ingresos? Brand Click-Through atribuido, cuando funciona. Cuando no, Position in Response combinado con Citation Rate son los mejores leading indicators de tráfico real.

    Empieza a medir hoy

    Las 7 métricas son útiles solo si las puedes ver en un dashboard, no en una spreadsheet manual. Mentio automatiza la captura de las 7 contra ChatGPT, Gemini, Perplexity, Claude y AI Overviews, y te alerta cuando alguna se mueve fuera de rango.

    Audita tu visibilidad GEO gratis →

    ¿Quieres saber si la IA menciona tu marca?

    Descubre tu visibilidad en ChatGPT, Claude y Gemini en minutos.

    Artículos relacionados