Estrategia de trabajo de Qíndice

En Qíndice contamos con más de 25 años de experiencia en estudios de investigación. Y numerosos proyectos avalan el rigor de nuestros estudios, tanto de marcas, productos, consumidores, como de un sinfín de objetos participantes en la ecuación de cualquier negocio para, al final, aportar el máximo valor a nuestros clientes en su toma de decisiones y en la base de la rentabilidad de su negocio: las ventas.

Todos nuestros trabajos siguen la siguiente estrategia:

Propósito al que debe servir el estudio (para qué)

Nuestros clientes necesitan evaluar el potencial de negocio de muchos componentes: marcas, productos, ubicaciones (de puntos de venta, fábricas, redes comerciales) y generalmente, necesitas información relevante para dicha evaluación y conocer las condiciones para un desarrollo óptimo de aquel potencial.

Evaluar el potencial de negocio de uno de estos componentes no es una mera cuestión de capacidad del mercado y de volumen de consumo. Es necesario producir información más específica.

Como veremos a continuación, esto se concreta fundamentalmente en observar el comportamiento de los consumidores, la posición de la marca y de sus competidores, la posición acerca de algunas ideas clave sobre la compra y el consumo y las actitudes derivadas, que serán el antecedente del comportamiento futuro.

Estratégicamente, si bien justificamos enfoques cuantitativos focalizados, podría ser útil contrastar nuestros datos con otros grupos, mercados, marcas… ámbitos donde estén nuestros clientes o los de la competencia. En el caso de que en un proyecto la evaluación sea positiva para nuestros clientes, proponemos una indagación cualitativa posterior, orientada a optimizar operativamente la comunicación (en un sentido muy amplio del término) necesaria para la implantación de un producto, una marca u otro objeto.

Qué investigar

De acuerdo con el propósito al que la investigación debe servir, necesitamos abordar algunos objetos de estudio.

La naturaleza más bien genérica del propósito que justifica un proyecto hace difícil excluir completamente algún tipo de objeto.

Los objetos de estudio son clasificables, con carácter general, en cuatro grandes tipos:

  • Objetos que son del orden de los Hechos
  • Objetos que son del orden de los Impactos
  • Objetos que son del orden de las Ideas
  • Objeto que son del orden de las Actitudes

Si queremos anticipar las tendencias de la demanda, necesitaremos en primer lugar conocer la realidad actual: cómo es el comportamiento actual de la demanda y qué preferencias revela sobre la oferta disponible y qué relación tienen tales preferencias con las características de la demanda potencial: diferencias territoriales y sociodemográficas en general.

Tanto los comportamientos de compra como de consumo forman parte de los hechos fundamentales del mercado, a lo que hay que añadir otro tipo de hechos, los que definen cómo son los compradores y consumidores.

El potencial de una marca depende de su posición y de la posición de sus competidores. La posición de una marca se fija en un plano, en dos dimensiones por tanto: la notoriedad y el prestigio. Estas dimensiones son del orden de los impactos: las marcas interactúan con los públicos y logran o no formar parte de su universo de elecciones posibles y logran o no apropiarse diferencialmente de ciertos atributos que les confieren un valor más o menos grande. La medida de los impactos involucra una cuestión metodológica con gran importancia práctica, que concierne al proceso cognitivo más importante en la interacción del individuo con el entorno, la percepción. Trataremos también esta cuestión en el capítulo metodológico.

Ahora bien, comportamientos e impactos se desenvuelven sobre un telón de fondo que son las ideas presentes en los públicos que se refieren al producto y a las propias marcas. De cómo tratar las ideas, que son de naturaleza estructural (cualitativa) en el marco de un estudio cuantitativo trataremos igualmente en el capítulo metodológico.

Por último, comportamientos que se traducen en experiencias (jalonadas de impactos perceptibles) y que se estructuran en relación con las ideas preconcebidas, quizás modificándolas, generan determinadas actitudes, disposiciones positivas o negativas a hacer algo o a elegir algo. Tales actitudes están íntimamente, pero no mecánicamente, asociadas a nuevos comportamientos y tienen un cierto y apreciable valor predictivo a la hora de evaluar el potencial de mercado. En este grupo de objetos de estudio, podemos incluir también las preguntas que sean pertinentes sobre preferencias de compra y consumo.

Enfoque metodológico (Por qué un enfoque u otro)

De los objetos de estudio que hemos considerado en el parágrafo anterior, todos son de naturaleza casuística excepto el tercero: las Ideas.

Las ideas son estructuras, para su comprensión no es relevante la casuística y, por tanto, el enfoque de investigación que les es propio es el estructural o cualitativo.

Ahora bien, evaluar el potencial de mercado requiere por encima de todo cuantificaciones y, por tanto, debe focalizarse sobre lo que es medible, esto es, Hechos, Impactos y Actitudes. Por otra parte, si bien las ideas no son comprensibles cuantitativamente, sí son abordables en sus síntomas, para lo cual es útil el enfoque de lo que se conoce como frames por influencia de George Lakoff, que son metáforas que condensan posiciones estructurales en el campo de las ideas. Mediante estos frames sí se pueden medir posiciones que conciernen al telón de fondo de las ideas, que nos pueden ayudar a efectuar mejores segmentaciones y a entender mejor los comportamientos mediante correlaciones.

En consecuencia, nuestro enfoque inicial será cuantitativo.

Para un cuestionario correctamente construido, no necesitamos exploraciones cualitativas previas, pues las preguntas deben depender sobre todo de cómo son los objetos: por ejemplo, la percepción, que es el proceso cognitivo que procesa los impactos producidos en la interacción con los público, articula un signo y una intensidad (percepción más o menos negativa o positiva) y una interpretación (que sustenta, para cada sujeto, su percepción; por ejemplo, valoro mal la marca X porque me parece que tiene un estilo antiguo) y cualquier pretensión de indagar de otro modo sobre este objeto singular que es la percepción sólo producirá ruido.

Empero, cuando dispongamos de la evaluación del mercado en las dimensiones estudiadas, nuestro cliente deberá decidir cómo situarse en ese mercado, en caso de que el potencial le induzca a ello. Y, para situarse, deberá comprender las claves de comunicación, entendiendo el término en un sentido muy general, que le permitirán conectar adecuadamente con los públicos.

En ese punto, se hace máxima la utilidad de un estudio cualitativo y se hace máxima su eficiencia, ya que no se tratará de un estudio genérico y extenso, exploratorio, sino de una indagación concreta, limitada y focalizada sobre los elementos concretos del laberinto del mercado que, en función de la información cuantitativa y del conocimiento experto, vayan a producir mayor rendimiento.

Aspectos metodológicos específicos relevantes: La segmentación. La percepción

La segmentación convencional se funda en la idea del individuo como entidad fundamental para la explicación del comportamiento. Según dicho enfoque, cada individuo tendría unas pautas diferenciadas que permitirían tanto distinguirlo como clasificarlo. La idea subyacente es la del individuo institucionalizado que funda en el siglo XIX la idea dominante, al menos en esa y en la siguiente centuria, de las clases sociales.

Empero, el consumo, de manera clara desde mediados del siglo XX, rompe de facto al individuo decimonónico, hecho de una pieza, y lo descompone en sus actos. Sometido al bombardeo de una oferta creciente, cada vez más diversificada y más cambiante, el individuo social, como consumidor, pierde su unicidad, en lugar de un individuo resulta ser un dividuo.

Esto es perceptible en cualquier segmentación convencional, que agrupa a los individuos según comportamientos diferenciados, a los cuales pretende asociar características diferenciales. Obviamente, en la mayor parte de los casos, tal operación es posible, pero casi siempre con resultados poco claros, difusos, como consecuencia de que la interacción entre oferta y demanda tiende a diversificar y aleatorizar el comportamiento del consumidor, el cual se hace cada vez menos reconocible como ente diferenciado.

El efecto principal es que, para la oferta, perseguir individuos consumidores es cada vez más ineficiente, pues el resultado depende cada vez más del azar.

Ahora bien, la diversidad de comportamientos del consumidor, que lo difumina como individuo claramente diferenciado, está asociada a una no menor diversidad de experiencias y ahí radica, como ha aprendido el marketing en los últimos años, la clave de la vinculación entre marcas y consumidores.

Pero, las experiencias no las definen los individuos tanto como lo que sucede y el entorno en el que sucede. En el ámbito del consumo, lo que sucede concierne a dos posibles actos, que en algunos casos se superponen y en otros se distancian (en el consumo de calzado y ropa, se distancian): el acto de compra y el acto o los actos de consumo o de uso.

De acuerdo con este enfoque, lo que proponemos en nuestros estudios es medir actos de compra y de uso.

Medir estos actos exige atender al espacio (dónde), al tiempo (cuándo) y a la fenomenología (qué está asociado al acto y es perceptible: qué compró, coste, con quién, para qué lo usó…).

El tratamiento de esta información buscará establecer patrones de compra y de uso. Estos patrones, a diferencia de los perfiles de la segmentación convencional, serán claros y distintos y nos permiten identificar patrones correlativos de situaciones de compra y de uso, que, como marco de la producción de experiencias, serán relevantes para comprender el mercado y también para situar a la marca: cómo presentar la oferta y cómo comunicarla.

Una marca es un símbolo, y, por tanto, una idea, pero su presencia en el mercado, con sus productos, sus servicios, sus mensajes, sus signos, produce interacciones con los públicos y en tales interacciones se producen impactos que los consumidores procesan a través de la percepción.

La percepción es medible porque es de naturaleza casuística, se produce a nivel individual y episódicamente.

Para medir bien la percepción, como cualquier otro objeto de investigación, es imprescindible conocer la naturaleza del objeto, sus componentes fundamentales.

Pues bien, la percepción, en tanto que procesa un impacto, un cambio en el entorno inmediato que afecta a un sujeto, tiene una cierta intensidad y puede tener un signo (positivo o negativo), pero no puede detenerse ahí, y no lo hace, se articula con una interpretación inmediata, es decir, un juicio sintético sobre lo que sucede o por qué sucede.

Que la percepción sea el proceso cognitivo más importante se antoja poco discutible: Podemos concebir fácilmente a un humano con muy poca capacidad analítica, pero ¿cómo podría alguien sobrevivir sin capacidad para captar los cambios que le conciernen (la temperatura, la luz, el movimiento, las amenazas, las oportunidades…) y sin capacidad para interpretarlos?

Ahora bien, lo más importante es darse cuenta de cómo es y de que no puede entenderse de otro modo. En particular, el punto en el que buena parte de los intentos de medición de la percepción yerran es el de la interpretación.

Cuando para medir la percepción de una marca sometemos a los entrevistados a una rejilla de marcas y atributos, estamos atribuyendo a aquellos una posición analítica que les permitiría descomponer objetos complejos en sus partes y establecer diferenciaciones entre aquellos. Dejando de lado si podemos suponer o no la capacidad analítica necesaria para esa operación a la generalidad de las personas, lo que sí podemos afirmar es que la generalidad de las personas no se coloca ante las marcas (ni ante los productos, ni ante los servicios) analíticamente porque ello es simplemente imposible y porque el cerebro da prioridad absoluta a la interpretación sobre el análisis.

La imposibilidad a la que nos referimos es fácil de aceptar si pensamos en los recursos necesarios para el análisis, especialmente la cantidad de tiempo que consume, y la paralización de la multitud de decisiones automáticas que nos permiten desarrollar nuestras actividades cotidianas.

La prioridad a la interpretación es una necesidad evolutiva que la supervivencia le ha exigido al cerebro, pues la mayor parte del tiempo evolutivo de la especie (la situación actual de relativa seguridad es una excepción evolutiva temporalmente insignificante) para sobrevivir era necesario decidir en un instante cosas como atacar o huir, por ejemplo, y la decisión instantánea no es compatible con el análisis, exige un juicio global inmediato, una interpretación. Como consecuencia, los humanos somos mediocres analistas, aunque estemos convencidos de lo contrario por la falta de competencia de otras especies, y somos excelentes para la interpretación. Casi todo lo que hacemos se sustenta en interpretaciones y el modo en que procesamos los inputs que se refieren a las marcas y a las experiencias con las marcas responde al modelo general de la percepción.

¿Cómo medir, entonces, la percepción de una marca?

Partimos de la constatación de la presencia de la marca. Si alguien no conoce una marca, no hay percepción, no está en su campo de visión. En el caso de que la conozca, en un espacio de competencia como es el comercial, no hay inconveniente en suponer que habrá marcas con mejor percepción y otras con peor percepción.

Así, con una escala que todo el mundo entiende y que tiene al menos tres propiedades convenientes (los extremos representan bien lo pésimo y lo óptimo; la variedad de posiciones que puede representar es amplia sin llegar a producir confusión alguna; el punto medio aparente y el aritmético coinciden), como es la escala de 0 a 10, podemos representar bien la posición de una marca en cuanto al impacto sobre el consumidor.

¿Qué es positivo y qué negativo en esa escala?

Esta cuestión suele resolverse con notable arbitrariedad.

En las notas escolares, por ejemplo, hay una categorización según la cual el intervalo 0-4 es claramente negativo y después hay distintos grados en las posiciones positivas, pero no son raros los exámenes (por ejemplo, para obtener títulos oficiales internacionales de idiomas) en los que se exigen 7 puntos sobre 10.

En el campo de las marcas, los productos y los servicios, no hay hasta la fecha una entidad que fije fronteras en la escala, ni siquiera todo el mundo usa la misma escala. El modo en que nosotros afrontamos este problema es objetivo, matemático, y se basa en la definición de información establecida por Claude Shannon en la disciplina de la cibernética (Teorema de Shannon). Muy sintéticamente, en una distribución de probabilidad suele haber una concentración diferencial alrededor de algún valor (por ejemplo, es muy corriente en las percepciones de marca que tal valor sea el 7 o el 8); a su vez, las diferencias de probabilidad entre valores contiguos pueden ser más o menos grandes y una diferencia más grande corresponde matemáticamente a una mayor reducción de la incertidumbre (lo que equivale a una mayor cantidad de información), que permite identificar la frontera más nítida. Así, si tenemos una distribución en la que el valor más frecuente es 7 pero la distancia entre 6 y 7 es más pequeña que entre 7 y 8, el criterio objetivo descrito aconsejaría tomar como posiciones positivas las del intervalo 8-10 y como negativas las del intervalo 0-7, con la frontera entre 7 y 8.

En términos prácticos, el Teorema de Shannon, una vez establecida la frontera, nos permite calcular un valor positivo o negativo, según corresponda, para cada posición entre 0 y 10. Llamamos al valor negativo cuantificador de riesgo. En el ejemplo, en 0 tendríamos el máximo valor de riesgo, mientras que en 7 tendríamos un valor de riesgo muy pequeño.

Un cuantificador de riesgo tiene dos ventajas fundamentales sobre las convencionales valoraciones medias: define mejor la posición de las marcas, no sujeto a los efectos de compensación de los promedios; y, sobre todo, permite darles un peso objetivo a las interpretaciones de los entrevistados.

En efecto, a continuación de la valoración global de la marca, registraremos el o los motivos que justifican dicha valoración, expresados abiertamente por los entrevistados. Estos motivos, a los que llamaremos fuentes de riesgo y de seguridad, estarán asociados a distintas posiciones a un lado u otro de la escala, y con nuestro cuantificador podremos ponderarlos para construir un ranking de fuentes de riesgo y de fuentes de seguridad. Este ranking contendrá una medida objetiva del impacto atribuible a cada fuente y podremos saber qué palancas tocar para reducir el riesgo de una marca y aumentar su seguridad, su sintonía con los consumidores.

Diseño técnico (Cómo hacer el estudio)

Población

Nuestros estudios son generalmente enfocados a la población general española, en un intervalo de edad que deberá ser fijado de acuerdo con el cliente y con una limitación por tamaño del hábitat que igualmente deberá ser decidida preliminarmente. Con carácter orientativo, el intervalo de edad podría ser de 30 a 75 años y el hábitat de 30.000 habitantes o más.

Estratificación y distribución de las muestras

Con las restricciones anteriores, la muestra se estratifican por Regiones Nielsen (6 regiones) y tamaño del hábitat y su distribución sería no proporcional, con un tamaño mínimo de 100 unidades y una distribución proporcional del resto, de manera que podamos obtener comparaciones fiables entre los estratos sin penalizar el tamaño total de la muestra y, por tanto, el coste. La proporcionalidad será restituida en el proceso de datos mediante ponderación.

Canal de acceso a las muestras

Proponemos el canal online, mediante panel de internautas, el más barato en la actualidad y el que menos problemas de representatividad plantea. La cuestión del canal de acceso es controvertida porque nos hallamos en un momento de transición. En una primera época, hasta finales de los 80 del siglo pasado, fue indiscutible el canal domiciliario (entrevistas personales y domiciliaras, generalmente con rutas aleatorias); en la segunda época, hasta hace unos 10 años, fue indiscutible el canal telefónico (teléfonos fijos); desde entonces, las encuestas se están desplazando hacia el canal online, si bien aún coexisten ambos.

Las entrevistas personales y domiciliarias, ahora residuales, se abandonaron en beneficio de las telefónicas porque fue creciendo la dificultad para acceder a los domicilios y dicha dificultad no afectaba a todos por igual: era mucho más difícil acceder a domicilios de clase media alta o alta que a domicilios de clase baja; era mucho más difícil acceder a domicilios donde los dos miembros de la pareja estaban ocupados, situación que vino haciéndose cada vez más frecuente. El teléfono, además de disolver en parte estos obstáculos, eludiendo barreras físicas y ampliando el horario disponible, se fue haciendo cada vez más barato en una parte que al principio era muy importante: el coste de las llamadas. La representatividad apenas planteaba problemas debido a la casi universalización del teléfono fijo en los hogares.

Ahora bien, en los 90 ya irrumpen los teléfonos móviles y progresivamente sustituyen a lo fijos, quedando muchas líneas fijas en desuso para los servicios de voz, destinadas sólo a datos. En cualquier caso, el acceso a la población se hizo más difícil a través de los teléfonos fijos, con el inconveniente de que el acceso a través de los móviles siempre ha sido difícil por la inexistencia de bases de datos representativas. El método de generar números de móviles aleatoriamente es engorroso y caro. Actualmente, obtener un éxito en el acceso telefónico a la población cuesta alrededor de 10-12 fracasos. En consecuencia, la muestra teórica y la real son muy diferentes. Los efectos de esta diferencia se controlan formalmente a partir del muy amplio y preciso conocimiento disponible sobre las características de la población, pero es obvio que dependemos fundamentalmente de la voluntad de colaboración de los potenciales entrevistados.

En vista de esta situación, en todos los países desarrollados y emergentes se han constituido amplios paneles de internautas dispuestos a colaborar voluntariamente, estimulados por pequeños incentivos (acumulación de puntos para acceder a ciertos productos, fundamentalmente), respondiendo encuestas. La extensión casi generalizada del acceso a Internet, la amplitud de los paneles (varias decenas de miles de personas, en un país como España) y la diversidad de su composición sociodemográfica permiten obtener muestras tan o más representativas que las que podrían obtenerse por vía telefónica. La objeción de que se trata de colaboradores voluntarios no es sostenible por comparación: cuando llamamos a 10-12 hogares para lograr que en uno acepten responder, el problema es muy semejante. En ambos casos, lo que hacemos es controlar algunas características importantes para asegurarnos de que nuestra muestra se distribuye como la población: región, sexo, edad son las principales. El canal online, por añadidura, es más barato.

Tamaños de la muestra

El tamaño mínimo de la muestra, bajo la condición antes mencionada de tamaño mínimo por estrato de 100 unidades, sería de 600 unidades, pero es del todo aconsejable distribuir una submuestra adicional de forma proporcional, de manera que las regiones mayores tengan mayor representación, en previsión de que puedan encerrar mayor variabilidad interna. Esto nos situaría un escalón por encima, que sería como mínimo el de 800 unidades o, más aconsejable, el de 1.000 unidades. Para el caso de que se realice un estudio cualitativo posterior, en los términos ya explicados, estimamos que podría cubrirse con 4 Grupos de discusión.

Errores de muestreo

Orientativamente, bajo el supuesto de un muestreo aleatorio simple sobre el universo definido, para un nivel de confianza del 95,5%, en el caso más desfavorable (p=q=50), sería de:
• + 10 puntos porcentuales, para el estrato más pequeño
• + 3,5 puntos porcentuales para la muestra global de 800 unidades
• + 3,2 puntos porcentuales para la muestra global de 1000 unidades
Es obvio, a la vista del comportamiento del error de muestreo, que el tamaño total de la muestra debe estar determinado casi exclusivamente por la importancia que le demos a la estratificación y, concretamente, a la estratificación por región.

Además de estas opciones, podría ser interesante para nuestro cliente, disponer de una muestra de contraste en Portugal, donde ya está establecido. Esa muestra podría ser de 200 unidades, si el propósito de la medición fuese sólo ese, el del contraste. Si, además, hubiese un interés específico en ese mercado, el tamaño mínimo recomendable sería de 400 unidades.

Codificación y Controles de calidad

Qíndice efectúa todos sus trabajos atendiendo a su manual de calidad, dentro de un sistema de gestión de la calidad, que está a disposición de sus clientes.

Entregables

Los productos entregables suelen ser de tres tipos:

  • Datos
  • Tablas & Gráficos
  • Análisis

El primer producto es resultado de las tareas de producción: trabajo de campo online, depuración y codificación.

El segundo producto es resultado de las tareas de procesamiento, entre las cuales están las que dependen de los métodos propuestos de segmentación y de cuantificación del riesgo asociado a la percepción.

El tercer producto es resultado de integrar la información, primero analíticamente, después sintéticamente, en un informe.

De estos tres productos, sólo el tercero puede ser ejecutado enteramente por separado y por un equipo distinto al de Qíndice. Y esto conduce a dos opciones de ofertas por parte de Qíndice:

• Ofertas completas

• Ofertas limitadas a los dos primeros productos, incluyendo las consultas necesarias para que quien elabore el tercer producto pueda hacerlo con una comprensión suficiente de los resultados que deba manejar. En esta opción, si bien las tablas sí serán completas, los gráficos no serán necesariamente todos los que pueda desear incluir en el informe quien lo elabore, dado que la cantidad y forma son muy discrecionales; se incluirán los gráficos que sean imprescindibles en los distintos bloques de información: por ejemplo, segmentación o percepción.