Midiendo Percepciones: Logrando el Desafío de la Calidad Percibida

El diseño vende una promesa, pero el desafío real en el proceso de diseño es asegurar que esa promesa de diseño cumpla las expectativas de los usuarios. Esto es especialmente verdadero cuando hablamos de productos de uso diario. El equipo de Experiencia de Diseño en Whirlpool México tomó el desafío y desarrolló una metodología que está ayudando a la compañía a entender y medir las percepciones de los usuarios sobre el diseño.

Una de nuestras primeras aproximaciones consistió en usar tarjetas semánticas. Aún cuando este tipo de evaluaciones ha funcionado bien en algunos países, descubrimos que los participantes mexicanos tenían dificultades al asignar valores semánticos a los productos. La gente tiende a distorsionar el significado de los adjetivos usados al evaluar el diseño. Queríamos una muestra más grande y personalizar las evaluaciones (de acuerdo al usuario objetivo) de manera de poder obtener resultados confiables, hacienda que el proceso fuera duradero y caro.

Decidimos tomar un enfoque diferente que fuera más acorde a la realidad latinoamericana y virara más hacia una metodología que había sido ya probada en Whirlpool Europa: SEQUAM (Sensorial Quality Assessment Method, Método de Evaluación de la Calidad Sensorial), desarrollado por Lina Bonapace y Luigi Bandini-Buti en su estudio sobre Ergonomía en Milán. Este enfoque implica analizar un producto o prototipo en términos de las propiedades formales de sus elementos estéticos para luego, a través de estudios empíricos y entrevistas estructuradas, vincular esas propiedades con los beneficios del producto (Bonapace 1999). Esta metodología tiene tres fases principales de evaluación:

  • Visual
  • Táctil
  • Uso

SEQUAM usaba una muestra de 20 personas con entrevistas individuales de alrededor de dos horas, haciendo que todo el proceso de la prueba durara alrededor de una semana. A pesar de que la información de la prueba incluía el análisis de rankings y clasificaciones, el elemento central resultante era la retroalimentación cualitativa de los usuarios. Queríamos percepciones de diseño, pero había un poco de reticencia a aceptar los resultados de SEQUAM pues contenían demasiados datos cualitativos en vez de análisis estadístico. Al mirar los datos, nos dimos cuenta que era muy difícil saber qué querían decir los usuarios al hablar del “mejor diseño”. Por ejemplo, cuando debían escoger lavadoras, algunos participantes usaban palabras para justificar sus elecciones como “gran capacidad”, mientras otros hablaban de la “durabilidad de los materiales” o el “mejor desempeño”. Cuando comenzamos a analizar este comportamiento, nos dimos cuenta que las percepciones verbalizadas típicamente corresponden a valores de la experiencia más que a valores estéticos. Eso significaba que los usuarios tenían a justificar lo que les gustaba extrínsicamente (estética) con los valores intrínsecos (los que se relacionan a la experiencia de uso).

Desarrollando un Nuevo Método

Después de usar SEQUAM algunos años, vimos la oportunidad de medir más específicamente como los usuarios percibían los valores de la experiencia del diseño, y al mismo tiempo, la gerencia de la compañía nos pidió mejorar la metodología con rigor científico.

Nuestro primer paso fue identificar los valores centrales de la experiencia al diseñar artefactos para el hogar. Encontramos y categorizamos varios valores asociados con los artefactos domésticos en las principales plataformas (cocina, lavado y cuidado de los alimentos). Podemos ilustrarlos con aquellos que se relacionan a los artefactos más pequeños como los portables (por ejemplo, cafeteras o tostadoras):

  • Usabilidad
  • Mantención
  • Portabilidad
  • Capacidad

Identificar estos valores fue el primer paso en profundizar el entendimiento de las percepciones de los usuarios. Medir estos valores nos ayudó a establecer objetivos por marca y producto. Esto fue especialmente útil porque en México hay una gama muy amplia de usuarios y productos que van desde los más bajos a los más altos, y desde marcas masivas a marcas exclusivas.

Los valores de la experiencia representarían la columna vertebral de la evaluación de las percepciones de diseño, pero también queríamos mirar la posibilidad de evaluar valores extrínsecos como la modernidad, tecnología, sorpresa, originalidad, artesanía y así sucesivamente.

Como segundo paso hacia la nueva metodología, decidimos usar un enfoque similar al SEQUAM, con investigación de usuarios en profundidad. Esta vez, sin embargo, el estudio sería conducido en el piso de venta con la gente viendo nuestros productos en conjunto con los de la competencia. Este estudio incluyó tres fases:

  • Fase Visual capturada como percepciones de Primer Impacto
  • Fase Táctil capturada como una Exploración No Guiada de productos
  • Fase de Uso, capturada como una Exploración Guiada de un tercero sobre las características de los productos

Para añadir rigor científico a la metodología, decidimos aumentar la muestra a 30 personas; este número nos permitiría crear puntajes promedio que podrían ser enviados a las pruebas de Análisis de Varianza (Analysis of Variance, ANOVA, por sus siglas en inglés). Un análisis posterior nos daría la oportunidad de validar e identificar las diferencias entre medias de puntajes como parte de un error o porque había una varianza significativa en el nivel de confianza entre 95 y 99%. También pensamos que estos resultados resaltarían puntajes más que clasificaciones; ya que las clasificaciones necesitan una muestra más grande para poder validar la exactitud de las estadísticas, mientras que puntajes promedio nos permitirán determinar la exactitud (o varianza) con el uso de un análisis experimental.

Uno de los cambios radicales de SEQUAM fue conducir el test con grupos de participantes en vez de sesiones individuales. Para resolver los problemas de datos tendenciosos, seguimos las siguientes acciones:

  • Las marcas y las capacidades de las máquinas estarían escondidas
  • Se les pidió a los participantes seguir 3 reglas básicas: ser honestos; no ser influenciados o influenciar a otros; y ser entretenidos.
  • Los participantes grabarían sus puntajes individualmente usando una guía impresa con escalas de continuo y un archivador.
  • Se harían pequeños grupos de discusión para capturar retroalimentación cualitativa durante la fase de exploración no guiada.
  • Tres personas tomarían notas con la retroalimentación individual en la fase de exploración guiada.

El uso de grupos en la evaluación nos permitió reducir tiempo y costos y enfocarnos en el análisis detallado de la información, incluyendo tanto las estadísticas como los comentarios cualitativos de los usuarios.

Debido a que la prueba había cambiado tanto ya no era SEQUAM, por lo que decidimos nombrarla prueba de Calidad Percibida o PQ (Perceived Quality, por sus siglas en inglés).

Caso de Estudio: Identificar atributos clave en artefactos de mesa

El diseño de artefactos de mesa es un buen ejemplo con el que la prueba de Calidad Percibida (PQ) puede entregar información valiosa para identificar, medir y conducir nuevos elementos en el diseño.

Cuando pensamos en una juguera, los elementos clave en que los usuarios enfocan su atención son el tamaño, la capacidad y el material del vidrio, y el control de la velocidad. Estos elementos se traducen en:

  • Portabilidad
  • Capacidad
  • Mantención
  • Robustez
  • Usabilidad

La introducción a los atributos clave fue hecha tras anunciarle a los usuarios la prueba y permitirles establecer un modelo mental del contexto.

La primera data obtenida en nuestra prueba mostró que las prioridades de los usuarios al mirar a una licuadora. La Figura 1 muestra un gráfico de radar con el promedio de los puntajes obtenidos del análisis. El gráfico muestra que los usuarios prestaron gran atención a la capacidad del vaso, pero, a la vez, pidieron buena limpieza del producto. La robustez sigue en importancia, mientras que la usabilidad y la portabilidad reflejaron valores menores en las prioridades de los usuarios. Esto no significa que los usuarios no se preocupen de la usabilidad o portabilidad, sino que estos dos atributos quizás eran considerados como obvios para los productos existentes.

El gráfico muestra los puntajes de Capacidad 9.2, Mantención 8.3, Portabilidad 4.3, Robustez, 8.4, Usabilidad 6.5

Figura 1. El gráfico de radar muestra las prioridades en la experiencia de usuario de los participantes.

La etapa de Primer Impacto capturó las percepciones de los usuarios en los atributos clave identificados. Los usuarios inmediatamente tradujeron las expectativas de su experiencia en demandas de diseño. La Figura 2 muestra mejores percepciones en el Producto A dado que tenía más capacidad and controles de velocidad. El Producto B fue percibido como más pequeño que el producto A, pero competitivo en el resto de los atributos. El producto C capturó menos puntaje dado que su tamaño era más pequeño, pero rankeó bien en portabilidad.

Gráfico de barras con los datos de la tabla de más abajo

Figura 2. Puntajes de las Percepciones de Primer Impacto evaluadas en la distancia

Tabla 1. Puntajes de las Percepciones de Primer Impacto 

Producto A B C
Diseño 7.3 5.8 4.0
Capacidad 6.8 5.9 4.5
Robustez 7.9 7.7 3.1
Mantención 7.5 7.1 3.8
Usabilidad 6.9 6.6 4.5
Portabilidad 7.2 6.9 7.5

La Fase de Exploración No Guiada descubre las expectativas de los usuarios en los atributos de los productos. En este caso de estudio, el Producto A fue considerado mejor en el primer impacto, resultando en una falla en las percepciones debido a que el vaso está hecho de policarbonato (que al parecer no salta a la vista en una primera mirada), mientras que el producto B , segundo en la primera fase, mostró mejores puntajes de percepción. Con el vaso real de vidrio, fue la unidad que más le gustó a la gente, lo que se reflejó en los puntajes de diseño. Este cambio en la percepción fue claramente verbalizado entre todos los grupos en el momento en que revisaron los vasos, destacando que el plástico era el material que mantenía los olores en contraste con el vidrio que era más fácil de limpiar y no mantener olores. El Producto C se mantuvo con los mejores puntajes de percepciones debido a su pequeña capacidad, pero buena portabilidad.

Gráfico de barras con los datos de la tabla de más abajo.

Figura 3. Puntajes de la Fase de Exploración No Guiada

Tabla 2. Puntajes de las Percepciones de la Fase de Exploración No Guiada

Producto A B C
Diseño 5.4 7.5 4.4
Capacidad 6.6 6.5 4.3
Robustez 5.9 7.7 3.6
Mantención 5.6 7.1 4.1
Usabilidad 6.5 6.6 5.6
Portabilidad 7.1 6.9 7.1

Durante la fase Final de Exploración Guiada, el moderador de la prueba guió a los participantes para que pudieran revisar partes y características específicas. Esta exploración incluyó la mayoría de las características físicas: Caja, Controles, Cuchillas, Vaso y Tapa. Esta etapa no cambia dramáticamente la percepción de los valores de la experiencia en los usuarios, sin embargo le permite a los investigadores descifrar detalles que los llevan a mejores percepciones. Esto se ilustra bien por la manera en que las personas destacan las características como la capacidad del vaso o la habilidad de sacar las cuchillas de la juguera para poder limpiarla mejor. Esta última característica fue de gran valor para los mexicanos, quienes están acostumbrados a desarmar todo para realizar limpiezas profundas.

La prueba terminó pidiéndole a los participantes que dieran sus impresiones generales de los productos. Estas percepciones representaban el sentimiento final de los usuarios después de un profundo proceso de interacción con los productos. Usamos esta evaluación final para investigar cómo cambiaban las percepciones de los usuarios en cada fase de los procesos de interacción de la prueba (visual-táctil-exploratorio). Esta evolución es resumida en una diapositiva donde se ven las percepciones de los usuarios en la prueba (ver Figura 4), a través de puntajes que aumentaron o disminuyeron.

Gráfico de barras de los 3 grupos de puntajes

Figura 4. Resumen de los puntajes de las impresiones iniciales hasta las finales.

Tabla 3. Puntajes de la última revisión

Producto A B C
Diseño 5.5 7.5 3.3
Capacidad 6.4 7.9 4.1
Robustez 5.5 8.4 4.4
Mantención 5.6 7.8 3.8
Usabilidad 5.7 7.6 4.4
Portabilidad 7.0 7.3 6.6

Conclusiones

La medición de las percepciones ha sido un desafío difícil en la experiencia de usuario. Estamos plenamente conscientes de que los usuarios construyen sus percepciones subjetivas a través de una larga experiencia, y que esas percepciones son muy difíciles de evaluar y verbalizar. Nuestro enfoque no es la panacea que permitirá descifrar qué pasa en la mente de los usuarios durante cada día de uso, pero esta metodología ha funcionado bien al dar cuenta de los aspectos claves del diseño que necesitan atención especial para cumplir las expectativas de los usuarios.

Nuestro uso de la prueba PQ aún plantea dudas en nuestra compañía. Durante una reunión con líderes de Experiencia de Usuario alrededor del mundo, algunos cuestionaron si es que habían demasiados parámetros incluidos para los usuarios típicos, o si la manera en que correlacionábamos la información cualitativa era la correcta. Cada vez que preparamos una prueba PQ, yo explico que es un análisis experimental. Necesitamos más que una interacción con los usuarios para descubrir correlaciones entre las percepciones y los elementos claves de diseño.

Como parte de nuestras mejores prácticas, seguimos buscando maneras de mejorar nuestra metodología. La prueba PQ ha probado ser tanto efectiva como eficiente en ayudar a tomar mejores decisiones de diseño, pero aún necesita evolucionar a través de la experiencia. Nuestra responsabilidad es estar ahí para entregar la mejor experiencia de usuario, y la mejor experiencia comienza con buenas percepciones.

García, A. (2014). Midiendo Percepciones: Logrando el Desafío de la Calidad Percibida. User Experience Magazine, 14(4).
Retrieved from http://uxpamagazine.org/measuring-perceptions/?lang=es

Comments are closed.