Decíamos en la primera parte de este artículo a finales del año pasado que medir las nubes como si fuesen relojes es, según Popper, el mayor error de la ciencia. Su gran acierto fue, en cambio, demostrar que la refutación de las hipótesis es la mejor forma de que dicha ciencia avance. Son sus dos grandes aportaciones junto, por supuesto, a la idea de una sociedad abierta que lucha permanentemente contra sus enemigos. Las tres están de plena actualidad hoy en día.
¿Se deben medir los intangibles para tangibilizarlos? (II)

Cualquier persona que siga de cerca los últimos acontecimientos a nivel global, empezando por la pandemia del Covid y acabando por los mundiales recién celebrados en 2022, pasando por los sorprendentes fenómenos meteorológicos y los cambios políticos en los últimos tiempos, observará en todos ellos un alto grado de impredictibilidad a causa, fundamentalmente, de algo a lo que ahora llamamos volatilidad e incertidumbre y que tradicionalmente hemos conocido como complejidad y caos. Popper asociaba esas características, precisamente, a las nubes.

En 2014 el científico Pinhas Alpert, antiguo jefe de meteorología del ejército israelí y académico de la Universidad de Tel Aviv, demostró que el conocimiento de la atmósfera seguía siendo impreciso debido a que se trata de un sistema sin orden y turbulento, sujeto a los cambios en la topografía, las partículas en suspensión, el uso de la tierra y la densidad de población[i]. Y es que hasta hace solo 8 años no se tenían en cuenta estos factores importantes en las predicciones del tiempo. A pesar de eso, las predicciones siguen fallando…

Lo mismo ocurre con las encuestas políticas, sus errores se deben a la dificultad de calibrar la complejidad de nuestras sociedades y los cambios que se producen de una manera rápida, imprevista y muy próxima al momento de la decisión: un gran atentado, un caso de corrupción o una filtración de información. Nate Silver[ii] fue el estadístico que más se acercó en 2016 a predecir -distinguiendo las señales del ruido- la victoria de Trump gracias al uso del meta-análisis de encuestas publicadas (‘poll of polls’), así como del conocido filtro de Kalman: y eso que solo le otorgó el 30% de probabilidad (el resto la mitad, un 15%),[iii].

Podríamos seguir con los ejemplos de una competición como el mundial de fútbol (desde las probabilidades de los equipos de ganarla y pasar de fases hasta las de marcar gol por parte de los jugadores más importantes) o sobre la evolución del Covid al inicio de la pandemia (desde la tasa de incidencia hasta las predicciones económicas del impacto en PIB y, sobre todo, en paro en el caso de España, porque nadie estimó el uso paliativo e intensivo de los ERTE, introducidos en la legislación en 2012 y que en anteriores crisis no existía).

Pero basta con estos ejemplos para ver que los modelos matemáticos que intentan predecir la evolución de distintas ‘nubes’ (las reales y las relacionadas con el comportamiento humano) tienen en las observaciones que usan para ser alimentadas (ya sean las condiciones iniciales de la atmósfera, los estados cambiantes de opinión pública o el número de personas que morirán por un virus) sus principales limitaciones. ¿Por qué? Porque las ecuaciones en las que basan las predicciones parten de datos sobre un estado inicial de las cosas no perfectamente conocido.

Los algoritmos, las fórmulas que le dicen a un sistema cómo procesar los datos, también se equivocan. ¿Cuál es la razón? Los sesgos humanos los reproducen las máquinas en forma de sesgos algorítmicos. De momento, la inteligencia artificial no ha conseguido eliminarlos porque la creencia de Alan Turing[iv] (matemático que descifró Enigma) de que las máquinas pensarían por sí solas se basa en una idea errónea: es perfectamente posible que todas las características de la mente humana sean conocidas. Pero, ¿es que se puede describir a una persona y su ambigüedad con números?

Llegados a este punto, teniendo en cuenta todo lo comentado, ¿cómo afecta a la medición de los intangibles relacionados con la Comunicación, en especial la Reputación y la Marca? ¿En qué fallan los modelos que utilizamos para medir la Reputación? ¿Qué errores existen en la investigación de Marca? ¿Cómo podemos solventarlos y hacer un uso más eficiente de los mismos sin caer en el llamado ‘efecto cobra’, que la obsesión solo por indicadores cuantitativos acabe arruinando la función y, por extensión, el negocio?[v].

De entrada, sabemos que en Reputación los dos modelos utilizados para crear las metodologías o los estándares más aceptados a nivel internacional[vi] provienen del campo de la psicología social (las teorías clásicas de la formación de actitudes, de la influencia de la norma social y las creencias, y del determinante inmediato de la conducta, la intención): el de la acción razonada o planificada[vii], por un lado, y el de la activación automática de las actitudes[viii], por el otro.

Asimismo, en Marca la gran mayoría de modelos utilizados[ix] se asientan también en la psicología social, así como en la psicología de la percepción, en especial los modelos cognitivos[x], y en las teorías de la personalidad[xi] a través de los cuales se definen tres elementos principales que aparecen en ellos: el conocimiento o presencia, la diferenciación o relevancia y la preferencia o ventaja.

Y en la parte de Comunicación, disponemos del modelo integrado de medición de la AMEC[xii] que aúna los tres pasos clave para conectar las acciones con los resultados a través de las percepciones y las intenciones, donde se inscriben los modelos de Reputación y Marca antes mencionados. ¿Dónde está el problema? ¿Dónde está el error de intentar medir esas nubes como si fuesen relojes? Pues en que el problema no se encuentra solamente, que también, en medir solamente los ‘outputs’, sino en cómo se miden los ‘out-takes’ y los ‘outcomes’ para conectarlos con los ‘impacts’ a través de ecuaciones estructurales.

Y justamente también en la presunción de que dichas mediciones y los datos que obtenemos de ellas, tal y como se realizan en la actualidad, son plenamente válidas a la hora de determinar las percepciones de los grupos de interés en torno a una empresa y la correlación entre esas percepciones y las intenciones o actitudes. O en la asunción de que, como sabemos a través de la teoría de toma de decisiones[xiii] y lo que afectan los sesgos cognitivos a estas, dichas percepciones y posteriores intenciones no siempre determinan las ulteriores decisiones.

Eso afecta directamente a la validez del conjunto de modelos e incide en el principal problema y la más importante critica que recibe la disciplina del Marketing y también la de la Comunicación desde hace décadas: por qué si una Marca es bien valorada, si la Reputación de una empresa es elevada y superior a la de su competencia en comparación, no en pocas ocasiones sus resultados finales, su ‘performance’, es peor que la de esos competidores. Es decir, si tener una Marca valorada y una buena Reputación es una condición necesaria pero no suficiente para generar resultados.

Debemos añadir otra cuestión clave: los comportamientos de apoyo y las decisiones finales, además de depender de otros factores contextuales y de nuestra propia percepción de la situación en la que tomamos la decisión -no sobre lo que la tomamos-[xiv], dependen también de la actitud de riesgo, la varianza, esto es, el intervalo entre posibles resultados. David Ogilvy decía que no escogemos la marca A porque pensemos que es mejor que la B, sino porque pensamos que la A nos va a llevar menos al desastre que la B en un contexto determinado. Elegimos por varianza y no por promedio. Kahneman lo explica bien en su teoría prospectiva[xv].

Nuestras decisiones, por tanto, dependen más del contexto que del texto o esencia sobre lo que decidimos, en este caso, la empresa, ya sea en su dimensión comercial, laboral, financiera o regulatoria. Es decir, que una buena marca o una buena reputación no es aquella que es mejor ‘per se’, sino aquella que es menos mala, que no es exactamente lo mismo, siguiendo el ‘adaggio’ de que quien más sabe de algo no es aquel que más acierta, sino el que menos se equivoca. Sin embargo, los modelos se basan en cuestionarios que preguntan por el grado de bondad de las empresas.

Podemos añadir aquí que las decisiones tienen como ‘driver’ o vector fundamental las distintas micro-reputaciones (dimensiones) relevantes para cada stakeholder, siguiendo el principio de que ‘existe una reputación por algo y para alguien’, no el constructo macro que llamamos reputación corporativa y que actúa de factor de respaldo o reafirmación de la decisión. A pesar de ello, los modelos intentan inferir comportamientos de apoyo a partir de la reputación en su conjunto. Luego vemos en crisis como las de Volkswagen en 2015 -o en la de Siemens, la de la FIFA, la de Toyota, la de Iberdrola o tantas otras- como esto falla en la praxis.

La incertidumbre, lo decíamos al principio, añade a la toma de decisiones la percepción de riesgo que es esencial en la resolución final, no solo la utilidad o la bondad cuentan. Esa es la razón por la que sí hemos podido demostrar la relación causal entre una mala reputación y sus malos resultados en el medio y largo plazo, incluso en el corto plazo en situaciones de crisis, pero no lo contrario. De nuevo, el criterio de falsación de Popper no lo aplicamos a la hora de investigar sobre la hipótesis principal: tener una buena marca o contar con una buena reputación contribuye decisivamente a obtener unos buenos resultados. ¿Por qué no intentar falsarla para demostrar si realmente es cierta?

Además, y esto es algo compartido con el conjunto de la investigación hoy en día, despreciamos cada vez más la información cualitativa que es crucial a la hora de enriquecer y, sobre todo, iluminar, aportar luz a los datos cuantitativos, en especial si provienen o analizan información, precisamente, cualitativa. Ya en 1976 Donald Campbell estableció su archiconocida Ley en la que señala los efectos perversos de usar solo los indicadores sociales cuantitativos para tomar decisiones en las organizaciones.

Un ejemplo de ello es lo que le ocurrió a Olimpiy Kvitkin, un estadístico ruso que, por encargo de Stalin, dirigió el censo de población de 1937 de la URSS. El resultado fue una población total de 162 millones de rusos, inferior en 6 millones a la que Stalin anunció en 1934, cuando dijo que la población rusa "seguía creciendo". A los pocos días de informar al Kremlin de los resultados, Kvitkin fue fusilado.

En el bando contrario, encontramos a Robert McNamara, secretario de Defensa de EE.UU. entre 1961 y 1968 -antes de eso había sido CEO de Ford y luego presidente del Banco Mundial-: eligió una métrica clara para garantizar el éxito de la campaña de Vietnam, maximizar el recuento de cuerpos enemigos, causando el máximo número de bajas y avanzando el terreno suficiente para poder realizar el recuento de las bajas producidas. Sin embargo, cometió el error de dejarse guiar únicamente por esa métrica, haciendo caso omiso a otras variables que eran difíciles de cuantificar y de las que no disponía de suficiente información. De nuevo, el acceso a los datos claves como causa del fallo.

Años más tarde McNamara reconocería su error: “Nosotros, los miembros de las administraciones Kennedy y Johnson, participes directos en las decisiones sobre Vietnam, nos equivocamos, estábamos terriblemente equivocados. Yo nunca había visitado Indochina y no comprendía nada de su historia, de su lengua, de su cultura o de sus valores. Era totalmente insensible a todo ello. Cuando se trataba de Vietnam, estábamos en posición de decidir una política para una tierra desconocida para nosotros”. Decisiones basadas en malos datos cuantitativos sin tener en cuenta los datos cualitativos.

Esa es la falacia McNamara que hoy vemos claramente traspuesta en otra falacia igual, la de la tangibilización de los intangibles: 1) medir todo lo que sea fácilmente medible y tengamos a mano; 2) descartar lo que no se puede medir o darle solo un valor cuantitativo, despreciando lo cualitativo; 3) suponer que lo que no se puede medir no es importante o relevante; 4) decir que lo que no se puede medir no existe.[xvi].

En resumen, y para acabar con esta serie de dos artículos sobre una cuestión que ocupa y preocupa a la profesión en los últimos años, es imprescindible revisar, a mi juicio, las asunciones o presunciones sobre las que se basan los modelos que usamos y las conexiones que establecemos entre causas y efectos con el objetivo de, realmente, ofrecer aquello con lo que podemos ayudar al éxito de las organizaciones desde la función de Asuntos Corporativos -para mí la mejor definición que aglutina hoy las principales áreas de trabajo del departamento-: su sostenibilidad y pervivencia en el tiempo.

Al igual que otras funciones como Finanzas, Legal o Personas, nuestra función está más cerca de proteger la empresa a medio y largo plazo, así como contribuir a asegurar que continúa con su actividad gracias a la legitimación social que obtiene, y no de funciones como el Marketing o las Ventas, más enfocadas a lograr nutrir, cada vez más debido al entorno digital, los ingresos en el corto plazo. Y las metodologías de medición de los intangibles relacionados con ella deberían de acompañar, siguiendo ese criterio, a la función a la hora de demostrar ese auténtico valor que sí podemos aportar y, tan importante o más, demostrar.

 

[i] Alpert, P. et al.: Investigation of the dominant factors influencing the ERA15 temperature increments at the subtropical and temperate belts with a focus over the Eastern Mediterranean region. Land, 3(3), 1015-1036; https://doi.org/10.3390/land3031015, 2014

[ii] Silver, N.: La señal y el ruido: Cómo navegar por la maraña de datos que nos inunda, localizar los que son relevantes y utilizarlos para elaborar predicciones infalibles. Península, Barcelona, 2014

[iii] Kalman, R. E.: A new approach to linear filtering and prediction problems. Journal of Basic Engineering, vol. 82, 35-45, 1960

[iv] Turing, A.M.: Mentes y máquinas. Tecnos, Madrid, 1985

[v] Harris, M. y Tayler, B.: Don’t let metrics undermine your business. HBR, sep-oct 2019

[vi] Fombrun, Ch. et al.: Stakeholder tracking and analysis: the RepTrak® system for measuring Corporate Reputation, CCR, feb 2015

[vii] Fishbein, M. y Ajzen, I.: Belief, attitude, intention and behavior: an introduction to theory and research. Addison-Wesle, 1975

[viii] Fazio, R.H. et al.: On the automatic activation of attitudes. Journal of Personality and Social Psychology 50(2), 229-38, 1986

[ix] Forero, M.F. y Duque Oliva, E.J.: Evolución y caracterización de los modelos de Brand Equity. Elsevier Suma de Negocios, vol. 5, núm. 12, 158-168, dic 2014

[x] Neisser, U.: Cognitive psychology. Prentice-Hall, 1967

[xi] Allport, G.: Becoming: basic considerations for a Psychology of Personality. Yale University Press, 1955

[xii] AMEC: https://amecorg.com/amecframework/

[xiii] Aguiar, F.: Teoría de la decisión e incertidumbre: modelos normativos y descriptivo. Revista de Metodología de Ciencias Sociales, núm. 8, 139-160, 2014

[xiv] Hastie, R. y Pennington, N.: Explanation-based decision making en ‘Judgment and decision making: an interdisciplinary reader’, 212–228. Cambridge University Press, 2000

[xv] Kahneman, D. y Tversky, A.: The framing of decisions and the Psychology of Choice. Science, New Series, vol. 211, núm. 4481, 453-458, 1981

[xvi] Yankelovich, D.: "Corporate Priorities: A continuing study of the new demands on business." (1972)

Artículos Relacionados: 

-Juan Benavides Delgado. "La ética secuestrada"

-Javier Barraca.  "La ética es una vocación, no un protocolo"

-Joaquín Fernández Mateo. "Tras la virtud en el Tecnoceno: mesura para la Cuarta Revolución Industrial"

-Ricardo Gómez Díez. “Sostenibilidad y ESG, dimensión integral y transversal de la Gestión y la Reputación”

-Cristina Valcarce Martínez. "La Ética del cuidado en nuestros mayores"

-Isabel López Triana. "La ética del propósito"

-Javier Camacho. Ética del comportamiento vs. Ética del cumplimiento

-Juan Benavides Delgado. La moral fragmentada

-Javier Barraca. Formar para un cumplimiento organizativo fecundo

-Javier Barraca. ¿Por qué no “fichar” a un filósofo y un humanista para el equipo?

-Joaquí Fernández Mateo. Las turbulencias del capitalismo sostenible y las amenazas del capitalismo espectacular

-Ana López De San Román. La Ética como herramienta de cohesión social

-José Luis Fernández Fernández. Banca con propósito y negocio sostenible: Consideraciones al hilo de un premio de investigación en Ética Empresarial

- José Luis Fernández Fernández.La empresa como sujeto penal y agente moral

- Juan Benavides Delgado. La búsqueda de los principios éticos

- Óscar Sánchez Alonso. Potencial ético y estético del saber mirar: organizaciones que aciertan a ver(te)

- Fernando Galindo Rubio. Metaverso: el viento premonitorio del gran tsunami tecnológico

-José Luis Fernández Fernández.Marco y contexto para 30 años de Ética Empresarial en España

- Mercedes Ramos Gutiérrez. De normalizaciones y responsabilidades

-Marta González Álvarez. Sostenibilidad en tiempos de guerra

- Irene Bajo García ¿Está cumpliendo la universidad con la ética implícita en los ODS?

- Inés Gomis Historias entorno a un aeropuerto, su ampliación y la prensa

-Antonio Burgueño.  Danos hoy nuestra ética empresarial de cada día

-José Luis Fernández Fernández. Treinta años de Ética Empresarial en España: ¡Menos samba e mais trabalhar!

-Celia Rangel Pérez. Posibilidades comunicativas y retos éticos de la Inteligencia Artificial

¡Comparte este contenido en redes!

Síguenos

Síguenos en Twitter Síguenos en Facebook
Top