Hermanos Marx

La perjudicial amabilidad en las respuestas

Cuando se pregunta por cualquier tipo de información hay dos tipos de respuestas buenas y una bastante perjudicial. Las respuestas buenas son la correcta y la negativa, la perjudicial es la bienintencionada.

Donde vivo pasa mucho de esto. Si preguntas cómo llegar a tal sitio: a veces te dan las indicaciones precisas; en alguna rara ocasión te dicen que no saben; y la mayoría de las veces se dan respuestas tan amables como incorrectas.

Esto es extrapolable a muchos otros sitios, donde se repite el mismo esquema. No decimos que no sabemos, normalmente tiramos por lo que creemos o nos imaginamos, solo por el hecho de dar la sensación de ayuda. Es más, llega un momento que eres capaz de detectar cuando alguien te está ayudando sin tener ni idea.

Hasta aquí todo correcto. Lo normal en los humanos. El problema está cuando las máquinas, sistemas de información y hasta la inteligencia artificial hereda este esquema y lo replica. Como en todo, los robots ejecutan de forma más sistemática que los humanos, pero si lo que ejecutan es una mala idea, todavía será peor, porque lo hará con la apariencia de precisión.

Cada vez vemos más como en algunos sistemas de información, cuando hacemos determinadas búsquedas que no contienen resultados o respuesta, se opta por dar la respuesta más parecida, en una suerte de aproximación semántica o temática, que acaba llevando a error.

Cuando se diseña el sistema con objetivo de marketing digital también se tira por aproximación, algo que no es necesariamente malo, pero que debe tener algunas exclusiones lógicas del propio objetivo, no todo vale para que la rueda siga girando, hay ciertos topes que se deben respetar.

En plataformas de ocio también te encuentras con esta técnica, algo bastante novedoso, la verdad. Así cuando en Netflix empiezas a buscar el buque insignia de HBO, te autocompleta la búsqueda y en los resultados te de opciones de temática similar, confundiendo por un momento al usuario.