iRing remote concept

La mezcla de Internet y Televisión es algo de lo que se lleva hablando mucho tiempo pero que aún no acaba de despegar. Con frecuencia, se escuchan escenarios ideales en los que, mientras ves un programa de televisión, puedes comprar por ejemplo la ropa que lleva puesta el presentador (algo que hace El Armario de la Tele, pero no sobre la tele, necesitas otro dispositivo). Es lo que ha empezado a denominarse como T-Commerce.

Esta semana, dando clases a los alumnos del IE, estuvimos discutiendo sobre este tema. ¿Qué es lo que limita frena el auge del T-Commerce? ¿Porqué no acaba de despegar? Algunas de las conclusiones son brillantes:

  1. La distancia: la gente se encuentra a una media de 2-4 metros de la Televisión. Es un aparato optimizado para ver películas, jugar a la consola o ver el fútbol, pero la experiencia de uso es limitada a la hora de escribir texto, leerlo, buscar, navegar… Y lo más importante: carece de interacción táctil.
  2. La tele es un dispositivo fijo: es decir, que no puedo llevármelo a ningún lado. Está siempre en el mismo sitio, como un tótem. Los ordenadores personales hace tiempo que dejaron de estar en un sitio concreto para empezar a estar ocupando la cocina, el salón o incluso el WC. Con una tele es simplemente imposible…
  3. La experiencia de uso del mando a distancia: no vamos a entrar en detalles. El mando a distancia es un invento del diablo. Y lo peor de todo es que cada vez más se le conceden funcionalidades que nunca debería asumir.
  4. Los canales de compra: muy populares entre las amas de casa y los compradores “nocturnos”. Su gran valor está en vídeos de calidad y la disponibilidad inmediata del teléfono. En países como Corea están muy bien posicionados.

Estos problemas tienen algunas soluciones, pero todas limitadas, puesto la mayoría dependen de un dispositivo adicional:

  • Usar el teléfono móvil como un “espejo”, donde puedas ver en tu dipositivo lo que ves en la pantalla del televisor.
  • Vincular el dispositivo móvil al televisor, con una interfaz especialmente diseñada para la tele.
  • Apostar por el mando a distancia sigue siendo la opción tradicional, pero su modelo de interacción (navegando con botones arriba y abajo y con un foco activo en la televisión) es muy limitado.
  • Shazam es otra alternativa interesante: la gente ya habla de “Shazamming”, de la misma manera que “Googling” o “Hoovering”: la app “escucha” el anuncio que está sonando en la tele y te conecta desde el móvil con la web. Pero de nuevo, dependes de otro dispositivo.
  • Samsumg TV está haciendo esfuerzos interesantísimos sobre modelos de interacción basados en voz. Y también sobre gestos, aunque convive con un cursor en medio de la pantalla del televisor para tener control sobre la interacción basada en este modelo.
  • En silencio, Apple también se está preparando también para la gran batalla: iRing, pretende ser el vínculo entre el humano y la televisión en cuanto a interacción se refiere.

No deja de ser curioso los esfuerzos que se hacen por seguir vinculados a un aparato que, por clara evolución, está cada vez más obsoleto. ¿No será simplemente que estamos llegando al final de Televisión?

MS DOS Screenshot

La semana pasada, se generó un interesante debate en las clases que estuve dando en las instalaciones de la U-Tad. Después de un pequeño ejercicio por grupos, estuvimos cambiando impresiones sobre una palabra a la que muchos de nosotros estamos acostumbrados a escuchar: INPUT.

Si nos pasamos por la Wikipedia Input se define como:
“En la interacción humano-computadora, la entrada (Input) es la información producida por el usuario con el propósito del control del programa. El usuario comunica y determina qué clases de entrada aceptarán los programas (por ejemplo, secuencias de control o de texto escritas a máquina a través del teclado y el ratón)”.

A partir de una definición aproximada a ésta, estuvimos debatiendo sobre qué formas de Input existen en nuestros días:

- El archiconocido click de nuestro ratón.
- Teclear sobre un campo de texto.
- Seleccionar un item dentro de un desplegable.
- Pinchar sobre un botón.
- …

Pero el debate se complicó notablemente cuando nos salimos del entrono GUI (Graphical User Interface) y pasamos a la interacción táctil. ¿Que formas de Input existen en los dispositivos móviles y cuál es la tendencia? La lista creció de manera asombrosa:

- Girar el dispositivo.
- Sacudirlo.
- La posición del dispositivo por GPS.
- Tocar la pantalla con 1, 2 o más dedos.
- Dejar de mirar el dispositivo (la funcionalidad Smart Stay de Samsumg).
- Tocar y mantener un elemento con nuestro dedo (tap and hold).
- El dedo como elemento de identificación (Touch ID de iPhone).
- La velocidad a la que vas con tu dispositivo.
- Saltar.
- Hablar.
- …

También exploramos el futuro y aquello fue abrir una caja de pandora. ¿Qué formas de Input podrían generar comportamientos sobre nuestros dispositivos? (si no lo están haciendo ya):

- El pulso sanguíneo.
- El nivel de stress de tu cuerpo.
- El grado de apertura de tus ojos.
- Nivel de sudoración.
- Temperatura corporal.
- …

La conclusión a la que llegamos es que no sólo las limitaciones de pantalla o el contexto de uso son los nuevos desafíos de la profesión. Las nuevas formas de Input que se avecinan o que ya empiezan a convivir con nosotros también forman parte de la línea de trabajo de los que se dedican al mundo digital. Será curioso ver cómo la masa crítica de usuarios interioriza estas nuevas formas de mandar órdenes sobre sus dispositivos. Qué bonito el horizonte que se nos avecina.

Por cierto, si se te ocurren más ejemplos sería interesante compartirlos para hacer crecer la lista!

El primer cursor del ratón

Si trabajas en el ámbito tecnológico en cualquiera de sus múltiples especialidades seguramente estés involucrado principalmente en uno de estos dos grandes entornos: desktop (lo que se ve desde tu ordenador) o entorno móvil, o ambos claro.

Más allá de las discusiones que existen sobre las limitaciones de pantalla hay un concepto básico que diferencia a un entorno del otro. Un ordenador se basa en un patrón de interacción conocido GUI (Graphical User Interface) y el móvil se basa en la evolución de este último: NUI (Natural User Interface). El primero centra su modelo de interacción en una serie de elementos (conocidos como WIMP: Windows, Icons, Menus, Pointer) sobre todo el primero y el último: las ventanas y el ratón. NUI prescinde del ratón (y del cursor) y centra su modelo de interacción en nuestros dedos y una serie de gestos asociados a él.

Para bien o para mal, la mayoría de las interfaces están evolucionando hacia NUI. Y esto quiere decir que tarde o temprano dejaremos de ver el cursor en nuestra pantalla y que quien dirija la orquesta sea nuestro dedo. Viendo la velocidad de la evolución, probablemente los más viejos del lugar aún vivan este cambio, recuerda que el primer iPhone salió en 2007 y el primer iPad… En 2010, no hace ni 4 años.

Este post es un sencillo homenaje al nuestro viejo cursor, a esa flecha que tantos kilómetros ha hecho en nuestra pantalla para facilitarnos la vida.

Probablemente nunca te hayas dado cuenta, pero el cursor del ratón (la flecha) tiene un ángulo de inclinación de 45°. Lo curioso de esto es que en sus inicios fue vertical. Un cursor vertical para el primer sistema operativo (desarrollado por Xerox) dificultaba su visión en bajas resoluciones, lo que provocó que el cursor se inclinara para identificarlo mejor. Este es un viejo anuncio de ese primer sistema operativo de Xerox:

Con el paso del tiempo, el cursor evolucionó hacia contextos de uso más específicos, donde una simple flecha dejaba de tener sentido y aportaba más información otro tipo de recurso:

  • En editores de texto el cursor cambia a una pequeña barra vertical, llamada “I-bean”. Este término en inglés hace referencia a la semejanza de una viga de hierro de la construcción cortada transversalmente.
  • En otras ocasiones, al pasar sobre un enlace, el cursor cambia su apariencia y coge forma de mano con un dedo extendido, invitando a pulsar sobre dicho elemento.
  • Programas de edición han aumentado la apariencia de este cursor hasta prácticamente el infinito: nos encontramos cursores con pinta de brocha, de lápiz, de cubo lleno de pintura, de varita mágica…
  • En los extremos de las ventanas de nuestro ordenador el cursor cambia a una doble flecha, que invita a arrastrar dicho elemento para ajustar su tamaño.
  • Cuando nuestro ordenador realiza alguna operación y no acepta nuevos inputs el cursor cambia al reloj, spinning o similar.

Bola extra (e inspiración): UX.stackexchange, el Stack Overflow del UX.

Phoebus y la obsolescencia programada

Seguro que has escuchado hablar de la obsolescencia programada en más de una ocasión: la limitación de la vida útil de un determinado producto o servicio para que, tras un número determinado de horas de uso definido por el fabricante el producto o servicio deje de funcionar, lo que implicará casi irremediablemente que tengas que adquirir un nuevo (acuérdate de tu impresora, sin ir más lejos).

Estas situaciones provocan la frustación de muchos usuarios, que ven que algo, en buenas condiciones de uso y bien cuidado, de repente se estropea sin razón, tornándose en algo obsoleto e inútil.

La obsolescencia programada (o planificada) está asociada a un nombre: Phoebus. Y su nacimiento está asociado a un producto muy específico: las bombillas. Phoebus era oficialmente una empresa de procedencia helvética llamada “Phoebus S.A. Compagnie Industrielle pour le Developpement de l’Eclairage”, pero en el fondo se trataba de un cártel, el cártel Phoebus.

El cártel redujo la competencia en la industria de las lámparas incandescentes durante unos 15 años, y fue sido acusado de haber prevenido avances en la tecnología que podrían haber llevado a la producción de bombillas de una duración mayor. Lo que en la vida real se tradujo en la limitación a 1.000 horas útiles de las lámparas de incandescencia. Cualquier producto que sobrepasase este umbral de uso se arriesgaba a una penalización por no acogerse a esta normativa.

Osram, Philips, Tungsram, Associated Electrical Industries, Compagnie des Lampes, International General Electric, Lámparas “Z”, España y el GE Overseas Group eran miembros del cártel Phoebus. Todas estas empresas eran propietarias de un paquete de acciones en la empresa suiza proporcional a las ventas de sus productos.

Aparentemente, el cártel dejó de funcionar en 1955, pero esta iniciativa fue un estupendo aliciente para que muchos otros fabricantes se animaran a ponerle una caducidad a lo que vendían. Y es algo que, por desgracia, llevamos arrastrando desde entonces y que nos lleva a adquirir nuevos productos en lugar de pensar en repararlos, como ocurre en países en vías de desarrollo.

Empiezan a surgir movimientos preocupados por luchar contra la obsolescencia programada, empeñados en fabricar productos de larga duración, con menor impacto ecológico (transporte, logística, recambios, contaminación…). Uno de ellos es Warner Philips y su proyecto Lemnis Lighting, desde donde venden bombillas de larga duración (25 años de uso) a un precio muy ajustado.

Como curiosidad, la ciudad de Livermore en California ostenta el récord de poseer la bombilla más longeva del mundo. Se colocó en 1901 en una estación local de bomberos y cada año recibe un contundente homenaje. Es la bombilla que ilustra este post.

La bola extra, para quien tenga algo de tiempo libre, la dejo para este documental que habla con pelos y señales sobre este tema: La Obsolescencia Programada. Me lo disfruten.

Informe sobre uso de smartphones de Nielsen

Repasando un informe de Nielsen sobre telefonía móvil del año pasado (The mobile consumer report) me encuentro con un par de interesantes datos sobre comportamiento humano que sorprenden teniendo en cuenta el uso tan extendido de dispositivos móviles.

Antes de entrar en detalle, el informe divide la telefonía móvil en tres grandes grupos: Smartphones, Multimedia y Común, y centra su análisis en 10 países representativos (Australia, Brasil, China, Indica, Italia, Rusia, Corea del Sur, Turkía, UK y EE.UU).

Los grupos de teléfonos los describe brevemente de la siguiente manera:

1. Smartphones: incluye dispositivos con y sin pantalla táctil.

2. Teléfono multimedia: pantalla táctil y/o teclado qwerty, pero sin un sistema operativo avanzado.

3. Teléfono común: sin pantalla táctil, sin teclado qwerty ni sistema operativo avanzado.

El informe entra en dos detalles importantes cuando habla de quienes son los usuarios móviles:

1. “En general, los usuarios de smartphones globales tienden a ser hombres (Australia es la gran excepción) mientras que los usuarios de teléfonos comunes tienden a ser mujeres”.

2. “Los usuarios jóvenes tienen más tendencia a poseer un smartphone, mientras que los usuarios más mayores suelen poseer un teléfono común”.

¿Qué aspectos de un teléfono móvil generan rechazo en estos dos segmentos? Personalmente veo dos:

A veces pienso que el simple detalle de que un smartphone incluya por defecto una decena de apps ya es una barrera más que suficiente como para generar rechazo a la hora de intentar aprender a usar un smartphone. Lo que yo llamo pereza digital. Esto es algo casi obvio en usuarios mayores, donde a mayor complejidad mayor rechazo, sin duda. Un smartphone vacío, sin apps instaladas por defecto, rebajaría el rechazo inicial a comenzar a usar un dispositivo de este tipo.

Otro detalle importante que los teléfonos comunes y algunos multimedias incluyen y un smartphone no: botones físicos. El simple detalle de poder apretar un botón real, de escuchar su sonido mientras aprietas, ese pequeño feedback es algo que genera seguridad en las acciones que mandamos a nuestro dispositivo. En esta línea Tactus tecnology ya trabaja sobre pantallas táctiles que hacen crecer (literalmente) botones sobre la pantalla táctil para que la interacción con el dispositivo sea más fiable, sin tener que mirar la pantalla constantemente para asegurarte de que seleccionas la opción correcta o no tener que afinar la puntería con tu dedo.

Y hasta aquí mi punto de vista. Cualquier aportación, como siempre será más que bienvenida.

Efecto wow vs Efecto of course

¿Qué es exactamente el efecto wow? ¿Cómo lo definirías? Pasémonos por Urban Dictionary y veamos cómo lo describe:

“Conjunto de propiedades que dependen de un objeto y que sorprenden agradablemente al espectador. Desde anuncios a dispositivos cool, el efecto wow es un aspecto importante a considerar cuando se diseña. Los ordenadores IBM de mediados de los 90 tenían cierto grado de “efecto wow”. Por desgracia, la mayoría de los usuarios no fueron capaces de reconocerlo”.

Simplificando la definición se trata básicamente de sorprender a tus usuarios. Esa sorpresa que provocas es lo que se denomina efecto wow, de ahí el nombre. Podemos hablar de un mensaje, de cómo entregas tu producto, de cómo lo gestionas, del tono, del diseño de tu producto, de todo el conjunto…

Pero seamos realistas: el famoso efecto wow está sobredimensionado. Todo aquel que anda metido en temas de Internet ha escuchado hablar de este fenómeno y de una un otra forma busca provocar ese intangible entre la gente que pasa por su producto digital. Es la búsqueda de algo tan etéreo y frágil que muchas veces puede jugar en contra del producto: abusar de los recursos para provocar este efecto puede provocar justo lo contrario, que tus usuarios se cansen.

¿Hasta qué punto es realmente importante perseguir este efecto? Al fin y al cabo estamos hablando simplemente de una sorpresa, de algo puntual y muy localizado, que no puede darse de manera constante. No conozco ningún producto digital que esté de manera continua sorprendiendo a sus usuarios.

Hace unos días hablábamos de este tema en Soysuper, de la delgada línea que existe en agradar y generar rechazo en, por el ejemplo, nuestro copy. Como alternativa a este efecto, hablábamos del efecto “of course”, del efecto “está claro, es así”: perseguir la obviedad, las expectativas del usuario, que lo que ofreces con tu producto sea justo lo que el usuario espera, sin sopresas ni cosas raras. Es como tener los cambios de una bicicleta sincronizados, tu usuario y tú estáis en la misma línea de expectativas y experiencia.

Hace unos años trabajé en un proyecto precioso relacionado con todo esto en Lisboa. Un proyecto en el que primero preguntábamos a los usuarios de una gran teleco qué es lo que esperaban de un producto en concreto, antes de usarlo. Tras estas expectativas pasábamos a la parte de la experiencia, donde los usuarios probaban realmente el producto. Fue alucinante ver el hueco que existía entre expectativas iniciales y experiencias finales, pero un punto de partida perfecto para tener claro cuáles serían los próximos pasos para disminuir esa distancia. Sustituyamos el efecto wow por el efecto “está claro”, persigamos la expectativas de nuestros usuarios, esas pequeñas sorpresas y guiños formarán parte de un todo, de una experiencia global más allá de lo puntual y caduco.

Un tema que da para discutir largo y tendido. Lo intuyo…

Solitario online

“El Diseño no intencionado sucede de forma tan natural y con tantos objetos que quienes hacen este uso dificilmente se dan cuenta de sus propias acciones”.

Y esto fue justo lo que le ocurrió a los usuarios del juego desarrollado por el becario Wes Cherry en 1989 con el Solitario para Microsoft, sin recibir ni un duro por ello, por cierto.

Detrás de la idea de incluir este juego en el Sistema Operativo había algo mucho más profundo y serio: que los usuarios interiorizaran un nuevo patrón de interacción con el ratón del ordenador jamás visto anteriormente: el drag & drop (arrastrar un item con el cursor y llevártelo a otro lado) . El juego que Wes creó se basaba precisamente en este gesto, pero generó algo tan adictivo que él mismo reconoció que tuvo que incluir un “Botón Jefe” para que sus jugadores pudieran ocultarlo mientras le daban al Solitario en horario de oficina.

Al final acabó por convertirse en la aplicación más usada de Windows. Tal fue la adicción generada entre sus usuarios que más de uno tuvo que tratarse en manos de especialistas en adicción a ordenadores.

Creo que es el mejor e ejemplo de diseño no intencionado que me he encontrado hasta la fecha…

Entrevista personal a Juan Leal

No soy muy amigo de darle bombo a estas cosas, pero se han dado varias circunstancias que me han animado a decir “¿y por qué no, Juan?:

    1. Un formato de entrevista personal, cercano y lo más importante, una entrevista cara a cara.

    2. Que es un proyecto de alguien que está dándolo todo por reavivar la comunidad UX en nuestro país: Alfonso Morcuende.

    3. Que la idea detrás del proyecto me parece fabulosa para difundir la profesión.

El resultado ha sido una entrevista cercana, en la que me he sentido muy a gusto y en la que he tratado de ser lo más transparente del mundo. Me ha gustado mucho poder recordar los inicios y llegar, charlando tranquilamente, a donde estamos ahora.

Morcuende es la persona que está detrás de un interesante blog que recomiendo a todo aquel desee iniciarse, no en temas UX, sino en el mundo digital. Una preciosa interfaz que apetece leer cada vez que publica contenido nuevo.

Entrevista en UXMAD: Un tipo genial, casi sin pretenderlo.

Analógico vs Digital

Aún recuerdo perfectamente las conversaciones que mantenía con mi padre cada vez hablábamos de relojes. En mi época adolescente un reloj digital Casio F “lo que sea” causaba furor, con esos diseños futuristas que ahora son objeto de colección. Mi padre defendía el reloj analógico. Y yo no era capaz de entender las razones:

“Hijo, en un reloj digital tienes que leer la hora. En uno analógico simplemente identificas la posición de las manillas”.

Recuerdo que también me hablaba del contexto de uso:

“Si vas con prisas, en menos de un segundo consigues saber la hora en uno analógico. Con uno digital probablemente tengas que pararte para leerla”.

Simplemente no me entraba en la cabeza cómo un “viejo” reloj de manecillas podría tener algún tipo de ventaja sobre algo nuevo y moderno, sobre los Casios que andaban en las muñecas de todo el mundo en ese momento. Ahora, con el paso del tiempo, lo veo clarísimo: el triunfo de la forma frente a los caracteres numéricos.

Más razón que un santo.

Inauguración del espacio de formación de La Nave Nodriza. Lanavenodriza.com

Desde hace unos días ya tenemos listo el programa del primer Curso de diseño de productos digitales (PDF). Un curso que arrancará el 8 de noviembre y en el que estamos ya seleccionando a la tripulación que formará parte de esta nueva singladura. Hemos puesto mucho empeño en crear un grupo uniforme, con un nivel parecido, por eso a los que estéis interesados os vamos a pedir una pequeña prueba que nos servirá para conoceros un poco más y ver cómo encajáis con el resto de la tripulación.

También queremos dar la bienvenida a dos nuevos habitantes que tenemos en el espacio de La Nave, los co-workers Jeremías Mayor y Jorge Correa, dos maestros que estarán a nuestro lado los próximos meses.

Hace un par de semanas tuvimos la fiesta de inauguración del espacio de La Nave Nodriza. Fue un rato agradable en el que pudimos encontrarnos un buen puñado de amigos alrededor de un espacio que ya empieza a coger forma. La guinda fue la tartaza que nos regalásteis, un sorpresón en toda regla. Ese mismo día tuvimos la primera sesión informativa con algunos de los interesados en estudiar este primer Curso, pero si estás interesado no te preocupes, porque hasta que cerremos las inscripciones tendremos más sesiones de este tipo.

Montar esto desde cero está siendo una experiencia alucinante. No sólo por poder hacerlo junto con los capitanes de Marina Mercante Isa e Ignacio, sino por la cantidad de gente que nos está prestando ayuda desinteresada desde el minuto 1. Es alucinante lo que os estáis volcando muchos de vosotros para que todo esto llegue a buen puerto. Aunque ya lo hemos hecho en persona, desde aquí también queremos daros las gracias. En estos momentos de arranque necesitamos algunos barcos que nos ayuden en las maniobras de salida del puerto y, sin duda disponemos, de ellos.

Recuerda: si estás interesado en formar parte de este nuevo Curso, entra en Lanavenodriza.com y apúntate para que podamos darte más pistas sobre todo esto. Será un placer conocerte.