¿Qué ocurre cuando salimos de las pantallas y usamos la inteligencia artificial, Internet y la informática en el mundo real? Empieza a ser intrigante. En el ámbito de la tecnología, siempre se anuncia una "importante novedad" en el futuro cercano. En este momento, ese horizonte está dominado por discusiones sobre inteligencia artificial, principalmente ChatGPT, Bard de Google, Copilot de Microsoft y herramientas de IA generativa como Midjourney y Dall-E 2. Mientras que algunas profesiones están adoptando la IA generativa, otras la temen. Veamos...
En esa conversación se habla mucho sobre chatbots. Pero los chatbots son nuestro presente, no el futuro. Las interfaces de chat son la base de las interacciones más conversacionales y naturales con sistemas y computadoras en muchos sentidos; Sin embargo, son solo el comienzo de algo mucho más grande.
Hemos estado anticipando este futuro por un tiempo, pero no ha sido posible hasta los últimos años, cuando convergieron los ingredientes y la tecnología adecuada. Esto es emocionante. La Evolución de las Interfaces Inteligentes.
Todos los tipos de computación e interfaces inteligentes.
¿Qué ocurre cuando salimos de las pantallas y usamos la inteligencia artificial, Internet y la informática en el mundo real? Empieza a ser intrigante. Bienvenidos al futuro de los sistemas inteligentes, que es el resultado de la era de la informática generalizada.
Mark Weiser, jefe de tecnología de Xerox PARC, propuso por primera vez la computación ubicua, también conocida como computación omnipresente o inteligencia ambiental, a finales de los años 1980. En 1991, Weiser escribió un artículo titulado "La computadora para el siglo XXI" sobre el tema. La idea detrás de la computación ubicua era crear un entorno donde las computadoras estuvieran completamente integradas en el mundo físico y donde la interacción natural y sin esfuerzo entre humanos y computadoras fuera posible. donde ignoramos la tecnología subyacente. Weiser imaginó un mundo donde la informática sería "invisible" y los usuarios estarían rodeados de un "tejido informativo" que les proporcionaría información y servicios pertinentes.
El Internet de las cosas (IoT), la red de dispositivos interconectados y los sensores integrados en objetos cotidianos, desde hogares inteligentes hasta automóviles sin conductor, son algunas de las formas en que la computación ubicua se ha hecho realidad. La idea original de la computación ubicua como una experiencia verdaderamente integrada y fluida, sin embargo, aún no se ha desarrollado por completo.
Las interfaces inteligentes, que marcan un cambio de paradigma en la interacción entre persona y computadora, siguen. Las interfaces inteligentes tienen como objetivo hacer que el sistema comprenda el idioma del usuario, a diferencia de las GUI (interfaces gráficas de usuario) convencionales que requieren que los usuarios aprendan el idioma del sistema. En lugar de adaptarse al sistema, los individuos se adaptan al mismo. Para crear una experiencia más intuitiva, las interfaces inteligentes aprovechan los instintos y comportamientos humanos. Estos sistemas son multimodales y incorporan inteligencia artificial (IA), como interfaces táctiles, sistemas de reconocimiento de voz y controles basados en gestos.
Estos sistemas inteligentes tienen el potencial de hacer que nuestra interacción con la tecnología sea más fácil de entender, natural y eficiente. Considere Siri como un esteroide. Por lo tanto, es importante considerar cómo han evolucionado estas interfaces, hacia dónde se dirigen y cómo cambiarán la forma en que interactuamos con los dispositivos y el mundo que nos rodea porque estamos al borde de una nueva era en la interacción entre humanos y computadoras.
El futuro ya está presente, pero no se ha distribuido equitativamente. William Gibson, escritor
La Situación Actual de La Evolución de las Interfaces Inteligentes
En los últimos cinco años, el progreso ha sido gradual y ha cobrado impulso. Comenzó con interfaces de línea de comandos, luego pasó a interfaces gráficas de usuario y, con los teléfonos inteligentes y las tabletas, pasó a interfaces táctiles.
Actualmente ya estamos viendo los primeros pasos hacia las interfaces inteligentes. La tecnología se está volviendo más inteligente, desde Alexa supervisando nuestros hogares inteligentes hasta algoritmos de inteligencia artificial que recomiendan nuestra próxima película de Netflix. Esos están en nuestros teléfonos, automóviles e incluso refrigeradores. Y están alterando la forma en que usamos la tecnología. En los objetos cotidianos, ahora interaccionamos mucho más naturalmente y multimodalmente. Estamos observando el crecimiento de interfaces de voz como Siri y Google Assistant y de Apple, controles basados en gestos en sistemas de juegos como Nintendo Switch e incluso versiones tempranas de interfaces cerebro-computadora (BCI) de compañías como Neuralink.
Como clientes, nos hemos acostumbrado a utilizar datos biométricos como huellas dactilares y reconocimiento facial para autenticarnos y desbloquear nuestros dispositivos. Incluso BMW está comenzando a utilizar la mirada y la interacción gestual para lograr una interacción manos libres en sus automóviles. Las experiencias inmersivas que combinan los mundos virtual y real con las interfaces de Realidad Aumentada (AR) y Realidad Virtual (VR) están ganando popularidad. Esto se puede ver en dispositivos como Microsoft HoloLens y Meta Quest.
Patrones para la Interacción Futura.
Las interfaces de chat actuales, como ChatGPT y otras, están construyendo el futuro de los sistemas multimodales. La gran cantidad de interacciones de ida y vuelta establecerá las bases de cómo los sistemas interactúan con nosotros anticipando nuestras necesidades, confirmando nuestras solicitudes y actuando en nuestro nombre.
Aunque hemos presenciado apariciones de computación e interfaces inteligentes en programas de televisión y películas, siempre parecían estar más lejos. Sin embargo, estamos en el centro de una explosión de innovación de productos que finalmente permitirá los avances en hardware, informática e inteligencia artificial. Es emocionante que lo que solía ser conceptos de innovación y ciencia ficción ahora sean realidad. La influencia de las películas y los programas de televisión ha sido significativa en la forma en que nos han inspirado a seguir adelante.
La interfaz de usuario de Minority Report es uno de los ejemplos más conocidos. La película ha tenido un impacto significativo en la forma en que la gente ve las interfaces y ha sido la inspiración para aplicaciones del mundo real de interfaces basadas en gestos y otras tecnologías emergentes. Muchas personas recuerdan la interfaz gestual del personaje de Tom Cruise, pero el sistema informático utilizado en la película no es muy conocido. El entorno operativo espacial g-speak fue desarrollado por John Underkoffler de Oblong Industries y utiliza gestos naturales en lugar de teclado, mouse o línea de comando. Underkoffler participó en la creación de interfaces holográficas gestuales para Iron Man (2006).
Las interfaces basadas en gestos de Minority Report e Iron Man nos dieron una idea de lo que es posible, mientras que la interfaz de voz de Her nos mostró un futuro en el que nuestros dispositivos nos entienden a un nivel profundamente personal. Explora la idea de una interfaz de usuario natural, la posibilidad de que las personas interactúen con asistentes digitales de manera similar a las humanas y las posibles implicaciones de un futuro en el que la tecnología se integre más en nuestras vidas.
Westworld es otro excelente ejemplo, que explora la idea de interfaces efímeras e inteligencia artificial, donde los androides anfitriones se adaptan y responden a las preferencias y acciones de los visitantes en tiempo real, creando una experiencia altamente personalizada e inmersiva en un parque de diversiones tecnológicamente avanzado. Cuando los androides regresan al "mundo real", se vuelve aún más interesante.
Blade Runner 2049 ofrece un vistazo a un futuro donde el mapeo de proyección y la realidad aumentada crean entornos inmersivos y dinámicos. En la película, el mapeo de proyección crea pantallas holográficas a gran escala que interactúan con el entorno físico, creando una atmósfera inmersiva y surrealista.
El asistente JARVIS AI de Iron Man y el asistente virtual FRIDAY en Captain America: Civil War son excelentes ejemplos de interfaz de usuario natural. Estas interfaces demuestran el potencial del procesamiento del lenguaje natural y el aprendizaje automático para crear asistentes digitales sofisticados y receptivos que nos ayuden a navegar en nuestro mundo cada vez más complejo e interconectado.
Las interfaces inteligentes prometen hacer que nuestras interacciones con la tecnología sean más naturales y fáciles. También pueden hacer que las nuevas tecnologías sean más accesibles para una gama más amplia de usuarios al aprovechar nuestros comportamientos e instintos.
Las nuevas Tecnologías que están surgiendo dan forma al Futuro.
El futuro no usa páginas y páginas de flujos de interfaz de usuario ni reconoce si está en un dispositivo móvil o en una computadora de escritorio. Las interfaces que construiremos en el futuro serán inteligentes, contextuales y efímeras. suficiente interfaz compilada en tiempo real, basada en contexto y relevancia. UI que aparece cuando es necesario y desaparece cuando no lo es.
El futuro de la interfaz es multimodal y ubicua.
Un conserje proactivo que proporciona lo que se necesita basándose en la comprensión de quién es usted y mejora cuanto más interactúa con él. Sistemas que se adaptan a los humanos y no al revés. La capacidad de interactuar mediante voz, tacto o escritura, cambiando fácilmente de modalidad según lo que sea natural para el usuario.
Esta visión del futuro ya está en proceso en algunas empresas. En la Conferencia TED de este año, Imran Chaudhri de Humane ofreció una visión previa de su tecnología inédita, un sistema donde la inteligencia artificial, la visión por computadora y la proyección se combinan para crear un asistente que está con usted durante todo el día sin usar un teléfono, donde el dispositivo desaparece. La demostración SixSense de Pranav Mistry de una interfaz gestual portátil en 2009 en TEDIndia, su proyecto de tesis del MIT Media Lab, recuerda las primeras vistas de este tipo de sistema. Ese año, la presentadora principal de TED, Pattie Maes, líder del grupo de investigación de Interfaces Fluidas del Media Lab, causó mucha controversia al presentar el proyecto.
El equipo que supera los límites, compuesto por el ex diseñador y fundador de Apple Jason Yuan y Sam Whitmore, ha recibido financiamiento para new.computer. Su objetivo es "crear un futuro en el que las computadoras se adapten intuitivamente a los humanos, forjando relaciones tan esenciales como las herramientas que utilizamos". En lugar de centrarse en aplicaciones y carpetas, Jason Yuan creó Mercury OS, una reinvención sencilla y fluida del sistema operativo tradicional centrada en la intención del usuario.
Y las obras de arte más experimentales pueden superar los límites y ayudar a moldear cómo interactuamos con los sistemas futuros. Refik Anadol crea esculturas inmersivas de datos de IA e instalaciones de arte interactivas utilizando mapeo de proyección y aprendizaje automático. Anadol crea entornos hermosos y que invitan a la reflexión al difuminar la línea entre los mundos físico y digital.
Durante la próxima década, la evolución de las interfaces inteligentes probablemente se vea impulsada por los avances en inteligencia artificial, aprendizaje automático, procesamiento del lenguaje natural y la interacción entre humanos y computadoras. Estas son algunas de las tendencias y desarrollos que influirán en ese momento mientras pensamos en los tipos de nuevas interacciones y experiencias que evolucionarán.
Interfaces multimodales: es probable que en las interfaces futuras se integren entradas y salidas de texto, voz, visuales e incluso táctiles. Esto permitirá a los usuarios interactuar con la IA de cualquier manera que les resulte conveniente o fácil de entender en un momento determinado. Por ejemplo, puede dar a su asistente de inteligencia artificial un comando y recibir una respuesta visual a través de sus gafas inteligentes.
Interfaces sensibles al contexto: la IA será más capaz de entender el contexto de las interacciones del usuario. Esto significa que la IA entenderá lo que estás diciendo, dónde estás y lo que estás haciendo en esa situación particular. Esto podría incluir la integración de datos de varias fuentes y sensores para brindar respuestas más apropiadas y personalizadas.
Interfaces emocionalmente inteligentes: la IA tendrá una mayor habilidad para reconocer y responder a las emociones humanas. Esto podría incluir el análisis de señales fisiológicas, expresiones faciales o tonos de voz para comprender el estado emocional del usuario y ajustar sus respuestas en consecuencia.
Interfaces proactivas: las interfaces de IA anticiparán las necesidades del usuario basándose en patrones, hábitos y preferencias en lugar de esperar comandos. Su asistente de IA, por ejemplo, podría recomendarle salir temprano para una reunión si sabe que hay mucho tráfico en su ruta habitual.
Interfaces inmersivas: podemos anticipar interfaces de IA más inmersivas gracias a los avances en tecnologías de mapeo de proyección, realidad aumentada y virtual (AR) demostrados por Humane. Estas tecnologías podrían facilitar una interacción más natural e intuitiva con el contenido digital.
Interfaces colaborativas: cuando la IA trabaje con humanos, será más capaz de resolver problemas de forma colaborativa. Esto requerirá comprender y participar en las conversaciones humanas, como saber cuándo tomar la iniciativa y cuándo pedir una aclaración.
Podemos esperar interfaces más personalizadas e inmersivas en el futuro. El aprendizaje automático y la inteligencia artificial continuarán mejorando la adaptabilidad y la inteligencia de las interfaces. Aprenderán de nuestros hábitos y preferencias, lo que hará que nuestras interacciones con la tecnología sean más agradables y eficientes. La evolución de la realidad aumentada y la realidad virtual seguirá dando lugar a nuevas formas de interacción que desdibujan las fronteras entre los mundos digital y físico. Las interfaces cerebro-computadora (BCI) son una promesa de un futuro en el que podremos interactuar con la tecnología solo utilizando nuestros pensamientos.
Veremos un cambio hacia interfaces ambientales más personalizadas y continuas. Estas interfaces se integrarán perfectamente en nuestra vida diaria, lo que nos permitirá interactuar con la IA de una manera más natural e intuitiva, parecida a cómo interactuamos con otros humanos. En el futuro, piense en una combinación de gestos, mirada, voz e incluso interfaces basadas en el pensamiento habilitadas por avances tecnológicos como BCI.
Los estudios más recientes en el tema son fascinantes. Los científicos están investigando todo, desde interfaces cerebro-computadora hasta algoritmos de inteligencia artificial, y sus descubrimientos podrían cambiar la forma en que usamos esta tecnología. Los investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT están trabajando en sistemas que puedan comprender y responder a las emociones humanas, lo que podría hacer que nuestras interacciones con la tecnología sean más empáticas y atractivas. Mientras tanto, investigadores de la Universidad de California en San Francisco están avanzando significativamente en la tecnología BCI. Recientemente, desarrollaron un sistema capaz de traducir señales cerebrales en oraciones completas.
Las interfaces inteligentes son el próximo paso en la interacción entre personas y computadoras. Mantienen el compromiso de hacer que nuestras interacciones con la tecnología sean más naturales, intuitivas y atractivas. Aunque existen desafíos significativos y consideraciones éticas, las oportunidades son inmensas. La forma en que usamos la tecnología está a punto de cambiar drásticamente.
Servicios Profesionales
En JMC Studio somos una Agencia multidisciplinaria con gran talento creativo, desarrollamos todo tipo de proyectos puede revisar todos nuestros servicios de diseño aquí. Estaremos felices de crear cosas maravillosas juntos
Fuentes: Medium, Adobe Stock, New Computer, Google, Statista, Bootstrat.
Comments