As Interfaces de Usuário Inteligentes (IUIs) são interfaces que utilizam técnicas de interações com IA para aprimorar a experiência humana com dispositivos. As IUIs podem, por exemplo, reconhecer a fala ou gestos de um usuário, adaptar-se a preferências com base na análise de interações passadas com IA, ou auxiliar na realização de tarefas. De fato, o objetivo é criar uma maneira intuitiva e natural de se comunicar com dispositivos eletrônicos, ou Interface de Usuário Natural (NUI). Embora operar tal interface também exija aprendizado, isso é facilitado de forma inerente, dando a sensação de que tudo está acontecendo naturalmente e a própria interface é invisível.
Hoje, as interfaces táteis são as mais amplamente aplicadas e as interfaces de voz são as mais desenvolvidas. Desenvolvimentos futuros promissores incluem reconhecimento de gestos em VR e AR, Dispositivos Inteligentes e interfaces cérebro-máquina.
Exemplos de aplicações de IUI dizem respeito a assistentes de voz inteligentes, como Siri ou Alexa, que entendem perguntas feitas por voz e fornecem respostas ou seguem comandos. Outros exemplos são IUIs que empregam sensores para rastrear movimento corporal, gestos ou olhares para controlar dispositivos. Elas apresentam:
Você pode aplicar aprendizado de máquina, entre outras coisas, para interpretar ondas cerebrais capturadas por fones de ouvido inteligentes. Esta solução foi desenvolvida pela Neurable para criar fones de ouvido dedicados ao trabalho, que detectam momentos de foco e permitem a determinação precisa do tempo e das condições ideais para a concentração. Além disso, durante os momentos de concentração, os fones de ouvido da Neurable automaticamente silenciar chamadas recebidas e permitem que você pule para a próxima música que está ouvindo com seus pensamentos.
Fonte: Neurable (https://neurable.com/headphones)
As interfaces táteis são extremamente populares devido à sua versatilidade. É por isso que os negócios se moveram rapidamente além do reino dos smartphones e displays de eletrodomésticos. Elas são cada vez mais comuns em máquinas de venda de ingressos ou lanches, fechaduras e portões de aeroportos.
Toques, deslizamentos, arrastos, pressionamentos longos – esses são apenas alguns dos gestos que dominam nossa experiência digital. Com eles, podemos tanto digitar em um teclado exibido na tela, pressionar botões, quanto navegar pelos movimentos de um ou mais dedos, ou até mesmo da mão inteira.
Usando IA, os dispositivos táteis se tornaram mais padrão, completando partes de movimento não reconhecidas corretamente pelo dispositivo. Eles combinam dados da interface tátil com gestos reconhecidos pela câmera, melhorando a fluidez da experiência do usuário e aprimorando imperceptivelmente o prazer e a segurança de usar os dispositivos.
Graças ao reconhecimento de gestos, estamos cada vez mais operando apenas com movimento em interações com IA sem toque, com portas, pias de banheiro ou telas de carros. A indústria automotiva também está tornando sua aplicação generalizada. A BMW, por exemplo, introduziu recentemente um recurso de controle por gestos com um display sem toque para controlar o volume do carro, chamadas e outras funções.
Vale também notar o software para operação sem toque de dispositivos disponíveis em locais públicos. No mercado, você pode encontrar:
Fonte: Banuba (https://www.banuba.com/solutions/touchless-user-interface)
De fato, as interações de IA desempenham um papel fundamental no controle por gestos em realidade virtual (VR) e realidade aumentada (AR). A IA aqui reconhece a posição do corpo e interpreta os movimentos e gestos dos usuários, permitindo que eles interajam naturalmente com objetos e ambientes virtuais com suas mãos ou controladores. Um exemplo é o Oculus Quest 2, óculos VR equipados com câmeras que rastreiam os movimentos das mãos para controlar intuitivamente objetos no mundo virtual. Os recursos de VR e AR nos negócios incluem:
Um dos últimos exemplos de aplicação de interações de IA para controle por gestos em VR e AR é o Apple Vision Pro. É um dispositivo de computação espacial que não possui mecanismo de controle de hardware. Em vez disso, o Vision Pro se baseia no rastreamento ocular e gestos das mãos para permitir que os usuários manipulem objetos no espaço virtual à sua frente.
Fonte: Apple (https://www.apple.com/newsroom/2023/06/introducing-apple-vision-pro/)
O Apple Vision Pro apresenta gestos como toque, toque duplo, pinçar e arrastar, bem como gestos com as duas mãos, como ampliar e girar. Esses gestos se aplicam a várias ações, como selecionar e manipular objetos, rolar, mover janelas e ajustar seu tamanho.
O papel crescente da inteligência artificial significa que cada vez mais dispositivos e aplicações também estão empregando Interfaces de Usuário por Voz (VUI). Elas possuem tecnologias que convertem fala em texto (STT) e texto em fala (TTS).
O controle por voz já é amplamente aplicado nos negócios para:
Fonte: Verbum.ai (https://verbum.ai/).
Muitas pessoas também usam o controle por voz do software do carro, por exemplo, para definir um destino de navegação e controlar dispositivos inteligentes para controlar a iluminação do escritório.
A maneira ideal de interações de IA com dispositivos seria natural, ou seja, completamente invisível para o usuário. E isso não é pura fantasia. Já existem protótipos de interfaces cérebro-máquina que operam a velocidades inimagináveis, semelhantes à telepatia eletrônica.
Os trabalhos mais avançados na interface cérebro-computador, ou interface cérebro-computador (BCI), estão sendo realizados pela Neuralink. Esta é uma empresa que está desenvolvendo uma interface chamada “The Link”, que já está em testes clínicos.
Fonte: Neuralink (https://neuralink.com/)
The Link é um chip do tamanho de uma moeda que é implantado cirurgicamente sob o crânio, onde se conecta a fios finos chamados fios neuronais que se estendem para diferentes partes do cérebro.
Os fios neuronais contêm eletrodos que podem registrar e estimular a atividade cerebral, permitindo que os sinais neuronais sejam decodificados e codificados, enviando informações para e de um computador ou dispositivo móvel.
The Link é implantado por um robô neurocirúrgico e, em seguida, permite o controle de um aplicativo que permite ao usuário manipular um teclado e mouse com seus pensamentos.
Tais soluções visionárias, no entanto, levantam tantas esperanças quanto preocupações. Por um lado, será possível simplesmente pensar: “Quero postar uma nota nas redes sociais sobre um evento da empresa com uma foto retrato do CEO tirada durante a abertura da reunião.” Por outro lado – como podemos garantir que a conexão não está espionando nossos pensamentos privados?
Se você gosta do nosso conteúdo, junte-se à nossa comunidade de abelhas ocupadas no Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest.
Especialista em JavaScript e instrutor que orienta departamentos de TI. Seu principal objetivo é aumentar a produtividade da equipe, ensinando os outros a cooperar efetivamente enquanto codificam.
Você já se perguntou como é possível ouvir música, ler um livro e reconhecer o…
Você consegue imaginar uma empresa onde a maioria dos processos funciona sem intervenção humana? Relatórios…
A inteligência artificial substituirá os advogados? Todos os médicos perderão seus empregos por causa da…
Contratar a pessoa errada para o trabalho é um custo desnecessário. Para minimizar o risco…
Podemos anotar vários fatores que têm um impacto direto na eficácia de uma empresa. Por…
Você acha que prever o futuro é um trabalho para um adivinho com uma bola…