O Consumer Electronics Show (CES) deste ano apresentou drones que seguem os seus proprietários, carros com leitura de lábios, robôs que reconhecem os membros da sua família e os jogos VR montados na cabeça controlados com o seu olhar. Em comparação, os telefones “inteligentes” de hoje sentem-se tão curiosos como uma calculadora de bolso.
Na verdade, esperto e inteligentes são termos quase sem sentido. Porque é que um computador de secretária não pode ser “inteligente”? Mas cinco anos depois de comprá-lo, parece antigo. Um dispositivo genuinamente inteligente não seria capaz depois de cinco anos de aprender, praticar e crescer – assim como uma pessoa?
Qualquer dispositivo inteligente digno desse nome deveria descobrir o que eu quero, com uma contribuição mínima de minha pessoa. Devia sentir a minha intenção, talvez até antes de eu a fazer. Isso não o faria ler a minha mente, mas teria uma sensação de como eu penso, assim como meus amigos e colegas, com base no que eu lhes digo e como eles me vêem. E, tal como uma pessoa que bem me conhece, os sistemas inteligentes detectariam a intenção ou o significado das minhas palavras, talvez apenas pela leitura da minha expressão facial ou pela observação da minha linguagem corporal.
Na verdade, os sistemas de computação são cada vez mais capazes de fazer isso e muito mais. Eles podem detectar intenções humanas usando modelos comportamentais e sugestões ambientais. Até agora, dissemos às máquinas o que fazer. Em breve, eles inferirão nossas intenções e pro-ativamente fazer o que queremos, sem ser dito – quase como se pudessem ler as nossas mentes.
Para ser claro, não estamos a falar de uma interface cérebro-computador, onde os elétrodos estão diretamente ligados às nossas cabeças. Em vez disso, os sistemas usarão sensores externos, como câmaras, microfones e sensores infravermelhos, que retomam pistas que indicam as nossas intenções. Por exemplo, a posição da cabeça e o olhar são claras indicações do que alguém está a prestar atenção. Quando um motorista olha por cima do ombro, é um sinal de que ela pode estar a planear mudar de faixa. Da mesma forma, a expressão facial e o tom de voz podem dizer a um veículo autónomo quando o motorista está enervado, nervoso ou simplesmente sem prestar atenção à estrada. A dilatação dos olhos indica surpresa, enquanto o suor da pele pode significar constrangimento ou a adrenalina de excitação.
Os seres humanos leem essas pistas a tempo inteiro quando interagem uns com os outros. Agora as máquinas entrarão no jogo.
Isso segue uma progressão natural na Interação Homem-Computador (HCI), que é a ciência de dizer aos computadores o que fazer, da forma que são mais fáceis e mais eficientes para os seres humanos. Nos primeiros dias, mainframes e mini-computadores precisavam de comandos altamente específicos e bastante técnicos. Então veio a era da PC, com interfaces amigáveis com ícones, botões e menus. Mais recentemente, começamos a usar gestos e fala.
Em breve, os nossos dispositivos não terão teclados, ecrãs sensíveis ao toque ou outras interfaces tradicionais. Na verdade, eles não se parecerão com computadores ou telefones. Em vez disso, eles serão dispositivos semi-totalmente autónomos, como veículos, drones e robôs. Eles também podem ser aparelhos ligados, ou monitores montados na cabeça como óculos VR / AR.
Quando os objetos em casas, escritórios e fábricas estiverem ligados através da Internet de Coisas, não precisaras de um teclado de ecrã sensível ao toque para informar o seu frigorífico para verificar a deterioração. Não entrará nas instruções no painel do carro para chegar a casa no final do dia. Os sistemas saberão o que fazer.
Até certo ponto, eles já sabem. Por exemplo, quando o seu telefone lhe diz para sair para uma consulta com base em diversos fatores nas condições do trânsito. Não necessita de dizer ao telefone que tinha tolerância; Se é hora de ponta, o telefone faz o ajuste automaticamente. À medida que mais sensores chegam online, essa tendência acelerará, não só porque mais dados estão a ser gerados, mas também porque a aprendizagem de máquinas e os designers de experiência de ustilizador garantirão que a resposta de um dispositivo atenda melhor a intenção de seu utilizador.
Assustador? Talvez. Mas só porque ainda não esperamos que os nossos smartphones (ainda comparativamente estúpidos) saibam o que estamos a pensar. Certamente que não fica nervoso se um colega lhe sugerir sair um pouco mais cedo por causa do transito, pois não? Essas tecnologias não serão mais invasivas do que um observador humano. Podemo-nos sentir desconfortáveis se não nos esclarecermos imediatamente como um telefone poderia possuir a informação do que faz. Mas se os sistemas forem transparentes sobre como recolhem e usam dados, nós nos acostumaremos rapidamente aos serviços pró-ativos fornecidos por máquinas inteligentes.
Além de inferir as nossas intenções, os sensores têm uma aplicação mais direta: animando avatares na realidade virtual. O Facebook demonstrou recentemente o uso de avatares na VR para socializar e colaborar com pessoas em locais remotos. Pense nisso como estando a dizer ao computador para “fazer o que eu sou”. Hoje, esses avatares são animados pela posição da cabeça e das mãos, juntamente com expressões faciais. Imagine o futuro da computação social quando os avatares podem ler os nossos olhos, o suor da pele, a linguagem corporal e as expressões faciais.
O que tudo isso augura para o futuro à medida que as tecnologias de detecção se tornam mais precisas, menos dispendiosas, mais penetrantes e mais capazes de ler pistas detalhadas de intenção humana?
Por razões de segurança, os dispositivos devem, em muitos casos, confirmar que entenderam nossa intenção corretamente. Isso significa que eles têm que chamar nossa atenção, educadamente, mas efetivamente. Os sistemas precisarão ser considerados: o utilizador está a interagir com outras pessoas? Qual é o seu estado emocional? Idealmente, os dispositivos não devem interromper as pessoas que estão a falar, ou expulsar utilizador com notificações alarmantes, ou distraí-los com publicidade e outras entradas indesejadas.
No futuro distante, após anos de observar padrões de atividade humana, a inteligência artificial pode produzir computadores que possam simular de maneira realista as subtilezas do comportamento humano. Podemos ter réplicas digitais que nos colocam em ambientes virtuais, agindo em nosso nome sem nosso controlo direto.
Isso ainda está muito distante de acontecer e exigiria uma inteligência muito mais avançada do que o necessário para o famoso teste de Turing, no qual os juízes distinguem entre respostas humanas e informáticas a uma série de perguntas.
![]() |
O AndroidGeek é um portal de partilha e divulgação ANDROID que surgiu como a evolução natural de vários projectos de sucesso. Aqui é TUDO ANDROID, SEMPRE ANDROID!
Quer colaborar connosco? Envie a sua candidatura para o e-mail: geral[arroba]androidgeek.pt Não se preocupe, não precisa ser um expert,basta ser apaixonado por Android
Post anterior