Android Geek
O maior site de Android em Português

Google I/O 2017: Sundar Pichai revela as principais novidades

Estou na Google há 13 anos, e é notável como a missão da companhia de tornar a informação universalmente acessível e útil é tão relevante hoje como há uns anos atrás. Desde o início que procuramos resolver problemas complexos recorrendo à ciência computacional profunda e ao conhecimento, à medida que a tecnologia à nossa volta nos pressiona a uma mudança dramática.
Os problemas mais complexos tendem a ser, geralmente, aqueles que afectam o dia a dia das pessoas e é entusiasmante perceber como muitas pessoas tornaram a Google numa parte dos seus dias - ultrapassámos a barreira de dois mil milhões de utilizadores activos de equipamentos Android; o YouTube não tem apenas mil milhões de utilizadores mas também tem mil milhões de horas de visualização diariamente; e o Google Maps ajuda os seus utilizadores a navegarem mil milhões de quilómetros diários. Todo este crescimento seria impensável sem a mudança da computação para o mobile, o que nos fez repensar todos os nossos produtos - reinventá-los para reflectirem os novos modelos de interacção como os ecrãs multi toque. 
Estamos actualmente a testemunhar uma nova mudança na computação: a passagem do mobile-first para um mundo IA-first. E, como antes, está a obrigar-nos a reimaginar os nossos produtos para um mundo que permite uma forma mais natural e integrada de interagir com a tecnologia. Pensemos na Pesquisa Google: foi desenvolvida com base na nossa capacidade de perceber texto nas páginas da Internet. Mas agora, e devido aos avanços no deep learning (aprendizagem profunda), estamos capazes de tornar imagens, fotos e vídeos úteis de uma forma nunca antes vista.  A sua câmara pode "ver"; pode falar com o seu telefone e obter respostas - a voz e a visão estão a tornar-se tão importantes para a computação como o teclado ou os ecrãs multi toque  
O Google Assistant é um exemplo poderoso destes avanços. Já está disponível em mais de 100 milhões de equipamentos e está a tornar-se, diariamente, cada vez mais útil. Podemos agora fazer a distinção entre as diferentes vozes no Google Home, permitindo às pessoas uma experiência mais personalizada quando interagem com o equipamento. Neste momento, também temos a capacidade de tornar a câmara de um smartphone numa ferramenta para fazer coisas. O Google Lens é um conjunto de recursos de computação baseados na visão que consegue perceber para onde o utilizador está a olhar e ajudá-lo a agir com base nessa informação. Por exemplo, se estiver debaixo da secretária de um amigo para ver a palavra passe longa e complicada do Wi-Fi que se encontra na parte de trás do rooter, o seu telefone consegue agora reconhecer a palavra passe, perceber que o utilizador está a tentar conectar-se à rede Wi-FI e ligar-se automaticamente a ela. O ponto chave é que o utilizador não precisa de aprender nada de novo para que isto resulte - o interface e a experiência pode ser muito mais intuitiva, do que, por exemplo, fazer o copy paste entre as aplicações no seu smartphone. Para já, estamos a trazer as capacidades do Google Lens para o Google Assistant e para o Google Photos e num futuro próximo para outros produtos.
Tudo isto requer a arquitectura computacional correcta. Na I/O do ano passado, apresentámos a primeira geração dos nossos TPUs, que nos permitiram correr os nossos algoritmos de machine learning de uma forma mais rápida e eficiente. Hoje anunciamos a nossa nova geração de TPUs - Cloud TPUs que são optimizados para inferência e formação e podem processar BASTANTE informação. Vamos disponibilizar Cloud TPUs para o Google Compute Engine para que as empresas e programadores possam tirar partido dela.
É importante para nós que estes avanços trabalhem melhor para todos - não só para os utilizadores de produtos Google. Acreditamos que os grandes avanços nos problemas sociais complexos serão possíveis se os cientistas e engenheiros tiverem ferramentas de computação mais poderosas e a capacidade de análise na ponta dos seus dedos. Mas, actualmente, existem demasiados obstáculos para fazer isto acontecer.
 
E, é esta a motivação por detrás da Google.ai que reúne todas as nossas iniciativas de IA num único esforço que possa diminuir essas barreiras e acelerar a forma como os investigadores, programadores e companhias trabalham neste campo.
Uma das formas que esperamos tornar a IA mais acessível é através da simplificação da criação dos modelos de machine learning denominados por redes neurais, Hoje em dia, desenvolver redes neurais é extremamente intensivo em termos de tempo e requer um conhecimento que se cinge a um pequeno grupo de cientistas e engenheiros. É por isso que desenvolvemos uma abordagem chamada de AutoML , mostrando que é possível que redes neurais possam criar redes neurais. Esperamos que a AutoML tenha a capacidade que poucos PHDs têm nos dias de hoje e que torne possível que, daqui a três a cinco anos, centenas de milhar de programadores possam desenvolver novas redes neurais de acordo com as suas próprias necessidades.  
E mais, a Google.ia tem juntado investigadores da Google com cientistas e programadores para resolverem problemas de várias disciplinas e com resultados promissores. Utilizámos Machine Learning para melhorar o algoritmo que detecta a propagação do cancro da mama para os gânglios linfáticos adjacentes. Também assistimos ao grande avanço do Machine Learning em termos de tempo e precisão com os quais os investigadores podem adivinhar as propriedades das moléculas e até sequenciar o genoma humano.
Esta viragem não se trata apenas de construir equipamentos futuristas ou de conduzir investigações inovadoras. Também acreditamos que pode ajudar milhões de pessoas, ao democratizar o acesso à informação e descoberta de novas oportunidades. Por exemplo, a maioria dos empregadores americanos afirma que têm problemas em preencher vagas em aberto. Por sua vez, as pessoas que andam à procura de trabalho, muitas vezes, não sabem que há uma oferta de trabalho disponível - por vezes mesmo ao lado - porque a natureza dos postos de trabalho - alta rotatividade, baixo tráfego, inconsistência no título dos cargos - tornaram a tarefa de classificação por parte dos motores de busca, mais complicada. Através de uma nova iniciativa, Google for Jobs, esperamos ligar as empresas com vagas potenciais a potenciais trabalhadores e ajudar quem procura emprego a encontrar novas oportunidades. Como parte deste esforço, vamos lançar, brevemente, uma nova funcionalidade na Pesquisa, que ajuda as pessoas a procurarem empregos em função da experiência e níveis salariais, incluindo empregos que, tradicionalmente, têm sido mais difíceis de pesquisar e de classificar, tais como empregos ligados às áreas de retalho e serviços.
É inspirador ver como a Inteligência Artificial está a começar a dar frutos e que as pessoas estão a usufruir disso mesmo. Ainda existe um longo caminho a percorrer antes de vivermos num mundo AI-first, mas quanto mais trabalharmos na democratização do acesso à tecnologia - quer em termos das ferramentas que as pessoas podem utilizar quer pela forma que as aplicamos - mais rapidamente todos irão beneficiar.
Saiba mais acerca de outros lançamentos na Google I/O, incluindo Android, Photos e Realidade Virtual, aqui.

Gostaram? Podia ter sido melhor?
Partilhem com os vossos amigos e ajudem este projecto em Português.

Obrigado pela visita!

Este Website usa cookies para providenciar uma melhor experiência. Pode recusar se desejar. Aceitar Saber Mais

Gostaram? Podia ter sido melhor?
Partilhem com os vossos amigos e ajudem este projecto em Português.

Obrigado pela visita!
close-link