“Hey Meta, traduz este menu”. Agora, já é possível fazer pedidos por voz através dos óculos inteligentes da Ray-Ban e da Meta.
A assistente de inteligência artificial da Meta identifica o que o utilizador está a ver, através da câmara dos óculos, e é capaz de responder a quase tudo. Por exemplo, dar mais informações sobre monumentos ou dar sugestões de receitas com base nos produtos que estão no frigorífico.
Esta novidade estava a ser testada e foi agora lançada para os utilizadores destes óculos nos Estados Unidos e no Canadá.
A Meta anunciou também uma funcionalidade de chamadas de vídeo no WhatsApp e no Messenger em que é possível mostrar o que se está a ver através da câmara dos óculos.
Amazon está mais rápida do que nunca nas entregas
No primeiro trimestre deste ano, perto de 60% das encomendas feitas por membros do Amazon Prime chegaram à casa dos clientes no próprio dia da encomenda ou no dia seguinte. No total, foram mais de 2 mil milhões de encomendas.
A Amazon planeia oferecer a mesma velocidade de entrega a todos os seus clientes e não apenas aos membros do Prime. Com esse objetivo vai duplicar o número de instalações nos Estados Unidos destinadas a entregas no próprio dia.
Uber Eats lança feed de vídeos
Com base na localização do utilizador, são apenas apresentados vídeos dos restaurantes mais próximos disponíveis para fazer entregas.
A nova funcionalidade está a ser testada nos Estados Unidos e no Canadá, em cidades como Nova Iorque, São Francisco e Toronto.
Ainda nesta edição: Apple testa óculos inteligentes | Whoop avaliada em 10 mil milhões de…
O Merino Mono, desenvolvido pela startup Merino Energy, é uma bomba de calor doméstica inovadora,…
Ainda nesta edição: Lucro da Tesla aumenta 17% | Receitas da Netflix sobem 16%
No mais recente episódio do podcast Tech Balance, Ana Figueiredo, CEO da MEO, fala sobre…
O resumo da semana do SuperToast, 100% gerado por AI.
Ainda nesta edição: Meta lança programa para atrair criadores de TikTok e YouTube | Zoox…