Apple anuncia novas funcionalidades de Acessibilidade para os seus sistemas
Hoje, dia 13 de Maio, a Apple anunciou, em comemoração do Dia Mundial da Consciencialização para a Acessibilidade, Global Accessibility Awarness Day, que chegarão mais tarde neste ano aos seus sistemas operativos. Neste artigo abordaremos essas novas funcionalidades.
Etiquetas de Acessibilidade
Esta nova funcionalidade permitirá que o utilizador saiba, antes de descarregar a aplicação da AppStore quais as funcionalidades de acessibilidade que a aplicação suporta, dando-lhe assim uma melhor noção se poderá utilizar da forma que o programador pensou a aplicação, ou não.
Lupa para Mac
Esta funcionalidade é na minha visão a maior deste ano. Uma nova app que permite ampliar o mundo ao redor do utilizador, usando a câmara frontal do Mac, para capturar notas, através da funcionalidade "Visualização de mesa (Desk View), pela câmara do iPhone do utilizador, posicionada acima do Mac, utilizando a funcionalidade Continuidade de Câmara (Continuity Câmera), ou através de câmaras conectadas via USB Para além disto, o utilizador utilizando múltiplas janelas, poderá assistir a uma apresentação, através de uma webcam, e ler um livro, através da funcionalidade Desk View. A aplicação permite ainda múltiplas janelas ao vivo, bem como ajustar o brilho, contraste, cor, colocar filtros, e ainda a perspetiva, permitindo que textos e imagens sejam mais fáceis de ver. Estas imagens e configurações podem ser salvas e agrupadas para que mais tarde possam ser consultadas. Esta aplicação está ainda integrada com outra funcionalidade o Accessibility Reader, que transforma texto físico em um formato personalizado de leitura fácil.
Braille Access
O Braille Access é uma nova funcionalidade, que transforma o iPhone, iPad, Mac, e Apple Vision Pro, em blocos de notas braille completos, e integrados ao ecossistema da Apple. Através de entrada braille no ecrã, ou através de uma linha braille conectada, o sistema possui um iniciador de apps, que permite ao utilizador iniciar qualquer app de forma fácil. Podem ainda fazer rapidamente notas em braille, e realizar cálculos, utilizando a notação de Nemeth.
esta nova funcionalidade permite ainda abrir ficheiros Braille Ready Format (RBF), que tenham sido criados anteriormente em blocos e notas braille.
As Live Captions também estão integradas, permitindo assim transcrever conversas em tempo real, que estejam a passar no ecrã, para braille.
Accessibility Reader
O Accessibility Reader é uma nova funcionalidade que estará disponível para iOS, iPadOS, macOS, e VisionOS. Esta funcionalidade permite a pessoas com diferentes deficiências, como dislexia, ou baixa-visão interagir com textos de forma mais fácil, utilizando para isso, uma gama ampla de tipos de letra, espaçamentos, e tamanhos, tendo inclusivamente suporte para Conteúdo Enunciado. Esta funcionalidade estará disponível em todo o sistema, podendo ser iniciada em qualquer aplicação, e estando integrada aos apps Lupa dos diferentes sistemas, permitindo que o utilizador interaja com texto no mundo real.
Legendas ao vivo no Apple Watch
Para pessoas com problemas de audição, os controlos de Live Listening, ou seja, escuta ao vivo, chegam ao Apple Watch, bem como as legendas em tempo real. O Live Listening transforma o iPhone em um microfone remoto que transmite o áudio para os AirPods, aparelhos auditivos Made For iPhone, ou fones Beats. Quando uma cessão do Live Listening está ativa no iPhone, a pessoa pode ver as legendas a partir de um Apple Watch, enquanto ouve o áudio, através dos AirPods, sendo que o Apple Watch serve como um controlo remoto permitindo iniciar, parar, ou voltar atrás, para ouvir algo de novo que possa ter sido perdido.
Estas funcionalidades podem integrar-se com as funcionalidades de saúde auditiva presentes nos AirPods Pro 2, incluindo o primeiro recurso de aparelho auditivo de nível médico.
Visão aprimorada com o Apple Vision Pro
Para o Vision Pro, a marca agora permite que o utilizador amplie tudo o que está ao seu redor, utilizando o sistema avançado de câmaras do headset, incluindo os arredores da pessoa no espaço físico. Para quem usa o VoiceOver, o Vision Pro vai usar aprendisagem de máquina para encontrar objetos, descrever o ambiente, ler documentos, e muito mais.
Para além destas funcionalidades, a Apple anunciou atualizações incrementais em funcionalidades como o Eye Tracking, controlo por voz, voz pessoal, e alguns outros, podendo ler com mais detalhes aqui.
Comentários
Postar um comentário