Tudo o que foi apresentado na WWDC 2023 de Acessibilidade
No dia 5 de Junho deste ano a Apple lançou os novos sistemas operativos para os seus dispositivos.
Nessa mesma semana, para além dos sistemas operativos, foram apresentados novos recursos para os programadores tornarem as suas aplicações mais acessíveis, mais facilmente. Neste artigo iremos falar um pouco sobre esses mesmos recursos.
Logo no primeiro dia, na KeyNote "Platform State of the Union", foram apresentados de forma geral foram apresentadas APIs e frameworks para tornar as apps mais acessíveis a pessoas sensíveis a animações e a flashes de luz. A primeira função é "Pausar animações em imagens" que vai permitir pausar animações de GIFS no Safari, mensagens e outros.
O outro recurso é o Dim Flashlights que escurece automaticamente o ecrã, em sequências de luzes. Para os programadores, se usarem o player da AV Foundation, na sua App não é necessário realizar nenhum ajuste, por outro lado, se usar um player personalizado podem usar a "Dim Flashing Lights API".
Nessa mesma apresentação, a marca apresentou as funcionalidades que irão estar presentes no VisionOS, ou seja, no Vision Pro que seriam detalhados em outras seções.
Na seção "Create Accessible Spatial Experiences", foram, então detalhadas as funcionalidades que iriam estar presentes no Vision Pro. Durante a palestra foram mostradas as seguintes funcionalidades:
Visão:
Nota: Tendo em conta que este é um novo produto e que utiliza um novo sistema operativo, as interações com o mesmo serão feitas de forma diferente.
- VoiceOver: O leitor de ecrã que está presente em todos os dispositivos Apple.
- Zoom: O software de ampliação dos dispositivos Apple.
- Movimento: Controlar as animações do sistema;
- Dual Controal: Controla as ações no sistema, quando pessoas com deficiência motora estão a usar o dispositivo, em vez do controlo padrão.
- Pointer Control: Controla o dispositivo ao apontar para o local correto;
- Head Control: Controla o dispositivo com a cabeça;
- Voice Control: Controla o dispositivo com a voz;
- Switch control: Controla o dispositivo com manípulos;
- Acesso guiado: Simplifica a interface para apenas uma app.
Para as deficiências cognitivas foram ainda apresentadas outras APIs.
Para a audição foram apresentadas legendas e a compatibilidade com os aparelhos MFI, e os mesmos recursos presentes no IOS
Na seção "Design considerations for vision and motion" foram apresentadas boas práticas de design para apps que queiram ser usados por pessoas com dificuldades visuais, ou de movimento.
"Meet Assistive Access" foi outra seção, na qual foi mostrado por um engenheiro da equipa de acessibilidade, o "Acesso Assistido" que é uma interface nova e redesenhada para pessoas com dificuldades cognitivas, tendo inclusivamente apps desenhados especificamente para essa mesma interface. Foram também mostradas formas de como os programadores podem adaptar os seus apps para funcionar com o "Acesso assistido".
"Perform Accessibility Audits" foi outra palestra em que foram mostradas formas de os programadores fazerem testes de acessibilidade aos seus apps, de forma mais rápida, sem perder tanto tempo, e de forma automática.
"Extend Speech Synthesis with personal and custom voices" apresentaram como padronizar a experiência de fala em apps, como implementar um sintetizador de voz em apps iOS, e usar essas vozes em todo o sistema e também como usar o recurso "voz pessoal" em apps de comunicação alternativa, e no recurso "fala em tempo real".
"Unlocking de power of gramatical agreement": Apresentaram como poderia ser usada a função de correção gramatical automática, para que os apps se tornem mais inclusivos.
Para além das funcionalidades de acessibilidade apresentadas aqui, também foram apresentados produtos e os sistemas operativos, dos quais falaremos em artigos futuros.
Comentários
Postar um comentário