Avaliação de Interface Humano-Computador
Avaliação de Interface Humano-Computador
Avaliação de Interface Humano-Computador
PROPÓSITO
Proporcionar ao aluno o entendimento necessário sobre a importância e as técnicas de
avaliação de interface humano-computador, de forma a garantir a formação de um profissional
capaz de desenvolver softwares de qualidade, atendendo as necessidades do público-alvo
(cliente e usuários) em contextos específicos.
OBJETIVOS
MÓDULO 1
MÓDULO 3
Aplicar a técnica de avaliação por inspeção por meio de lista de verificação de interface
humano-computador
MÓDULO 4
INTRODUÇÃO
Um sistema de software interativo se caracteriza pela presença de troca de informação entre o
sistema e o ser humano. Em outras palavras, sistemas interativos recebem informações dos
usuários e provêm respostas através de suas funcionalidades. Mais ainda, alguns sistemas
apoiam a interação entre usuários diferentes, como é o caso das redes sociais, tão populares
atualmente. Este tipo de sistema precisa ser simples, fácil de usar, e deve permitir que o
usuário realize as suas tarefas de forma eficiente e com satisfação. Este atributo de qualidade
de um software é chamado de usabilidade. Dessa forma, a usabilidade é considerada um
conceito muito importante da área de interação humano-computador ou interface humano-
computador (IHC).
MÓDULO 1
RELEVÂNCIA DA AVALIAÇÃO DE
INTERFACE HUMANO-COMPUTADOR
O desenvolvimento de sistemas interativos envolve diversas atividades, e é comum ouvirmos
que podem ocorrer problemas na coleta, interpretação, processamento e compartilhamento de
informações entre os clientes e demais interessados (comumente chamados de stakeholders)
e os desenvolvedores.
COMENTÁRIO
Barbosa e Silva (2010), afirmam que até mesmo na fase de implementação (quando o sistema
é codificado em uma linguagem de programação), esses problemas de comunicação podem
acontecer. Por exemplo, um programador pode codificar uma informação errada sobre o
assunto do qual o software deve tratar (o seu domínio).
ATENÇÃO
Afinal, sempre queremos que o usuário tenha uma experiência positiva ao usar o sistema!
BENEFÍCIO DA AVALIAÇÃO DE IHC
No vídeo a seguir, você verá os benefícios da avaliação de interface humano-computador, com
base em Barbosa e Silva, 2010.
o tempo para colocar o produto no mercado diminui, pois os problemas são corrigidos
logo no início do processo de desenvolvimento;
O desenvolvedor utiliza várias técnicas de avaliação, que compõem a chamada etapa de testes
do processo de desenvolvimento de software.
Vários tipos de testes podem ser realizados ao longo de todo o processo de desenvolvimento.
Por exemplo:
TESTES DE UNIDADE
Checar o funcionamento de cada item do programa.
TESTES DE INTEGRAÇÃO
TESTES DE SISTEMA
TESTES DE OPERAÇÃO
Todos esses testes têm o objetivo principal de verificar e validar se o software cumpre com o
que foi especificado para ele. Em outras palavras, se todos os requisitos declarados foram
implementados de forma correta.
Depois de verificar se um sistema interativo funciona conforme sua especificação, através dos
diversos testes, ainda assim ele pode apresentar problemas relacionados ao uso. É preciso
fazer a avaliação na perspectiva do usuário! Isso porque diversos problemas relacionados
diretamente com a interface humano-computador podem existir, mesmo que todas as
funcionalidades estejam operando corretamente. Portanto, nas perspectivas do projetista e do
próprio usuário, a avaliação tem por objetivo principal verificar se o sistema apoia
adequadamente os usuários a atingirem seus objetivos em um contexto de uso.
O foco está no que o usuário realiza ou deseja realizar de fato a partir da interface. .
Fonte:Shutterstock.com
Segundo Barbosa e Silva (2010), os critérios de qualidade avaliados nessa perspectiva são
relacionados ao uso: Usabilidade, experiência do usuário, acessibilidade e comunicabilidade.
ATENÇÃO
Esses autores explicam que o processo de interação entre o usuário e o sistema segue uma
lógica definida pelo projetista. Mas os usuários podem ou não compreender e concordar com
essa lógica, podem ou não julgar essa proposta apropriada; e ainda, quando tiverem escolha,
podem, ou não, incorporá-la no seu dia a dia. A avaliação da interface humano-computador
deixa explícitas as diferenças entre quem concebe e quem utiliza o sistema.
EXEMPLO
Alguns dos aspectos normalmente avaliados são a apropriação de tecnologia pelos usuários,
as ideias e alternativas de design adotadas, a conformidade com padrões, além dos vários
tipos de problemas que podem ocorrer na interação e com a interface em si.
Seja qual for o aspecto avaliado, os objetivos devem ser estabelecidos de forma clara, e
enfatizando o ponto de vista desejado.
Barbosa e Silva (2010) sugerem a formulação de perguntas para apoiar na tarefa de definição
dos objetivos.
Quanto os usuários consideram que esse sistema apoia na realização de suas tarefas?
CONTEXTOS DE AVALIAÇÃO DE
INTERFACE HUMANO-COMPUTADOR
A avaliação de interface humano-computador pode ser realizada em diferentes momentos do
processo de desenvolvimento. Em relação ao ‘quando avaliar’, classificamos as avaliações em
dois tipos: Formativa e somativa.
AVALIAÇÃO FORMATIVA
AVALIAÇÃO SOMATIVA
AVALIAÇÃO FORMATIVA
AVALIAÇÃO SOMATIVA
É realizada sobre a solução, completa ou parcial, de acordo com o escopo do projeto, mas
apenas no final do processo de desenvolvimento. A solução de interface pode ser representada
por um protótipo de média ou alta fidelidade, ou até mesmo pelo sistema interativo
implementado. A avaliação somativa julga a qualidade de uso de uma interface, buscando
evidências que indiquem que os objetivos foram atingidos. Em outras palavras, a avaliação
somativa atesta que o produto possui os níveis de qualidade de uso desejados.
A avaliação no ambiente real do usuário permite ampliar a observação de casos típicos de uso,
que não seriam percebidos em uma avaliação em laboratório. Porém, ainda assim, não é
possível garantir que todos os aspectos do sistema sejam analisados, uma vez que o
observador não pode controlar o uso do sistema interativo nessas situações.
LABORATÓRIO
A avaliação em laboratório, por outro lado, oferece um controle maior, e permite que o
avaliador defina e interfira no ambiente como um todo e na forma de interação do usuário com
o sistema. O laboratório é um ambiente configurado previamente para proporcionar
experiências de uso planejadas. Assim, o avaliador garante que não ocorrerão interrupções ou
problemas que possam tirar o foco do usuário das tarefas a serem executadas com apoio do
sistema. Uma avaliação em laboratório também permite comparar sistematicamente as
experiências que diferentes usuários tiveram com o sistema.
VOCÊ SABIA
Um ambiente de observação de uso costuma possuir duas salas: Uma sala onde o usuário vai
utilizar o sistema (sala de uso) e outra onde o avaliador vai observá-lo através de um vidro
espelhado (sala de observação). Outro avaliador pode ficar atrás do participante como apoio,
mas buscando não expressar opiniões ou fornecer instruções que prejudiquem ou invalidem a
avaliação. Em geral, apresentamos ao participante a sala de observação para que ele conheça
o que fica do outro lado do vidro espelhado. O registro dos dados observados pode ser feito de
várias formas, de acordo com a técnica de avaliação que está sendo usada.
Dependendo do tipo de avaliação, o avaliador pode coletar dados sobre os aspectos positivos
e negativos identificados durante o uso do sistema, e, as necessidades e oportunidades de
intervenção. A abrangência e o foco da coleta de dados devem ser definidos de acordo com os
objetivos da avaliação. Os dados coletados são interpretados e analisados de acordo com a
técnica de avaliação escolhida, para produzirem resultados que atendam aos objetivos da
avaliação, ou seja, que busquem responder às perguntas específicas elaboradas na definição
da avaliação.
DADOS QUALITATIVOS
Representam conceitos que não são representados numericamente. Além dos dados nominais,
também são dados qualitativos as respostas livres coletadas em questionários e entrevistas,
tais como expectativas, explicações, críticas, sugestões, e outros tipos de comentários.
autor/Shutterstock.com
DADOS QUANTITATIVOS
INVESTIGAÇÃO
As técnicas de investigação envolvem o uso de questionários, a realização de entrevistas,
grupo focal, estudos de campo, entre outros. Essas técnicas permitem ao avaliador ter acesso,
interpretar e analisar concepções, opiniões, expectativas e comportamentos do usuário
relacionados com sistemas interativos. Em particular, permitem investigar alternativas de
design, problemas que os usuários costumam enfrentar, como eles se apropriaram do sistema
atual, e quais são suas expectativas para futuras interações com o sistema atual, novos
sistemas, ou mesmo, com novas versões do sistema atual. São frequentemente utilizados em
etapas iniciais do processo de design, para conformar ou modificar o entendimento da situação
atual, assim como explorar formas alternativas de intervenção.
INSPEÇÃO
As técnicas de inspeção permitem ao avaliador examinar uma solução de IHC para tentar
antever as possíveis consequências de certas decisões de design sobre as experiências de
uso. Elas tentam identificar problemas que os usuários podem vir a ter quando interagirem com
o sistema. Essas técnicas geralmente não envolvem diretamente usuários e, portanto, tratam
de experiências de uso potenciais, e não reais. Ao inspecionar uma interface, os avaliadores
tentam se colocar no lugar de um usuário com determinado perfil, com um certo conhecimento
e experiência em algumas atividades.
OBSERVAÇÃO DE USO
As técnicas de observação fornecem dados sobre situações em que os usuários realizam
suas atividades, com ou sem apoio de sistemas interativos. Através do registro dos dados
observados, essas técnicas permitem identificar problemas reais que os usuários enfrentaram
durante sua experiência de uso com o sistema que está sendo avaliado. O avaliador pode
observar os usuários em contexto real de uso ou em laboratório.
Para decidir qual técnica (ou quais técnicas) adotar, o avaliador deve levar em consideração
vários aspectos, tais como: limite de prazo, orçamento previsto, equipamentos necessários,
número de usuários disponíveis para participar, número de avaliadores capacitados em cada
técnica, e outros recursos que sejam necessários em cada caso.
ATENÇÃO
PREPARAÇÃO
Como primeiro passo para preparar uma avaliação, o avaliador deve entender a situação atual,
que inclui o domínio do problema, os papéis e perfis dos usuários, seus objetivos e atividades,
e o contexto em que o sistema é ou será utilizado. Os objetivos devem ser detalhados através
das questões específicas que a avaliação pretende responder. O avaliador escolhe uma ou
mais técnicas de acordo com os objetivos da avaliação. Caso seja escolhida uma técnica de
avaliação que envolva usuários, o avaliador deve também escolher o perfil e o número de
participantes, além de preparar todo ambiente, hardware e software necessário para o uso do
sistema e a captura de dados.
FRAMEWORK DECIDE
Preece, Sharp e Rogers (2013) apresentaram um framework chamado DECIDE com objetivo
de orientar o planejamento, a execução e a análise de uma avaliação de IHC. O framework
DECIDE é composto por seis etapas onde as iniciais compõem o nome (em inglês):
D
DETERMINAR (DETERMINE):
EXPLORAR (EXPLORE):
Explorar as questões cuja avaliação pretende responder para transformar os objetivos iniciais
em operacionais. Por exemplo: “O sistema permite que o usuário selecione uma peça de
roupa?”. Para cada objetivo definido, o avaliador deve elaborar perguntas específicas a serem
respondidas durante a avaliação.
ESCOLHER (CHOOSE):
Escolher os métodos e as técnicas que responderão às questões da avaliação - O avaliador
deve escolher as técnicas mais adequados para responder às perguntas e atingir os objetivos
esperados, considerando também o prazo, o orçamento, os equipamentos disponíveis e o grau
de conhecimento e experiência dos avaliadores. É possível definir uma combinação de
técnicas. Por exemplo: “Avaliação heurística”.
IDENTIFICAR (IDENTIFY):
Identificar questões práticas a serem abordadas pela avaliação. Por exemplo: Convite aos
usuários que participarão da avaliação, a preparação do ambiente e equipamentos
necessários, os prazos e o orçamento disponíveis etc.
DECIDIR (DECIDE):
Decidir como lidar com as questões éticas envolvidas. Sempre que usuários são envolvidos
numa avaliação, o avaliador deve tomar os cuidados éticos necessários.
AVALIAR (EVALUATE):
Avaliar, interpretar e apresentar os dados. O avaliador deve ter atenção com a confiabilidade
dos dados, repetibilidade do experimento de avaliação, validade da técnica, e evitar possíveis
distorções e vieses.
VERIFICANDO O APRENDIZADO
B) Todos os aspectos do sistema são cobertos em uma observação em contexto real de uso.
D) Em contexto de uso real, o usuário nunca é interrompido por qualquer tipo de problema.
E) Tanto em laboratório quanto em contexto real, a avaliação não pode ser planejada a priori.
GABARITO
A avaliação permite que os problemas sejam identificados e corrigidos antes de o sistema ser
entregue, com isso, o produto final tende a ser mais robusto.
A avaliação feita em laboratório é controlada pelo avaliador, que planeja as tarefas do usuário,
bem como organiza todo o ambiente onde se dará a interação com o sistema.
MÓDULO 2
VOCÊ SABIA?
O conjunto inicial apresentado por Nielsen (1993), é composto das seguintes heurísticas:
8. PREVENIR DE ERROS
Melhor do que uma boa mensagem de erro é um projeto cuidadoso que evite que um problema
ocorra, caso isso seja possível.
Problema cosmético: Não é necessário consertá-lo, a menos que se tenha tempo extra
no projeto.
Problema pequeno: Deverá ser dada baixa prioridade ao reparo desse tipo de problema,
ou seja, não é tão importante consertá-lo.
Problema grande: Deverá ser dada alta prioridade ao conserto desse problema, é
importante consertá-lo.
EXEMPLO
Por exemplo, você, como avaliador, reconhece que a interface do sistema que está avaliando
viola a heurística “garantir consistência e padronização”, pois você encontrou dois termos
diferentes usados com o mesmo sentido. Em uma das telas, aparece a palavra “cliente”, mas
em outra tela, a palavra “comprador” é usada para se referir ao mesmo usuário. Você percebe
que isso pode causar uma grande confusão para o usuário. Nesse caso, identificaria esse
problema e o classificaria como “problema grande”. O sistema pode funcionar dessa forma,
mas é importante consertá-lo.
PROCEDIMENTO DA AVALIAÇÃO
HEURÍSTICA
Santos (2016) explica que somente uma pessoa não é capaz de encontrar todas as possíveis
falhas do sistema; por isso, para a avaliação heurística, deve ser selecionado um pequeno
grupo de avaliadores (em geral, de 3 a 5) para aplicar as heurísticas.
É importante lembrar que a avaliação pode ser feita sobre o produto final, sobre protótipos ou
mesmo partes do sistema, ou seja, durante todo o processo de design de IHC, desde que
alguma representação da interface já tenha sido criada.
Veja um pouco mais sobre cada uma das fases da avaliação heurística:
PREPARAÇÃO
Na preparação, os avaliadores, em conjunto, organizam as telas, conforme o objetivo definido
para a avaliação. Eles também definem a lista de heurísticas ou diretrizes que devem ser
consideradas. Podem tomar como base a proposta de Nielsen, e especificar outras heurísticas
específicas para o sistema em questão.
Para Santos (2016), essa técnica pode ser aplicada de diferentes formas, e a escolha vai
depender em grande parte do tempo disponível para teste e dos avaliadores. Por exemplo:
Fornecer aos avaliadores os objetivos da aplicação e deixar que eles criem suas próprias
tarefas.
COLETA DE DADOS
Na fase de coleta dos dados, cada avaliador vai inspecionar individualmente cada uma das
telas organizadas na fase anterior, bem como os seus elementos. Eles vão observar se as
diretrizes foram respeitadas ou violadas. Barbosa e Silva (2010), sugerem que cada avaliador
navegue pela interface pelo menos duas vezes: Uma para ganhar uma visão de conjunto e
outra para examinar cuidadosamente cada elemento de cada tela, podendo adotar uma
estratégia de avaliação por diretriz ou por tela. Por exemplo, o avaliador pode escolher uma
diretriz e navegar por toda a interface observando se em alguma tela, esta diretriz está sendo
violada. Caso contrário, ele pode escolher uma determinada tela e avaliar se está cumprindo
todas as diretrizes especificadas.
INTERPRETAÇÃO
Na interpretação dos dados, para cada violação identificada, o avaliador registra qual diretriz
foi violada, em que tela e quais elementos de interface, atribui a severidade do problema de
acordo com a escala adotada e escreve uma justificativa explicando por que considerou aquilo
como uma violação. Ele pode também anotar sugestões de soluções para resolver os
problemas encontrados ou comentários gerais. Por exemplo, ele pode indicar que o problema
encontrado pode estar relacionado com a falta de algum elemento na interface, e sugerir o que
deveria ser incluído.
A persistência do problema (o problema ocorre apenas uma vez e será superado pelos
usuários, ou atrapalhará os usuários repetidas vezes?).
Objetivos da avaliação.
Escopo da avaliação.
Descrição do problema.
Diretriz(es) violada(s).
Severidade do problema.
Sugestões de solução.
1. Preparação:
Fonte: EnsineMe..
Figura 4 – Tela de confirmação de item de pedido.
NA TELA 1
A1V1:– prevenção de erros: o elemento secundário Quero me cadastrar tem menos destaque
do que o elemento Entrar. Isso pode levar o usuário a acionar o botão errado ou se perguntar
se entrou corretamente na tela de login, e até mesmo voltar para a página anterior e repetir a
operação de acesso a essa página.
NA TELA 2
A1V2 – consistência e padronização: a descrição do item de pedido e observação estão
usando a mesma cor dos botões.
NA TELA 1
A2V1 – controle/liberdade do usuário: o usuário não tem a opção de pedir para o sistema se
lembrar do seu e-mail ou mesmo manter seu login ativo, como ocorre em boa parte dos sites
de comércio eletrônico.
NA TELA 2
A2V2 – consistência e padronização: a descrição do item de pedido está com a mesma cor dos
botões.
A2V3 – prevenção de erros: o usuário tem duas opções de ação, incluir observações e
adicionar ao carrinho/cancelar o pedido. Dessa forma, o usuário poderia se confundir e não
fazer uma das duas ações que realmente deseja.
A1V1 – problema grande; sugestão: dar mais ênfase ao botão secundário Quero me
cadastrar.
A1V2 – problema pequeno; sugestão: alterar a cor dos textos para preto.
Objetivos da avaliação:
Escopo da avaliação:
A avaliação foi feita através da técnica de avaliação heurística, concentrando-se em duas telas
do sistema (Tela de login e Tela de confirmação de item de pedido).
Dois avaliadores, especialistas em IHC, com 10 anos de experiência, foram responsáveis pela
execução da avaliação.
Violação 1.
Local: tela 1.
Descrição do problema: o elemento secundário Quero me cadastrar tem menos
destaque do que o elemento Entrar.
Violação 2:
Local: tela 2.
Violação 3:
Local: tela 1.
Local: tela 1.
VERIFICANDO O APRENDIZADO
A) Investigação
B) Inspeção
C) Observação
D) Estudo de campo
E) Estudo de caso
GABARITO
1. A avaliação heurística é uma técnica de avaliação de IHC que tem como objetivo
encontrar problemas de usabilidade em interfaces. Podemos classificá-la como sendo
do tipo:
A avaliação heurística é uma técnica de inspeção, pois tem foco na predição de problemas que
podem vir a ocorrer com a interface.
MÓDULO 3
ATENÇÃO
Santos (2016) afirma que checklists bem elaborados devem produzir resultados mais uniformes
e abrangentes, em termos de identificação de problemas de usabilidade, pois os avaliadores
são conduzidos no exame de interface por meio de uma mesma lista de questões a serem
respondidas sobre a usabilidade do sistema.
As listas devem permitir que estes profissionais sejam capazes de observar problemas gerais e
repetitivos nas interfaces, de forma rápida.
Mas é preciso ficar atento! O sucesso da aplicação desta técnica depende totalmente da
qualidade da lista de verificação. A lista precisa ser elaborada de acordo com certos critérios.
A questão mais importante a ser considerada é que a usabilidade de uma interface humano-
computador depende da utilização de critérios bem definidos. Esta técnica tem origem nos
estudos da área chamada Ergonomia Cognitiva, que visa a adaptação do trabalho ao homem,
especialmente a adaptação dos sistemas automatizados à inteligência humana e às exigências
das tarefas, adequando às condições particulares da situação do trabalho.
Assista ao vídeo e veja quais são os critérios usados para elaboração da lista de verificação de
interface humano-computador.
CRITÉRIOS PARA ELABORAÇÃO DO
CHECKLIST
SAIBA MAIS
A elaboração das questões da lista de verificação deve ser fundamentada na aplicação dos
critérios ergonômicos, e pode ser também apoiada por um glossário e informações detalhadas
sobre o critério que está sendo avaliado. Um formulário pode apresentar as questões e as
possíveis respostas com espaço para o avaliador fazer suas marcações.
Feito isso, decidimos a técnica e iniciamos o planejamento para sua execução.
O primeiro passo para aplicação da inspeção por meio de lista de verificação é escolher os
critérios a serem avaliados.
Após a escolha, podemos elaborar a lista de verificação (checklist) ou utilizar uma lista
existente, tal como aquelas disponíveis pelo ErgoList (2020).
Cada um dos avaliadores marca as respostas para as questões da lista, que na sua opinião
sejam as adequadas àquela situação.
No final, as respostas são organizadas e comparadas, e um laudo final deve ser gerado sobre
as questões que apresentaram conformidade, as que não são aplicáveis e as que não
apresentam conformidade.
Para responder a essa questão, selecionamos o critério consistência, conforme proposto por
Bastien e Scapin (1993): Forma na qual as escolhas de concepção de interface são
conservadas idênticas, em contextos iguais e/ou diferentes. Ou seja, desejamos analisar se os
elementos de interface seguem padrões percorrendo as telas do sistema.
Adotamos a lista de verificação criada em ErgoList (2020), cujas perguntas estão ilustradas na
Figura 6. Cinco avaliadores participaram dessa avaliação: 2 clientes potenciais do restaurante,
o dono do restaurante, 1 funcionário da empresa e 1 programador do sistema.
Questão A1 A2 A3 A4 A5
Q1 S S S S S
Q2 N S N N N
N N N N N N
Observamos que houve apenas uma discordância em um dos itens por parte de um avaliador,
mas os avaliadores, de maneira geral concordam que esta interface está em conformidade com
o critério de consistência, no que diz respeito à identificação das janelas e localização dos
elementos de interface. Porém, está não conforme com este critério na perspectiva de
posicionamento do cursor. Com base nesta análise, os avaliadores podem elaborar um laudo
final.
VERIFICANDO O APRENDIZADO
B) Não são necessários profissionais especializados em IHC para realizar esse tipo de
avaliação.
C) Os resultados dessa avaliação são muito instáveis, pois os itens da lista são inspecionados
por todos os avaliadores da mesma forma.
A) Ambiguidade
B) Distração
C) Legibilidade
D) Justiça
E) Causalidade
GABARITO
A avaliação por inspeção por meio de lista de verificação é uma técnica que não depende de
especialistas para sua execução, porque se trata de um conjunto de itens a serem vistoriados
por profissionais, não necessariamente especialistas em IHC ou usabilidade, como
programadores e analistas. As listas devem permitir que esses profissionais sejam capazes de
observar problemas gerais e repetitivos nas interfaces, de forma rápida.
2. Qual destes itens faz parte da famosa lista de critérios ergonômicos proposta por
Bastien e Scapin?
MÓDULO 4
ATENÇÃO
Da mesma forma como em qualquer outra técnica, os objetivos da avaliação determinam quais
critérios de usabilidade devem ser medidos. Portanto, para realizar as medições desejadas, um
grupo de usuários é convidado a realizar um conjunto de tarefas usando o sistema num
ambiente controlado, como um laboratório ou em ambiente real de trabalho. Durante as
experiências de uso observadas, são coletados dados sobre o desempenho dos participantes
na realização das tarefas, assim como suas opiniões e sentimentos decorrentes de suas
experiências de uso.
Fonte:Shutterstock.com
COMENTÁRIO
O sistema pode ter tipos diferentes de usuários, com tarefas e formas de pensar diversas.
Idealmente todos devem ser contemplados na avaliação, sendo possível inclusive comparar a
forma de interação destes diferentes usuários com o sistema. A partir dessa visão sobre os
usuários, serão elaborados os cenários e procedimentos para serem aplicados durante a
realização das sessões de ensaio.
Durante as sessões, é feita a coleta de dados, tanto do desempenho dos usuários (resultado
da realização das tarefas definidas nos cenários de uso), quanto de suas impressões. Esses
dados podem ser quantitativos, por exemplo, o tempo para uma determinada tarefa, ou
número de erros; ou qualitativos, por exemplo, opiniões dos usuários sobre um determinado
elemento da interface e percepção sobre a facilidade de uso.
DICA
A realização das tarefas durante o ensaio pode ser observada pelos avaliadores com auxílio de
dispositivos de áudio e vídeo, marcação de tempo, espelhos falsos, e o ensaio também pode
ser gravado para avaliação posterior em mais detalhes.
Essa técnica apresenta um custo mais alto do que as técnicas de inspeção descritas nos
Módulos 2 e 3, por conta do número de participantes e tempo consumido, não só durante as
sessões, mas também na análise dos dados coletados. No entanto, possui diversos benefícios,
tais como:
Fonte: EnsineMe.
PROCEDIMENTO DO ENSAIO DE
INTERAÇÃO
Conheça um pouco mais sobre cada uma dessas fases:
ANÁLISE PRELIMINAR
Tem como objetivo a preparação do ensaio. É importante estabelecer claramente o escopo, ou
seja, o que se quer descobrir ao observar os usuários. Portanto, os avaliadores precisam
entender sobre o sistema interativo, e para isso fazem um pré-diagnóstico dos problemas de
ergonomia de sua interface humano-computador. É útil realizar entrevistas com os profissionais
responsáveis pelo projeto e desenvolvimento do sistema e executar uma inspeção para
identificar previamente alguns problemas.
As informações solicitadas à equipe de projeto do software podem ser diversas. Por exemplo:
população alvo pretendida do sistema; tipos de tarefas que o software visa a atender;
funcionalidades que têm maior impacto nas tarefas; versão atual do produto; tipo de suporte
técnico dado aos usuários etc.
O pré-diagnóstico pode ser feito por meio de uma avaliação heurística ou de uma lista de
verificação (ver os detalhes nos Módulos 2 e 3). Como resultado, os avaliadores vão formular
um conjunto de hipóteses sobre problemas de usabilidade do sistema para serem testadas
durante os ensaios de interação.
Um script ou roteiro descreve as tarefas que uma amostra de usuários deverá realizar durante
as sessões no ensaio. O cenário inclui a descrição do ambiente físico de execução do ensaio e
questões operacionais, tais como equipamentos e outras facilidades. O avaliador deve
selecionar as tarefas que serão incluídas nos scripts com base em alguns critérios: Tarefas
relacionadas com os objetivos principais do software; hipóteses dos avaliadores sobre os
problemas encontrados no pré-diagnóstico; amostras de tarefas dos usuários que foram
obtidas com os questionários; funcionalidades do sistema consideradas mais e menos
importantes pelo usuário; funcionalidades mais acionadas pelos usuários no uso do software.
Os ensaios podem ocorrer em ambiente natural, tendo como vantagem ser o ambiente real de
utilização do software pelo usuário, mas com algumas desvantagens: Possível descontrole sob
as condições do teste; problemas técnicos; e interferências durante o teste. Outra opção é
serem realizados em laboratórios, que dão condições melhores aos avaliadores, mas podem
gerar certos desconfortos aos usuários: Condições artificiais; fora de contexto; inibição. Os
scripts, com a descrição das tarefas a serem solicitadas ao usuário devem trazer termos e
objetivos que lhe sejam familiares. Os cenários podem reproduzir, em laboratório, a
familiaridade do ambiente doméstico ou profissional de determinado usuário.
Em seguida, pode ser necessário realizar ajustes nos cenários definidos na fase anterior para
adaptá-los aos usuários participantes da amostra, pois é preciso verificar quem, da amostra de
usuários, realiza efetivamente as tarefas que compõem os scripts para a avaliação. Neste
caso, pode ser necessário realizar novas entrevistas para confirmar estas informações.
Shutterstock.com
Para obter uma informação correta, o analista precisa saber o que os usuários estão pensando
e não somente o que eles estão fazendo. Para tanto, é necessário solicitar a eles que
verbalizem o que estão fazendo, durante ou após a interação com o software. Isso pode ser
feito de forma simultânea ou consecutiva às observações. Na verbalização simultânea, solicita-
se aos usuários que além de executarem a tarefa, também comentem o que estão pensando
enquanto a executam.
COMENTÁRIO
DICA
Uma boa prática consiste na realização de um ensaio piloto para certificar-se de que tudo foi
previsto.
Depois da realização dos ensaios, a equipe de analistas deve rever as gravações das sessões,
procurando dados relevantes que comprovem ou não as hipóteses anteriormente estabelecidas
no pré-diagnóstico. Além disso, muitas situações inesperadas de erros podem aparecer. Isso
ressalta o benefício dos ensaios, pois esses tipos de erros só se tornam evidentes em situação
realista de uso.
ATENÇÃO
Os resultados dos ensaios de interação são relatados e comentados em um relatório onde são
descritos: Incidentes e erros produzidos durante a interação, relacionando-o com um aspecto
do sistema; e comentários sobre a prioridade para resolução dos problemas.
ASPECTOS IMPORTANTES DA AVALIAÇÃO
POR ENSAIO DE INTERAÇÃO
A técnica de avaliação por ensaio de interação abrange diversos aspectos que devem ser
observados em todas as fases desde o planejamento até a execução e análise dos dados. Os
processos de mensuração e estimação constituem a base dessa técnica.
EXEMPLO
CONFIABILIDADE
VALIDADE
CONFIABILIDADE
Diz respeito à obtenção de resultados similares após a repetição dos ensaios sob condições
similares.
VALIDADE
Está relacionada com a relevância dos testes realizados e dos resultados obtidos para a
usabilidade do sistema quando utilizado em condições reais, ou seja, fora do laboratório.
A veracidade dos resultados obtidos deve ser, sempre que possível, confrontada com os
aspectos de usabilidade desejados para o sistema em avaliação.
Benyon (2011), ressalta que ainda se deve levar em consideração os aspectos éticos em
qualquer processo de teste feito com participação de usuários.
VERIFICANDO O APRENDIZADO
B) O ensaio de interação é uma técnica baseada em observação, por isso as sessões devem
sempre ocorrer em ambiente real dos usuários.
C) O ensaio de interação deve ser realizado em ambiente real do usuário porque é desejado
que situações tais como interrupção ocorram.
D) O ensaio de interação é uma simulação, por isso não é relevante o local onde ocorre.
GABARITO
1. A avaliação por ensaio de interação é uma técnica na qual usuários são observados
enquanto utilizam o sistema para realizarem um conjunto de tarefas. Assinale a
alternativa correta sobre essa técnica:
O ensaio de interação é útil para confirmar hipóteses sobre problemas na interface levantados
como pré-diagnóstico por meio de técnicas de inspeção.
Os ensaios podem ocorrer em ambientes naturais, tendo como vantagem ser o ambiente real
de utilização do software pelo usuário, ou podem ser realizados em laboratórios, que dão
condições melhores de controle aos avaliadores.
CONCLUSÃO
CONSIDERAÇÕES FINAIS
A avaliação da interface é uma atividade muito importante na Engenharia de Usabilidade, que
envolve preparação, coleta, análise e interpretação de dados e relato dos resultados. Uma
avaliação de IHC bem conduzida pode ajudar a reduzir os erros e insatisfação dos usuários
com o sistema antes de colocá-lo em operação.
REFERÊNCIAS
BARBOSA, S. D. J.; SILVA, B. S. Interação Humano-Computador. Rio de Janeiro: Elsevier,
2010.
BENYON, D. Interação humano-computador. 2. ed. São Paulo: Pearson Prentice Hall, 2011.
ERGOLIST. Projeto ErgoList: Menu de Checklists. In: Labutil. Consultado em meio eletrônico
em: 3 dez. 2020.
NIELSEN, J. Heuristic Evaluation. In: MACK, R.; NIELSEN, J (eds.). Usability Inspection
Methods. New York, NY: John Wiley & Sons, pp. 25–62, 1994.
PREECE, J.; SHARP, H.; ROGERS, Y. Design de Interação: Além da Interação Humano-
Computador. Tradução de Isabela Gasparini. 3. ed. Porto Alegre: Bookman, 2013.
EXPLORE+
Para saber mais sobre os assuntos tratados neste tema, leia:
CONTEUDISTA
Flavia Maria Santoro
CURRÍCULO LATTES