DISSERTAÇÃO Larissa Rodrigues Da Costa
DISSERTAÇÃO Larissa Rodrigues Da Costa
DISSERTAÇÃO Larissa Rodrigues Da Costa
CENTRO DE INFORMÁTICA
PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO
Recife
2022
LARISSA RODRIGUES DA COSTA
Recife
2022
Catalogação na fonte
Bibliotecária Monick Raquel Silvestre da S. Portes, CRB4-1217
BANCA EXAMINADORA
---------------------------------------------------------
Profa. Dra.Judith Kelner
Centro de Informática/UFPE
---------------------------------------------------------
Prof. Dr.Julio Cesar Sampaio do Prado Leite
Centro Técnico-Científico/PUC-RJ
---------------------------------------------------------
Prof.Dr. Jaelson Freire Brelaz Castro
Centro de Informática/UFPE
(Orientador)
Não há exemplo maior de dedicação e inspiração do que o da nossa família. À minha querida
família, que tanto admiro e amo, dedico o resultado do esforço realizado ao longo desta
trajetória.
Antes de tudo e todos, eu agradeço à Deus, por me permitir ultrapassar todos os obstáculos
encontrados. Foi por intermédio DELE que estou aqui hoje, todas as bençãos e oportunidades
que me foram dadas, todas as conquistas e caminhos trilhados foram obras suas.
Agradeço à minha Mãe Regileide, por ser minha maior parceira e porto seguro, obrigada
por acreditar em mim, mesmo quando eu não acreditei.
À minha Tia/Mãe Elizabeth, por sempre estar ao meu lado em minha caminhada, me
apoiando e incentivando. Ao seu Jose, minha figura de Pai/Avô, que foi um dos meus maiores
incentivadores acadêmico. Obrigada por me ensinar tantas coisas da vida.
À Diego, meu Primo/Irmão/MelhorAmigo que merece uma sessão exclusiva e ainda assim
faltaria espaço para descrever a importância dele. Obrigada por toda ajuda, compreensão,
incentivo e principalmente por acreditar em mim e me apoiar todos os dias.
Agradeço enormemente à minha família por serem os meus maiores fãs!! Não dá para
agradecer individualmente a cada um porque é muita gente, mas eu amo todos vocês, quem
eu sou hoje e as conquistas que consegui/conseguirei tem uma parcela de contribuição de cada
um.
Agradeço aos amigos feitos durante a pós-graduação: Davi, Elisa, Moniky, Mozart, Shei-
lane, Sthéfanie. Obrigada por todo apoio e ajuda. Vocês foram fundamentais nesta jornada,
vou guardar todos em um potinho para levar para a vida.
Agradeço à todos que de forma direta ou indireta estiveram presentes ao meu lado nessa
caminhada. Agradeço também ao apoio financeiro da Coordenação de Aperfeiçoamento de
Pessoal de Nível Superior - Brasil (CAPES).
E por fim, gostaria de agradecer ao meu orientador, Jaelson Castro. Obrigada por toda
paciência e dedicação durante essa trajetória, e também por me manter firme quando eu queria
desistir.
RESUMO
The research on Socially Assistive Robotics (SAR) includes studies in Human-Robot In-
teraction (HRI) in order to identify how the collaboration of human and robots is done as well
as the role of robots in human life Requirements Engineering can contribute to understanding,
modeling, and analyzing which requirements are fundamental, improving the acceptance of the
use of these robots. This research proposed the construction of a Non-Functional Requirements
catalog of trust for Socially Assistive Robots (SARs) called NFR4TRUST. The catalog can be
used to help elicit and specify non-functional requirements related to aspects of human trust
in the use of socially assistive robots. A bibliographic survey was carried out to verify HRI’s
state of the art in the context of trust and, from this study, a proposal of trust taxonomy
for SARs was built that helps in the discovery of requirements. Validation of the proposed
catalog was carried out through a Proof of Concept, an interview with specialists from the
related areas, and through the use of a questionnaire to obtain the opinion of requirements
engineers. The use of the NFR4TRUST catalog was illustrated through its application in the
definition of trust requirements of a robot that assists in rehabilitating upper limbs. According
to the requirements engineers consulted, the NFR4TRUST catalog is a valuable artifact, easy
to understand, and presents a good coverage with the non-functional requirements of trust
in the domain of Socially Assistive Robotics. The results of this work showed that using the
NFR4TRUST catalog, it is possible to support the elicitation and specification steps in Socially
Assistive Robots projects, allowing the identification of initial concerns about the user’s trust
perspective and as well as to design ways to mitigate them.
AR Assistive Robotics
ER Engenharia de Requisitos
IA Inteligência Artificial
MM Mental Models
USUS based on usability, social acceptance, user experience and societal impact
SUMÁRIO
1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1 CONTEXTUALIZAÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2 CARACTERIZAÇÃO DO PROBLEMA . . . . . . . . . . . . . . . . . . . . 17
1.3 OBJETIVOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.1 Objetivos Específicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.2 Questões de pesquisa . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 METODOLOGIA DE PESQUISA . . . . . . . . . . . . . . . . . . . . . . 20
1.4.1 Classificação quanto à natureza da pesquisa . . . . . . . . . . . . . . 21
1.4.2 Classificação quanto aos objetivos de pesquisa . . . . . . . . . . . . . 22
1.4.3 Classificação quanto aos procedimentos técnicos . . . . . . . . . . . 23
1.4.4 Classificação quanto à abordagem da pesquisa . . . . . . . . . . . . . 23
1.5 ESTRUTURA DA DISSERTAÇÃO . . . . . . . . . . . . . . . . . . . . . . 25
2 FUNDAMENTAÇÃO TEÓRICA . . . . . . . . . . . . . . . . . . . . 26
2.1 INTERAÇÃO HUMANO-ROBÔ . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.1 Confiança (Trust) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1.2 Confiança na Interação Humano-Robô (Human–Robot Interaction - HRI) . 29
2.1.1.3 Relação entre Automação e HRI . . . . . . . . . . . . . . . . . . . . . . . 30
2.2 ROBÓTICA SOCIALMENTE ASSISTIVA (SOCIALLY ASSISTIVE ROBO-
TICS - SAR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.2 Caracterização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3 REQUISITOS NÃO-FUNCIONAIS . . . . . . . . . . . . . . . . . . . . . . 37
2.3.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.2 Características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.3 Classificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.4 NFR FRAMEWORK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.1 Visão geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.2 SIG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.4.3 Tipos de Representação de Softgoals . . . . . . . . . . . . . . . . . . 43
2.4.4 Interdependência entre Softgoals . . . . . . . . . . . . . . . . . . . . 44
2.4.4.1 Refinamentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4.4.2 Contribuições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.4.5 Procedimento de avaliação . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5 CONCLUSÃO DO CAPÍTULO . . . . . . . . . . . . . . . . . . . . . . . . 48
3 TAXONOMIA DE FATORES DE CONFIANÇA . . . . . . . . . . . 49
3.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 PRINCIPAIS TAXONOMIAS EM CONFIANÇA . . . . . . . . . . . . . . . 49
3.3 ADAPTAÇÃO DAS TAXONOMIAS EXISTENTES PARA A ROBÓTICA
SOCIALMENTE ASSISTIVA . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.1 Fator Humano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.3.1.1 Características (Traits) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.3.1.2 Estado (State) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.1.3 Fatores Cognitivos (Cognitive Factors) . . . . . . . . . . . . . . . . . . . 68
3.3.1.4 Fatores Emocionais (Emotive Factors) . . . . . . . . . . . . . . . . . . . 72
3.3.2 Robô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.3.2.1 Recursos (Features) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.3.2.2 Capacidade (Capability) . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.3.3 Ambiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.3.3.1 Colaboração em grupo (Team Collaboration) . . . . . . . . . . . . . . . . 97
3.3.3.2 Tarefa/Contexto (Task/Context) . . . . . . . . . . . . . . . . . . . . . . 101
3.4 CONCLUSÃO DO CAPÍTULO . . . . . . . . . . . . . . . . . . . . . . . . 104
4 NFR4TRUST - CATÁLOGO DE REQUISITOS NÃO-FUNCIONAIS
PARA ROBÔS SOCIALMENTE ASSISTIVOS . . . . . . . . . . . . 105
4.1 OBSERVAÇÕES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.2 PROCESSO DE CONSTRUÇÃO DO CATÁLOGO . . . . . . . . . . . . . 106
4.2.1 Levantamento Inicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.2.1.1 Tarefas 1, 2 e 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.2.1.2 Coletar definições e atributos dos NFRs . . . . . . . . . . . . . . . . . . . 110
4.2.2 Desenvolvimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.2.2.1 Organizar os NFRs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.2.2.2 Criação do Catálogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.2.3 Avaliação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.2.3.1 Aplicação da Prova de Conceito . . . . . . . . . . . . . . . . . . . . . . . 112
4.2.3.2 Avaliação Prova de Conceito com Especialistas . . . . . . . . . . . . . . . 112
4.2.3.3 Avaliação do catálogo através de um questionário aplicado a Engenheiro
de Requisitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.3 O CATÁLOGO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.3.1 Aparência/Antropomorfismo . . . . . . . . . . . . . . . . . . . . . . . 116
4.3.2 Comunicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.3.3 Emoção . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.3.4 Sofisticação de interação . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.3.5 Aprendizagem Socialmente Situada . . . . . . . . . . . . . . . . . . . 132
4.3.6 Percepção orientada para o ser humano . . . . . . . . . . . . . . . . 133
4.3.7 Privacidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.3.8 Segurança (Safety) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.3.9 Personalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.3.10 Intencionalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.3.11 Papel do Robô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.3.12 Tarefas/Contexto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.3.13 Modelagem de usuário . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
4.3.14 População de usuários . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.4 CONCLUSÃO DO CAPÍTULO . . . . . . . . . . . . . . . . . . . . . . . . 144
5 AVALIAÇÃO DO CATÁLOGO NFR4TRUST . . . . . . . . . . . . . 145
5.1 PROVA DE CONCEITO . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.1.1 Prova de Conceito no NAO . . . . . . . . . . . . . . . . . . . . . . . . 146
5.1.2 Condução da Prova de Conceito: . . . . . . . . . . . . . . . . . . . . 148
5.1.3 Instanciação do catálogo NFR4TRUST para a Prova de Conceito . 152
5.1.4 Resultados e Discussão - Prova de Conceito . . . . . . . . . . . . . . 158
5.1.5 Avaliação com especialistas específicos . . . . . . . . . . . . . . . . . 159
5.1.6 Resultados e Discussão - Avaliação com especialistas específicos . . 160
5.2 AVALIAÇÃO COM ENGENHEIROS DE REQUISITOS ATRAVÉS DE QUES-
TIONÁRIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.2.1 Perfil dos participantes . . . . . . . . . . . . . . . . . . . . . . . . . . 162
5.2.2 Discussão Perfil dos participantes . . . . . . . . . . . . . . . . . . . . 168
5.2.3 Avaliação do catálogo NFR4TRUST . . . . . . . . . . . . . . . . . . . 168
5.2.4 Discussões e Sugestões de Melhoria . . . . . . . . . . . . . . . . . . . 173
5.3 LIMITAÇÕES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
5.4 CONCLUSÃO DO CAPÍTULO . . . . . . . . . . . . . . . . . . . . . . . . 176
6 CONCLUSÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
6.1 TRABALHOS RELACIONADOS . . . . . . . . . . . . . . . . . . . . . . 177
6.1.1 Non-functional requirements orienting the development of socially
responsible software . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
6.1.2 Towards Achieving Trust Through Transparency and Ethics . . . . . 178
6.1.3 NFR4ES: Um Catálogo de Requisitos Não-Funcionais para Sistemas
Embarcados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
6.1.4 Speeding-Up Non-Functional Requirements Elicitation . . . . . . . . 179
6.1.5 Assisting with API design through reusing design knowledge . . . . 180
6.2 RESULTADOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
6.3 CONSIDERAÇÕES E DIFICULDADES PARA CONDUZIR A PESQUISA . 182
6.4 CONTRIBUIÇÕES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
6.5 TRABALHOS FUTUROS . . . . . . . . . . . . . . . . . . . . . . . . . . 183
6.6 CONSIDERAÇÕES FINAIS . . . . . . . . . . . . . . . . . . . . . . . . . . 184
REFERÊNCIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
APÊNDICE A – TERMO DE CONSENTIMENTO LIVRE E ES-
CLARECIDO . . . . . . . . . . . . . . . . . . . . . 218
APÊNDICE B – QUESTIONÁRIO DE AVALIAÇÃO DO NFR4TRUST219
APÊNDICE C – UM RESUMO DA AULA DADA VIRTUALMENTE,
A FIM DE CONTEXTUALIZAR OS TEMAS PER-
TINENTES. . . . . . . . . . . . . . . . . . . . . . 226
16
1 INTRODUÇÃO
Neste capítulo será apresentada uma visão geral da dissertação, assim como, as principais
questões que motivaram a realização deste trabalho e o objetivo da pesquisa. As seções es-
tão estruturadas da seguinte forma: o contexto, a caracterização do problema, a motivação,
objetivos, procedimentos metodológicos e a estrutura do trabalho.
1.1 CONTEXTUALIZAÇÃO
O conceito de confiança se estende a muitas disciplinas e pode ser abordado sob várias
perspectivas. De acordo com Blomqvist (1997) a confiança desempenha um papel impor-
tante na interação dos seres humanos, com efeito na eficácia da comunicação, no aprendizado
e na resolução de problemas. Geralmente, a confiança necessita de informações e baseia-se
nas expectativas de um indivíduo acerca do desempenho de alguma coisa. É difícil consti-
tuir um significado base para uma noção tão ampla como confiança, uma vez que ela pode
transmutar-se de acordo com a situação ou contexto e pode basear-se em experiências e
aprendizagem social, podendo, portanto, variar de acordo com nacionalidades e/ou culturas
específicas (BLOMQVIST, 1997).
Dentro do desenvolvimento de diversos sistemas, as atividades e o processo da Engenharia
de Requisitos (ER) são bastante importantes, uma vez que a ER ajuda com questões relacio-
nadas a evitar a introdução de defeitos e falhas de comunicação e tende a minimizar os riscos
de fracasso dos sistemas (LEVESON, 2011). Contudo, é possível observar que em muitas áreas
geralmente se inicia o desenvolvimento de um determinado sistema antes de capturar seus
requisitos.
Quando se trata de sistemas robóticos, os requisitos podem ter um papel fundamental
para garantir especificações, descrições de como o sistema deveria se comportar e restrições
sobre a operação dele. Eles também podem afetar a qualidade do sistema desenvolvido. Após
pesquisas na literatura sobre o domínio de SARs e confiança, foi possível observar uma escassez
de trabalhos relacionados a Engenharia de Requisitos, o que torna mais difícil avaliar quais
são os requisitos essenciais e exclusivos desse domínio, e quais deles têm maior impacto na
confiança.
(ROSSI et al., 2017; FREEL, 2003). Pesquisas relacionadas a Interação Humano-Robô apontam
que a confiança pode impactar o sucesso da colaboração entre o humano e o robô e pode
determinar o uso futuro do robô (FREEDY et al., 2007).
De antemão, é importante observar que existem vários fatores que influenciam o desenvol-
18
vimento da confiança e que ainda há muito a se aprender sobre como ela progride. No entanto,
de acordo com Lussier et al. (2007) o que prevalece na literatura é o reconhecimento de que
até que a confiança seja solidamente estabelecida entre humano e robô, os robôs continua-
rão a serem subutilizados ou não utilizados. Dessa maneira, a comunidade científica da área
continua a abordar a criação e validação de métodos de avaliação para questões de confiança
humano-robô.
Na literatura é possível encontrar muitos estudos relacionados a forma de mensurar a
confiança na robótica e em sistemas autônomos após sua utilização, como em Hancock et
al. (2011), Yagoda e Gillan (2012), Schaefer (2013), Schaefer et al. (2014), Schaefer et
al. (2016) entre outros. Porém, existe uma lacuna de trabalhos que foquem no auxílio do
desenvolvimento de sistemas robóticos que já possam incluir as preocupações de confiança
em sua idealização inicial, isto é nas fases de requisitos. É essencial que ao desenvolver um
sistema robótico faça-se uso das etapas de elicitação e especificação de requisitos para que o
sistema possa atender às necessidades dos stakeholders 3 . De acordo com Sommerville (2011),
os requisitos de um sistema são as descrições dos serviços que serão oferecidos por ele e as
suas restrições operacionais. Eles podem ser classificados em duas maneiras, os Funcionais e
os Não-Funcionais. O primeiro declara os serviços que o sistema deve oferecer, enquanto o
segundo determina as restrições aos serviços ou funções oferecidos pelo sistema.
Os Requisitos Não-Funcionais (Non Functional Requirements - NFRs), têm um papel re-
levante durante o desenvolvimento de um robô, pois se tais requisitos não são levados em
consideração, então o sistema poderá ser inconsistente e de baixa qualidade. É de grande valia
investir na elaboração de NFRs de confiança nessas aplicações, pois elas requerem interação
e colaborações próximas entre humanos e robôs, bem como contato físico, influência social e
psicológica.
O conhecimento sobre os Requisitos Não-Funcionais pode ser organizado em forma de ca-
tálogo, facilitando o compartilhamento, gerenciamento e melhoramento de informações (CYS-
NEIROS; YU; LEITE, 2003). O propósito deste trabalho é criar um Catálogo de Requisitos Não-
Funcionais chamado NFR4TRUST voltado para a Confiança em Robôs Socialmente Assistivos
que influencie a aceitação e utilização deste tipo de robô. Esse Catálogo será útil tanto na fase
inicial de desenvolvimento e projeto, como auxiliará na avaliação de robôs já desenvolvidos.
3
Pessoas ou organizações que têm interesse legítimo em um projeto ou entidade
19
1.3 OBJETIVOS
A fim de atingir o objetivo geral foram pautados alguns objetivos específicos, apresentados
a seguir:
• Propor uma taxonomia para SARs a partir da adaptação das taxonomias de Confiança
existentes na literatura.
Esta pergunta tem como objetivo a investigação dos fatores de Confiança que podem
ser atributos de qualidade no domínio de SARs.
A Figura 1 representa essa classificação e suas especificações. Nos próximos tópicos serão
descritos cada uma dessas categorias mais detalhadamente.
A classificação quanto aos objetivos diz respeito ao grau de familiaridade que se tem com
o tema e o quanto se irá aprofundá-lo. Pode ser do tipo descritiva, explicativa ou exploratória.
Nesta dissertação a pesquisa é classificada como exploratória.
Segundo Gil (1999), a principal finalidade das pesquisas do tipo descritiva é descrever as
características de determinada população ou fenômeno. Uma de suas particularidades está
na utilização de técnicas padronizadas de coleta de dados, como questionário e observação
sistemática. Este tipo de pesquisa apenas captura e mostra o cenário de uma situação expressa
em números e as variáveis capturadas pela análise dos dados são limitadas a serem descritas
de forma isoladas sem que as interações entre elas sejam examinadas mais detalhadamente
(CASTRO, 1976). Suas questões de pesquisa exigem que o pesquisador tenha um profundo
conhecimento do problema a ser pesquisado, como também, o conhecimento de informações
como: o que a pesquisa deseja medir, quando e onde, como será realizada e o por que deve
ser feita (MATTAR, 2001).
A essência da relação entre variáveis é feita na pesquisa explicativa (CASTRO, 1976). Para
Gil (1999), esse tipo de pesquisa tem como objetivo identificar os fatores que determinam
ou que colaboram para a ocorrência de um fenômeno. É o tipo de pesquisa mais complexa e
delicada e a que mais aprofunda o conhecimento da realidade. Isso porque ela tenta explicar
a razão e as relações de causa-efeito dos fenômenos. Geralmente as questões de pesquisa e
as hipóteses relevantes nesse tipo de pesquisa têm que ser muito específicas (AAKER; KUMAR;
DAY, 2004).
Conforme Gil (1991), as pesquisas do tipo exploratórias, como nesta dissertação, têm a
intenção de facilitar a familiaridade do pesquisador com o problema objeto da pesquisa, para
tornar a questão mais compreensível. Geralmente esse tipo de pesquisa é desenvolvida quando
não se tem tantos dados e informações disponíveis sobre um tema ainda, porém percebe-se
que ele poderá ser alvo de pesquisas futuras. Uma de suas características relaciona-se com as
suas hipóteses, que podem estar ausentes, ou serem pouco definidas (AAKER; KUMAR; DAY,
2004). Dessa forma, essa pesquisa se caracteriza como exploratória pelo fato de realizar uma
investigação sobre Confiança, Robótica Socialmente Assistiva, Taxonomia de Confiança na
Interação Humano-Robô e Requisitos Não-Funcionais para Confiança no domínio de SARs.
23
O tipo de abordagem da pesquisa refere-se à qual caminho é mais adequado para estudar
o seu objeto. As pesquisas científicas podem ser classificadas, quanto à sua abordagem, nos
tipos básicos: qualitativa e quantitativa. Também existe a possibilidade de uma abordagem
de método misto, onde combina-se elementos da pesquisa qualitativa e quantitativa com o
propósito de ampliar e aprofundar o entendimento e a corroboração dos resultados (JOHNSON;
ONWUEGBUZIE; TURNER, 2007). Esta pesquisa é classificada como uma abordagem de método
misto.
De acordo com Malhotra (2001, p.155), “a pesquisa qualitativa proporciona uma melhor
visão e compreensão do contexto do problema, enquanto a pesquisa quantitativa procura
24
quantificar os dados e aplica alguma forma da análise estatística” . Os resultados obtidos pela
pesquisa qualitativa podem ser explicados pelo uso da abordagem quantitativa. Sendo assim, a
abordagem utilizada nesta pesquisa é mista pois a análise qualitativa foi realizada mediante as
perguntas abertas que coletaram as opiniões dos participantes da pesquisa sobre a utilidade do
catálogo. Já a análise quantitativa utilizou-se da estatística para avaliar os dados importantes
obtidos através das respostas dos formulários aplicados aos Engenheiros de Requisitos acerca
do catálogo.
Com o intuito de alcançar nosso objetivo, esta pesquisa foi elaborada em 6 etapas, como
observado na Figura 2.
Na fase do planejamento algumas atividades foram feitas, tais como: a definição do pro-
blema de pesquisa, a delimitação dos objetivos do trabalho e a escolha dos procedimentos
metodológicos a serem utilizados para o andamento do trabalho.
Na etapa de aquisição do conhecimento, foi realizado um levantamento bibliográfico acerca
dos temas propostos através de bibliotecas digitais, sendo elas: ACM Digital Library, CiteSeerX,
DBLP (Digital Bibliography & Library Project), DSpace@MIT, Engineering Village, Google
Scholar, IEEE Xplore Digital Library, ScienceDirect, Scopus e SpringerLink.
A etapa de adaptação da taxonomia foi realizada selecionando através do levantamento
bibliográfico as principais taxonomias relacionadas a Confiança e organizando os fatores re-
levantes ao domínio da Robótica Socialmente Assistiva em um modelo de taxonomia mais
relacionado à área.
Na fase da coleta de requisitos foi realizada a tarefa de identificar os Requisitos Não-
Funcionais de Confiança predominantes no domínio de Robôs Socialmente Assistivos. Os re-
quisitos foram obtidos utilizando as informações adquiridas com a taxonomia.
Por fim, na etapa de avaliação foi realizada a análise da abordagem proposta por meio da
aplicação da Prova de Conceito (PoC) e entrevistas com especialistas das áreas relacionadas
a SARs, NFR Framework e requisitos. Em seguida foram também consultados Engenheiros de
25
Requisitos. O uso do catálogo foi ilustrado através da definição dos NFRs de um SARS na
área de reabilitação motora dos membros superiores.
2 FUNDAMENTAÇÃO TEÓRICA
2.1.1.1 Definições
A confiança tem uma longa história. Antes mesmo de se tornar um campo formalizado de
pesquisa, a noção de “confiança” já se estabelecia na sociedade primitiva; a incerteza sobre
o comportamento de outros indivíduos e a interação em ambientes incertos condicionava
os indivíduos a depender da confiança para facilitar sua sobrevivência. Porém, conforme a
sociedade foi evoluindo e as relações entres os seres humanos e com o ambiente social foram
se tornando cada vez mais complexas, a confiança passou de um meio de sobrevivência para
torna-se um pilar de estabilidade das sociedades democráticas e para a condução normal dos
assuntos sociais e econômicos (COOK, 2001).
Uma das primeiras tentativas rastreáveis de definir e examinar características potenciais do
termo confiança foi feita pelo psicólogo Morton Deutsch (DEUTSCH, 1962). Em sua pesquisa,
Deutsch (1962) descreve a confiança como uma faceta da personalidade humana e afirma que
ela é o resultado da escolha de comportamento em uma situação específica. Ele focou sua
definição baseada na percepção do indivíduo acerca de uma situação e na análise de custo
ou benefício que resulta dela (DEUTSCH, 1962; MARSH, 1994). Ainda nos anos 60 podemos
destacar outro trabalho, o de Rotter (1967) que definiu a confiança interpessoal como uma
expectativa de um indivíduo, ou vários, de que a palavra ou promessa, seja ela verbal ou escrita
de outra pessoa ou grupo pode ser acreditada.
Entre os anos 70 e 80 podemos destacar alguns pesquisadores como Niklas Luhmann
28
(1979), Larzelere e Huston (1980), Bernard Barber (1983) e Rempel, Holmes e Zanna (1985).
Niklas Luhmann é considerado como outro pioneiro desse campo de estudo, em seu trabalho
a confiança aborda diferentes áreas do conhecimento, como a sociologia, a psicologia e a an-
tropologia. Na sua definição, a confiança é um método para reduzir a complexidade social e
para lidar com riscos (LUHMANN, 1979). Larzelere e Huston (1980) realizaram sua pesquisa no
âmbito interpessoal e relacionaram a confiança como a crença que um indivíduo tem na integri-
dade do comportamento de outro indivíduo. Outra definição de confiança com embasamento
na sociologia, assim como Luhman, vem do trabalho do sociólogo Bernard Barber. Barber
estabeleceu que a confiança resulta da aprendizagem em um sistema social e é usada por um
indivíduo para gerenciar suas expectativas em relação aos seus relacionamentos e ambiente
(BARBER, 1983; MARSH, 1994). Já o trabalho de Rempel, Holmes e Zanna (1985), declarou
que o componente mais concreto da confiança diz respeito as características de previsibilidade
ou consistência das ações de um individuo.
Nos anos 90 podemos destacar Gambetta et al. (1990), que em seu trabalho descreveu a
confiança como uma avaliação probabilística subjetiva da intenção de outro agente de realizar
uma ação da qual o agente dependerá (GAMBETTA et al., 1990); e a definição de Mayer, Davis
e Schoorman (1995) que particularizam a confiança na perspectiva da teoria organizacional e
declaram a confiança como: “A disposição de uma parte de ser vulnerável aos resultados de
outra parte com base na expectativa de que a outra realizará uma ação específica importante
para o responsável pela confiança, independentemente da capacidade de monitorar ou controlar
essa outra parte” (MAYER; DAVIS; SCHOORMAN, 1995).
No inicio dos anos 2000 algumas definições que podem ser destacadas são: a de Madsen
e Gregor (2000) no campo da Interação Humano-Computador, que definiram o significado de
confiança para relacionar até onde o usuário está disposto e seguro em agir com base nas
recomendações, ações e decisões de um agente artificialmente inteligente; a de Sirdeshmukh,
Singh e Sabol (2002, p.17) que definem a confiança no ponto de vista de um consumidor (para
eles a confiança se relaciona com a expectativa que o consumidor tem de que um prestador
de serviço irá cumprir suas promessas); Sheridan (2002), que define a confiança como um
efeito ou resultado de certas características de automação (por exemplo, confiabilidade) e
confiança como uma causa do comportamento dos operadores ao utilizar a automação; e a de
Lee e See (2004) que definem a confiança na automação como a atitude de que um agente
ajudará a atingir os objetivos de um indivíduo em uma situação caracterizada pela incerteza e
vulnerabilidade.
29
Wagner (2009) define a confiança em termo de dois indivíduos. O trustor que é o indiví-
duo que confia e o trustee que é o indivíduo em quem a confiança é depositada. Para eles a
confiança é uma crença, mantida pelo trustor, de que o trustee agirá de maneira a mitigar o
risco do trustor em uma situação na qual o trustor colocou seus resultados em risco (WAGNER,
2009, p.31). Em Schaefer (2013) também é estabelecido a confiança em termo de dois indiví-
duos o trustor e o trustee, mas voltado para a área de HRI. O relacionamento dos indivíduos
a qual essa definição se refere inclui, uma pessoa (trustor ) e um robô (trustee). Na maioria
das vezes, a pessoa de interesse no HRI é o operador ou usuário do robô, pois é ele quem
trabalha diretamente com o robô em uma tarefa colaborativa. Outro trabalho que apresenta
a exigência de que a confiança tenha tanto um trustor quanto um trustee é o de PytlikZillig
e Kimbrough (2016). Eles definem que esses dois indivíduos precisam ter alguma forma de
relacionamento e interdependência entre os mesmos. Em alguns casos, o aspecto relacional da
confiança é explicado pela menção de “dependência”, descrevendo o trustor como disposto a
confiar, dar controle, apoiar ou “ser vulnerável” ao trustee.
Nesta dissertação, o conceito de confiança utilizado é baseado em algumas diretrizes,
como a questão da expectativa destacada no trabalho de Sirdeshmukh, Singh e Sabol (2002)
e a previsibilidade/consistência do trabalho de Rempel, Holmes e Zanna (1985). Também
usaremos a confiança em termo de dois indivíduos enfatizadas nas definições de Wagner (2009),
Schaefer (2013) e PytlikZillig e Kimbrough (2016). Então, o termo Confiança elaborado nessa
dissertação se refere: a crença que o usuário (trustor ) tem de que o robô (trustee) será capaz
de cumprir suas funções prometidas de forma esperada, eficaz e segura.
age com suas próprias decisões, com a contribuição de um operador humano, mas pode não
ser controlado por um humano” (WOHLEBER et al., 2016; POSTAL, 2019, p.27). Esse conceito
corrobora com Schaefer (2013) e Yagoda (2011), no que diz respeito a enfatizar os conceitos de
inteligência e autonomia da tecnologia. Nesta dissertação, definiremos o termo Autonomia
como a capacidade do nosso sistema robótico de executar ações específicas do sistema de
forma inteligente e automática. Enquanto a Automação é definida como o grau de poder
que o robô tem para agir no ambiente ou situação (RILEY, 1989).
A tecnologia auxilia cada vez mais o aumento da qualidade de vida das pessoas. Ativos
tecnológicos como os Robôs Socialmente Assistivos (Socially Assistive Robots) prestam as-
sistência aos seus usuários em diferentes níveis: podendo apoiar as habilidades cognitivas ou
funcionais; oferecendo ao usuário oportunidades para aumentar a participação social e o bem-
estar psicológico; fornecendo monitoramento remoto e contínuo do estado de saúde do usuário;
treinando o usuário para facilitar a promoção de um comportamento saudável e atingir os ob-
jetivos relacionados à saúde; auxiliando tratamentos terapêuticos relacionados a demência ou
autismo, sendo ferramenta educacional, entre outros (Rich e Sidner, 2009; Pino et al., 2015).
A Robótica Socialmente Assistiva engloba todos os sistemas robóticos que são capazes,
através da INTERAÇÃO SOCIAL, de prestar algum tipo de assistência ao usuário (Feil-Seifer
e Mataric, 2005; Broekens et al., 2009; Flandorfer, 2012).
2.2.1 Definição
Os Robôs Socialmente Assistivos foram apresentados pela primeira vez em 1950 (AMUDHU,
2020) e na época eles possuíam apenas desempenhos de mecanismos básicos e configurações
pré-definidas sem muitas sofisticações. Foi apenas na década de 90 que a área teve um impulso
tanto de desenvolvimento como de interesse de pesquisa. Isso ocorreu pelo surgimento da
Inteligência Artificial (IA), que foi usada para incrementar os robôs sociais (AMUDHU, 2020).
Ademais, esse campo só foi realmente definido claramente e delimitado em 2005 no trabalho
de (FEIL-SEIFER; MATARIĆ, 2005).
Feil-Seifer e Matarić (2005) classificaram1 a robótica dentro do campo da HRI em três
1
Na área de HRI existem diferentes formas de classificar os domínios da robótica.
33
grandes áreas: A Robótica Assistiva (Assistive Robotics - AR), a Robótica Socialmente Intera-
tiva (Socially Interactive Robotics - SIR) e a Robótica Socialmente Assistiva (SAR). A primeira
área, Robótica Assistiva - AR é responsável por englobar os ativos tecnológicos que auxiliam
os usuários humanos por interações mais físicas (mas não exclusivo). Podem ser robôs de
reabilitação, cadeiras de roda, braços robóticos, tecnologias educacionais, ferramentas de mo-
nitoramento médicos, entre outros e geralmente possuem um nível de autonomia mais simples.
Já a Robótica Socialmente Interativa - SIR, foi primeiro introduzida por Fong, Nourbakhsh e
Dautenhahn (2003), para distinguir as interações sociais das teleoperações na área de HRI.
Os robôs da área de SIR são caracterizados por terem algum tipo de interação social como
tarefa principal, podem operar como parceiros, pares ou assistentes, o que significa que eles
precisam exibir um certo grau de adaptabilidade e flexibilidade para conduzir suas interações.
A Robótica Socialmente Assistiva - SAR foi definida como uma interseção das áreas da
Robótica Assistiva - AR e Socialmente Interativa - SIR como podemos ver na Figura 3.
aprendizagem, entre outros). A segunda (SIR), visa desenvolver as interações eficazes com
o ser humano, apenas pelo próprio ato de interagir com ele. A construção do campo de SAR
foi motivada pelo desejo de expandir a robótica assistiva para incluir robôs que operam por
meio de interação social (FEIL-SEIFER; MATARIĆ, 2005).
2.2.2 Caracterização
• Emoção (Emotion): as emoções são importante nas interações humanas. Nos robôs
elas ajudam a facilitar uma interação mais crível entre homem-robô. Elas podem ser divi-
didas em: emoções artificiais (podem indicar estado interno do robô, expressar emoções
limitadas e os modelos podem regular as emoções através de estimulação ou podem
ser inspiradas pela teoria emocional); emoções como mecanismo de controle (a emoção
pode ser usada pra controlar o comportamento do robô); a fala (pode transmitir emo-
ções, seus parâmetros devem se atentar ao volume, nível, variação, alcance, entonação,
ritmo e o acento da linguagem falada); expressão facial (expressões básicas presentes no
rosto do robô que expressem emoções; os componentes da face e seus graus de movi-
mentos faciais limitam as expressões possíveis); linguagem corporal (comunicação não
verbal através de movimentos corporais também ajudam a transmitir emoções, além de
melhorar a interação).
35
2.3.1 Definição
Apesar de ser amplamente utilizado na academia e indústria, ainda não existe um con-
senso na definição do termo Requisitos Não-Funcionais (BLAINE; CLELAND-HUANG, 2008). Em
Sommerville (2007), os NFRs são descritos enfatizando a sua possibilidade de associação a
38
2.3.2 Características
• Específicos: eles devem dizer exatamente o que é solicitado. Sendo claros, consistentes,
simples e tendo um nível apropriado de detalhamento.
• Mensuráveis: deve ser possível verificar a realização desses requisitos após a finalização
do sistema.
• Realizáveis: deve ser possível atingir tais requisitos dado o que é conhecido sobre as
restrições diante das quais o projeto deve ser desenvolvido.
2.3.3 Classificação
NFR na literatura. Portanto, Confiança não está presente em classificações mais clássicas dos
NFRs.
Dentre as classificações citadas previamente, o trabalho de Khalifa, Madjid e Svetinovic
(2019) é um dos únicos a incluir o conceito de Confiança em sua classificação. Os auto-
res introduzem a Confiança como um requisito não-funcional dentro de uma taxonomia de
classificação específica ao contexto de blockchain. Na Figura 5 podemos observar que nessa
classificação os autores dividem os NFRs em duas categorias: restrições e propriedades e a
Confiança é uma subdivisão de propriedade.
que irá garantir a satisfação do NFR) dos NFRs. A decomposição do Requisito Não-Funcional
de Confiança será baseada na Taxonomia de Confiança em SARs e na revisão da literatura.
Na próxima seção será descrito a abordagem NFR Framework, onde a sua notação será
usada nesse trabalho para expressar os NFRs do catálogo NFR4TRUST.
O NFR Framework criado por Chung et al. (2000) é uma abordagem para representar
e analisar Requisitos Não-Funcionais. Ela surgiu a partir da evolução de alguns trabalhos na
área de NFRs, tais como (MYLOPOULOS; CHUNG; NIXON, 1992; CHUNG; NIXON, 1995). Este
framework contribui para que os desenvolvedores possam implementar soluções personaliza-
das, através da consideração das características específicas ao domínio e sistema em evidência.
Ele também possibilita que os requisitos não-funcionais sejam expressados de modo mais siste-
mático e usados para guiar o processo de desenvolvimento de software ou de um determinado
sistema (CHUNG et al., 2000; SILVA, 2019; LAMSWEERDE, 2001).
Segundo Chung e Nixon (1995), o NFR Framework caracteriza-se por ser uma aborda-
gem orientada a processos. Nele os Requisitos Não-Funcionais são representados como metas a
serem atendidas/alcançadas. Embora essas metas nem sempre possam ser inteiramente satis-
feitas, elas podem ser avaliadas em graus de satisfação obtidos. Dessa forma, surge o conceito
de softgoal para descrever as metas que precisam obter níveis de satisfação. Os softgoals
podem interagir entre si em conflito ou cooperação, podendo também serem decompostos
em outros softgoals e representados em uma concepção e raciocínio dos processos em grafos
inspirados nas árvores lógicas “AND/OR”, através dos chamados Softgoal Interdependency
Graph (SIG), descrito na seção 2.4.2.
Através da representação gráfica por meio do SIG, o NFR Framework oferece um catálogo
43
2.4.2 SIG
Os softgoals podem ser representados em três tipos diferentes: Os Softgoals NFR, Softgoals
de Operacionalização e os Softgoals de Afirmação (Claim). A Tabela 1 ilustra as representações
gráficas desses três tipos e suas definições de características de acordo com (CHUNG et al.,
2000).
Um SIG começa a ser representado primeiramente com as características de qualidade
de alto nível (os Requisitos Não-Funcionais propriamente ditos) desenhadas por nuvens cla-
ras (Softgoals NFR). Quando essas características são refinadas até chegar a soluções que
consigam ser implementadas, elas são representadas por nuvens escuras (Softgoals de opera-
cionalização). Agora, quando se tem uma justificativa para apoiar ou negar a priorização de
softgoals, refinamentos ou seleção de seus componentes essas características são representadas
através de nuvens com linhas tracejadas (Softgoals de afirmação ou Claim).
Os softgoals representam um tipo de Requisitos Não-Funcionais. Esse tipo indica um NFR
particular, como segurança, desempenho, capacidade, entre outros que são atendidos pelo
softgoal. Cada softgoal tem um tipo de NFR associado a um ou mais tópicos (assuntos).
Quando o tipo muda o mesmo acontece com o significado do softgoal. Da mesma forma
acontece com o tópico (CHUNG et al., 2000).
44
Softgoal NFR Descreve de forma hierárquica um NFR a ser satisfeito pelo sis-
tema e que pode entrar em conflito com outro NFR.
Os softgoals estão ligados entre si por uma recíproca dependência. As interações entre eles
são muito importantes porque tem um impacto no processo de decisão para alcançar outros
NFRs. Os tipos de interdependências podem ser de refinamento e de contribuição (CHUNG et
al., 2000).
45
2.4.4.1 Refinamentos
2.4.4.2 Contribuições
Contribuição Descrição
AND Estabelece que, se todos os softgoals descendentes (filhos) forem suficientemente satis-
feitos o ascendente (pai) também será.
OR Estabelece que, se algum softgoal descendente (filho) for suficientemente satisfeito, o
ascendente (pai) também será.
MAKE(++) Estabelece o nível mais alto de satisfação e uma contribuição suficientemente positiva
entre o softgoal descendente e o ascendente, isso é, se o softgoal descendente for satisfeito
o softgoal pai também é.
BREAK(- -) Estabelece o nível mais alto de negação e uma contribuição suficientemente negativa entre
o softgoal descendente e o ascendente, isso é, se o softgoal descendente for suficientemente
satisfeito, o softgoal pai é negado.
HELP(+) Estabelece uma contribuição parcialmente positiva entre o softgoal descendente e o as-
cendente, isso é, se o softgoal descendente for parcialmente satisfeito, o softgoal pai será
parcialmente satisfeito.
HURT(-) Estabelece uma contribuição parcialmente negativa entre o softgoal descendente e o as-
cendente, isso é, se o softgoal descendente for satisfeito, o softgoal pai será parcialmente
negado.
UNKNOWN(?) Estabelece uma contribuição desconhecida entre um softgoal descendente e um ascen-
dente, essa contribuição pode ser positiva, negativa, suficientemente positiva ou suficien-
temente negativa.
EQUALS Estabelece que, o softgoal descendente só será satisfeito ou negado, se e somente se, o
softgoal ascendente também for.
SOME (+|-) Utilizada quando o sinal de contribuição é conhecido (positivo ou negativo), porém não
se tem conhecimento quanto ao tipo de extensão (parcial ou total).
Os tipos de rótulos que podem ser atribuídos a um softgoal são: negado, fracamente
negado, indeterminado, fracamente satisfeito, suficientemente satisfeito e conflitante. Suas
representações são ilustradas na Figura 8
Neste capítulo foi apresentado uma revisão dos fundamentos gerais utilizados no desenvol-
vimento desta dissertação. A primeira seção contextualizou a área de Interação Humano-Robô,
abordando um dos principais desafio da área, a Confiança. Em seguida na seção 2.2 foi tratado
o domínio da Robótica Socialmente Assistiva, suas principais definições, tipos de aplicações e
importância para a sociedade. Os Requisitos Não-Funcionais foram mostrados na seção 2.3.
Logo em seguida abordamos o NFR Framework na seção 2.4.
49
Este capítulo apresenta uma síntese das principais taxonomias de Confiança encontradas
na literatura, a proposta de adaptação das taxonomias existentes para o domínio de Robôs
Socialmente Assistivos e uma contextualização de seus fatores.
3.1 INTRODUÇÃO
Existem alguns conjuntos de problemas e desafios que vem gerando esforços de pesquisa
nas comunidades de Interação Humano-Robô. Dentre eles, o interesse de identificar os fato-
res que promovem a Confiança humana em relação a utilização da robótica. Este interesse
tem influenciado os pesquisadores a desenvolverem taxonomias para auxiliar a identificar tais
fatores, além de definir maneiras de avaliar a confiança.
O trabalho de Hancock et al. (2011) é um dos primeiros esforços sistemáticos para quan-
tificar os efeitos relativos à percepção da Confiança humana na interação com os robôs. Ele
apresenta alguns conceitos que serviram como modelo base na construção de outras taxo-
nomias de Confiança bem como métricas para medi-la. Uma das influências do trabalho de
Hancock et al. (2011), que pode ser observada ao longo de diversos trabalhos na literatura,
é a forma de estudar os fatores agrupando-os em três categorias: o fator relacionado ao Hu-
mano (Human-Related), o fator relacionado ao Robô (Robot-Related) e o fator relacionado ao
Ambiente (Environmental). Esta trindade, representa os aspectos que diversos pesquisadores
50
Na Figura 9 é possível observar o modelo elaborado por Hancock et al. (2011). Tal modelo
foi desenvolvido a partir da meta-análise aplicada na literatura disponível sobre Confiança e
HRI. No trabalho de Hancock et al. (2011) são identificados 33 fatores que influenciam a
confiança, distribuídos em 3 categorias gerais e 6 subcategorias (partes cinzas). Hancock e
seus co-autores analisaram estudos teóricos e empíricos, divididos em análises experimentais1 ,
representadas pelo símbolo (+) e análises correlacionais2 , representadas pelo símbolo (*) como
observado na Figura 9. Os resultados relatados no trabalho de Hancock et al. (2011) indicam
que os fatores relacionados ao robô são os de maiores influência. Eles observam que os fatores
baseados em “performance” (PERFORMANCE-BASED) são os maiores instigadores da per-
cepção de Confiança. Para uma compreensão mais profunda da literatura desses fatores e sua
relevância para a Confiança, verificar os trabalhos de Sanders et al. (2011).
1
Que tentam estabelecer relações de causa-efeito nas variáveis investigadas
2
Que procuram explorar relações que possam existir entre variáveis, exceto a relação de causa-efeito
51
Figura 11 – Modelo revisado de três fatores de Confiança após a revisão da literatura sobre Confiança na
automação
Pode-se observar na Figura 11 que foram feitas diversas mudanças significativas nos fa-
tores, principalmente na parte relacionada ao fator Humano. As considerações relacionadas a
importância desse fator foram mantidas e enfatizadas pelas novas divisões e composições de
seus elementos. Os elementos de “Confiança na automação”, “Satisfação” e “Expectativa”
(Confidence in the automation, Satisfaction e Expectancy ) não estão presentes em Hancock
et al. (2011) e nem em Schaefer (2013), sendo únicos nesse modelo. Os fatores relacionados
ao Robô mantiveram-se em relação a Schaefer (2013), com exceção do elemento “Qualida-
de/Precisão” (Quality/Accuracy ) que foi retirado, porém suas definições estão implícitas em
outros conceitos.
Na Figura 12 pode-se observar o modelo completo dos fatores da taxonomia que foi
adaptada. Foi mantida a classificação geral da Confiança (Trust) de maneira similar ao trabalho
base de Hancock et al. (2011), dividida em três categorias principais: Fator Humano, Robô
e Ambiente (Figura 12). Na literatura, essa divisão é consistente e mesmo com a evolução
do modelo de Hancock et al. (2011) em outros trabalhos (SCHAEFER, 2013; SCHAEFER et al.,
2014; SCHAEFER et al., 2016; LEWIS; SYCARA; WALKER, 2018) continuam sendo categorizados
nesses três pilares.
Dentro das categorias gerais são apresentadas as subcategorias e os fatores que as compõe.
Na Figura 12 é possível observar que a categoria de Fator Humano é dividida em 4 subcategorias
e composta por 12 fatores; a parte do Robô divide-se em 2 subcategorias e 11 fatores e o
Ambiente divide-se em 2 subcategorias e 7 fatores. A seguir, será apresentada a lógica utilizada
nos critérios de seleção desses fatores. Antes, vale ressaltar que alguns desses fatores aparecem
com nomenclaturas diferentes, porém seu significado/característica continuam os mesmos. Na
Figura 12, é possível visualizar alguns fatores agrupados (ex. Aparência/Antropomorfismo,
Segurança/Privacidade entre outros), sendo que, na literatura, esses fatores podem aparecer
de forma separada; decidiu-se realizar o agrupamento de alguns fatores baseado na similaridade
dos conceitos dos mesmos.
55
Antes de iniciarmos o processo de seleção dos fatores que compõe o nosso modelo,
selecionamos as subcategorias em que eles seriam agrupados, isso para facilitar a ordem
de busca dos fatores. O modelo de Schaefer et al. (2016) é um dos mais detalhados ao
agrupar os fatores e foi utilizado neste trabalho.
Essa primeira etapa permitiu a confirmação de 24 fatores de confiança com relações expli-
citas na literatura com os SARs (Idade, Personalidade, Propensão de confiança, Experiências
Prévias, Fadiga, Estresse, Habilidade de uso, Atitudes, Conforto, Satisfação, Comunicação,
Aparência, Antropomorfismo, Segurança (Safety), Privacidade, Comportamento, Confiabili-
dade, Erros, Fator Cultural, Risco, Contexto, Tipo de tarefa, Complexidade da tarefa e Gê-
nero).
Os fatores apresentados nas taxonomias da seção 3.2 que não foram investigados na pri-
meira etapa, foram investigados na segunda etapa, que consiste em primeiro pesquisar a
relação dos fatores com SARs (segue o esquema de busca representado na lógica 3.b e 3.c).
Os fatores que não apareceram nessa busca foram investigados de forma mais geral utili-
zando a rebótica social como parâmetro. Nessa segunda etapa foram confirmados 13 fatores
(Controle da atenção, Modo de comunicação, Nível de automação, Personalidade do robô,
Modelos mentais compartilhados, Ambiente Físico, Feedback, Adaptabilidade, Proximidade,
Interdependência, Composição de equipe, Impacto social, Incerteza), o que ao total somam
37 fatores de confiança que de alguma forma relacionam-se aos SARs. Desses fatores, foram
retirados 2 (Gênero e Etnia) para evitar questões ideológicas e alguns fatores foram agrupados
devido suas semelhanças.
Depois de investigado os fatores na literatura, o resultado final, como ilustrado na Figura
12, conta com 30 fatores ao total. Esses fatores aparecem na literatura de alguma forma
influenciando a confiança em SARs. Devido a lacuna de trabalhos experimentais que investi-
guem a confiança em SARs, o modelo presente nessa dissertação ainda precisa ser validado
posteriormente através da realização de experimentos. O desenvolvimento desse modelo nos
serviu como base para compreender os fatores de confiança, quais deles são importantes na
confiança em SARs e quais características compõem esses fatores.
5
Cada base de pesquisa tem uma forma específica de estruturar a string de busca, as palavras chaves
representadas aqui são apenas a título de ilustração.
57
Uma das partes mais relevantes no desenvolvimento da confiança é o fator humano, a priori
pode-se argumentar que é o caráter e a natureza do usuário individual que exerce a influência
mais significativa (HANCOCK; HANCOCK; WARM, 2009). Não só os robôs requerem a interação
humana, como por exemplo em papel de supervisor, parceiro, entre outros, para completar
tarefas, mas também, o sucesso da HRI depende da aceitação da tecnologia (YAGODA; GILLAN,
2012; DAVIDS, 2002).
Em robôs que tem como característica principal uma forte interação social, a parte humana
é a grande responsável pelo sucesso da interação. Sendo assim, é preciso ter em vista que é
necessário avaliar a Confiança como uma construção centrada no usuário em que o humano é
aquele que confia na tecnologia. Segundo Schaefer (2013) existem poucos estudos empíricos
que avaliam o componente humano na Interação Humano-Robô. Por isso, é necessário também
explorar o desenvolvimento da confiança relacionada aos campos interpessoal e da automação
para prover suporte adicional a confiança humano-robô.
Os fatores associados a parte Humana dessa adaptação podem ser encontrados em sua
grande maioria na taxonomia de Schaefer et al. (2016), como pode-se observar na Figura 12,
com exceção dos fatores de Gênero, Etnia e Convicção na automação (Confidence in the
automation) que foram retirados do modelo. As características relacionadas ao gênero não
58
parecem ter uma influência significativa em Confiança (KIDD, 2003; MERRITT; ILGEN, 2008;
STEDMON et al., 2007; EVERS et al., 2008). Schaefer (2013) sugere a retirada do fator de etnia
dos elementos que contribuem para o desenvolvimento da Confiança, o que é feito também
neste trabalho para evitar questões sensíveis associadas a esse tema. O fator de Convicção
na automação foi retirado por não conseguirmos associar sua importância na Confiança em
SARs.
O fator Experiências Prévias aparece no trabalho de Hancock et al. (2011) e é destacado
mais recentemente no trabalho de Langer et al. (2019) como bastante pertinente em SARs.
Esse fator aparece no trabalho de (SCHAEFER et al., 2016) como um dos componentes de
Compreensão (Understanding), junto com facilidade de uso. Nessa dissertação fizemos uma
tradução/adaptação livre para experiência porque a maior parte dos trabalho de robótica
referem-se a ele dessa maneira. Na Tabela 3 é possível observar todos os fatores que compõem
a subcategoria de fator humano e sua relação com as principais taxonomias discutidas na seção
3.2 e o trabalho de Langer et al. (2019).
Existem evidências que sugerem que uma série de traços humanos e características demo-
gráficas podem afetar a forma como cada indivíduo responde a automação (SCHAEFER et al.,
2016). Nos robôs essas característica também aparentam ser cruciais para o desenvolvimento
de Confiança (HANCOCK et al., 2011; SCHAEFER, 2013; BABEL et al., 2021). Essa subcategoria
agrega elementos relacionados à Idade, Personalidade e Propensão de confiança. Con-
tudo as características demográficas (Idade e Personalidade) não têm sido consistentes entre os
diferentes estudos, pois parecem variar em função das características da tarefa automatizada
específica em questão (SZALMA; TAYLOR, 2011).
Os fatores demográficos geralmente são coletados antes da interação com o robô e sua
mensuração de percepção da Confiança. No estudo de Merritt e Ilgen (2008) esses antecedentes
estão relacionados à propensão de um indivíduo confiar em máquinas ou em sua confiança
inicial em um auxílio de decisão automatizado, mas não na confiança pós tarefa (depois da
utilização da automação).
59
Idade (Age)
Personalidade (Personality)
2017). Esse fator foi considerado como uma influência forte na aceitação dos robôs pelas
pessoas e vital na compreensão da qualidade da HRI (GAUDIELLO et al., 2016; ROBERT et al.,
2020).
Entre os vários modelos de personalidade que aparecem na literatura, os cinco grandes tra-
ços de personalidade (Big Five) (JOHN, 1990) são os mais amplamente usados (SORRENTINO
et al., 2021). Esses traços são divididos em: Abertura à Experiência (Openness to Experience),
Conscienciosidade (Conscientiouness), Extroversão (Extraversion), Agradabilidade (Agreeable-
ness) e Neuroticismo (Neuroticism). Existe uma relação entre esses traços de personalidade e
o desenvolvimento da Confiança em sistemas robóticos (MCBRIDE; MORGAN, 2010). Segundo
Robert et al. (2020), umas das formas mais usadas para mensurar o Big Five é através da
utilização do Inventário de Personalidade de Dez Itens (Ten Item Personality Inventory - TIPI)
(GOSLING; RENTFROW; JR, 2003).
Boa parte dos estudos de HRI investigam a extroversão/introversão dos indivíduos e muitos
deles associam que os indivíduos que são mais extrovertidos tendem a ser mais sociais e
deveriam estar mais dispostos a interagir com robôs e adotar um nível maior de confiança
(ROBERT et al., 2020). No trabalho de Sorrentino et al. (2021) é sugerido que dependendo
do domínio / tarefa, traços diferentes podem ter uma influência diferente. Nas características
avaliadas em seu estudo, a Abertura à Experiência, Agradabilidade e Neuroticismo foram
correlacionados à percepção do robô, enquanto a abertura para a experiência foi o único traço
relacionado à usabilidade da tecnologia (ou seja, a predisposição para usá-la). Da mesma
forma, traços de Extroversão e Neuroticismo influenciam o tempo de interação total com o
robô.
As preferências das pessoas pela aparência e comportamento do robô podem estar relacio-
nadas aos seus traços de personalidade. Indivíduos mais introvertidos tendem a preferir robôs
de aparência um pouco mais mecânica e tem preferência por uma distância maior de aborda-
gem do robô, enquanto indivíduos extrovertidos preferem robôs mais humanoides e abordagem
mais próxima (WALTERS et al., 2009).
O trabalho de Feil-Seifer e Matarić (2008) relata a importância de avaliar a personalidade
do participante com um questionário e usar os resultados para ajustar os modos de interação
programados no robô, o que ajuda a ajustar a personalidade do usuário ao do robô. Os traços
de personalidade do usuário e a correspondência entre a personalidade do usuário e o estilo
do robô é outra característica que pode facilitar o engajamento humano-robô.
Uma correspondência entre a personalidade do usuário e "personalidade"do robô está as-
62
sociado ao aumento do tempo gasto com o robô (RABBITT; KAZDIN; SCASSELLATI, 2015).
Por exemplo, no trabalho de Matarić et al. (2009), eles descobriram que a adaptação da per-
sonalidade é eficaz para melhorar o desempenho do usuário em tarefas de reabilitação. Em
Papadopoulos et al. (2020), os autores apontam a importância da personalização da interação
na aprendizagem para projetar estratégias de motivação personalizadas adaptadas a diferentes
tipos de pessoas principalmente na interação entre criança-robô em SARs na educação. Os
traços de personalidade estão associados a aceitação dos SARs, sua confiança, personalização
e qualidade das interações. Esses traços influenciam diretamente o comportamento dos SARs
(ROSSI et al., 2018; LANGER et al., 2019; SORRENTINO et al., 2021).
autora considera os traços de personalidade como possíveis de ser uma das mais importantes
características para explicar a variação na propensão de confiar em robôs.
Essa propensão foi associada com mais enfase a três dos cinco grandes traços de personali-
dade (Big Five): agradabilidade, neuroticismo e abertura à experiência (ALARCON et al., 2018).
A escala mais comum para avaliar esse fator é a Escala de Confiança Interpessoal (Interper-
sonal Trust Scale - ITS) (ROTTER, 1967). Porém, essa escala deve ser aplicada em conjunto
com alguma outra métrica de confiança (YAGODA; GILLAN, 2012). Outros antecedentes cor-
relacionados fortemente com a propensão, é a experiência prévia do usuário e a aparência do
trustee 7 (LAZÁNYI; HAJDU, 2017; ADAMIK et al., 2021).
A propensão a confiar na tecnologia reflete a soma das experiências de aprendizagem com
a tecnologia automatizada e determina consideravelmente as expectativas com as quais um
indivíduo entra na familiarização com um sistema recém-introduzido (MILLER et al., 2021).
Alguns indivíduos com maior propensão a confiar, ao interagirem com máquinas que possuem
um bom funcionamento, tem um incremento maior na confiança geral em relação à máquina.
Por outro lado, esses mesmos indivíduos também correm o risco de reagir mais negativamente
a um mau funcionamento do que indivíduos com menor propensão a confiar (MERRITT; ILGEN,
2008). Para evitar que o mau funcionamento do robô possa causar uma perda de confiança
potencialmente maior, a estratégia considerada no trabalho de Chen et al. (2018) é a de
que um robô que é inicialmente considerado como altamente confiável, deve executar tarefas
difíceis primeiro, enquanto um robô, que obtém uma baixa confiança inicial, deve primeiro
fazer tarefas mais simples para construir a confiança.
As expectativas do usuário em relação às capacidades do robô influenciam a propensão
de confiança. Como os usuários formam certas expectativas com base na aparência física
do robô, é possível que uma certa forma, como a humanoide, possa definir expectativas do
usuário muito altas, o que pode levar a uma perda de confiança se o robô não puder funcionar
adequadamente (ADAMIK et al., 2021). Langer et al. (2019) relacionam a propensão a confiança
como um dos conceitos que afetam a confiança no uso de Robôs Socialmente Assistivos no
domínio de reabilitação.
7
O indivíduo em quem a confiança é depositada
64
os gestos estão presentes, ou seja as pessoas acham essas interações mais apropriadas do
que quando os gestos estão ausentes. Os autores de Sidner et al. (2005) acreditam que à
medida que as habilidades gestuais de engajamento dos robôs se tornarem mais sofisticadas,
a interação humano-robô se tornará mais suave e será percebida como mais confiável. A
utilização de declarações verbais, gestos de olhar e movimentos de cabeça dos robôs podem
ajudar a direcionar a atenção do usuário (SIDNER et al., 2005). Scassellati, Admoni e Matarić
(2012) relatam efeitos encorajadores como o aumento do engajamento, aumento dos níveis de
atenção e novos comportamentos sociais (atenção conjunta e imitação) quando as crianças
interagem com robôs.
A cultura e tarefa também tem um impacto significativo na atenção/engajamento do
usuário (LI; RAU; LI, 2010). Entretanto, o aumento significativo na resposta e engajamento
não leva necessariamente a uma maior confiança (CHEN; TERRENCE, 2009; LI; RAU; LI, 2010).
Ambientes de tarefas específicos envolvendo colaborações humano-robô podem ter um impacto
significativo nas associações entre diferenças individuais nas funções de atenção e confiança
nos robôs (CHOI; SWANSON, 2021). Uma possível estratégia para lidar com o fator de controle
da atenção é estudar a população de usuários e modelar suas caraterísticas e interesses nas
interações dos SARs (comunicação, comportamento, feedback e etc) (ALNAJJAR et al., 2021).
Fadiga (Fatigue)
O conceito de fadiga está associado a uma redução da capacidade e desejo de reagir carac-
terizada por cansaço e aversão à continuação do trabalho direcionado a objetivos (HANCOCK;
DESMOND; MATTHEWS, 2012). A fadiga pode também estar relacionada a realização de tarefas
repetitivas e sobrecarga de informações (MURPHY; ROGERS, 1996). Potencialmente, a fadiga
influencia a decisão de usar a automação, de modo que o uso da automação está dinamica-
mente relacionado aos estados de fadiga e estresse (NEUBAUER et al., 2012). Pode-se considerar
que o desempenho humano na realização de tarefas físicas está diretamente relacionado ao
seu nível de fadiga muscular.
O desempenho do trabalhador humano influencia sua confiança no robô. Por exemplo,
devido ao cansaço físico e/ou mental resultante do trabalho contínuo durante um dia, o
trabalhador humano pode tender a confiar mais na automação e, assim, aumentar sua confiança
no robô (SADRFARIDPOUR, 2018). A fadiga mental (ou cognitiva) pode ser associada a um
estado psicobiológico que geralmente é causado por uma tarefa cognitiva exigente e prolongada
66
Estresse (Stress)
O estresse pode ser considerado segundo Hancock (1989) como uma força que diminui a
capacidade de desempenho. Esse fator é uma variável imprevisível, podendo levar à degradação
ou falta de confiança (MATTHEWS et al., 2016; COSENZO et al., 2006). Schaefer e Scribner
67
(2015) identificaram uma relação significativa entre estresse e confiança. Portanto, este fator
está presente nas taxonomias de Schaefer (2013) e Schaefer et al. (2016). Contudo, a grande
maioria dos trabalhos associados ao estresse investigam sua relação com a automação e muitos
destes trabalhos apenas relacionam esse fator à confiança de forma superficial.
O estresse induzido pela atividade é conhecido por resultar em oscilações de humor e levar
a distúrbios na motivação (por exemplo, perda de interesse da tarefa) e cognição (por exemplo,
levar a preocupação) (MATTHEWS et al., 2006). O estresse psicológico é frequentemente des-
crito como um estado de tensão e pressão mental ou emocional. Nem todas as pessoas reagem
da mesma maneira a estímulos semelhantes, por isso é importante considerar as diferenças in-
dividuais de cognição e motivação como um fator importante na avaliação de situações ou
estímulos externos (LAZARUS, 1993; KOH et al., 2001). A maior parte dos trabalhos recentes
acreditam que uma pessoa experimenta o estresse quando ela sente que os recursos para lidar
com uma dada situação não são o suficiente (GOYAL et al., 2016).
Por ser um fator interativo, o estresse integra estímulos dados pela exigência da tarefa,
respostas dos operadores e processos de percepção e avaliação da situação (BIROS; DALY;
GUNSCH, 2004). O estresse é fortemente influenciado pelos fatores do ambiente e pode atra-
palhar a coordenação dos papéis da equipe, coesão, comunicação e desempenho (DRISKELL;
SALAS; DRISKELL, 2018). O aumento da carga de trabalho, conforto com a utilização da
automação e a disposição a confiar (Propensão de confiança) na tecnologia também estão
relacionados ao estresse (CHOI; SWANSON, 2021; REIMER; MEHLER; COUGHLIN, 2016).
Os seres humanos encontram estresse psicológico e fisiológico diariamente e usam mecanis-
mos para gerenciar os níveis de estresse na tentativa de obter um desempenho ideal (LAZARUS,
1990). Para algumas populações de usuários, o aumento do nível de estresse pode ser um risco
à saúde (COOPER; MARSHALL, 2013). De fato, o estresse em si é um fator de risco para aqueles
com arritmia ou hipertensão, bem como aqueles com transtornos de ansiedade. Os autores de
Johnson et al. (2014a) afirmam que o estresse é um fator comum a usuários idosos e que os
SARs podem ajudar a reduzir o nível de estresse desses usuários. É importante controlar os
níveis de estresse, pois o estresse agudo ocasional tem demonstrado evoluir para transtornos
ansiosos e depressivos, destacando-se como fator significativo para a saúde psicológica a longo
prazo (ULIASZEK et al., 2012).
O trabalho de Thill et al. (2012) estabeleceu uma série de vantagens ao usar robôs sociais
com crianças dentro do Espectro Autista. A principal vantagem é a de que os robôs podem
ser aplicados de forma controlada apresentando apenas informações relevantes e dessa forma
68
minimizando o risco de criar situações estressantes e complexas. Sabemos que os robôs são
melhores em repetição infinita do que as pessoas, e variações podem ser feitas de forma
consciente e de maneira segura.
As formas de tentar mitigar o fator de estresse são diversas, sendo uma delas a utilização
de software para reconhecimento de expressão facial ou análise de voz para identificar estresse,
o que pode dar suporte à interpretação da máquina sobre o funcionamento humano. O robô
pode se adaptar para compensar a deficiência humana monitorando dados de sensores para
detectar carga de trabalho excessiva, estresse ou fadiga (CHOI; SWANSON, 2021). É importante
lembrar que os fatores estresse e a fadiga podem se reforçar mutuamente (SAXBY et al., 2013).
A cognição está ligada ao estudo dos processos mentais que influenciam o comportamento
de cada indivíduo e seu desenvolvimento cognitivo (intelectual). A cognição está relacionada ao
acúmulo de informações que adquirimos através da aprendizagem ou experiência. A confiança
é baseada na cognição quando os indivíduos escolhem em quem vão confiar, em que aspectos
e em que circunstâncias, e baseiam esta decisão no que eles acreditam serem boas razões
(LEWIS; WEIGERT, 1985).
Segundo Jr, Hansen e Pearson (2004) o processo cognitivo não se desenvolve instantane-
amente, mas somente depois que um indivíduo é capaz de processar e avaliar cognitivamente
as evidências disponíveis. Luhmann (1979) acredita que o conhecimento disponível e a fami-
liaridade são necessários para decisões de confiança. Em um processo cognitivo uma pessoa
desenvolve “boas razões” para que outros sejam confiáveis como, por exemplo, as expectativas
mantidas pelo trustor 8 com base na experiência passada e no conhecimento acumulado que o
trustee 9
haja de acordo como deveria (PUNYATOYA, 2018).
Os fatores cognitivos abordados nessa dissertação dizem respeito a : Experiências Pré-
vias, Habilidade de uso e Expectativa, esses fatores são os mais pesquisados no domínio
da confiança interpessoal, mas também se aplicam segundo Ashleigh e Stanton (2001) ao
domínio da tecnologia.
8
O indivíduo que confia
9
O indivíduo em quem a confiança é depositada
69
Sanders (2016) define experiências prévias10 como o nível de exposição anterior a al-
guém ou alguma coisa. O preconceito relacionado a determinada tecnologia pode ser moldado
pela própria experiência pessoal do indivíduo, mas também pode ser baseado e moldado pela
cultura popular, representações de mídia e ficção científica (HANCOCK; BILLINGS; SCHAEFER,
2011; SCHAEFER; BILLINGS; HANCOCK, 2012). Essas influências não experiênciais podem levar
a percepções errôneas sobre a capacidade dos robôs e suas motivações (SANDERS et al., 2017).
Estudos demonstram que as experiências prévias leva a maiores níveis de confiança e
atitudes mais positivas em relação aos robôs (SANDERS et al., 2017), como também, têm um
impacto direto no desenvolvimento da confiança ao longo do tempo (MERRITT; ILGEN, 2008;
RAJAONAH; ANCEAUX; VIENNE, 2006; SULLIVAN; TSIMHONI; BOGARD, 2008). Além do mais,
experiências anteriores do usuário podem influenciar seu conforto com um sistema robótico;
especificamente, indivíduos mais experientes tendem a se sentir mais à vontade com robôs
(TAKAYAMA; PANTOFARU, 2009). Coeckelbergh et al. (2016) relacionam que usuários com
mais experiência com computadores, perceberam o robô como uma tecnologia mais fácil de
usar. As experiências prévias não positivas afetam negativamente a confiança (HOFF; BASHIR,
2015).
Alguns autores relatam que um indivíduo já familiarizado com tecnologia aceitará mais
prontamente novos dispositivos porque eles podem confiar em suas experiências anteriores
(SUN; ZHANG, 2006; FISHBEIN; AJZEN, 1977). No entanto, existe uma diferença nessa aceitação
da tecnologia relacionada a pessoas mais jovens e pessoas mais velhas, porque o background
delas com relação a educação e contato com a tecnologia são diferentes (FLANDORFER, 2012).
Por isso, é importante que os profissionais que projetam robôs levem em consideração as
características da população de usuários que irá interagir com os sistemas robóticos para
adaptar a forma que o sistema é apresentado e até modelado (SANDERS et al., 2017).
Sanders et al. (2017) argumentam que talvez as pessoas que acumulam experiência estejam
predispostas a serem favoráveis aos robôs a priori. Isso se torna uma questão de diferenças
individuais sobre o que faz com que alguns indivíduos adotem a tecnologia em comparação
com outros que são antagônicos a essas tecnologias. Portanto a dimensão da experiência pode
ser causa, efeito ou ambos em tais relacionamentos interativos.
10
O conceito de experiências prévias, também pode ser encontrado na literatura como experiências passadas
(past experiences) e experiências anteriores (previous experiences).
70
O trabalho de Langer et al. (2019) aponta o fator de experiências prévias como um dos
principais fatores que influenciam o desenvolvimento de confiança em SARs. O questionário de
Perfil de Experiência em Tecnologia (Technology Experience Profile - TEP) (BARG-WALKOW;
MITZNER; ROGERS, 2014), que avalia o uso e a experiência com vários tipos de tecnologias
durante o período do último ano do usuário é apontado por Langer et al. (2019) como uma
forma de avaliar a experiência prévia em tecnologia para uso em SARs.
no uso de robôs apresentam maior aceitação funcional e social em relação aos robôs de serviço.
De acordo com a Teoria Cognitiva Social, a auto-eficácia leva a uma percepção positiva de
um resultado futuro (BANDURA; FREEMAN; LIGHTSEY, 1999).
Alta autoeficácia no uso de robôs acarreta mais propensão a acreditar que a interação com
os robôs proporcionará resultados de serviço positivos. Portanto, eles são mais propensos a
confiar na interação (CHOI; SWANSON, 2021). A autoeficácia é gerada por meio do acúmulo
de conhecimento e da experiência existente (FAN et al., 2020). Assim, usuários que têm mais
conhecimento e experiência com tecnologia são mais propensos a desenvolver confiança nos
dispositivos alimentados por tecnologia. A auto-eficácia afeta positivamente a confiança inicial
(ZHOU, 2012) e é um indicador significativo da propensão a confiar em robôs (CHI et al., 2021).
Os autores de Drury, Riek e Rackliffe (2006) acreditam que após a interação com um robô,
alguns antecedentes adicionais de confiança como confiabilidade (reliability ), erros (errors) e
feedback podem afetar a percepção do operador de como usar ou interagir com o robô.
Expectativa (Expectancy)
essa tecnologia será aceita e usada no futuro (DAVIS; BAGOZZI; WARSHAW, 2014). Horstmann
e Krämer (2020) aponta que as pessoas esperam que os robôs sejam eficientes, precisos,
confiáveis, racionais e perfeccionistas e que devido à falta de experiências pessoais com esse
tipo de robô, essas expectativas são muitas vezes baseadas principalmente em informações da
mídia. Portanto, isso leva a altas expectativas em relação às habilidades dos robôs sociais.
Contudo, se as expectativas não são atendidas na interação humano-robô levará à decepção e
à redução da confiança nos robôs (KWON; JUNG; KNEPPER, 2016; KOMATSU; YAMADA, 2011).
Diante disso, é importante que os robôs sociais atendam às expectativas de seus usuários
para evitar efeitos negativos na aceitação e vontade de usar essa nova tecnologia (DAVIS;
BAGOZZI; WARSHAW, 2014; KWON; JUNG; KNEPPER, 2016; BURGOON; HALE, 1988). Para uma
aplicação bem-sucedida, as violações de expectativa negativa devem ser evitadas, através do
projeto e retratando robôs sociais de maneiras que não surjam expectativas de habilidades
mais altas do que as disponíveis (alto antropomorfismo gera alta expectativa). Além disso,
enquadrar um robô em uma luz favorável, ou seja, explicar do que o robô é capaz e os benefícios
de seu uso antes de uma interação, ajuda a obter uma percepção positiva do robô e facilitará
a aceitação dessa tecnologia (HORSTMANN; KRäMER, 2020).
Atitudes (Attitudes)
Por atitude, Gaudiello et al. (2016) entendem como sendo qualquer disposição mental
amadurecida através da experiência que possa impactar reações, sejam essas reações compor-
tamentais, verbais ou emocionais do indivíduo em relação à objetos e situações.
Segundo Schaefer et al. (2016), as atitudes em relação à automação influenciam a consci-
ência geral do comportamento do sistema. As atitudes e emoções positivas, como a felicidade,
influenciam a confiança, o gosto e a dependência de um sistema (e podem até levar a um ex-
cesso de confiança). Já as atitudes negativas podem ser influenciadas por erros ou dificuldades
de acesso às informações do sistema, que podem levar ao desuso da automação.
Alguns autores relacionam que diferente dos traços estáveis da personalidade, as atitudes
em relação aos robôs são mais incertas e podem variar de acordo com a cultura, familiaridade
e ao longo do tempo (KAPLAN, 2004; BARTNECK et al., 2007; SUNG; CHRISTENSEN; GRINTER,
2009; LI; RAU; LI, 2010). Portanto, ao se observar a atitude se torna possível prever o comporta-
mento de confiança real de um indivíduo em relação ao robô bem como a um comportamento
potencial (GAUDIELLO et al., 2016). Na pesquisa de HRI, as atitudes em relação aos robôs
são geralmente avaliadas através do uso de testes e questionários. Dentre os testes de avalia-
ção de atitudes mais comuns, destaca-se a Escala de Atitudes Negativas em relação a Robôs
(Negative Attitudes towards Robots Scale - NARS) proposto por (NOMURA; KANDA; SUZUKI,
2006).
A escala NARS foi concebida para abranger três tipos de atitudes negativas:
• (i) perante situações de interação com robôs ( ex., “Eu ficaria nervoso operando um
robô na frente de outras pessoas” ou "eu me sentiria relaxado conversando com robôs");
• (ii) para a influência social dos robôs (ex. “Estou preocupado que os robôs sejam uma
má influência sobre crianças”);
Cada uma das subescalas NARs (i,ii,iii) discutidas anteriormente inclui uma lista com
afirmações que o participante deve classificar numa escala (Likert) de 1 a 7, onde 1 representa
’discordo totalmente’ e 7 ’concordo totalmente’.
74
Satisfação (Satisfaction)
Schaefer et al. (2016) afirmam que a satisfação influencia a percepção humana do robô.
Essa satisfação é fomentada pela qualidade da informação e do serviço que a tecnologia
proporciona (LEE; KIM; KIM, 2007). Usualmente, à medida que a satisfação aumenta, também
aumenta a confiança (DONMEZ et al., 2006). A satisfação pode ser influenciada pela consciência
da situação, previsibilidade e confiabilidade (reliability ) do robô.
Uma característica de robôs sociais que pode melhorar a satisfação é a empatia. Tapus,
Matarić e Scassellati (2007) postularam que a empatia pode melhorar a satisfação do paciente
de terapia no contexto da interação paciente-terapeuta. Logo, projetar empatia nos Robôs
Socialmente Assistivos pode contribuir para melhorar a satisfação e aumentar a confiança.
A satisfação pode ser medida através de um questionário. O mais usado para medir o nível
de satisfação atribuído às tecnologias assistivas é o The Quebec User Evaluation of Satisfaction
with Assistive Technology (QUEST), que foi desenvolvido por Demers, Weiss-Lambrou e Ska
(2000). A métrica avalia algumas questões dentro do padrão Likert de 1 a 5, onde 1 é ’Nada
75
Conforto (Comfort)
distantes (> 3m). Quando o usuário já se sente confortável o suficiente para interagir direto
com o robô, outras características podem aumentar mais ainda o conforto. As sensações de
toque por exemplo, são especialmente importantes para a interação física entre homem-robô.
As sensações táteis suaves sugerem conforto e familiaridade (AXELSSON et al., 2021).
Tendo concluído a descrição dos 12 fatores que fazem parte da Categoria geral do Fator
Humano, a seguir passamos a descrever a Categoria geral Robô. Conforme pode ser visto na
Figura 12 esta categoria Robô divide-se em 2 subcategorias e 11 fatores.
3.3.2 Robô
A interação pressupõe que deve haver um tipo de ação entre duas ou mais entidades.
Sendo assim, no estudo de como se dá a Confiança na Interação Humano-Robô, tanto o
fator Humano como o Robótico devem ser compreendidos a fundo. Em Schaefer et al. (2016)
embora os termos refiram-se a automação, como já explicado anteriormente, esses mesmos
conceitos podem ser utilizados na robótica. O trabalho de Schaefer et al. (2016) atualizou as
subcategorias dos fatores associados a automação/robô de Hancock et al. (2011) passando a
dividir seus conceitos em recursos e capacidade.
Nesta dissertação foram acrescentados o conceito de segurança (safety ) e privacidade, pois
mostraram-se importantes para confiança dentro do contexto de SARs (LANGER et al., 2019).
Os resultados dos trabalhos de Schaefer et al. (2014), Schaefer et al. (2016) forneceram
suporte adicional para a importância da comunicação no desenvolvimento da confiança. A
comunicação (communication) que antes estava relacionada ao fator ambiente foi alocada
ao fator relacionado ao robô e discutida em termos de modo de comunicação (recurso do
robô) e feedback (capacidade do robô). Como observado na Figura 12 a diferença entre o
modelo apresentado nessa dissertação e o de Schaefer et al. (2016) se dá por três elementos
(Segurança/Privacidade, Adaptabilidade e Proximidade). A inclusão da Segurança/Privacidade
como um elemento que contribui para a Confiança se dá através da perspectiva que o usuário
tem de que a segurança impacta a Confiança. Como exemplo temos que as preocupações com
a segurança levam à falta de confiança do usuário nos robôs usados em casa, especialmente
para adultos mais velhos (SCOPELLITI; GIULIANI; FORNARA, 2005a).
Na Tabela 4, é possível observar os conceitos que compõem o Fator Robô e sua relação
com as principais taxonomias discutidas na seção 3.2 e o trabalho de Langer et al. (2019).
77
• Modo de comunicação
•Schaefer (2013); Schaefer et al.
(2016)
• Aparência/Antropomorfismo •Hancock et al. (2011); Schaefer
(2013); Schaefer et al. (2016); Lan-
ger et al. (2019)
• Nível de Automação •Hancock et al. (2011); Schaefer
Recursos (2013); Schaefer et al. (2016);
Aparência/Antropomorfismo (Appearance/Anthropomorphism)
projeto de robôs sociais para facilitar a interação social e aumentar a aceitação. No entanto, o
desenho antropomórfico não deve ser um objetivo em si, mas adaptado à tarefa e ao contexto
(GOETZ; KIESLER; POWERS, 2003; FINK, 2012).
A aparência afeta a simpatia geral (likability ) (LI; YEH, 2010) e a inteligência percebida
(BARTNECK et al., 2009a). Os recursos de componentes, como recursos de superfície (por
exemplo, bordas chanfradas), número de apêndices (partes que compõe a forma física) (SIMS
et al., 2005a), características e expressões faciais (LUM et al., 2007; MOHAN et al., 2008; OOS-
TERHOF; TODOROV, 2008; ZHOU, 2012) impactam como os indivíduos interagem com robôs.
Goetz, Kiesler e Powers (2003) descobriram que as dicas sociais estão incorporadas na apa-
rência. Portanto, influenciam a forma como os indivíduos percebem um robô (positiva ou
negativamente), bem como sua vontade de cumprir as instruções.
Uma maneira de se projetar robôs mais antropomórficos é em relação ao estilo de comu-
nicação (ex. fala natural ou gestos), o movimento do robô ou contexto (ex. nomear um robô
e descrever sua personalidade) (ONNASCH; HILDEBRANDT, 2021). Características antropomór-
ficas salientes como rostos completos (em vez de uma versão abstrata) variam não apenas
a aparência, mas também aspectos comunicacionais da aparência, como expressões faciais
(especialmente emoções) e essas características melhoram a interação social.
Embora alguns autores afirmam que robôs de aparência mais antropomórfica e que exi-
bem movimento naturalista irão provocar níveis mais auto de confiança (KIESLER et al., 2008;
CASTRO-GONZÁLEZ; ADMONI; SCASSELLATI, 2016; LEWIS; SYCARA; WALKER, 2018), o trabalho
de Vandemeulebroucke, Casterlé e Gastmans (2018) demostrou que adultos mais velhos des-
cobriram que a aparência humana dos SARs, usados em ambientes de cuidados a idosos, é
enganosa e isso gerou decepção.
A resposta dos humanos em relação aos robôs segue um padrão não linear chamado “The
uncanny valley ” (MORI; MACDORMAN; KAGEKI, 2012). À medida que a aparência dos robôs se
aproxima de uma perfeita semelhança de forma viva, há uma queda acentuada na afinidade
do usuário com o robô e desencadeia uma resposta repulsiva, impactando o quanto as pessoas
intuitivamente confiam nesses robôs. Ao desenvolver um robô socialmente assistivo, deve-se
evitar entrar no padrão uncanny valley. O realismo tem que ser adequado ao papel e o contexto
do robô, levando em consideração a sua capacidade funcional (FEIL-SEIFER; MATARIĆ, 2005).
A preferência por alguns tipos de robôs dependem do contexto, tarefa e do papel do
robô. Por exemplo, existe uma preferência por robôs humanoides antropomórficos para ensino
(BELPAEME et al., 2018) pois é relacionado que as crianças aprendem melhor devido ao fato que
82
os SARs geram maior motivação graças a interação lúdica, facilitam a comunicação devido sua
capacidade de imitar movimentos e apoia a comunicação (verbal e corporal) (PAPADOPOULOS
et al., 2020).
Porém, os autores de Prakash e Rogers (2015) relacionam que embora idosos tenham
preferências por aparências mais humanas para tarefas sociais (como comunicação, jogar um
jogo, etc), porque evocava percepções de capacidades humanas. Contudo, para alguns desses
idosos a aparência mais humana também foi considerada invasiva quando relacionada a uma
tarefa altamente pessoal (por exemplo, tomar banho). Portanto, sugere que a relação entre
aparência e tarefas sociais pode ser impulsionada pela preferência pessoal do usuário.
Inteligência (Intelligence)
Existem razões para acreditar que se um robô tivesse uma personalidade atraente, as
pessoas estariam mais dispostas a interagir e criar uma relação com eles (BREAZEAL et al.,
2002). Sanders et al. (2011) relaciona que personalidade robótica pode criar uma sensação de
conforto e que um robô altamente simpático, com resposta ativa e engajamento se correlaciona
com a confiança.
A personalidade de um robô pode afetar a conformidade de um usuário com aquele robô
(KIESLER; GOETZ, 2002). Um robô, ao exibir uma personalidade séria, pode provocar um maior
grau de conformidade do que uma personalidade de robô mais brincalhona. Quando o grau de
extroversão ou introversão do robô corresponde ao do usuário, o desempenho da tarefa pode
ser melhorado (TAPUS; MATARIĆ, 2008). Assim, imitação e relacionamento social podem ser
fatores significativos no desempenho da tarefa. Feil-Seifer, Skinner e Matarić (2007) propõem
que a referência de imitação elaborada por (JR et al., 2007) poderia ser revisado para SARs.
Portanto, deve-se investigar como a imitação (e reciprocidade) afeta o desempenho da tarefa.
A personalidade é uma forma de modelo conceitual, pois canaliza comportamento, crenças
e intenções em um comportamento de compensação coeso e consistente (BREAZEAL et al.,
2002). Ao fornecer deliberadamente uma personalidade a um robô, isso ajuda as pessoas a
entender melhor o comportamento do robô e a definir suas expectativas sobre as capacidades
do robô. Por exemplo, o Kismet do MIT recebe a personalidade de uma criança, fazendo com
86
Segurança/Privacidade (Safety/Privacity)
dos sensores e dados que são coletados podem ajudar a melhorar a privacidade, contudo, es-
tas medidas podem afetar criticamente o desempenho dos robôs, assim como pode impactar
também a segurança (safety ) (VANDEMEULEBROUCKE; CASTERLÉ; GASTMANS, 2018).
Uma questão muito importante quando se trata de privacidade diz respeito à responsabi-
lidade legal. É inteiramente possível que um erro de software possa vazar informações privile-
giadas de alguma forma e que o responsável pelo software se sinta completamente dentro de
seus direitos de abdicar da responsabilidade por tal erro. A aplicação da justiça relacionada ao
SARs é uma perspectiva desafiadora, considerando que o software é apenas um dos aspectos
de um sistema SARs completo (FEIL-SEIFER; MATARIC, 2011).
Segundo Sharkey (2016) a privacidade é uma grande preocupação, especialmente no con-
texto do Regulamento Geral de Proteção de Dados na Europa (General Data Protection
Regulation - GDPR), ainda mais quando se trata de dados de indivíduos vulneráveis, como
crianças em idade escolar. Assim, SARs que registram e armazenam informações pessoais de
crianças (KANDA et al., 2007) precisam gerenciar esses dados de forma sensível como forma de
proteção.
A confiança dos médicos nos SARs pode ser aprimorada se o SARs disponibilizar explici-
tamente os métodos pelos quais protege a privacidade dos pacientes (ALAIAD; ZHOU, 2014).
Algumas abordagens eficazes para mitigar problemáticas de privacidade podem ser: ofuscar ou
“nublar” os dados (filtrar vídeo e/ou áudio), fornecer feedback para aumentar a transparência
e fornecer controle sobre quando/onde os dados são coletados (CAINE et al., 2011). O mais
importante é deixar claro o que está sendo feito para lidar com a privacidade. Alaiad e Zhou
(2014) sugerem que mais transparência e educação em relação às políticas de privacidade de
robôs podem aliviar as preocupações com a privacidade.
Outro ponto importante é que o usuário pode não ter conhecimento sobre as capacidades
do robô, o que pode levar ao usuário não ter noção de quais dados o robô faz uso e isso
pode impactar em sua percepção da confiança. Por isso é importante certificar-se de que as
capacidades de um robô são suficientemente explicadas para que o usuário seja bem-informado
sobre as habilidades do robô o máximo possível (FEIL-SEIFER; MATARIC, 2011).
Conforme informado no início da seção 3.3 parte da taxonomia referente ao Robô divide-
se em 2 subcategorias: Recursos e Capacidade. Tendo concluído os fatores da sub-categoria
Recursos, a seguir apresentamos os 05 fatores da sub-categoria Capacidade.
90
A capacidade do sistema é uma das áreas mais pesquisadas em relação à confiança tanto
em HRI quanto em automação (SCHAEFER et al., 2016). Os fatores que fazem parte da ca-
pacidade do robô são relacionados a: Comportamento, Confiabilidade/Erros, Feedback,
Adaptabilidade e Proximidade
Comportamento (Behavior)
a ele e contribui para sua “impressão de vida” (lifelike). Além do mais, o comportamento
influencia e é influenciado por outros fatores, como emoção, personalidade, comunicação, entre
outros. No trabalho de Axelsson et al. (2021) é proposta uma ferramenta canvas que apresenta
uma forma estruturada de pensar em aspectos de projeto (design) de comportamento, como
por exemplo entender o pepel do robô, quais características de personalidade o robô vai exibir
(e.g. fixa, adaptável), quais fatores ambientais e externos afetam seu comportamento, entre
outros.
Confiabilidade/Erros (Reliability/Errors)
estados internos do robô os ajuda a antecipar as falhas do robô, ajustar sua confiança de
acordo e alocar o controle, minimizando os erros. A gravidade em que o erro afeta o usuário
também influência a confiança. Portanto, erros mais graves e que geram consequências mais
graves geram um nível mais baixo de confiança (BROOKS, 2017; GARZA, 2018). Enquanto,
erros com consequências menos severas para o usuário melhoram os resultados de confiança
(CORREIA et al., 2016).
Langer et al. (2019) afirmam que ao projetar SARs para uso em reabilitação, é necessário o
que Brooks (2017) descreve como robôs “prontos para falhas”, que são robôs que nem sempre
funcionam corretamente, mas que são projetados para minimizar o impacto de suas falhas e
deficiências. Robinette, Howard e Wagner (2015) propuseram três formas de reparar a perda
de confiança causada por falhas: desculpando o erro, prometendo fazer melhor no futuro e
proporcionando razões adicionais para confiar no robô, sendo o momento da entrega (timing)
da mensagem do robô, um fator crítico para determinar o sucesso da reparação da confiança.
Outra maneira de diminuir o impacto das falhas segundo Desai et al. (2013), é fazer com
que o robô advirta o usuário de potenciais quedas em seu desempenho, assim, prevenindo o
declínio da confiança do usuário. Além disso, Correia et al. (2018) relacionaram que quando
um robô justifica sua própria falha, citando um problema técnico, é capaz de mitigar o impacto
negativo das falhas. Porém, esta justificativa é aceita apenas quando a falha não incorrer em
uma consequência grave aos participantes (ex. danos físicos). Langer et al. (2019) ressaltam
que os SARs devem ser capazes de reconhecer e acusar erros quando eles ocorrem em sessões
de terapia com pacientes e erros graves devem ser minimizados a todo custo.
Feedback
Adaptabilidade (Adaptability)
Criar modos de interação naturais e eficazes são desafios-chave para a tecnologia (EBERHART;
SHI; KENNEDY, 2001; MOULOUA; HANCOCK, 2019). Um robô social deve fornecer interação
adaptativa e isto pode ser feito, por exemplo, com o uso de interfaces baseadas em manipu-
lação direta usando técnicas de inteligência artificial. Essas técnicas são utilizadas para tornar
a interface adaptativa, realizando raciocínio e aprendizado, modelagem de usuários e reconhe-
cimento de planos. A complexidade do processo de interação também pode ser adaptada de
acordo com a familiaridade do usuário com a robótica (SALICHS et al., 2006).
Os diferentes papéis que os robôs sociais podem operar (parceiro, pares, assistente, en-
tre outros) implica que eles precisam ser capazes de exibir flexibilidade e adaptabilidade para
permitir a interação social com uma ampla gama de humanos (FONG; NOURBAKHSH; DAUTE-
NHAHN, 2003). Para Beer et al. (2017), a adaptabilidade comportamental e a customização
de robôs socialmente assistivos pode melhorar a comunicação proxêmica16 , habilidades de
conversação, entre outros. Porém, fatores como o nível de autonomia dos robôs (BEER; FISK;
ROGERS, 2014), modos de comunicação, seu aprendizado e adaptabilidade devem continuar a
ser integrados para definir e resolver os desafios da Interação Humano-Robô.
De acordo com Umbrico et al. (2020) um requisito crucial para sistemas SARs eficazes é
a capacidade de lidar com uma grande variedade de situações e interações contextualizadas
de acordo com os diferentes contextos de vida e hábitos culturais das pessoas assistidas. Por
isso, os robôs socialmente assistivos devem ser dotados de um rico portfólio de habilidades de
alto nível e recursos de interação para promover assistência personalizada (TAPUS; MATARIĆ;
SCASSELLATI, 2007) mostrando alta adaptabilidade.
A personalização e a adaptação são fortemente necessárias para atender efetivamente às
necessidades específicas dos idosos, por exemplo, e alcançar um bom nível de aceitação (ROSSI;
FERLAND; TAPUS, 2017; MORO; NEJAT; MIHAILIDIS, 2018). Além disso, os sistemas SARs devem
ser capazes de harmonizar as necessidades de diferentes atores (ou seja, idosos, profissionais
de saúde e cuidadores) que geralmente têm perspectivas e objetivos específicos, possivelmente
conflitantes.
16
É um termo criado pelo antropólogo Edward T. Hall em 1963 para descrever o espaço pessoal de indivíduos
num meio social.
96
Proximidade (Proximity)
(2020) mostrou que a altura influenciou a distância de conforto e confiança. No estudo deles,
um robô menor foi autorizado a se aproximar mais do que um robô alto em uma primeira
tentativa e o usuário se mostrou com maior confiança em relação ao robô menor. Contudo,
com uma segunda tentativa de aproximação do robô maior, a ansiedade do usuário diminuiu
e a confiança tendeu a aumentar para o robô alto. Este estudo leva a concluir que a altura
parece ter impacto apenas na primeira impressão do robô. Na comunicação entre o robô e o
humano, principalmente na construção de diálogos (iniciativa ou tipo), a proximidade também
afeta a confiança (BABEL et al., 2021).
Tendo concluído a descrição dos 11 fatores que fazem parte Categoria geral Robô, a seguir
passamos a descrever a categoria geral Ambiente que divide-se em 2 subcategorias e 7 fatores.
3.3.3 Ambiente
De acordo com Schaefer (2013) a Interação Humano-Robô pode acontecer nos mais varia-
dos ambientes, esses, podendo variar desde os ambientes sociais (ex. salas de aula, domicílios)
até ambientes de alto risco (campo de batalha). A importância dos aspectos do ambiente
também podem refletir a forma como o robô opera e até a maneira como os humanos re-
alizam uma tarefa (GOODRICH; SCHULTZ, 2007). O fator ambiente segundo Schaefer (2013)
pode relacionar-se a mudanças no comportamento dos robôs e dos humanos (ex. expressão de
sentimentos ou atitudes) e no desenvolvimento de uma linguagem compartilhada (STEDMON
et al., 2007).
Para que uma interação bem-sucedida ocorra dentro de um determinado ambiente, os
companheiros de equipe humanos e robóticos devem compartilhar um objetivo comum, ter um
pensamento modelo, colocar as necessidades do grupo acima das necessidades individuais, ver
a natureza interdependente da equipe positivamente, conhecer e cumprir papéis, comunicar-se
efetivamente com os membros da equipe e confiar em cada membro da equipe (GROOM, 2008).
Adotamos uma classificação similar a de Schaefer et al. (2016). Como observado na Tabela
5, o Ambiente foi dividido em duas subcategorias: Colaboração em grupo e Tarefa/Contexto.
Para uma colaboração em equipe bem-sucedida é necessária uma boa confiança relacionada
as características que compõem essa colaboração (LYONS et al., 2009). O trabalho em conjunto
98
com uma pessoa ou robô, para realizar uma tarefa, requer que os membros da equipe envol-
vidos nessa colaboração dependam uns dos outros para atingir seus objetivos (SCHOORMAN;
MAYER; DAVIS, 2007). Os fatores de confiança relacionados à colaboração em grupo incluem a
interdependência de papéis/tarefas, composição de equipe, modelos mentais com-
partilhados e impacto social/cultural.
Interdependência diz respeito ao grau em que os membros da equipe devem confiar uns
nos outros para concluir as tarefas (SAAVEDRA; EARLEY; Van Dyne, 1993). O grau de interde-
pendência entre os envolvidos na relação é um dos fatores mais importantes envolvidos no
desenvolvimento da confiança (AXELROD, 2004 apud SCHAEFER, 2013).
As relações de interdependência são os mecanismos empregado para gerenciar ativamente
os processos que avaliam a confiabilidade da tecnologia e que permitem uma calibração precisa
da confiança pelas pessoas que a usam. As relações de interdependência constituem nas junções
necessárias na comunicação orientada para a tarefa e nas ações entre pessoas e máquinas que
tornam produtiva a atividade conjunta em que estão engajadas (JOHNSON et al., 2014b).
99
Schaefer et al. (2016) estabelece que a medida que a automação continua avançando na
inteligência e na tomada de decisões independente, o potencial para equipes homem-máquina
interdependentes se torna uma realidade cada vez maior. Portanto, é importante entender
os efeitos da interdependência das tarefas e da composição da equipe no desenvolvimento
da confiança nesse sistema. Em uma revisão do maior corpo de trabalho sobre este tópico,
Hattingh (2002) postulou que agentes, sistemas automatizados e até mesmo sistemas autô-
nomos podem funcionar de forma interdependente com outras partes do sistema maior por
meio de algoritmos (por exemplo, executando funções de busca), redes neurais, ferramentas
de mineração de dados, sistemas especialistas e até algoritmos genéticos.
Para que exista uma confiança apropriada de um humano em um robô, o humano precisa
compreender as capacidades e limitações do robô no contexto dos objetivos do robô em sua
missão em andamento (OSOSKY et al., 2013). A compreensão humana dos robôs como membros
da equipe pode ser examinada através das lentes dos modelos mentais (Mental Models - MM).
Os modelos mentais são representações internas usadas pelos humanos para entender o mundo
ao seu redor (CRAIK, 1943). Em seu trabalho Schaefer et al. (2016) afirmam que a forma como
um indivíduo molda um MM pode ser estruturado pelo impacto social, experiência anterior,
preconceitos culturais e crenças. Sendo os feedbacks gerados pelos sistemas utilizados para
atualizar esses modelos mentais (CUEVAS et al., 2007).
Assim sendo, os Modelos mentais compartilhados (Shared Mental Models - SMM), aplicam-
se especificamente ao trabalho em equipe como “estruturas de conhecimento realizada por
membros de uma equipe” (CONVERSE; CANNON-BOWERS; SALAS, 1993, p. 223). Eles devem
incluir a compreensão do equipamento relevante, a tarefa dos membros da equipe e a intera-
ção entre os membros da equipe. Especificamente, um robô autônomo inteligente (ex. robô
social) é único por ser “equipamento” e “Membro da equipe”. Portanto, o modelo mental de
um humano, companheiro de equipe do robô, como parte de um SMM, inclui conhecimento
sobre as capacidades, limitações e “personalidade” desse robô. Sendo influenciado por aparên-
cia, comportamento do robô, diálogo, traços de personalidade, linguagem e origem (KIESLER;
GOETZ, 2002; LEE et al., 2005). Assim, conclui-se que os modelos mentais são alavancados
internamente para orientar a interação humano-robô (LOHSE, 2011), incluindo confiança em
sistemas robóticos. A confiança nos robôs, como outros aspectos dos modelos mentais, é
continuamente refinada por meio da interação.
No trabalho de Schaefer et al. (2016) os autores afirmam que o impacto social inclui
cultura, coesão da comunidade, sistema político, meio ambiente, saúde e bem-estar, direitos
de propriedades e medos e aspirações em matéria de segurança e futuro (CLAVELL; FROWD,
2014). Um dos principais desafios ao avaliar o HRI é prever o impacto social dos robôs (WEISS
et al., 2009).
Os autores de Weiss et al. (2009) propuseram um modelo de avaliação amplamente re-
101
conhecido que avalia a usabilidade, aceitação social, experiência do usuário e impacto social
(usability, social acceptance, user experience and societal impact) abreviado como USUS. O
USUS é baseado em um modelo de indicador multinível para operacionalizar os fatores de
avaliação. Os fatores de avaliação são descritos e divididos em vários indicadores, que são
extraídos e justificados por revisão da literatura. Os aspectos do impacto social que são obser-
vados, levando em conta as diferenças culturais, são a qualidade de vida, condições de trabalho
e emprego e educação. Weiss et al. (2009) define o impacto social como todo efeito de uma
atividade na vida social de uma comunidade.
Feil-Seifer e Mataric (2009) acredita que em domínios onde não existem alternativas de so-
luções econômicas para uma variedade de aplicações, e onde os sistemas de Interação Humano-
Robô fornecem uma solução nova e única, o potencial de criar um impacto social é grande;
sendo a saúde um desses domínios. Em Winkle et al. (2020), os autores sugerem que fatores
demográficos e sociais estão inerentemente ligados ao envolvimento do paciente. Portanto,
também são importantes ao considerar o uso de SARs na terapia.
Tendo concluído a descrição dos 4 fatores que fazem parte da subcategoria Colaboração em
Grupos a seguir descreveremos os 3 fatores que pertencem a subcategoria de Tarefa/Contexto.
Segundo Schaefer (2013) os fatores ambientais geralmente requerem uma interação humano-
robô dentro de um contexto específico. Por isso, a confiança é muitas vezes uma construção
dependente da tarefa que depende do Risco/incertezas, Contexto/Tipo de Tarefa/Com-
plexidade e do Ambiente físico. Por exemplo, Kidd (2003) descobriu que as tarefas colabo-
rativas geram classificações de confiança mais altas do que as tarefas de coleta de informações.
A natureza dessas tarefas pode ser afetada de forma diferente pelo ambiente físico e pelo risco
associado à tarefa específica.
Risco/Incerteza (Risk/Uncertainty)
O conceito de risco foi sintetizado pelos autores Aven e Renn (2009) na seguinte definição:
“risco refere-se à incerteza e gravidade dos eventos e consequências (ou resultados) de uma
atividade em relação a algo que os humanos valorizam” (AVEN; RENN, 2009, p. 6). Embora
realmente existam riscos inerentes na interação humano-robô (segurança, privacidade entre
102
outros), também existe a percepção de risco por parte do indivíduo, que não está relacionada
a presença real de riscos ou perigos no contexto, mas sim no modelo mental formulado (STUCK;
HOLTHAUSEN; WALKER, 2021).
Mayer, Davis e Schoorman (1995) relacionam que a confiança em um robô é moderada
pela quantidade de risco e incerteza percebida envolvido na interação. Schaefer (2013) afir-
mam que em robôs tanto os riscos derivados de fontes internas (por exemplo, corrupção de
dados), quanto riscos externo do ambiente (por exemplo, terreno físico) podem afetar o de-
senvolvimento da confiança. Em Lin, Bekey e Abney (2008) o risco foi associado como um
fator que tem um impacto direto na avaliação da segurança do sistema.
Stuck, Holthausen e Walker (2021) discutem que os riscos percebidos podem ser relaci-
onados tanto a percepção situacional, na qual representa uma crença sobre algo; quanto a
percepção relacional, que representa uma crença baseada em experiência ou histórico (ex. robô
já tem histórico de falhas, funcionamento inapropriado entre outros). Os autores relacionaram
a percepção de risco a alguns tópicos como: risco financeiro, risco de performance (relacionado
a execução de tarefas), risco físico, risco psicológico, risco social, risco de perda de tempo, risco
ético, risco de privacidade e risco de segurança (security ). Os detalhes do contexto também
são importantes para entender como o risco e a confiança interagem (STUCK; HOLTHAUSEN;
WALKER, 2021).
disso é o trabalho de Stuck e Rogers (2018), nele os autores demonstram que o contexto de
robôs prestadores de cuidados à idosos tem dimensões únicas relacionadas à confiança que
devem ser consideradas ao projetar robôs para tarefas home-care 18 .
O tipo da tarefa influencia o nível de confiança em robôs e também afeta a resposta ativa e o
engajamento dos indivíduos (KIDD, 2003; LI; RAU; LI, 2010). Além disso, ao considerar o domínio
da tarefa, muitos pesquisadores sugerem que deve haver uma consistência entre a aparência de
um robô e sua tarefa (GOETZ; KIESLER; POWERS, 2003; LOHSE; HEGEL; WREDE, 2008). Porém,
projetar uma aparência para o robô que corresponda à sua tarefa se torna muito complicado a
partir do momento que o robô funcionará possivelmente em ambiente internacional. Portanto,
o modelo mental das pessoas não só será influenciado pela aparência do robô, mas também
será mediado por sua bagagem cultural (LI; RAU; LI, 2010). O tipo e complexidade de uma
tarefa estão relacionadas a vários elementos, incluindo clareza, quantidade e a diversidade
envolvida dessa tarefa (LIU; LI, 2012)
Ambientes físicos podem incluir restrições climáticas, terreno, obstruções, obstáculos entre
outros. Kidd (2003) esclarece que um robô deve ter robustez suficiente para lidar com o
ambiente em que deve trabalhar. Acima de tudo, o ambiente em que o robô será usado deve
ser bem compreendido, pois as consequências das ações podem ser diferentes em diferentes
contextos e culturas (HANCOCK; BILLINGS; SCHAEFER, 2011). Os SARs podem ser usados nos
mais diversos ambientes, como em escolas, clínicas, hospitais, domicílios e etc. Compreender as
regras e restrições ambientais para que os robôs possam se adequar a elas é muito importante e
pode ajudar a desenvolver robôs que se adéquem mais ao ambiente. Por exemplo, no trabalho
de Meghdari et al. (2018) um robô social foi desenvolvido para uso em um hospital pediátrico
e durante o processo de projeto (design) do robô algumas regras e limitações do ambiente
hospitalar foram pensadas e levadas em consideração. No fim, essas considerações levaram a
limitação da velocidade do robô, redução de ruídos e restrição da largura máxima da base,
todas essas características podem impactar diretamente a interação do robô no ambiente.
18
Ato de prestar serviços de saúde na casa do paciente
104
4.1 OBSERVAÇÕES
Alguns autores como Feil-Seifer e Matarić (2005) levantam uma problemática de projeto
(design) acerca da necessidade de um SARs em possuir uma forma física quando não
realiza tarefas que necessitem contato físico. Vale ressaltar que o tipo de incorporação
(física ou virtual) de um agente que preste assistência através da interação social pode
influenciar sua eficácia na interação social, na construção de relacionamento com o
usuário, aceitação e confiança (FASOLA; MATARIĆ, 2013).
Tapus, Matarić e Scassellati (2007) deixa claro que apesar dos Robôs Socialmente Assis-
tivos enfatizarem a interação social ao invés da interação física, a incorporação física
do robô é necessária para comunicar e interagir com os usuários de uma forma social
e envolvente. A presença física, aparência e o contexto compartilhado com o usuário
são fundamentais para criar um relacionamento envolvente de longo prazo entre SARs
e usuário (TAPUS; MATARIĆ; SCASSELLATI, 2007).
De acordo com a literatura, consideramos nessa dissertação que o SAR precisa ter uma
forma física e que essa forma impacta na confiança. Por isso, os requisitos relacionados
a estrutura do robô também foram considerados como Requisitos Não-Funcionais.
• Quanto a morfologia
106
O catálogo elaborado nessa dissertação diz respeito aos SARs do tipo antropomórfi-
cos. Estudos anteriores mostraram que o antropomorfismo afeta a confiança favoravel-
mente na automação (WAYTZ; HEAFNER; EPLEY, 2014) e nos robôs (EYSSEL et al., 2012;
MATHUR; REICHLING, 2009; TORTA et al., 2013). As pessoas geralmente favorecem robôs
que são mais antropomórficos, ou semelhante ao humano em aparência, personalidade
e comportamento (WALTERS et al., 2008).
fases e atividades realizadas através da notação desenvolvida pela Object Management Group
(OMG) : Business Process Modeling and Notation (BPMN).
4.2.1.1 Tarefas 1, 2 e 3
com exceção de segurança e privacidade que viraram softgoals primários, destacando sua im-
portância. Dos 8 fatores ambientais, 7 foram associados as propriedades e dos 12 fatores
humanos apenas 3 foram associados.
A Tabela 6 mostra como as 12 propriedades dos SARs estão associadas a 19 fatores
de confiança. Observar que fatores considerados estão relacionados ao ambiente, homem e
robô. Do Fator Ambiente foram: Interdependência de papéis/tarefas, Composição de
equipes, Impacto Social/Cultural, Risco/incerteza, Contexto/Tipo de tarefa/Com-
plexidade e Ambiente físico; do Fator Humano, tem-se: Idade, Experiências Prévias
e Habilidade de uso; do Fator Robô, foram: Modo de comunicação, Aparência/An-
tropomorfismo, Nível de Automação, Inteligência, Personalidade. Comportamento,
Confiabilidade(Reliability)/Erro, Feedback, Adaptabilidade e Proximidade.
Incorporação Aparência/Antropomorfismo
Emoção Modo de comunicação, Aparência/Antropomorfismo,
Personalidade do robô, Comportamento do robô
Modo de comunicação, Personalidade do robô,
Diálogo
Proximidade, Feedback, Confiabilidade/Erros
Aparência/Antropomorfismo, Personalidade do robô,
Personalidade
Comportamento do robô
Percepção orientada para o ser humano Nível de automação, Inteligência, Adaptabilidade
Modelagem de usuário Experiências prévias, Habilidade de uso
Aprendizagem Socialmente Situada Inteligência, Adaptabilidade
Intencionalidade Comportamento do robô, Confiabilidade/Erros
População de usuários Idade, Impacto Social/Cultural
Contexto/Tipo de tarefa/Complexidade,
Exemplos de tarefas Interdependências de papéis/tarefas, Risco/Incerteza,
Ambiente físico, Nível de Automação
Sofisticação da interação Modo de comunicação, Comportamento do robô, Feed-
back
Papel do robô Composição de equipe, Interdependência de papéis/tare-
fas
As definições e atributos dos NFRs foram coletadas através da revisão da literatura realizada
no capítulo 3, sendo usados como fontes artigos, livros, monografias, teses, dissertações, etc.
É importante ressaltar que ainda existe uma lacuna em trabalhos de confiança associada a
Robótica Social e Robótica Socialmente Assistiva. Além disso, existem algumas divergências
de definições na área, o que torna difícil a coleta das definições dos atributos.
As definições dos Requisitos Não-Funcionais dizem respeito à descrição do que é aquele
requisito. Já seus atributos dizem respeito à características próprias daquele requisito, ou seja,
quais propriedades são necessárias a esse tipo de requisito. Por exemplo, o NFR de Usabilidade
de um determinado sistema possui a definição/descrição de que é um requisito que especifica a
interação final com o sistema e o esforço necessário para aprender, operar, preparar a entrada e
interpretar a saída do sistema (MAIRIZA; ZOWGHI; NURMULIANI, 2010). Já um dos seus atributos
para Sistemas Embarcados, segundo Silva (2019), é a Adaptabilidade, que é a capacidade de
um dispositivo em se adaptar às características específicas do usuário (HARVEY et al., 2011).
A seguir será discutido a fase de Desenvolvimento.
4.2.2 Desenvolvimento
Por fim, todos os fatores de confiança foram organizados de acordo com suas descrições
mais fortes e o resto de suas associações foram tratadas como correlações. Por exemplo,
Aparência/Antropomorfismo está associado a Incorporação, Emoção e Personalidade. Por sua
definição, ele foi associado a Incorporação, com correlações com Emoção e Personalidade.
4.2.3 Avaliação
Na etapa de avaliação, foi ilustrado o uso do catálogo através de uma Prova de Con-
ceito e avaliada com 2 especialistas das respectivas áreas de NFR Framework e Interação
Humano-Robô através de entrevista, bem como a avaliação do catálogo por 20 Engenheiros
de Requisitos através de questionário. O detalhamento sobre a aplicação das avaliações e os
resultados obtidos serão discutidos no capítulo 5.
112
Na tarefa 9 foi realizada uma avaliação com 20 especialistas acadêmicos da área de Enge-
nharia de Requisitos. Essa avaliação buscou analisar vários aspectos sobre relevância e utilidade
do catálogo. Esse processo é discutido na seção 5.2 do capítulo 5.
Na seção a seguir será apresentado o Catálogo construído.
4.3 O CATÁLOGO
4.3.1 Aparência/Antropomorfismo
Definição: A forma e a estrutura do robô, ou seja, sua aparência, são importantes para
estabelecer expectativas sociais (FONG; NOURBAKHSH; DAUTENHAHN, 2003). O antropomor-
fismo, segundo Duffy (2003), é a tendência que o ser humano tem de atribuir características
humanas a objetos inanimados, animais e outros. O conceito de antropomorfismo também
tem um impacto importante na interação Humano-Robô. A Figura 15 expressa as correlações
do Requisito Não-Funcional de Aparência/Antropomorfismo.
Ao projetar um Robô Socialmente Assistivo, a aparência geral do robô muda de acordo com
o contexto/tarefa de sua utilização. Muitas vezes são projetados e arquitetados de acordo com
o ambiente e a população de usuários que irão utilizá-lo, embora o mais importante a se con-
siderar é que sua forma física possa cumprir a expectativa evocada no usuário (DUFFY, 2003).
Dito isso, as características físicas do robô e seu nível de antropomorfismo vão ser de suma
importância para a confiança, principalmente as características que permitem incrementar a
parte social do robô e suas percepções.
Fontes de evidência na literatura: (FONG; NOURBAKHSH; DAUTENHAHN, 2003; DUFFY,
2003; BARTNECK et al., 2009a; SCHAEFER, 2013; PAPADOPOULOS et al., 2020)
Atributos: Capacidade funcional e Características físicas.
Os atributos descritos a seguir devem ser analisados de forma a contribuir positivamente
para a Aparência/Antropomorfismo e suas correlações.
117
A Figura 15 apresenta uma contribuição HELP (+) do atributo Capacidade funcional para
o requisito Aparência/Antropomorfismo e uma contribuição ’AND’ do atributo Características
físicas para Aparência/Antropomorfismo. Além disso, também são apresentados quatro corre-
lações ’unknown’ para os requisitos Emoção, Segurança (Safety ), Papel do robô e População
de usuário, e três correlações positivas (+) para os requisitos de Personalidade, Percepção
Orientada para o ser humano e Intencionalidade. Essas correlações representam os impactos
que a Aparência/Antropomorfismo causa nestes requisitos.
Na Figura 16, são mostrados os refinamentos do NFR de Aparência/Antropomorfismo.
∗ Olhos: os olhos são uma característica social muito importante e tem que
estar presente na face do robô.
Fontes de evidência na literatura: (SIMS et al., 2005b)
Atributos: Cor, Distância, Tamanho, Formato.
– Tamanho: diz respeito ao Tamanho do robô. O robô deve ser adequado ao con-
texto e tarefa que irá executar e não deve gerar desconforto no usuário.
– Idade aparente: diz respeito à idade que a aparência do robô aparenta. É uma
questão de estereótipo que pode influenciar as atitudes e o sentimento de conforto
do humano/usuário em relação ao robô, dependendo da faixa etária.
– Tipos de bordas: diz respeito à quais tipos de bordas o robô tem, do tipo chan-
fradas (redondas) ou mais quadradas. Isso influencia a parte estética do robô e
também a segurança.
4.3.2 Comunicação
– Alarme: diz respeito à capacidade do robô em emitir alertas sobre algum estado
interno/externo.
∗ Tipo: diz respeito à qual forma (visual ou auditivo) o alarme está sendo
emitido.
Fontes de evidência na literatura: (GUPTA; BISANTZ; SINGH, 2002; WIC-
KENS et al., 2009)
– Verbal: diz respeito à toda passagem de informações por meio de linguagem escrita
ou falada.
Fontes de evidência na literatura:(TAPUS; MATARIĆ; SCASSELLATI, 2007)
Atributos: Auditiva.
· Voz: diz respeito à um atributo no qual o recurso de voz do robô deve ser
consistente com sua aparência/Antropomorfismo e também deve permitir
que o usuário a personalize.
Fontes de evidência na literatura: (FONG; NOURBAKHSH; DAUTENHAHN,
2003; PINO et al., 2015; CUCCINIELLO et al., 2021)
Atributos: Tom, Tipo.
· Tom: diz respeito à qualidade de um som regida pela taxa de vibrações
que o produzem e sua altura. A velocidade do tom de voz pode ajudar a
expressar emoções.
Fontes de evidência na literatura: (FEIL-SEIFER; MATARIC, 2011; LOUIE;
MCCOLL; NEJAT, 2014)
· Tipo: diz respeito à característica da voz em ser mais parecida com a voz
humana ou voz sintética.
Fontes de evidência na literatura: (STEDMON et al., 2007; FEIL-SEIFER;
MATARIC, 2011)
– Não-Verbal: diz respeito à passagem de informações que não é feita com fala
verbal ou com a escrita.
Fontes de evidência na literatura: (TAPUS; MATARIĆ; SCASSELLATI, 2007)
128
4.3.3 Emoção
Definição: as emoções são importantes nas interações humanas e nos robôs elas ajudam
a facilitar uma interação mais crível entre homem-robô. A Figura 19 expressa as contribuições
e correlações do requisito de emoção.
Fontes de evidência na literatura: (FEIL-SEIFER; MATARIĆ, 2005; TAPUS; MATARIĆ; SCAS-
SELLATI, 2007; TAPUS; MATARIĆ, 2008; LAW; CHITA-TEGMARK; SCHEUTZ, 2021)
Também são apresentadas quatro correlações positivas (+) para os requisitos de Comunicação,
Intencionalidade, Personalidade e Aparência/Antropomorfismo.
Atributos: Postura emocional, Expressões faciais, Emocionalmente inteligente.
– Ângulos das juntas: diz respeito aos ângulos e graus de liberdade que permitem
expressar posturas emocionais como tristeza, alegria, raiva e etc.
• Expressões faciais: diz respeito à capacidade do robô em utilizar a face para expressar
emoções.
Atributos: Empatia.
Definição: a sofisticação de interação diz respeito à forma como o usuário interage com o
robô. Feil-Seifer e Matarić (2005) separa as interações entre interação do robô para o humano
e do humano para o robô a fim de focar melhor em seus aspectos. O processo da interação
recíproca do usuário é bem mais complexa. Esse requisito diz respeito à capacidade do robô
em processar as informações da interação recíproca com o usuário. Quanto mais sofisticada
for a interação, melhor será a percepção social do robô. Contudo, maior capacidade técnica é
requerida.
Fontes de evidência na literatura:(FEIL-SEIFER; MATARIĆ, 2005)
Atributos: Imitação.
Definição: a percepção orientada para o ser humano diz respeito à capacidade do robô de
perceber e processar as informações do ambiente e principalmente do usuário da forma mais
“humana” possível (FEIL-SEIFER; MATARIĆ, 2005).
Fontes de evidência na literatura:(FEIL-SEIFER; MATARIĆ, 2005)
A Figura 22 apresenta uma contribuição do tipo ’AND’ entre o atributo Automação e seus
subatributos para o requisito de Percepção Orientada para o ser humano. Uma correlação
negativa (-) para o requisito de Privacidade. Além disso, são apresentadas quatro correla-
ções positivas (+) para os requisitos de Comunicação, Segurança (Safety), Intencionalidade e
Aprendizagem Socialmente Situada.
Atributos: Automação.
• Automação: diz respeito aos requisitos do robô que selecionam dados, transformam
informações, tomam decisões ou controlam processos.
4.3.7 Privacidade
• Dano físico: diz respeito à capacidade do robô em prevenir danos físicos ao ambiente
e usuários.
Atributos: Colisão.
– Colisão: diz respeito à capacidade do robô em evitar impactos físicos com fatores
do ambiente (objetos, animais, estruturas físicas, etc) ou usuários humanos.
• Proteção do robô: diz respeito à capacidade do robô em proteger a sua própria exis-
tência contra danos, desde que não represente perigo ao usuário humano.
– Área segura: diz respeito à definição de zonas seguras em que o robô possa
interagir com riscos mínimos de ocasionar danos físicos ou perigo a si mesmo, ao
ambiente ou seres humanos.
4.3.9 Personalidade
Atributos: Adaptabilidade.
138
4.3.10 Intencionalidade
Atributos: Atenção.
Definição: é o requisito que define qual a função desempenhada pelo robô (assistente,
tutor, companheiro, etc).
Fontes de evidência na literatura:(FEIL-SEIFER; MATARIĆ, 2005; FEIL-SEIFER; MATARIC,
2011)
Na Figura 27 são apresentadas uma contribuição ’AND’ da propriedade Autoridade para
o requisito Papel do Robô, duas correlações positivas do requisito Papel do Robô para os
requisitos de Intencionalidade e Aparência/Antropomorfismo e duas correlações desconhecidas
(’unknown’) do requisito de Papel do Robô para os requisitos de Comunicação e Sofisticação
de interação.
Atributos: Autoridade.
141
4.3.12 Tarefas/Contexto
Definição: diz respeito aos requisitos relacionados ao contexto de uso do robô e as ativi-
dades que o robô realizará.
Fontes de evidência na literatura:(FEIL-SEIFER; MATARIĆ, 2005)
Na Figura 28 são apresentadas as contribuições do tipo ’AND’ dos atributos de Risco/in-
certeza, Contexto/Tipo da Tarefa, Ambiente físico e Complexidade para o requisito de Tare-
fa/Contexto.Também são apresentadas duas correlações positivas de Tarefa/Contexto para os
requisitos de Aparência/Antropomorfismo e Papel do robô e uma contribuição desconhecida
(’unknown’) para Segurança (Safety ).
Fontes de evidência na literatura: (LI; RAU; LI, 2010; CAMERON et al., 2015; STUCK;
ROGERS, 2018)
Fontes de evidência na literatura: (LIU; LI, 2012; HUANG; RAU; MA, 2021)
Definição: é o requisito que especifica o conjunto de características dos usuários que serão
atendidos pelo robô.
Fontes de evidência na literatura:(FEIL-SEIFER; MATARIĆ, 2005)
A Figura 30 apresenta duas contribuições positivas (+) entre os atributos de Necessidades
e Faixa etária para o requisito de População de usuários e duas correlações positivas (+) entre
o requisito de População de usuários e os requisitos de Tarefas/Contexto e Papel do Robô.
Neste capítulo, foram realizadas algumas observações sobre a escolha e organização dos
atributos que constituem o catálogo. Em seguida, foi apresentado o processo de construção
do catálogo NFR4TRUST, que consiste em um processo composto por 3 fases e 9 tarefas.
O catálogo foi representado através de um grafo SIG sem suas correlações, sendo as correla-
ções representadas posteriormente por meio de tabela. Todos os 14 NFRs primários presentes
no catálogo foram descritos e apresentados em forma de figura contendo seus atributos e
subatributos, bem como suas correlações.
Embora o catálogo NFR4TRUST vise oferecer uma boa cobertura inicial dos Requisitos
Não-Funcionais de Confiança, ressaltamos que o catálogo está em constante evolução e não
é pretensão que ele esteja completo. No capítulo seguinte será apresentada a avaliação do
catálogo, bem como os métodos utilizados, os objetivos da avaliação e os resultados obtidos.
145
Segundo Silva (2019), o termo Prova de Conceito (Proof of Concept - PoC) refere-se a um
modelo prático para provar um conceito teórico estabelecido. Esse conceito pode ser oriundo
de uma pesquisa ou artigo técnico. A PoC pode ser uma implementação de um método ou ideia
de forma completa, resumida ou incompleta, sendo o propósito de sua realização averiguar se
o conceito ou teoria estudada pode ser explorado de uma forma útil. Na área de Tecnologia da
Informação, a PoC pode se referir também ao desenvolvimento de um protótipo para provar
se uma arquitetura ou sistema a ser desenvolvido é viável.
Na seção a seguir será apresentada a Prova de Conceito em um cenário onde o catálogo
NFR4TRUST será aplicado para auxiliar a elicitação de especificação de NFRs de Confiança
em um sistema robótico do tipo SARs: o robô NAO.
146
O Robô Socialmente Assistivo utilizado nesta Prova de Conceito é o NAO, que é um robô
desenvolvido pela empresa francesa Aldebaran Robotics, atualmente conhecida como SoftBank
Robotics Europe. Neste projeto, usaremos como base o trabalho de Lins (2021) que avalia
a utilização do NAO v5 no contexto de fisioterapia para auxiliar na reabilitação motora de
membros superiores.
O principal objetivo da utilização do NAO na fisioterapia é manter o estímulo para a manu-
tenção adequada do tratamento do paciente. Os Robôs com características sociais possibilitam
que pacientes criem algum tipo de vínculo afetivo com eles aumentando o estímulo à continui-
dade do tratamento. Outra característica da utilização de SARs na fisioterapia é que quanto
maior for a autonomia dos robôs, menos esforço vai ser exigido do fisioterapeuta.
O NAO v5 tem um peso de 5,4 kg e uma altura de 57,4 cm. Sua profundidade com os
braços esticados é de 3,11 cm e a largura (ombro a ombro) de 2,75 cm. Na Figura 31 pode-se
observar os componentes da estrutura de Hardware do NAO.
O NAO possui vantagens que residem tanto em sua aparência quanto em suas habilidades
corporais. O conjunto de elementos presente em seu hardware permite que ele possa se movi-
mentar (25 graus de liberdade ao total) e se adaptar bem ao ambiente. O comportamento do
147
está incluído no nível médio que se encarrega de fornecer as ações necessárias que o robô deve
executar enquanto detecta e monitora que os efeitos recebidos coincidem com os excedidos.
No trabalho de Lins (2021), o NAO é capaz de reconhecer rostos para identificação facial
e realizar conversas básicas. Ele não foi programado para dar feedback dos exercícios e nem
executar conversas mais elaboradas com o usuário. Devido a limitações técnicas e operacionais,
o NAO foi utilizado em um baixo nível de autonomia nesse trabalho.
O principio da execução do NAO é o seguinte:
1. O NAO realiza sua sequência de apresentação e retorna para a posição inicial com os
braços esticados ao longo do corpo.
O processo da construção da Prova de Conceitos foi executado pela autora dessa disserta-
ção em conjunto com a autora do trabalho de Lins (2021) através da obtenção das informações
por meio de entrevistas informais. O processo de avaliação dos artefatos gerados pela PoC
também foram avaliados por entrevistas informais.
A entrevista informal é uma técnica de investigação na pesquisa qualitativa que é realizada
de forma o menos estruturada possível. Ela se distingue da conversação porque o seu objetivo
é a coleta de dados.
Esse tipo de entrevista é recomendado nos estudos exploratórios, onde se pretende ter uma
visão mais ampla do problema. Nos estudos desse tipo, é comum recorrer a entrevistas informais
com informantes-chaves, que podem ser especialistas no tema em estudo, líderes formais ou
informais, personalidades destacadas, entre outros (GIL, 2008). A seguir, é discutido a forma
em que as entrevistas para a PoC foram conduzidas.
•Apresentação do catálogo
1 Online 1 hora e 22 minutos Sim
Google Meet
•Discussão dos NFRs do catálogo
A primeira reunião realizada teve um carácter explanativo, onde foram apresentados os con-
ceitos pertinentes a essa dissertação. Inicialmente, foram apresentados os fatores de Confiança
a especialista. Logo após, foi mostrado uma revisão breve dos conceitos da abordagem utili-
zada para representação do catálogo, o NFR Framework, pois a abordagem já era conhecida
pela especialista.
Após a contextualização dos principais conceitos, foi apresentado o catálogo NFR4TRUST
a especialista e, em seguida, foram discutidos os conceitos dos softgoals, sendo selecionado
quais deles seriam instanciados na Prova de conceito. A especialista selecionou três Requisitos,
os quais considerou bastante relevantes, sendo eles: Aparência/Antropomorfismo, Comunica-
ção e Emoção. Nessa reunião também foi coletada a descrição do sistema robótico NAO
utilizado no contexto de fisioterapia para auxiliar na reabilitação motora de membros superio-
res e o objetivo de sua utilização.
Na segunda reunião, foi iniciado o processo de construção dos SIG com base no catálogo
NFR4TRUST. Os SIG de Aparência/Antropomorfismo e Comunicação foram construídos em
um processo conjunto com a especialista. Na última reunião, foi construído o SIG de Emoção,
150
Alguma coisa que lembre do tipo... tem que ter nosso formato para fazer a
fisioterapia, então tem que ser bípede, ter dois braços, duas pernas, coisas
que lembrem características humanas é mais interessante. (Autora de Lins
(2021)).
A forma da base do NAO ajuda o robô a ficar em pé, mas ela não é muito
funcional para fazer exercícios de fisioterapia. Além da posição final não ser
fidedigna por isso que a gente excluiu os movimentos de membros inferiores,
a base também é pouco estável. Por exemplo, se o terreno for muito liso
ele escorrega, se o terreno for um pouco inclinado ele cai. Então a base é
assim... ela é bonitinha lembra perninhas, mas assim... ele não é estável.
(Autora de Lins (2021)).
O NAO precisa ser resistente à queda... ele tem que aguentar o tranco. En-
tão, ele tem que ser resistente à queda e tem que ser resistente à frequência
de exercício... eu acho que está em durabilidade. (Autora de Lins (2021)).
O material do robô tem que ser bem leve e resistente, e não pode ser
inflamável também... porque é um dispositivo eletrônico. (Autora de Lins
(2021)).
A voz do robô tem que ser clara... ela tem que ser entendível, então o
tom da voz do robô precisa estar de uma forma que o usuário vá escutar e
compreender bem. (Autora de Lins (2021)).
A ferramenta utilizada para a representação desses SIGs foi a StarUML. A seguir descre-
veremos um pouco sobre a notação da ferramenta.
• Feedback-> Olhos[LEDs];
- “Acho sim”
- “Sim. É bom saber com o que vamos lidar. Tipo, especificações, características do
dispositivo. Ajuda a planejar o que é possível fazer."
Com a aplicação desta Prova de Conceito, observamos que nossa abordagem se mostrou
útil na elicitação dos requisitos. O catálogo NFR4TRUST conseguiu cobrir de forma eficiente
os requisitos Não-Funcionais de Confiança do NAO. Ao desenvolver os SIG da PoC em conjunto
com a especialista, já foram sendo feitas as validações dos artefatos finais gerados, ou seja, os
2
É uma técnica de desenvolvimento de software ágil em que dois programadores trabalham juntos em uma
estação de trabalho. Um deles, o “piloto”, escreve o código, enquanto o outro, chamado de “co-piloto”,
analisa cada linha do código.
159
catálogos SIG. A especialista afirmou que os catálogos gerados conseguiram expressar e ilustrar
de forma simples os Requisitos Não-Funcionais de Confiança do sistema robótico. Além disso,
na visão dela, pensar nos requisitos presentes no catálogo ajuda a planejar melhor e restringir o
que precisa ser desenvolvido/projetado no robô e em sua interação com o usuário e o ambiente.
A Prova de conceito passou por um processo de avaliação quanto ao uso da abordagem NFR
Framework e quanto à área de Interação Humano-Robô. Foram entrevistados dois especialistas
sênios, o primeiro especialista tem uma vasta experiência com a abordagem NFR Framework e
o segundo especialista atua na área acadêmica com Interação Humano-Robô há mais de sete
anos e a quatro anos com Robôs do tipo social. As reuniões ocorreram conforme apresentado
na Tabela 9.
Tabela 9 – Realização de entrevista com especialistas
Especialista Reunião realizada
Duração Pauta Objetivo
Online
NFR Framework 1 hora e 49 •Apresentação do catálogo e da Prova de Conceito •Verificar a corretude
Google Meet minutos de utilização da aborda-
gem
•Discussão sobre utilização da abordagem
NFR Framework no catálogo
A reunião com o especialista da abordagem NFR Framework teve uma duração de 1 hora
e 49 minutos e foi realizada de maneira remota pela ferramenta Google Meet, sendo gravada
para consultas posteriores. Na primeira parte da reunião, foi apresentado ao especialista uma
breve contextualização dos fatores de confiança para justificar a escolha dos NFRs. Logo após,
foi mostrada a estrutura completa do catálogo e apresentado com mais detalhes os catálogos
instanciados na Prova de Conceito. O especialista discutiu sobre a forma em que a abordagem
estava sendo utilizada, suas contribuições, correlações e operacionalizações.
160
- “Sim, porque tem um projeto que trabalha com confiança na interação humano-robô,
mas humano-robô industrial, e eu tenho uma aluna de doutorado que estava trabalhando
nesse projeto.”
• “Dentro das características (fatores) de confiança, qual você acha que é a mais
importante?”
• “Você acha que esse catálogo poderia ser utilizado para fazer um design ou
projetar uma aplicação de SARs com a perspectiva de confiança?”
- “Sim.”
- “Descrever com mais detalhes todos os itens... [se referindo ao nível de refinamento]
e fazer o catálogo de uma forma que possa esconder parte dele, e ao clicar se possa
expandir um parte ou esconder ela...”
Na avaliação com o especialista de HRI, foi possível verificar a relevância dos NFRs para o
domínio de SARs e a viabilidade de aplicação do catálogo em cenários reais. O especialista
afirmou que o catálogo poderia ser utilizado principalmente para projetar aplicações de SARs.
oralmente pelo pesquisador. Nesta avaliação utilizamos um questionário auto-aplicado que foi
disponibilizado de forma online.
A aplicação do instrumento ocorreu de maneira remota via Google Meet com o preenchi-
mento do questionário no Google Forms. Esta pesquisa contou com 20 participantes voluntá-
rios. Os perfis dos participantes desta pesquisa foi constituído de Engenheiros de Requisitos.
Os participantes da pesquisa foram convidados em duas etapas: a primeira através de
contato via e-mail. Neste contato foi apresentado um resumo sobre o trabalho e a forma que
seria aplicada a avaliação. Foram convidados 12 participantes, 10 desses participantes são
membros do Laboratório de Engenharia de Requisitos (LER) e os outros 2 são pós-graduandos
com experiência de 1 ano em pesquisa de robôs sociais. Dos 12 participantes convidados,
todos realizaram a avaliação.
Na segunda etapa do recrutamento, foram convidados os alunos da disciplina de pós-
graduação de Engenharia de Requisitos, ministrada no Centro de informática da . os partici-
pantes foram recrutados através de uma atividade no Google Sala de Aula. Dos 8 participantes
recrutados, 8 participantes realizaram a avaliação.
No dia da avaliação os participantes entraram no Google Classroom para acessar a sala
virtual disponibilizada para a disciplina no Google Meet. Para participação na avaliação foi ne-
cessário concordar com o Termo de Consentimento Livre e Esclarecido (Disponível no Apêndice
A). O questionário utilizado nesta pesquisa foi organizado em três partes. Na primeira, são
apresentadas 8 perguntas para definir o perfil dos participantes; em seguida, foram apresenta-
das 7 perguntas sobre o catálogo. Na parte final são apresentadas 5 perguntas subjetivas com
o objetivo de possibilitar aos participantes uma complementação da avaliação do catálogo,
seja para esclarecer seu ponto de vista, seja para incluir algo de sua experiência. A métrica uti-
lizada para analisar as respostas do questionário foi a escala desenvolvida por (LIKERT, 1932).
A seguir serão apresentadas as análises das respostas do questionário.
Figura 38 – Os participantes tem alguma experiência profissional com elicitação e especificação de requisitos
De acordo com a Figura 37, a maior parte dos participantes se identificaram como tendo
conhecimento Médio, Alto ou Muito Alto em elicitação de requisitos (90% (18/20)). Dentro
desse percentual de 90%, existe um percentual de 61,1% (11/18) que possuem conhecimento
Alto ou Médio em NFR Framework, o que configura 55% (11/20) dos participantes.
Ao total, os participantes que possuem conhecimento Médio, Alto e Muito Alto em elici-
tação, Alto e Médio em NFR Framework e Médio ou Muito Alto em Robótica Socialmente
Assistiva representam 15% (3/20). Já quem tem Médio, Alto e Muito Alto em elicitação de
requisitos, Alto e Médio em NFR Framework e baixo conhecimento em Robótica Socialmente
Assistiva representam 25% (5/20). Desses 40% (8/20), apenas 12,5% (1/8) nunca ouviram
falar de Confiança. No fim, se tem uma amostra significativa de conhecimento distribuído em
todas as 4 principais áreas do catálogo de 35% (7/20).
Conforme pode ser visto na Figura 44, 80% (16/20) dos participantes concordaram
totalmente com essa afirmativa, 15% (3/20) concordaram parcialmente e 5% (1/20)
foram neutros. Por isso, pode-se concluir em relação as respostas da maioria dos parti-
cipantes que os Requisitos Não-Funcionais apresentados no catálogo NFR4TRUST são
propícios a construção de projetos de Robôs Socialmente Assistivos que transmitam mais
confiança.
Figura 44 – Questão 9
Figura 45 – Questão 10
De acordo com a Figura 46, um percentual de 95% (19/20) dos participantes concor-
dam totalmente com as definições apresentadas no catálogo e 5% (1/20) se declarou
neutra. As opções discordo totalmente, discordo parcialmente e concordo parcialmente
não foram respondidas pelos participantes. Portanto, de acordo com o resultado ob-
tido, as definições obtidas a partir da literatura são consistentes, segundo a opinião dos
participantes.
170
Figura 46 – Questão 11
Figura 47 – Questão 12
Conforme pode ser visto na Figura 48, é mostrado que 90% (18/20) dos participan-
171
tes concordaram totalmente que o catálogo pode ser um artefato útil e pode agregar
uma melhoria da qualidade na elicitação dos requisitos, 10% (1/20) concordaram par-
cialmente com esta afirmativa e as outras opções como discordo totalmente, discordo
parcialmente e neutro não foram respondidas pelos participantes.
Figura 48 – Questão 13
A Figura 49 mostra que 80% (16/20) dos participantes concordam totalmente em utilizar
o catálogo em projetos futuros, 15% (3/20) concordam parcialmente e 5% (1/20) são
neutros. Pelos resultados obtidos nessa assertiva, o catálogo teve uma boa aceitação
por parte dos participantes e eles utilizariam em seus projetos futuros como um artefato
para melhorar a elicitação e especificação de seus projetos.
Na Figura 50, 80% (8/10) dos participantes concordam totalmente com esta afirmação e
recomendariam o uso do catálogo para outras pessoas e 20% (2/10) concordam parcial-
mente. As opções discordo totalmente, discordo parcialmente e neutro não apresentaram
respostas.
172
Figura 49 – Questão 14
Figura 50 – Questão 15
• Questão 16 - Dentro dos fatores de confiança, qual você acha que é o mais
importante?
Dos 20 participantes, todos responderam essa pergunta. A seguir as respostas são or-
ganizadas dos fatores mais citados para os menos citados.
- 10% (2/20) dos participantes apontaram que todos os fatores humanos são im-
portantes.
- 5% (1/20) dos participantes apontaram que todos os fatores ambientais são im-
portantes.
174
• Questão 17 - Você acha que esse catálogo pode ser utilizado para projetar
uma aplicação de SARs, da perspectiva da confiança, que possa melhorar a
aceitação dos usuários ?
- Um dos participante que respondeu que não, complementou que para uma maior
precisão de sua resposta precisaria um debate maior sobre o tema.
• Questão 20 - Existem outras modificações que podem ser feitas para melhorar
o catálogo? Quais?
- Outro participante sugeriu criar histórias de uso para ilustrar como cada fator pode
ser empregado.
- Outro participante sugeriu trocar os verbos nas definição dos conceitos, pois alguns
deles usam nas definições os mesmos verbos utilizados no conceito.
5.3 LIMITAÇÕES
Neste capítulo, foi realizada uma Prova de Conceito no contexto de fisioterapia, utilizando o
sistema robótico NAO para ilustrar a aplicação do nosso catálogo de Requisitos Não-Funcionais
de Confiança para Robôs Socialmente Assistivos. Logo após, a Prova de Conceito foi avaliada
através de entrevistas com especialistas das áreas de NFR Framework e Interação Humano-
Robô.
Além disso, foi realizada uma avaliação com Engenheiros de Requisitos através da aplicação
de um questionário para avaliar a nossa proposta. Os resultados obtidos desta avaliação foram
considerados positivos, pois indicam que os objetivos deste trabalho foram alcançados. A
aplicação da prova de Conceito foi importante para verificar como o catálogo pode ajudar
desenvolvedores e projetistas de Robôs Socialmente Assistivos em um contexto real. Observa-
se que o catálogo NFR4TRUST se mostrou útil e colaborou com o processo de elicitação e
especificação do sistema proposto.
O questionário aplicado aos especialistas considerou a opinião de acadêmicos da área de
Engenharia de Requisitos com perfis diferentes. Observamos que o catálogo NFR4TRUST foi
bem avaliado sobre perspectivas relevantes da pesquisa.
No próximo capítulo apresentaremos alguns trabalhos relacionados, nossas conclusões com
relação ao trabalho exposto, contribuições, algumas limitações da pesquisa e propostas de
trabalhos futuros.
177
6 CONCLUSÃO
Esta seção tem como objetivo apresentar os trabalhos relacionados com a pesquisa de-
senvolvida nesta dissertação, bem como as considerações finais sobre os principais tópicos
abordados, incluindo as contribuições alcançadas e indicações para trabalhos futuros.
Os principais trabalhos que contribuíram para a criação da taxonomia adaptada que serviu
como base para o catálogo desenvolvido nesta pesquisa foram: (HANCOCK et al., 2011; SCHA-
EFER, 2013; SCHAEFER et al., 2016; LANGER et al., 2019). Esses trabalhos encontram-se em
detalhes na seção 3. Na Tabela 10, é possível observar uma versão geral da comparação desses
trabalhos relacionados com alguns aspectos desta dissertação.
Não foi encontrado na literatura nenhum catálogo que trate de Requisitos Não-Funcionais
de Confiança (Trust) específico para SARs. Existe na literatura alguns trabalhos que inves-
tigam a Confiança como um NFR e utilizam a notação NFR Framework para representá-los
(CYSNEIROS; LEITE, 2020; KWAN; CYSNEIROS; LEITE, 2021). Apesar desses trabalhos não se
relacionarem diretamente com a área de Interação Humano-Robô, alguns de seus aspectos
ajudam na construção do conceito de Confiança como uma qualidade.
A seguir será apresentado um pouco sobre esses trabalhos.
ponto de vista dos usuários. Os autores afirmam que existe um deficit de confiança quando se
trata em aceitar IA e outros recursos tecnológicos baseados nela e, dependendo do quão critico
é o domínio, os consumidores parecem confiar menos nesses softwares para tomar decisões.
Além disso, os autores alegam que o uso do conhecimento de Responsabilidade Social
Corporativa (RSC) ajuda engenheiros de software a desenvolverem produtos mais confiáveis
e oferecem benefícios que ajudam a: reter clientes e aumentar a participação no mercado e
a desenvolver um sistema socialmente responsável que provavelmente terá alta demanda no
futuro próximo. As principais contribuições do trabalho são a extração de qualidades básicas
como a ética, segurança e privacidade, do âmbito das ciências sociais, para que softwares soci-
almente responsáveis sejam representados como catálogos SIG pela notação NFR Framework.
Apesar do trabalho de Cysneiros e Leite (2020) abordar o conceito de confiança como um
requisito não-funcional e em uma temática que pode-se relacionar a área da robótica, o tra-
balho não apresentou uma catalogação de requisitos mais amplo que seja muito pertinente ao
desenvolvimento de Robôs Socialmente Assistivos.
No estudo realizado por Kwan, Cysneiros e Leite (2021), os autores utilizaram os princípios
da teoria fundamentada para eliciar conhecimentos relacionados à Confiança, Ética e Transpa-
rência. Eles abordaram essas qualidades como Requisitos Não-Funcionais, com a finalidade de
construir catálogos para auxiliar a construção de Software Socialmente Responsável (Socially
Responsible Software). Em sua pesquisa, os autores constroem o corpus com uma coleção
selecionada da literatura sobre Responsabilidade Social Corporativa, com ênfase em Ética Em-
presarial. Um dos desafios encontrados no trabalho é o de como codificar o conhecimento da
perspectiva social, principalmente através da visão da Responsabilidade Social Corporativa,
sobre como as organizações ou instituições alcançam a confiabilidade.
O estudo mostra uma primeira abordagem para trazer novos conceitos emergentes na
sociedade (Transparência e Ética) para o processo de engenharia de requisitos, relacionando
esses aspectos com o objetivo de alcançar a Confiança, que é um princípio fundamental para a
RSC. Os autores inspiram-se no trabalho de Cysneiros e Leite (2020), de forma a sustentar o
conceito de software com responsabilidade social, desenvolvendo um catálogo inicial de NFR
sobre os efeitos da Transparência e Ética na Confiança. Dessa forma, assim como o trabalho de
Cysneiros e Leite (2020), o catálogo de Kwan, Cysneiros e Leite (2021) traz uma perspectiva
179
interessante de Confiança como NFR, que auxilia a forma como o Catálogo desenvolvido nessa
dissertação é construído, porém, esse trabalho não está diretamente relacionado a Interação
Humano-Robô ou Robôs Socialmente Assistivos.
Nossa pesquisa usou como base alguns trabalhos relacionados a criação de catálogos NFRs
em outras áreas (SILVA, 2019; PORTUGAL, 2020; SADI, 2020). Esses trabalhos serão apresen-
tados a seguir.
6.2 RESULTADOS
São aqueles requisitos associados aos fatores de Confiança da taxonomia que descrevem
propriedades, características ou restrições que os Robôs devem ter. Também podem ser
atributos de qualidade relacionados aos fatores. Neste trabalho, inicialmente foram iden-
tificados 30 fatores que podem derivar requisitos não-funcionais: Idade, Personalidade,
Propensão de confiança, Controle da atenção, Fadiga, Estresse, Experiências
Prévias, Habilidade de uso, Expectativa, Atitudes, Satisfação, Conforto, Modo
de comunicação, Aparência/Antropomorfismo, Nível de Automação, Inteligên-
cia, Personalidade do robô, Segurança/Privacidade, Comportamento, Confia-
bilidade/Erros, Feedback, Adaptabilidade, Proximidade, Interdependência de
papéis/tarefas, Composição de equipe, Modelos mentais compartilhados, Im-
pacto Social/Cultural, Riscos/Incerteza, Contexto/Tipo de tarefa/Complexi-
dade, e Ambiente físico.
Para desenvolver o catálogo foi criado um processo com 3 fases e 9 tarefas. Este processo
é apresentado na Figura 13. Todo o detalhamento sobre as atividades e tarefas do
processo é apresentado na seção 4.2.
• A modelagem de Confiança como Requisito Não-Funcional foi feita sob uma ótica “de
baixo para cima”, mais focada na Taxonomia de Robôs Socialmente Assistivos Huma-
noides, ao contrário de uma abordagem mais ampla/abstrata sobre Confiança.
• Embora a aplicação do questionário tenha sido realizada com 20 participantes com obje-
tivo de avaliar o catálogo sobre perspectivas relevantes da pesquisa, é necessário realizar
mais avaliações sobre o uso do catálogo por mais profissionais da área de Interação
Humano-Robô e de Robôs Socialmente Assistivos.
183
• Após análise dos perfis dos participantes da avaliação, considera-se que pode ter ocorrido
o efeito Dunning-Kruger, no qual os participantes consideraram suas competências mais
otimista que a realidade.
6.4 CONTRIBUIÇÕES
Esta dissertação realizou uma revisão da literatura sobre confiança para identificar os as-
pectos relevantes em Robôs Socialmente assistivos. Como contribuições, foi apresentado um
modelo adaptado de taxonomia de Confiança para SARs com um conjunto de Requisitos
Não-Funcionais de Confiança que podem ser levados em consideração em projetos de Robôs
Socialmente Assistivos. A organização desses requisitos em forma de Catálogo facilita a ras-
treabilidade dos mesmos contribuindo para a compreensão de suas origens.
Esta dissertação também apresentou o processo utilizado no desenvolvimento do catálogo
NFR4TRUST que permite auxiliar na descoberta dos requisitos iniciais de confiança de um
SARs, bem como, apresentou uma Prova de Conceito utilizando o Catálogo com o robô NAO.
A partir dos resultados obtidos nesta pesquisa e as limitações encontradas, alguns trabalhos
devem ser realizados para complementar ou dar prosseguimento à proposta desta dissertação,
como exemplo:
• Aplicar a técnica STPA-Engineering for Humans para analisar os fatores humanos, ela-
borando cenários que gerem perda de confiança e diretrizes para mitiga-las.
184
Assim sendo, podemos concluir que o objetivo do trabalho foi alcançado, onde o catálogo
NFR4TRUST foi desenvolvido e avaliado. Ele pode ser utilizado no processo de Engenharia
de Requisitos, mais especificamente nas etapas de elicitação e especificação em projetos de
desenvolvimento ou planejamento de aplicações de Robôs Socialmente Assistivos com o intuito
de mostrar as características que devem ser levadas em consideração para que o robô transmita
confiança.
186
REFERÊNCIAS
ABBASS, H. A.; LEU, G.; MERRICK, K. A review of theoretical and practical challenges of
trusted autonomy in big data. IEEE Access, IEEE, v. 4, p. 2808–2830, 2016.
ABBASS, H. A.; SCHOLZ, J.; REID, D. J. Foundations of trusted autonomy. [S.l.]: Springer
Nature, 2018.
ADAMIK, M.; DUDZINSKA, K.; HERSKIND, A. J.; REHM, M. The difference between trust
measurement and behavior: Investigating the effect of personalizing a robot’s appearance
on trust in hri. In: IEEE. 2021 30th IEEE International Conference on Robot & Human
Interactive Communication (RO-MAN). [S.l.], 2021. p. 880–885.
AGUIRRE, A.; CASAS, J.; CéSPEDES, N.; MúNERA, M.; RINCON-RONCANCIO, M.;
CUESTA-VARGAS, A.; CIFUENTES, C. A. Feasibility study: Towards estimation of fatigue
level in robot-assisted exercise for cardiac rehabilitation. In: 2019 IEEE 16th International
Conference on Rehabilitation Robotics (ICORR). [S.l.: s.n.], 2019. p. 911–916.
ALAIAD, A.; ZHOU, L. The determinants of home healthcare robots adoption: An empirical
investigation. International journal of medical informatics, Elsevier, v. 83, n. 11, p. 825–840,
2014.
ALNAJJAR, F.; CAPPUCCIO, M.; RENAWI, A.; MUBIN, O.; LOO, C. K. Personalized robot
interventions for autistic children: an automated methodology for attention assessment.
International Journal of Social Robotics, Springer, v. 13, n. 1, p. 67–82, 2021.
AMUDHU, L. T. A review on the use of socially assistive robots in education and elderly
care. Materials Today: Proceedings, Elsevier, 2020.
ANDERSON, D.; KELLER, J. M.; SKUBIC, M.; CHEN, X.; HE, Z. Recognizing falls from
silhouettes. In: IEEE. 2006 International Conference of the IEEE Engineering in Medicine and
Biology Society. [S.l.], 2006. p. 6388–6391.
BREAZEAL, C.; KIDD, C. D.; THOMAZ, A. L.; HOFFMAN, G.; BERLIN, M. Effects of
nonverbal communication on efficiency and robustness in human-robot teamwork. In: IEEE.
2005 IEEE/RSJ international conference on intelligent robots and systems. [S.l.], 2005. p.
708–713.
BREAZEAL, C. L.; BREIVIK, L. E.; HASSELGREN, A.; CARNIE, A.; PULLUM, K.;
LARSON, J. A.; MCCARTHY, J. J. Designing sociable robots. [S.l.]: MIT Press, 2002.
v. 200.
BRUGALI, D.; AGAH, A.; MACDONALD, B.; NESNAS, I. A.; SMART, W. D. Trends in
robot software domain engineering. In: Software Engineering for Experimental Robotics. [S.l.]:
Springer, 2007. p. 3–8.
BURKE, J. L.; MURPHY, R. R.; ROGERS, E.; LUMELSKY, V. J.; SCHOLTZ, J. Final report
for the darpa/nsf interdisciplinary study on human-robot interaction. IEEE Transactions on
Systems, Man, and Cybernetics, Part C (Applications and Reviews), IEEE, v. 34, n. 2, p.
103–112, 2004.
CABIBIHAN, J.-J.; JAVED, H.; ANG, M.; ALJUNIED, S. M. Why robots? a survey on the
roles and benefits of social robots in the therapy of children with autism. International journal
of social robotics, Springer, v. 5, n. 4, p. 593–618, 2013.
CALDWELL, J. A.; MALLIS, M. M.; CALDWELL, J. L.; PAUL, M. A.; MILLER, J. C.; NERI,
D. F. Fatigue countermeasures in aviation. Aviation, space, and environmental medicine,
Aerospace Medical Association, v. 80, n. 1, p. 29–59, 2009.
CAMERON, D.; AITKEN, J.; COLLINS, E.; BOORMAN, L.; CHUA, A.; FERNANDO, S.;
MCAREE, O.; HERNANDEZ, U. M.; LAW, J. Framing factors: The importance of context
and the individual in understanding trust in human-robot interaction. Sheffield, 2015.
CHAN, J.; NEJAT, G. Social intelligence for a robot engaging people in cognitive training
activities. International Journal of Advanced Robotic Systems, SAGE Publications Sage UK:
London, England, v. 9, n. 4, p. 113, 2012.
CHEN, M.; NIKOLAIDIS, S.; SOH, H.; HSU, D.; SRINIVASA, S. Planning with trust for
human-robot collaboration. In: Proceedings of the 2018 ACM/IEEE International Conference
on Human-Robot Interaction. [S.l.: s.n.], 2018. p. 307–315.
CHEW, S.; TAY, W.; SMIT, D.; BARTNECK, C. Do social robots walk or roll? In:
SPRINGER. International Conference on Social Robotics. [S.l.], 2010. p. 355–361.
CHI, O. H.; JIA, S.; LI, Y.; GURSOY, D. Developing a formative scale to measure consumers’
trust toward interaction with artificially intelligent (ai) social robots in service delivery.
Computers in Human Behavior, v. 118, p. 106700, 2021. ISSN 0747-5632. Disponível em:
<https://www.sciencedirect.com/science/article/pii/S0747563221000224>.
CHIANG, Y.-S.; CHU, T.-S.; LIM, C. D.; WU, T.-Y.; TSENG, S.-H.; FU, L.-C. Personalizing
robot behavior for interruption in social human-robot interaction. In: IEEE. 2014 IEEE
International Workshop on Advanced Robotics and its Social Impacts. [S.l.], 2014. p. 44–49.
CHOI, H.; SWANSON, N. Chapter 5 - understanding worker trust in industrial robots for
improving workplace safety. In: NAM, C. S.; LYONS, J. B. (Ed.). Trust in Human-Robot
Interaction. Academic Press, 2021. p. 123–141. ISBN 978-0-12-819472-0. Disponível em:
<https://www.sciencedirect.com/science/article/pii/B9780128194720000058>.
CLABAUGH, C.; MATARIĆ, M. Escaping oz: Autonomy in socially assistive robotics. Annual
Review of Control, Robotics, and Autonomous Systems, Annual Reviews, v. 2, p. 33–61,
2019.
191
DASSONVILLE, I.; JOLLY, D.; DESODT, A. Trust between man and machine in a
teleoperation system. Reliability Engineering & System Safety, Elsevier, v. 53, n. 3, p.
319–325, 1996.
DAUTENHAHN, K. Design spaces and niche spaces of believable social robots. In:
IEEE. Proceedings. 11th ieee international workshop on robot and human interactive
communication. [S.l.], 2002. p. 192–197.
DAVIDS, A. Urban search and rescue robots: from tragedy to technology. IEEE Intelligent
systems, IEEE, v. 17, n. 2, p. 81–83, 2002.
DAVIS, A. M. Software requirements - objects, functions, and states. In: Prentice Hall
international editions. [S.l.: s.n.], 1993.
DEMERS, L.; WEISS-LAMBROU, R.; SKA, B. Quebec user evaluation of satisfaction with
assistive technology versione 2.0. The Institute for Matching Persons and Technology:
Webster, NY, 2000.
DESAI, M.; KANIARASU, P.; MEDVEDEV, M.; STEINFELD, A.; YANCO, H. Impact of
robot failures and feedback on real-time trust. In: IEEE. 2013 8th ACM/IEEE International
Conference on Human-Robot Interaction (HRI). [S.l.], 2013. p. 251–258.
DEUTSCH, M. Cooperation and trust: Some theoretical notes. Univer. Nebraska Press, 1962.
193
DONMEZ, B.; BOYLE, L. N.; LEE, J. D.; MCGEHEE, D. V. Drivers’ attitudes toward
imperfect distraction mitigation strategies. Transportation research part F: traffic psychology
and behaviour, Elsevier, v. 9, n. 6, p. 387–398, 2006.
DSB, D. S. B. The role of autonomy in department of defense systems. task force report. Office
of the Under Secretary of Defense for Acquisition, Technology and Logistics: Washington,
DC, 2012. Disponível em: <https://irp.fas.org/agency/dod/dsb/autonomy.pdf>.
DUFFY, B. R. Anthropomorphism and the social robot. Robotics and autonomous systems,
Elsevier, v. 42, n. 3-4, p. 177–190, 2003.
EBERHART, R. C.; SHI, Y.; KENNEDY, J. Swarm intelligence. [S.l.]: Elsevier, 2001.
EVERS, V.; MALDONADO, H.; BRODECKI, T.; HINDS, P. Relational vs. group
self-construal: Untangling the role of national culture in hri. In: IEEE. 2008 3rd ACM/IEEE
International Conference on Human-Robot Interaction (HRI). [S.l.], 2008. p. 255–262.
EYSSEL, F.; RUITER, L. D.; KUCHENBRANDT, D.; BOBINGER, S.; HEGEL, F. ‘if you
sound like me, you must be more human’: On the interplay of robot and user features on
human-robot acceptance and anthropomorphism. In: IEEE. 2012 7th ACM/IEEE International
Conference on Human-Robot Interaction (HRI). [S.l.], 2012. p. 125–126.
FALCONE, R.; SINGH, M.; TAN, Y.-H. Trust in cyber-societies: integrating the human and
artificial perspectives. [S.l.]: Springer Science & Business Media, 2001. v. 2246.
FAN, A.; WU, L.; MIAO, L.; MATTILA, A. S. When does technology anthropomorphism help
alleviate customer dissatisfaction after a service failure?–the moderating role of consumer
technology self-efficacy and interdependent self-construal. Journal of Hospitality Marketing
& Management, Taylor & Francis, v. 29, n. 3, p. 269–290, 2020.
194
FASOLA, J.; MATARIĆ, M. J. A socially assistive robot exercise coach for the elderly. J.
Hum.-Robot Interact., Journal of Human-Robot Interaction Steering Committee, v. 2, n. 2,
p. 3–32, jun 2013. Disponível em: <https://doi.org/10.5898/JHRI.2.2.Fasola>.
FINK, J. Anthropomorphism and human likeness in the design of robots and human-robot
interaction. In: SPRINGER. International Conference on Social Robotics. [S.l.], 2012. p.
199–208.
FINOMORE, V.; MATTHEWS, G.; SHAW, T.; WARM, J. Predicting vigilance: A fresh look
at an old problem. Ergonomics, Taylor & Francis, v. 52, n. 7, p. 791–808, 2009.
FISHBEIN, M.; AJZEN, I. Belief, attitude, intention, and behavior: An introduction to theory
and research. Philosophy and Rhetoric, v. 10, n. 2, 1977.
FLANDORFER, P. Population ageing and socially assistive robots for elderly persons:
the importance of sociodemographic factors for user acceptance. International Journal of
Population Research, Hindawi, v. 2012, 2012.
FREEL, M. S. Sectoral patterns of small firm innovation, networking and proximity. Research
policy, Elsevier, v. 32, n. 5, p. 751–770, 2003.
195
GUPTA, N.; BISANTZ, A. M.; SINGH, T. The effects of adverse condition warning system
characteristics on driver performance: an investigation of alarm signal type and threshold
level. Behaviour & Information Technology, Taylor & Francis, v. 21, n. 4, p. 235–248, 2002.
HALL, E. Handbook for proxemic research, washington, dc, society for the anthropology of
visual communication. Search in, 1974.
HAM, J.; ESCH, M. v.; LIMPENS, Y.; PEE, J. d.; CABIBIHAN, J.-J.; GE, S. S. The
automaticity of social behavior towards robots: the influence of cognitive load on interpersonal
distance to approachable versus less approachable robots. In: SPRINGER. International
conference on social robotics. [S.l.], 2012. p. 15–25.
HANCOCK, P. A. A dynamic model of stress and sustained attention. Human factors, SAGE
Publications Sage CA: Los Angeles, CA, v. 31, n. 5, p. 519–537, 1989.
HANCOCK, P. A. Effects of control order, augmented feedback, input device and practice on
tracking performance and perceived workload. Ergonomics, Taylor & Francis, v. 39, n. 9, p.
1146–1162, 1996.
HANCOCK, P. A.; BILLINGS, D. R.; SCHAEFER, K. E. Can you trust your robot?
Ergonomics in Design, SAGE Publications Sage CA: Los Angeles, CA, v. 19, n. 3, p. 24–29,
2011.
HANCOCK, P. A.; BILLINGS, D. R.; SCHAEFER, K. E.; CHEN, J. Y.; VISSER, E. J. D.;
PARASURAMAN, R. A meta-analysis of factors affecting trust in human-robot interaction.
Human factors, Sage Publications Sage CA: Los Angeles, CA, v. 53, n. 5, p. 517–527, 2011.
HANCOCK, P. A.; MERCADO, J. E.; MERLO, J.; ERP, J. B. V. Improving target detection
in visual search through the augmenting multi-sensory cues. Ergonomics, Taylor & Francis,
v. 56, n. 5, p. 729–738, 2013.
HANCOCK, P. A.; WARM, J. S. A dynamic model of stress and sustained attention. Journal
of Human Performance in Extreme Environments, v. 7, n. 1, p. 4, 2003.
HARING, K. S.; MATSUMOTO, Y.; WATANABE, K. How do people perceive and trust a
lifelike robot. In: CITESEER. Proceedings of the world congress on engineering and computer
science. [S.l.], 2013. v. 1.
HARTNETT, J. J.; BAILEY, K. G.; HARTLEY, C. S. Body height, position, and sex as
determinants of personal space. The Journal of Psychology, Taylor & Francis, v. 87, n. 1, p.
129–136, 1974.
197
HARVEY, C.; STANTON, N. A.; PICKERING, C. A.; MCDONALD, M.; ZHENG, P. Context
of use as a factor in determining the usability of in-vehicle devices. Theoretical issues in
ergonomics science, Taylor & Francis, v. 12, n. 4, p. 318–338, 2011.
HATTINGH, M. An analysis of the current nature, status and relevance of data mining tools
to enable organizational learning. Tese (Doutorado) — Stellenbosch: Stellenbosch University,
2002.
HEAD, J.; TENAN, M. S.; TWEEDELL, A. J.; LAFIANDRA, M. E.; MORELLI, F.; WILSON,
K. M.; ORTEGA, S. V.; HELTON, W. S. Prior mental fatigue impairs marksmanship decision
performance. Frontiers in physiology, Frontiers, v. 8, p. 680, 2017.
HEAD, J. R.; TENAN, M. S.; TWEEDELL, A. J.; PRICE, T. F.; LAFIANDRA, M. E.;
HELTON, W. S. Cognitive fatigue influences time-on-task during bodyweight resistance
training exercise. Frontiers in Physiology, Frontiers, p. 373, 2016.
HEERINK, M.; KRÖSE, B.; EVERS, V.; WIELINGA, B. Assessing acceptance of assistive
social agent technology by older adults: the almere model. International journal of social
robotics, Springer, v. 2, n. 4, p. 361–375, 2010.
HO, G.; WHEATLEY, D.; SCIALFA, C. T. Age differences in trust and reliance of a
medication management system. Interacting with Computers, Oxford University Press Oxford,
UK, v. 17, n. 6, p. 690–710, 2005.
HUANG, H.; RAU, P.-L. P.; MA, L. Will you listen to a robot? effects of robot ability, task
complexity, and risk on human decision-making. Advanced Robotics, Taylor & Francis, v. 35,
n. 19, p. 1156–1166, 2021.
IEEE. IEEE recommended practice for software requirements specifications. Std 830-1998,
Institute of Electrical and Electronics Engineers, 1998.
IGBARIA, M.; IIVARI, J. The effects of self-efficacy on computer usage. Omega, Elsevier,
v. 23, n. 6, p. 587–605, 1995.
198
IROJU, O.; OJERINDE, O. A.; IKONO, R. State of the art: a study of human-robot
interaction in healthcare. International Journal of Information Engineering and Electronic
Business, 2017.
ISO 13482:2014. Robots and robotic devices- Safety requiriments for personal care robots.
2014.
ISO/IEC 25010. Systems and software engineering — Systems and software Quality
Requirements and Evaluation (SQuaRE) — System and software quality models. 2010.
JOHNSON, D. O.; CUIJPERS, R. H.; JUOLA, J. F.; TORTA, E.; SIMONOV, M.; FRISIELLO,
A.; BAZZANI, M.; YAN, W.; WEBER, C.; WERMTER, S. et al. Socially assistive robots:
a comprehensive approach to extending independent living. International journal of social
robotics, Springer, v. 6, n. 2, p. 195–211, 2014.
JR, A. G. R.; JR, N. B. Uma proposta para elicitação de requisitos não-funcionais. Anais
SULCOMP, v. 4, 2008.
JR, J. M.; HANSEN, M. H.; PEARSON, A. W. The cognitive and affective antecedents
of general trust within cooperative organizations. Journal of managerial issues, JSTOR, p.
48–64, 2004.
JR, P. H. K.; ISHIGURO, H.; FRIEDMAN, B.; KANDA, T.; FREIER, N. G.; SEVERSON,
R. L.; MILLER, J. What is a human?: Toward psychological benchmarks in the field of
human–robot interaction. Interaction Studies, John Benjamins, v. 8, n. 3, p. 363–390, 2007.
KANDA, T.; SATO, R.; SAIWAKI, N.; ISHIGURO, H. A two-month field trial in an
elementary school for long-term human–robot interaction. IEEE Transactions on robotics,
IEEE, v. 23, n. 5, p. 962–971, 2007.
KANIARASU, P.; STEINFELD, A.; DESAI, M.; YANCO, H. Robot confidence and trust
alignment. In: IEEE. 2013 8th ACM/IEEE International Conference on Human-Robot
Interaction (HRI). [S.l.], 2013. p. 155–156.
KEIL, M.; BERANEK, P. M.; KONSYNSKI, B. R. Usefulness and ease of use: field study
evidence regarding task considerations. Decision support systems, Elsevier, v. 13, n. 1, p.
75–91, 1995.
KIDD, C. D. Sociable robots: The role of presence and task in human-robot interaction. Tese
(Doutorado) — Massachusetts Institute of Technology, 2003.
KIDD, C. D.; BREAZEAL, C. Effect of a robot on user perceptions. In: IEEE. 2004
IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)(IEEE Cat.
No. 04CH37566). [S.l.], 2004. v. 4, p. 3559–3564.
KIESLER, S.; GOETZ, J. Mental models of robotic assistants. In: CHI’02 extended abstracts
on Human Factors in Computing Systems. [S.l.: s.n.], 2002. p. 576–577.
KIM, K. J.; PARK, E.; SUNDAR, S. S. Caregiving role in human–robot interaction: A study
of the mediating effects of perceived benefit and social presence. Computers in Human
Behavior, Elsevier, v. 29, n. 4, p. 1799–1806, 2013.
KIRCHER, K.; THORSLUND, B. Effects of road surface appearance and low friction warning
systems on driver behaviour and confidence in the warning system. Ergonomics, Taylor &
Francis, v. 52, n. 2, p. 165–176, 2009.
KOAY, K. L.; DAUTENHAHN, K.; WOODS, S.; WALTERS, M. L. Empirical results from
using a comfort level device in human-robot interaction studies. In: Proceedings of the 1st
ACM SIGCHI/SIGART conference on Human-robot interaction. [S.l.: s.n.], 2006. p. 194–201.
KOAY, K. L.; SYRDAL, D. S.; WALTERS, M. L.; DAUTENHAHN, K. Living with robots:
Investigating the habituation effect in participants’ preferences during a longitudinal
human-robot interaction study. In: IEEE. RO-MAN 2007-The 16th IEEE International
Symposium on Robot and Human Interactive Communication. [S.l.], 2007. p. 564–569.
KOH, K. B.; PARK, J. K.; KIM, C. H.; CHO, S. Development of the stress response
inventory and its application in clinical practice. Psychosomatic medicine, LWW, v. 63, n. 4,
p. 668–678, 2001.
200
KOMATSU, T.; YAMADA, S. Adaptation gap hypothesis: How differences between users’
expected and perceived agent functions affect their subjective impression. Journal of
Systemics, Cybernetics and Informatics, v. 9, n. 1, p. 67–74, 2011.
KORN, O.; AKALIN, N.; GOUVEIA, R. Understanding cultural preferences for social robots:
a study in german and arab communities. ACM Transactions on Human-Robot Interaction
(THRI), ACM New York, NY, USA, v. 10, n. 2, p. 1–19, 2021.
KOUTENTAKIS, D.; PILOZZI, A.; HUANG, X. Designing socially assistive robots for
alzheimer’s disease and related dementia patients and their caregivers: where we are and
where we are headed. In: MULTIDISCIPLINARY DIGITAL PUBLISHING INSTITUTE.
Healthcare. [S.l.], 2020. v. 8, n. 2, p. 73.
KWON, M.; JUNG, M. F.; KNEPPER, R. A. Human expectations of social robots. In: IEEE.
2016 11th ACM/IEEE International Conference on Human-Robot Interaction (HRI). [S.l.],
2016. p. 463–464.
LASOTA, P.; FONG, T.; SHAH, J. A survey of methods for safe human-robot interaction.
Found Trends Robot 5 (3): 261–349. 2017.
LASOTA, P. A.; FONG, T.; SHAH, J. A. A Survey of Methods for Safe Human-Robot
Interaction. Foundations and Trends in Robotics, v. 5, n. 3, p. 261–349, 2017. ISSN
1935-8253.
LAZÁNYI, K.; HAJDU, B. Trust in human-robot interactions. In: IEEE. 2017 IEEE 14th
International Scientific Conference on Informatics. [S.l.], 2017. p. 216–220.
LEE, H.; KIM, J.; KIM, J. Determinants of success for application service provider: An
empirical test in small businesses. International journal of human-computer studies, Elsevier,
v. 65, n. 9, p. 796–815, 2007.
LEE, J. D.; SEE, K. A. Trust in automation: Designing for appropriate reliance. Human
factors, SAGE Publications Sage UK: London, England, v. 46, n. 1, p. 50–80, 2004.
LEE, S.; NAGUIB, A. M. Toward a sociable and dependable elderly care robot: design,
implementation and user study. Journal of Intelligent & Robotic Systems, Springer, v. 98,
n. 1, p. 5–17, 2020.
LEE, S.-l.; LAU, I. Y.-m.; KIESLER, S.; CHIU, C.-Y. Human mental models of humanoid
robots. In: IEEE. Proceedings of the 2005 IEEE international conference on robotics and
automation. [S.l.], 2005. p. 2767–2772.
LEES, M. N.; LEE, J. D. The influence of distraction and driving context on driver response to
imperfect collision warning systems. Ergonomics, Taylor & Francis, v. 50, n. 8, p. 1264–1286,
2007.
LEICHTMANN, B.; NITSCH, V. How much distance do humans keep toward robots?
literature review, meta-analysis, and theoretical considerations on personal space in
human-robot interaction. Journal of environmental Psychology, Elsevier, v. 68, p. 101386,
2020.
LEMAIGNAN, S.; WARNIER, M.; SISBOT, E. A.; CLODIC, A.; ALAMI, R. Artificial
cognition for social human–robot interaction: An implementation. Artificial Intelligence,
Elsevier, v. 247, p. 45–69, 2017.
LEVESON, N. G. Engineering a safer world: Systems thinking applied to safety. [S.l.]: The
MIT Press, 2011.
LEWIS, J. D.; WEIGERT, A. Trust as a social reality. Social forces, Oxford University Press,
v. 63, n. 4, p. 967–985, 1985.
LEWIS, M.; SYCARA, K.; WALKER, P. The role of trust in human-robot interaction. In:
Foundations of trusted autonomy. [S.l.]: Springer, Cham, 2018. p. 135–159.
202
LI, C.; JIA, Q.; FENG, Y. Human-robot interactoin design for robot-assisted intervention for
children with autism based on es theory. In: IEEE. 2016 8th International Conference on
Intelligent Human-Machine Systems and Cybernetics (IHMSC). [S.l.], 2016. v. 2, p. 320–324.
LI, D.; RAU, P.-L.; LI, Y. A cross-cultural study: Effect of robot appearance and task.
International Journal of Social Robotics, Springer, v. 2, n. 2, p. 175–186, 2010.
LI, J. The benefit of being physically present: A survey of experimental works comparing
copresent robots, telepresent robots and virtual agents. International Journal of
Human-Computer Studies, Elsevier, v. 77, p. 23–37, 2015.
LI, Y.-M.; YEH, Y.-S. Increasing trust in mobile commerce through design aesthetics.
Computers in Human Behavior, Elsevier, v. 26, n. 4, p. 673–684, 2010.
LIN, P.; BEKEY, G.; ABNEY, K. Autonomous military robotics: Risk, ethics, and design.
[S.l.], 2008.
LINS, C. M.
Reabilitação Motora de membros superiores com o uso do Robô NAO — Universidade
Federal de Pernambuco, 2021.
LIU, C.; TANG, T.; LIN, H.-C.; TOMIZUKA, M. Designing Robot Behavior in Human-Robot
Interactions. [S.l.]: CRC Press, 2019.
LIU, P.; LI, Z. Task complexity: A review and conceptualization framework. International
Journal of Industrial Ergonomics, Elsevier, v. 42, n. 6, p. 553–568, 2012.
LIU, X. S.; YI, X. S.; WAN, L. C. Friendly or competent? the effects of perception of robot
appearance and service context on usage intention. Annals of Tourism Research, Elsevier,
v. 92, p. 103324, 2022.
LOHSE, M. Bridging the gap between users’ expectations and system evaluations. In: IEEE.
2011 RO-MAN. [S.l.], 2011. p. 485–490.
LOHSE, M.; HEGEL, F.; WREDE, B. Domestic applications for social robots: an online
survey on the influence of appearance and capabilities. Red de Agentes Físicos, 2008.
LOOIJE, R.; NEERINCX, M. A.; CNOSSEN, F. Persuasive robotic assistant for health
self-management of older adults: Design and evaluation of social behaviors. International
Journal of Human-Computer Studies, Elsevier, v. 68, n. 6, p. 386–397, 2010.
LOUIE, W.-Y. G.; MCCOLL, D.; NEJAT, G. Acceptance and attitudes toward a human-like
socially assistive robot by older adults. Assistive Technology, Taylor & Francis, v. 26, n. 3, p.
140–150, 2014.
LUHMANN, N. Familiarity, confidence, trust: Problems and alternatives. Trust: Making and
breaking cooperative relations, Oxford, v. 6, n. 1, p. 94–107, 2000.
203
LUM, H.; SINATRA, A.; SIMS, V. K.; CHIN, M. G.; SMITH, H. S.; SHUMAKER, R.;
FINKELSTEIN, N. Size does matter: Automobile “facial” features predict consumer attitudes.
In: SAGE PUBLICATIONS SAGE CA: LOS ANGELES, CA. Proceedings of the Human
Factors and Ergonomics Society Annual Meeting. [S.l.], 2007. v. 51, n. 18, p. 1105–1108.
LUSSIER, B.; GALLIEN, M.; GUIOCHET, J.; INGRAND, F.; KILLIJIAN, M.-O.; POWELL,
D. Fault tolerant planning for critical robots. In: IEEE. 37th Annual IEEE/IFIP International
Conference on Dependable Systems and Networks (DSN’07). [S.l.], 2007. p. 144–153.
LÜTKEBOHLE, I.; HEGEL, F.; SCHULZ, S.; HACKEL, M.; WREDE, B.; WACHSMUTH,
S.; SAGERER, G. The bielefeld anthropomorphic robot head “flobi”. In: IEEE. 2010 IEEE
International Conference on Robotics and Automation. [S.l.], 2010. p. 3384–3391.
LYONS, J.; STOKES, C.; GARCIA, D.; ADAMS, J.; AMES, D. Trust and decision-making:
An empirical platform (ccp 204). IEEE Aerospace and Electronic Systems Magazine, IEEE,
v. 24, n. 10, p. 36–41, 2009.
MADHAVAN, P.; WIEGMANN, D. A. A new look at the dynamics of human-automation
trust: Is trust in humans comparable to trust in machines? In: SAGE PUBLICATIONS SAGE
CA: LOS ANGELES, CA. Proceedings of the Human Factors and Ergonomics Society Annual
Meeting. [S.l.], 2004. v. 48, n. 3, p. 581–585.
MADSEN, M.; GREGOR, S. Measuring human-computer trust. In: CITESEER. 11th
australasian conference on information systems. [S.l.], 2000. v. 53, p. 6–8.
MAIRIZA, D.; ZOWGHI, D.; NURMULIANI, N. An investigation into the notion of
non-functional requirements. In: Proceedings of the 2010 ACM Symposium on Applied
Computing. [S.l.: s.n.], 2010. p. 311–317.
MALHOTRA, N. K. Pesquisa de Marketing: uma orientação aplicada. 3. ed. Porto Alegre:
Bookman, 2001. 719 p.
MAMANI, N. A. Integrando requisitos não funcionais aos requisitos baseados em ações
concertas. Tese (Doutorado) — Dissertação (Dissertação de mestrado)—Departamento de
informática, PUC-RIO, 1999.
MARCHETTI, A.; DIO, C. D.; MANZI, F.; MASSARO, D. Robotics in clinical and
developmental psychology. Reference module in neuroscience and biobehavioral psychology,
Elsevier, 2022.
MARCORA, S. M.; STAIANO, W.; MANNING, V. Mental fatigue impairs physical
performance in humans. Journal of applied physiology, American Physiological Society, 2009.
MARSH, S. P. Formalising trust as a computational concept. University of Stirling, 1994.
MATARIĆ, M.; TAPUS, A.; WINSTEIN, C.; ERIKSSON, J. Socially assistive robotics for
stroke and mild tbi rehabilitation. In: Advanced technologies in rehabilitation. [S.l.]: IOS
Press, 2009. p. 249–262.
MATHUR, M. B.; REICHLING, D. B. An uncanny game of trust: social trustworthiness of
robots inferred from subtle anthropomorphic facial cues. In: IEEE. 2009 4th ACM/IEEE
International Conference on Human-Robot Interaction (HRI). [S.l.], 2009. p. 313–314.
MATTAR, F. N. Pesquisa de marketing. São Paulo:Atlas, v. 3.ed., 2001.
204
MATTHEWS, G.; EMO, A. K.; FUNKE, G.; ZEIDNER, M.; ROBERTS, R. D.; JR, P. T.
C.; SCHULZE, R. Emotional intelligence, personality, and task-induced stress. Journal of
Experimental Psychology: Applied, American Psychological Association, v. 12, n. 2, p. 96,
2006.
MATTHEWS, G.; REINERMAN-JONES, L.; BARBER, D.; TEO, G.; WOHLEBER, R.; LIN,
J.; PANGANIBAN, A. Resilient autonomous systems: Challenges and solutions. In: 2016
Resilience Week (RWS). [S.l.: s.n.], 2016. p. 208–213.
MAYER, A. K.; SANCHEZ, J.; FISK, A. D.; ROGERS, W. A. Don’t let me down: The role
of operator expectations in human-automation interaction. In: SAGE PUBLICATIONS SAGE
CA: LOS ANGELES, CA. Proceedings of the Human Factors and Ergonomics Society Annual
Meeting. [S.l.], 2006. v. 50, n. 21, p. 2345–2349.
MAYER, R. C.; DAVIS, J. H.; SCHOORMAN, F. D. An integrative model of organizational
trust. Academy of management review, Academy of Management Briarcliff Manor, NY
10510, v. 20, n. 3, p. 709–734, 1995.
MCALLISTER, D. J. Affect-and cognition-based trust as foundations for interpersonal
cooperation in organizations. Academy of management journal, Academy of Management
Briarcliff Manor, NY 10510, v. 38, n. 1, p. 24–59, 1995.
MCBRIDE, M.; MORGAN, S. Trust calibration for automated decision aids. Institute for
Homeland Security Solutions, p. 1–11, 2010.
MCCOLL, D.; NEJAT, G. Recognizing emotional body language displayed by a human-like
social robot. International Journal of Social Robotics, Springer, v. 6, n. 2, p. 261–280, 2014.
MCGINN, C. Why do robots need a head? the role of social interfaces on service robots.
International Journal of Social Robotics, Springer, v. 12, n. 1, p. 281–295, 2020.
MCGINN, C.; BOURKE, E.; MURTAGH, A.; DONOVAN, C.; LYNCH, P.; CULLINAN,
M. F.; KELLY, K. Meet stevie: a socially assistive robot developed through application of a
‘design-thinking’approach. Journal of Intelligent & Robotic Systems, Springer, v. 98, n. 1, p.
39–58, 2020.
MCKNIGHT, D. H.; LARRY, L. Initial trust formation in new organizational relationships.
The Academy of management review, v. 23, n. 3, p. 473–90, 1998.
MCNEILL, D. Hand and Mind: What Gestures Reveal about Thought. Chicago: The
University of Chicago Press, 1992.
MEGHDARI, A.; SHARIATI, A.; ALEMI, M.; NOBAVEH, A. A.; KHAMOOSHI, M.;
MOZAFFARI, B. Design performance characteristics of a social robot companion “arash”
for pediatric hospitals. International Journal of Humanoid Robotics, World Scientific, v. 15,
n. 05, p. 1850019, 2018.
MERRITT, S. M.; HEIMBAUGH, H.; LACHAPELL, J.; LEE, D. I trust it, but i don’t know
why: Effects of implicit attitudes toward automation on trust in an automated system.
Human factors, Sage Publications Sage CA: Los Angeles, CA, v. 55, n. 3, p. 520–534, 2013.
MERRITT, S. M.; ILGEN, D. R. Not all trust is created equal: Dispositional and history-based
trust in human-automation interactions. Human factors, SAGE Publications Sage CA: Los
Angeles, CA, v. 50, n. 2, p. 194–210, 2008.
205
MILLER, L.; KRAUS, J.; BABEL, F.; MESSNER, M.; BAUMANN, M. Come closer:
Experimental investigation of robots’ appearance on proximity, affect and trust in a domestic
environment. In: SAGE PUBLICATIONS SAGE CA: LOS ANGELES, CA. Proceedings of the
Human Factors and Ergonomics Society Annual Meeting. [S.l.], 2020. v. 64, n. 1, p. 395–399.
MILLER, L.; KRAUS, J. M.; BABEL, F.; BAUMANN, M. More than a feeling-interrelation
of trust layers in human-robot interaction and the role of user dispositions and state anxiety.
Frontiers in Psychology, Frontiers, v. 12, p. 378, 2021.
MOHAN, R. E.; CALDERON, C. A. A.; ZHOU, C.; YUE, P. K. Evaluating virtual emotional
expression systems for human robot interaction in rehabilitation domain. In: IEEE. 2008
International Conference on Cyberworlds. [S.l.], 2008. p. 554–560.
MOKHTARI, M.; SHARIATI, A.; MEGHDARI, A. Taban”: A retro-projected social
robotic-head for human-robot interaction. In: IEEE. 2019 7th International Conference on
Robotics and Mechatronics (ICRoM). [S.l.], 2019. p. 46–51.
MORAY, N.; INAGAKI, T.; ITOH, M. Adaptive automation, trust, and self-confidence
in fault management of time-critical tasks. Journal of experimental psychology: Applied,
American Psychological Association, v. 6, n. 1, p. 44, 2000.
MORI, M.; MACDORMAN, K. F.; KAGEKI, N. The uncanny valley [from the field]. IEEE
Robotics & Automation Magazine, IEEE, v. 19, n. 2, p. 98–100, 2012.
MORO, C.; NEJAT, G.; MIHAILIDIS, A. Learning and personalizing socially assistive robot
behaviors to aid with activities of daily living. ACM Transactions on Human-Robot Interaction
(THRI), ACM New York, NY, USA, v. 7, n. 2, p. 1–25, 2018.
MOULOUA, M.; HANCOCK, P. A. Human Performance in Automated and Autonomous
Systems: Emerging Issues and Practical Perspectives. [S.l.]: CRC Press, 2019.
MUIR, B. M.; MORAY, N. Trust in automation. part ii. experimental studies of trust and
human intervention in a process control simulation. Ergonomics, v. 39, n. 3, p. 429–460,
1996.
MUMM, J.; MUTLU, B. Human-robot proxemics: Physical and psychological distancing
in human-robot interaction. In: Proceedings of the 6th International Conference
on Human-Robot Interaction. New York, NY, USA: Association for Computing
Machinery, 2011. (HRI 11), p. 331–338. ISBN 9781450305617. Disponível em:
<https://doi.org/10.1145/1957656.1957786>.
MURATA, A. Ergonomics and cognitive engineering for robot-human cooperation. In:
IEEE. Proceedings 9th IEEE International Workshop on Robot and Human Interactive
Communication. IEEE RO-MAN 2000 (Cat. No. 00TH8499). [S.l.], 2000. p. 206–211.
MURPHY, R. R.; NOMURA, T.; BILLARD, A.; BURKE, J. L. Human–robot interaction.
IEEE robotics & automation magazine, IEEE, v. 17, n. 2, p. 85–89, 2010.
MURPHY, R. R.; ROGERS, E. Cooperative assistance for remote robot supervision. Presence:
Teleoperators & Virtual Environments, v. 5, n. 2, p. 224–240, 1996.
MYLOPOULOS, J.; CHUNG, L.; NIXON, B. Representing and using nonfunctional
requirements: A process-oriented approach. IEEE Transactions on software engineering, v. 18,
n. 6, p. 483–497, 1992.
206
NESTOROV, N.; STONE, E.; LEHANE, P.; EIBRAND, R. Aspects of socially assistive
robots design for dementia care. In: IEEE. 2014 IEEE 27th International Symposium on
Computer-Based Medical Systems. [S.l.], 2014. p. 396–400.
NEUBAUER, C.; MATTHEWS, G.; LANGHEIM, L.; SAXBY, D. Fatigue and voluntary
utilization of automation in simulated driving. Human factors, Sage Publications Sage CA:
Los Angeles, CA, v. 54, n. 5, p. 734–746, 2012.
NIKOLAIDIS, S.; KWON, M.; FORLIZZI, J.; SRINIVASA, S. Planning with verbal
communication for human-robot collaboration. J. Hum.-Robot Interact., Association
for Computing Machinery, New York, NY, USA, v. 7, n. 3, nov 2018. Disponível em:
<https://doi.org/10.1145/3203305>.
NOMURA, T.; KANDA, T.; SUZUKI, T. Experimental investigation into influence of negative
attitudes toward robots on human–robot interaction. Ai & Society, Springer, v. 20, n. 2, p.
138–150, 2006.
OBAYASHI, K.; KODATE, N.; MASUYAMA, S. Socially assistive robots and their potential
in enhancing older people’s activity and social participation. Journal of the American Medical
Directors Association, v. 19, n. 5, p. 462–463, 2018.
OLESON, K. E.; BILLINGS, D. R.; KOCSIS, V.; CHEN, J. Y.; HANCOCK, P. A. Antecedents
of trust in human-robot collaborations. In: IEEE. 2011 IEEE International Multi-Disciplinary
Conference on Cognitive Methods in Situation Awareness and Decision Support (CogSIMA).
[S.l.], 2011. p. 175–178.
OLSON, K. E. Understanding the construct of human trust in domestic service robots. Tese
(Doutorado) — Georgia Institute of Technology, 2013.
207
OOSTERHOUT, T. van; VISSER, A. A visual method for robot proxemics measurements. In:
Proceedings of Metrics for Human-Robot Interaction: A Workshop at the Third ACM/IEEE
International Conference on Human-Robot Interaction (HRI 2008). Citeseer. [S.l.: s.n.], 2008.
p. 61–68.
OSOSKY, S.; SCHUSTER, D.; PHILLIPS, E.; JENTSCH, F. G. Building appropriate trust in
human-robot teams. In: 2013 AAAI spring symposium series. [S.l.: s.n.], 2013.
PAK, R.; FINK, N.; PRICE, M.; BASS, B.; STURRE, L. Decision support aids with
anthropomorphic characteristics influence trust and performance in younger and older adults.
Ergonomics, Taylor & Francis, v. 55, n. 9, p. 1059–1072, 2012.
PAPADOPOULOS, I.; LAZZARINO, R.; MIAH, S.; WEAVER, T.; THOMAS, B.;
KOULOUGLIOTI, C. A systematic review of the literature regarding socially assistive robots
in pre-tertiary education. Computers & Education, Elsevier, v. 155, p. 103924, 2020.
PARASURAMAN, R.; RILEY, V. Humans and automation: Use, misuse, disuse, abuse.
Human factors, SAGE Publications Sage CA: Los Angeles, CA, v. 39, n. 2, p. 230–253, 1997.
PARASURAMAN, R.; SHERIDAN, T. B.; WICKENS, C. D. A model for types and levels of
human interaction with automation. IEEE Transactions on systems, man, and cybernetics-Part
A: Systems and Humans, IEEE, v. 30, n. 3, p. 286–297, 2000.
PERRE, G. Van de; BEIR, A. D.; CAO, H.-L.; ESTEBAN, P. G.; LEFEBER, D.;
VANDERBORGHT, B. Studying design aspects for social robots using a generic gesture
method. International Journal of Social Robotics, Springer, v. 11, n. 4, p. 651–663, 2019.
PERRY, A.; RUBINSTEN, O.; PELED, L.; SHAMAY-TSOORY, S. G. Don’t stand so close
to me: A behavioral and erp study of preferred interpersonal distance. Neuroimage, Elsevier,
v. 83, p. 761–769, 2013.
PETRAK, B.; WEITZ, K.; ASLAN, I.; ANDRÉ, E. Let me show you your new home: studying
the effect of proxemic-awareness of robots on users’ first impressions. In: IEEE. 2019 28th
IEEE international conference on robot and human interactive communication (RO-MAN).
[S.l.], 2019. p. 1–7.
208
PINO, M.; BOULAY, M.; JOUEN, F.; RIGAUD, A. S. “are we ready for robots that care for
us?” attitudes and opinions of older adults toward socially assistive robots. Frontiers in aging
neuroscience, Frontiers, v. 7, p. 141, 2015.
PORTUGAL, R. L. Q. Speeding-up non-functional requirements elicitation. Pontifícia
Universidade Católica do Rio de Janeiro, 2020.
POSTAL, L. C. Robô no atendimento ao cliente: quanto mais"humano"melhor? 2019.
PRAKASH, A.; ROGERS, W. A. Why some humanoid faces are perceived more positively
than others: effects of human-likeness and task. International journal of social robotics,
Springer, v. 7, n. 2, p. 309–331, 2015.
PRESSMAN, R.; MAXIM, B. Engenharia de Software-8ª Edição. [S.l.]: McGraw Hill Brasil,
2016.
PULIDO, J. C.; SUáREZ, C.; DORADO, J. C. G.; DUEñAS-RUIZ, A.; FERRI, P.;
ENCARNACIóN, M.; SAHUQUILLO, M.; ECHEVARRíA, C.; VARGAS, R.; INFANTE-
COSSIO, P.; LUIS, C.; CALDERóN, P.; FERNáNDEZ, F. A socially assistive robotic platform
for upper-limb rehabilitation: A longitudinal study with pediatric patients. IEEE Robotics
Automation Magazine, v. 26, p. 24–39, 06 2019.
PUNYATOYA, P. Effects of cognitive and affective trust on online customer behavior.
Marketing Intelligence & Planning, Emerald Publishing Limited, 2018.
PYTLIKZILLIG, L. M.; KIMBROUGH, C. D. Consensus on conceptualizations and definitions
of trust: Are we there yet? Interdisciplinary perspectives on trust, Springer, p. 17–47, 2016.
RABBITT, S. M.; KAZDIN, A. E.; SCASSELLATI, B. Integrating socially assistive robotics
into mental healthcare interventions: Applications and recommendations for expanded use.
Clinical psychology review, Elsevier, v. 35, p. 35–46, 2015.
RAJAONAH, B.; ANCEAUX, F.; VIENNE, F. Study of driver trust during cooperation with
adaptive cruise control. Le travail humain, Presses Universitaires de France, v. 69, n. 2, p.
99–127, 2006.
RAJAVENKATANARAYANAN, A.; KANAL, V.; TSIAKAS, K.; BRADY, J.; CALDERON,
D.; WYLIE, G.; MAKEDON, F. Towards a robot-based multimodal framework to assess the
impact of fatigue on user behavior and performance: A pilot study. In: Proceedings of the 12th
ACM International Conference on PErvasive Technologies Related to Assistive Environments.
New York, NY, USA: Association for Computing Machinery, 2019. (PETRA ’19), p. 493–498.
ISBN 9781450362320. Disponível em: <https://doi.org/10.1145/3316782.3322776>.
REIMER, B.; MEHLER, B.; COUGHLIN, J. F. Reductions in self-reported stress and
anticipatory heart rate with the use of a semi-automated parallel parking system. Applied
ergonomics, Elsevier, v. 52, p. 120–127, 2016.
REMPEL, J. K.; HOLMES, J. G.; ZANNA, M. P. Trust in close relationships. Journal of
personality and social psychology, American Psychological Association, v. 49, n. 1, p. 95,
1985.
RIBEIRO, S. M. S. Desenvolvimento de uma extensão da linguagem de modelagem iStar
para Sistemas Críticos de Segurança–iStar4Safety. Dissertação (Mestrado) — Universidade
Federal de Pernambuco, 2019.
209
ROBERT, L.; ALAHMAD, R.; ESTERWOOD, C.; KIM, S.; YOU, S.; ZHANG, Q. A review
of personality in human–robot interactions. Available at SSRN 3528496, 2020.
ROBINETTE, P.; HOWARD, A. M.; WAGNER, A. R. Timing is key for robot trust repair.
In: SPRINGER. International conference on social robotics. [S.l.], 2015. p. 574–583.
ROSSI, A.; DAUTENHAHN, K.; KOAY, K. L.; WALTERS, M. L. The impact of peoples’
personal dispositions and personalities on their trust of robots in an emergency scenario.
Paladyn, Journal of Behavioral Robotics, Sciendo, v. 9, n. 1, p. 137–154, 2018.
ROSSI, S.; FERLAND, F.; TAPUS, A. User profiling and behavioral adaptation for hri: A
survey. Pattern Recognition Letters, Elsevier, v. 99, p. 3–12, 2017.
ROSSI, S.; SANTANGELO, G.; STAFFA, M.; VARRASI, S.; CONTI, D.; NUOVO, A. D.
Psychometric evaluation supported by a social robot: Personality factors and technology
acceptance. In: IEEE. 2018 27th IEEE International Symposium on Robot and Human
Interactive Communication (RO-MAN). [S.l.], 2018. p. 802–807.
SADI, M. H. Assisting with API design through reusing design knowledge. Tese (Doutorado)
— University of Toronto (Canada), 2020.
SALEM, M.; DAUTENHAHN, K. Evaluating trust and safety in hri: Practical issues and
ethical challenges. Emerging Policy and Ethics of Human-Robot Interaction, ACM Press,
2015.
210
SALEM, M.; LAKATOS, G.; AMIRABDOLLAHIAN, F.; DAUTENHAHN, K. Would you trust
a (faulty) robot? effects of error, task type and personality on human-robot cooperation and
trust. In: IEEE. 2015 10th ACM/IEEE International Conference on Human-Robot Interaction
(HRI). [S.l.], 2015. p. 1–8.
SALICHS, M. A.; BARBER, R.; KHAMIS, A. M.; MALFAZ, M.; GOROSTIZA, J. F.;
PACHECO, R.; RIVAS, R.; CORRALES, A.; DELGADO, E.; GARCIA, D. Maggie: A robotic
platform for human-robot social interaction. In: IEEE. 2006 IEEE conference on robotics,
automation and mechatronics. [S.l.], 2006. p. 1–7.
SANDERS, T.; OLESON, K. E.; BILLINGS, D. R.; CHEN, J. Y.; HANCOCK, P. A. A model
of human-robot trust: Theoretical model development. In: SAGE PUBLICATIONS SAGE
CA: LOS ANGELES, CA. Proceedings of the human factors and ergonomics society annual
meeting. [S.l.], 2011. v. 55, n. 1, p. 1432–1436.
SANDERS, T. L.; MACARTHUR, K.; VOLANTE, W.; HANCOCK, G.; MACGILLIVRAY, T.;
SHUGARS, W.; HANCOCK, P. Trust and prior experience in human-robot interaction. In:
SAGE PUBLICATIONS SAGE CA: LOS ANGELES, CA. Proceedings of the human factors
and ergonomics society annual meeting. [S.l.], 2017. v. 61, n. 1, p. 1809–1813.
SAXBY, D. J.; MATTHEWS, G.; WARM, J. S.; HITCHCOCK, E. M.; NEUBAUER, C. Active
and passive fatigue in simulated driving: discriminating styles of workload regulation and
their safety impacts. Journal of experimental psychology: applied, American Psychological
Association, v. 19, n. 4, p. 287, 2013.
SCASSELLATI, B.; ADMONI, H.; MATARIĆ, M. Robots for use in autism research. Annual
review of biomedical engineering, Annual Reviews, v. 14, p. 275–294, 2012.
SCHADENBERG, B. R.; REIDSMA, D.; EVERS, V.; DAVISON, D. P.; LI, J. J.; HEYLEN,
D. K.; NEVES, C.; ALVITO, P.; SHEN, J.; PANTIĆ, M. et al. Predictable robots for autistic
children—variance in robot behaviour, idiosyncrasies in autistic children’s characteristics,
and child–robot engagement. ACM Transactions on Computer-Human Interaction (TOCHI),
ACM New York, NY, v. 28, n. 5, p. 1–42, 2021.
211
SCHAEFER, K. E.; BILLINGS, D. R.; SZALMA, J. L.; ADAMS, J. K.; SANDERS, T. L.;
CHEN, J. Y.; HANCOCK, P. A. A meta-analysis of factors influencing the development of
trust in automation: Implications for human-robot interaction. [S.l.], 2014.
SCHEUTZ, M.; MALLE, B. F. Moral robots. In: The Routledge handbook of neuroethics.
[S.l.]: Routledge, 2017. p. 363–377.
SHARPLES, S.; STEDMON, A.; COX, G.; NICHOLLS, A.; SHUTTLEWORTH, T.; WILSON,
J. Flightdeck and air traffic control collaboration evaluation (face): Evaluating aviation
communication in the laboratory and field. Applied ergonomics, Elsevier, v. 38, n. 4, p.
399–407, 2007.
212
SHERIDAN, T. B. Humans and automation: System design and research issues. [S.l.]: Human
Factors and Ergonomics Society, 2002.
SHIN, E.; KWAK, S. S.; KIM, M. S. A study on the elements of body feature based on
the classification of social robots. In: IEEE. RO-MAN 2008-The 17th IEEE International
Symposium on Robot and Human Interactive Communication. [S.l.], 2008. p. 514–519.
SIDNER, C. L.; LEE, C.; KIDD, C. D.; LESH, N.; RICH, C. Explorations in engagement for
humans and robots. Artificial Intelligence, Elsevier, v. 166, n. 1-2, p. 140–164, 2005.
SILVA, A.; PINHEIRO, P.; ALBUQUERQUE, A.; BARROSO, J. A process for creating the
elicitation guide of non-functional requirements. In: SPRINGER. Computer Science On-line
Conference. [S.l.], 2016. p. 293–302.
SIMS, V. K.; CHIN, M. G.; SUSHIL, D. J.; BARBER, D. J.; BALLION, T.; CLARK,
B. R.; GARFIELD, K. A.; DOLEZAL, M. J.; SHUMAKER, R.; FINKELSTEIN, N.
Anthropomorphism of robotic forms: A response to affordances? In: SAGE PUBLICATIONS
SAGE CA: LOS ANGELES, CA. Proceedings of the Human Factors and Ergonomics Society
Annual Meeting. [S.l.], 2005. v. 49, n. 3, p. 602–605.
SIMS, V. K.; CHIN, M. G.; YORDON, R. E.; SUSHIL, D. J.; BARBER, D. J.; OWENS,
C. W.; SMITH, H. S.; DOLEZAL, M. J.; SHUMAKER, R.; FINKELSTEIN, N. When function
follows form: Anthropomorphism of artifact “faces”. In: SAGE PUBLICATIONS SAGE CA:
LOS ANGELES, CA. Proceedings of the Human Factors and Ergonomics Society Annual
Meeting. [S.l.], 2005. v. 49, n. 3, p. 595–597.
SIRDESHMUKH, D.; SINGH, J.; SABOL, B. Consumer trust, value, and loyalty in relational
exchanges. Journal of marketing, SAGE Publications Sage CA: Los Angeles, CA, v. 66, n. 1,
p. 15–37, 2002.
SKANTZE, G.; HJALMARSSON, A.; OERTEL, C. Exploring the effects of gaze and pauses
in situated human-robot interaction. In: Proceedings of the SIGDIAL 2013 Conference. [S.l.:
s.n.], 2013. p. 163–172.
SOMMERVILLE, I.; SAWYER, P. RE: a good practice guide. [S.l.]: John Wiley and Sons,
1997.
213
ULIASZEK, A. A.; ZINBARG, R. E.; MINEKA, S.; CRASKE, M. G.; GRIFFITH, J. W.;
SUTTON, J. M.; EPSTEIN, A.; HAMMEN, C. A longitudinal examination of stress
generation in depressive and anxiety disorders. Journal of abnormal psychology, American
Psychological Association, v. 121, n. 1, p. 4, 2012.
UMBRICO, A.; CESTA, A.; CORTELLESSA, G.; ORLANDINI, A. A holistic approach to
behavior adaptation for socially assistive robots. International Journal of Social Robotics,
Springer, v. 12, n. 3, p. 617–637, 2020.
VANDEMEULEBROUCKE, T.; CASTERLÉ, B. D. de; GASTMANS, C. How do older
adults experience and perceive socially assistive robots in aged care: a systematic review of
qualitative evidence. Aging & mental health, Taylor & Francis, v. 22, n. 2, p. 149–167, 2018.
VANDEMEULEBROUCKE, T.; DZI, K.; GASTMANS, C. Older adults’ experiences with
and perceptions of the use of socially assistive robots in aged care: A systematic review of
quantitative evidence. Archives of Gerontology and Geriatrics, Elsevier, v. 95, p. 104399,
2021.
VERBERNE, F. M.; HAM, J.; MIDDEN, C. J. Trust in smart systems: Sharing driving goals
and giving information to increase trustworthiness and acceptability of smart systems in cars.
Human factors, Sage Publications Sage CA: Los Angeles, CA, v. 54, n. 5, p. 799–810, 2012.
VRIES, P. D.; MIDDEN, C. Effect of indirect information on system trust and control
allocation. Behaviour & information technology, Taylor & Francis, v. 27, n. 1, p. 17–29, 2008.
WAGNER, A. R. The role of trust and relationships in human-robot social interaction. [S.l.]:
Georgia Institute of Technology, 2009.
WALTERS, M. L.; DAUTENHAHN, K.; BOEKHORST, R. T.; KOAY, K. L.; KAOURI, C.;
WOODS, S.; NEHANIV, C.; LEE, D.; WERRY, I. The influence of subjects’ personality traits
on personal spatial zones in a human-robot interaction experiment. In: IEEE. ROMAN 2005.
IEEE International Workshop on Robot and Human Interactive Communication, 2005. [S.l.],
2005. p. 347–352.
WALTERS, M. L.; KOAY, K. L.; SYRDAL, D. S.; DAUTENHAHN, K.; BOEKHORST,
R. T. Preferences and perceptions of robot appearance and embodiment in human-robot
interaction trials. Procs of New Frontiers in Human-Robot Interaction, 2009.
WALTERS, M. L.; OSKOEI, M. A.; SYRDAL, D. S.; DAUTENHAHN, K. A long-term
human-robot proxemic study. In: IEEE. 2011 RO-MAN. [S.l.], 2011. p. 137–142.
WALTERS, M. L.; SYRDAL, D. S.; DAUTENHAHN, K.; BOEKHORST, R. T.; KOAY, K. L.
Avoiding the uncanny valley: robot appearance, personality and consistency of behavior in
an attention-seeking home scenario for a robot companion. Autonomous Robots, Springer,
v. 24, n. 2, p. 159–178, 2008.
WANG, L.; JAMIESON, G. A.; HOLLANDS, J. G. The effects of design features on users’
trust in and reliance on a combat identification system. In: SAGE PUBLICATIONS SAGE
CA: LOS ANGELES, CA. Proceedings of the Human Factors and Ergonomics Society Annual
Meeting. [S.l.], 2011. v. 55, n. 1, p. 375–379.
WARD, N. J. Automation of task processes: An example of intelligent transportation systems.
Human Factors and Ergonomics in Manufacturing & Service Industries, Wiley Online Library,
v. 10, n. 4, p. 395–408, 2000.
216
WASHBURN, A.; ADELEYE, A.; AN, T.; RIEK, L. D. Robot errors in proximate hri:
how functionality framing affects perceived reliability and trust. ACM Transactions on
Human-Robot Interaction (THRI), ACM New York, NY, USA, v. 9, n. 3, p. 1–21, 2020.
WAYTZ, A.; HEAFNER, J.; EPLEY, N. The mind in the machine: Anthropomorphism
increases trust in an autonomous vehicle. Journal of Experimental Social Psychology, Elsevier,
v. 52, p. 113–117, 2014.
WEISS, A.; BERNHAUPT, R.; LANKES, M.; TSCHELIGI, M. The usus evaluation framework
for human-robot interaction. Proc. of AISB 09, v. 4, p. 11–26, 01 2009.
WICKENS, C. D.; RICE, S.; KELLER, D.; HUTCHINS, S.; HUGHES, J.; CLAYTON, K.
False alerts in air traffic control conflict alerting system: Is there a “cry wolf” effect? Human
factors, Sage Publications Sage CA: Los Angeles, CA, v. 51, n. 4, p. 446–462, 2009.
WIEGMANN, D.; MCCARLEY, J. S.; KRAMER, A. F.; WICKENS, C. D. Age and automation
interact to influence performance of a simulated luggage screening task. Aviation, Space, and
Environmental Medicine, Aerospace Medical Association, v. 77, n. 8, p. 825–831, 2006.
WINKLE, K.; CALEB-SOLLY, P.; TURTON, A.; BREMNER, P. Mutual shaping in the design
of socially assistive robots: A case study on social robots for therapy. International Journal of
Social Robotics, Springer, v. 12, n. 4, p. 847–866, 2020.
WOHLEBER, R. W.; CALHOUN, G. L.; FUNKE, G. J.; RUFF, H.; CHIU, C.-Y. P.; LIN, J.;
MATTHEWS, G. The impact of automation reliability and operator fatigue on performance
and reliance. In: SAGE PUBLICATIONS SAGE CA: LOS ANGELES, CA. Proceedings of the
Human Factors and Ergonomics Society Annual Meeting. [S.l.], 2016. v. 60, n. 1, p. 211–215.
XU, Q.; NG, J.; CHEONG, Y.; TAN, O.; WONG, J.; TAY, T.; PARK, T. The role of social
context in human-robot interaction. In: IEEE. 2012 Southeast Asian Network of Ergonomics
Societies Conference (SEANES). [S.l.], 2012. p. 1–5.
YAMADA, K.; KUCHAR, J. K. Preliminary study of behavioral and safety effects of driver
dependence on a warning system in a driving simulator. IEEE transactions on systems, man,
and cybernetics-Part A: Systems and humans, IEEE, v. 36, n. 3, p. 602–610, 2006.
YAMASHITA, Y.; ISHIHARA, H.; IKEDA, T.; ASADA, M. Investigation of causal relationship
between touch sensations of robots and personality impressions by path analysis. International
Journal of Social Robotics, Springer, v. 11, n. 1, p. 141–150, 2019.
217
YAN, H.; ANG, M. H.; POO, A. N. A survey on perception methods for human–robot
interaction in social robots. International Journal of Social Robotics, Springer, v. 6, n. 1, p.
85–119, 2014.
YUEH, H.-P.; LIN, W. Services, appearances and psychological factors in intelligent home
service robots. In: SPRINGER. International Conference on Cross-Cultural Design. [S.l.],
2016. p. 608–615.
Concordo
Discordo
Antes de iniciar as perguntas, será preciso que você leia atentamente ao Termo de
Consentimento Livre e Esclarecido abaixo e assinale se concorda ou não em participar.
O material necessário para responder esse questionário encontra-se disponíveis em uma pasta
do Google Drive, acesse através do link:
https://drive.google.com/drive/folders/1BY7_Xy-hbe06uBw0nt9FSBA_gQoCqAfM?usp=sharing
Materiais:
-Imagem do catálogo
-Documento com síntese dos conceitos dos requisitos do catálogo NFR4TRUST
-Apresentação
*Obrigatório
1. E-mail *
220
Graduação
Especialização
Mestrado
Mestrado incompleto
Doutorado
Doutorado incompleto
Pós-Doutorado
Pós-Doutorado incompletoNão
possui formação
Nenhum
Baixo
Médio
Alto
Muito Alto
Tenho
Não tenho
Muito pouca
221
Nenhum
Baixo
Médio
Alto
Muito Alto
Nenhum
Baixo
Médio
Alto
Muito Alto
Não conheço
Já ouvi falar
Conheço
Conheço os fatores, mas não sabia que era uma área de pesquisa
Nenhum
Baixo
Médio
Alto
Muito alto
222
10. Como você definiria seu nível de conhecimento em robótica socialmente assistiva? *
Nenhum
Baixo
Médio
Alto
Muito alto
Discordo totalmente
Discordo parcialmente
Neutro
Concordo parcialmente
Concordo totalmente
Discordo totalmente
Discordo parcialmente
Neutro
Concordo parcialmente
Concordo totalmente
223
Discordo totalmente
Discordo parcialmente
Neutro
Concordo parcialmente
Concordo totalmente
Discordo totalmente
Discordo parcialmente
Neutro
Concordo parcialmente
Concordo totalmente
Discordo totalmente
Discordo parcialmente
Neutro
Concordo parcialmente
Concordo totalmente
224
Discordo totalmente
Discordo parcialmente
Neutro
Concordo parcialmente
Concordo totalmente
Discordo totalmente
Discordo parcialmente
Neutro
Concordo parcialmente
Concordo totalmente
Finalização (Sugestões)
18. Dentro dos fatores de confiança, qual você acha que é o mais importante? *
https://drive.google.com/file/d/1BSTVmHd2vV85WtzK-bC8e1dhe5sGzs9C/view?usp=sharing
225
19. Você acha que esse catálogo pode ser utilizado para projetar uma aplicação de SARs, *
da perspectiva da confiança, que possa melhorar a aceitação dos usuários ?
20. Há algum fator de confiança no projeto de robôs socialmente assistivos que não foi *
citado e você gostaria de destacar e acrescentar no catálogo?
https://drive.google.com/file/d/1BSTVmHd2vV85WtzK-bC8e1dhe5sGzs9C/view?usp=sharing
22. Existem outras modificações que podem ser feitas para melhorar o catálogo? Quais? *
226