c# download pdf from url : Add url to pdf Library SDK component .net asp.net azure mvc user_SENSORS_20120-part659

Sensors 2012, 12, 9913-9935; doi:10.3390/s120709913
OPENACCESS
sensors
ISSN 1424-8220
www.mdpi.com/journal/sensors
Article
User Localization During Human-Robot Interaction
F. Alonso-Mart´ın *, Javi F. Gorostiza, Mar´ıa Malfaz and Miguel A. Salichs
Robotics Lab, Universidad Carlos III de Madrid, Av. de la Universidad 30, 28911 Legan´es,
Madrid, Spain; E-Mails: jgorosti@ing.uc3m.es (J.F.G.); mmalfaz@ing.uc3m.es (M.M.);
salichs@ing.uc3m.es (M.A.S.)
*Author to whom correspondence should be addressed; E-Mail: fernando.alonso@uc3m.es;
Tel.: +34-626-540-365.
Received: 8 June 2012; in revised form: 6 July 2012 / Accepted: 11 July 2012 /
Published: 23 July 2012
Abstract: This paper presents a user localization system based on the fusion of visual
information and sound source localization, implemented on a social robot called Maggie.
One of the main requisites to obtain a natural interaction between human-human and
human-robot is an adequate spatial situation between the interlocutors, that is, to be
orientated and situated at the right distance during the conversation in order to have a
satisfactory communicative process. Our social robot uses a complete multimodal dialog
system which manages the user-robot interaction during the communicative process. One
of its main components is the presented user localization system. To determine the most
suitable allocation of the robot in relation to the user, a proxemic study of the human-robot
interaction is required, which is described in this paper. The study has been made with two
groups of users: children, aged between 8 and 17, and adults. Finally, at the end of the paper,
experimental results with the proposed multimodal dialog system are presented.
Keywords: sound source localization; robot audition; social robot; array-microphone;
phonotaxis; proxemics; dialog system
1. Introduction
Animal survival mostly depends on their effectiveness in perceiving their environment. Using this
sensorial information, they must be able to behave in order to maintain their needs satisfied by, for
example, moving towards food or avoiding possible risks. Mobile autonomous robots, especially those
Add url to pdf - insert, remove PDF links in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Free C# example code is offered for users to edit PDF document hyperlink (url), like inserting and deleting
add hyperlink pdf; add a link to a pdf in acrobat
Add url to pdf - VB.NET PDF url edit library: insert, remove PDF links in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Help to Insert a Hyperlink to Specified PDF Document Page
add hyperlink in pdf; add link to pdf
Sensors 2012, 12
9914
designed to move in hostile environments, need to be equipped with similar abilities. On the other hand,
for social robots, the perception of their environment is also used to improve their natural interaction
with human beings during a conversation.
In nature, animals use their auditory sense for detecting the sound source; nevertheless, the number
of “sensors” (ears) used in this process is not uniform. For example, there are some invertebrates, such
as the mantis religiosa, with just one ear, and variable audible frequency [1].
In recent years, the research about how the human [2,3] and the animal [4,5] auditory systems work
has been applied to robotics. Therefore, anewresearch area hasemerged: “RobotAudition” [610]. The
majority of the cited works focus on mobile robots with no social applications, so their main objective
is to follow a sound source (phonotaxis) and not to situate at the right position during a dialog with a
user (proxemics).
Social robots are designed to live among society; therefore, it is important that they can comply with
communication rules such asthe respect forpersonalspaces, among others. Moreover, it isalso desirable
that they have an advanced auditory system with features similar to those of the human being. Human
beings have two ears to sense the sounds from the environment, and the brain, thanks to the phase and
amplitude differences of the auditory signals, carries out the sound source localization.
Themain goal of Robot Audition, applied to social robotics, isto improvethe human robotinteraction
(HRI) during the dialog process. In this work, this dialog is possible thanks to the use of a complex
system formed by severalindependent modules, working in a coordinated way, to obtain the mostnatural
HRI. One of these modules, in our multimodal dialog system, is the sound source localization, which
helps to situate the robot properly during the interaction (proxemics). This appropriate robot position
with respect to the interlocutor depends on several conditions that will be analyzed later during the
proxemic studies.
Maggie, our social robot, not only uses the auditory information to determine the sound source
localization, but also others such as visual information and distance to user. In this paper we present
acomplex and modern multimodal dialog system, in which the sound source localization plays a very
important role in the robot spatial situation.
Thispaperis organized as follows. Section2 presentsareview oftheworksrelated to thesound source
localization problem, and to the study of the proxemics during the interaction between humans and
between humansand robots. In Section3, thesocialrobotMaggie, which isour experimental platform, is
introduced. Later, in Section4, aproxemic study is performed to analyze the adopted allocation between
user/s and Maggie during a natural interaction, which depends on several aspects (age, experience,
gender, etc.). This collected information, together with that given by the User Localization module
described in Section5, is very useful to determine the most appropriate robot allocation during HRI.
The experiments carried out in relation to the user localization are shown in Section6. Finally, the main
conclusions and future works are outlined in Section7.
C#: How to Open a File from a URL (HTTP, FTP) in HTML5 Viewer
License and Price. File Formats. PDF. Word. Excel. PowerPoint. Tiff. DNN (Dotnetnuke). Quick to Start. Add a Viewer Control on Open a File from a URL (HTTP, FTP).
add links pdf document; add hyperlink to pdf
C#: How to Add HTML5 Document Viewer Control to Your Web Page
addTab(_tabRedact); //add Tab "Sample new UserCommand("pdf"); _userCmdDemoPdf.addCSS( new customStyle({ background: "url('RasterEdge_Resource_Files/images
accessible links in pdf; active links in pdf
Sensors 2012, 12
9915
2. Related Work
2.1. Sound Source Localization Problem
An artificial auditory system may be used for three purposes: (1) sound source localization; (2) to
separate the sound sources into different channels; (3) to extract sound features to perform different
tasks such as speech recognition, emotion detection, or user identification. In this work we focus on the
first point; the third one has already been analyzed in previous works [11].
In order to localize sound sources, according to the works presented in [12,13], there are two main
approaches to this problem. One of them is to study the amplitude differences generated by a sound
source among the microphones (or ears) used to perceive the signal. This method is the one used in this
work, and it is based on the comparison of the volume differences between the microphones in order to
determine the angular difference in relation to the sound source. The microphone closest to the sound
source should receive the signal with the biggest amplitude in comparison to those received by the rest
of microphones. It must be said that the accuracy of this method is greatly influenced by thereflection of
the sound signal due to the objects present in the environment, such as walls and furniture. The second
method consists of the analysis of the phase differences produced between the different signals received
by each of the microphones related to the same sound source. This method is based on the idea that the
same signal generated by the sound source will be perceived by the closest microphone before by the
rest of them. The accuracy of this second method depends on the size and the relative position of the
microphones: if the microphones are very close to each other, all of them will receive almost the same
signal [14,15].
There is a third method, not so extended due to its complexity, that only needs one microphone to
localize the sound source [16]. This method analyzes the differences in the spectrum produced by the
same sound source from different positions in relation to the microphone. Human beings, with just two
ears, are able to differentiate if a sound comes from the front or from the back. Moreover, we are able to
determine if the sound is produced at the same distance and orientation. This is possible thanks to this
third method which makes it possible for a person, with just one ear, to localize where the sound comes
from. Nevertheless, for an artificial auditory system, based on one microphone, this is quite challenging
since aprevious knowledge of the sound is needed to be able to compare it with the sound received from
another position. In human beings, this knowledge is acquired through life experience [17].
The combined use of the first and the second methods is becoming quite popular in
robotics [68,10,18,19]. In order to do this, there are certain hardware specifications that limit its
implementation: the microphones must be situated sufficiently far from each other to be able to
capture phase differences between the received signals. This implies that the robot must have a
minimum size to situate the microphones correctly. Commercial microphone arrays can also be found
(http://www.acousticmagic.com/) with a minimum size of 11 inches, which can be inconvenient and
not very aesthetic. Another additional problem is the necessity of having an acquisition board that
simultaneously read all microphones.
In robotics, two basic software packages have been developed to cover the three purposes of the
artificial auditory system previously described: ManyEars [20,21] and HARK [22,23]. In relation to
C# PDF Library SDK to view, edit, convert, process PDF file for C#
editing PDF document hyperlink (url) and quick navigation link in PDF bookmark. C#.NET: Edit PDF Metadata. PDF SDK for .NET allows you to read, add, edit, update
add links to pdf online; change link in pdf
C# Image: How to Download Image from URL in C# Project with .NET
Add this imaging library to your C#.NET project jpeg / jpg, or bmp image from a URL to your provide powerful & profession imaging controls, PDF document, tiff
add links to pdf in acrobat; add a link to a pdf file
Sensors 2012, 12
9916
the sound source localization, these frameworks implement particles filter algorithms [24] for localizing
in a very robust way. These algorithms are based on the first and the second methods (amplitude and
phase differences).
The main shortcoming of the use of these frameworks is their complexity; besides, since they use the
phase difference method, we must also consider the hardware limitations: the microphones distribution
and the need of a specific board for simultaneous microphone reading.
In ourapproach, in orderto cover ournecessities, and thanks to theimplemented sensorial fusion, this
complex solution is not needed. The approach followed is much simpler, based on amplitude differences
and with no need for using an specific acquisition board.
2.2. Phonotaxis and Proxemics
First, let us define these two important concepts: phonotaxis and proxemics.
Phonotaxis can be defined as “the movement of an organism in relation to a sound source. For
example, females areoften attracted by the courtship song of a potential mate (i.e., positive phonotaxis),
or animals may flee from the sound of a predator (i.e., negative phonotaxis).” (A dictionary of Biology:
http://www.encyclopedia.com/doc/1O6-phonotaxis.html)
On the other hand, proxemics can be defined as the part of the semiotic (is the study of signs used
in communication) devoted to the study of the spatial organization during linguistic communication.
More precisely, proxemics studies the proximity, separation relations, etc., between people as they
interact [25]. Moreover, proxemics tries to study the meaning of these behaviors. This science allows
people to create an interaction according to a spatial/temporal framework which expresses certain
meanings and, in some occasions, with complex social restrictionsrelated to sex, age, socialbackground,
culture, etc. Sometimes, the spatial distribution is established a priori, for example, in a courtroom or in
areligious ceremony.
Some works on Robot Audition [610] just focus on phonotaxis. According to its definition,
phonotaxis allows the user to determine where the attentional focus is, and then, to move towards it
using only the auditory sense.
In our social robot, the main goal of the sound source localization system is not just to move towards
or away from the user (phonotaxis), but to situate correctly during its interaction with one or several
speakers simultaneously (proxemics).
2.3. Proxemic Studies during Human-Human Interaction
During the seventies a group of researchers, among them the anthropologist Edward T. Hall [25],
applied the model that ethologists such as Huxley or Lorentz designed for the animal world to study the
communication in human societies, and introduced the term Proxemics. Hall identified several kinds
of spaces, among them, the one called personal space. This is the space created by the participants of a
certain interaction, and variesas a function of thekind of meeting, the relationship between the speakers,
their personalities, and otherfactors. Hall also proposed a model in which the personalspaceisclassified
in four subcategories:
C# PDF insert image Library: insert images into PDF in C#.net, ASP
C#.NET PDF SDK - Add Image to PDF Page in C#.NET. How to Insert & Add Image, Picture or Logo on PDF Page Using C#.NET. Add Image to PDF Page Using C#.NET.
add links to pdf file; check links in pdf
C# HTML5 PDF Viewer SDK to view PDF document online in C#.NET
Insert Image to PDF. Image: Remove Image from PDF Page. Cut Image in Page. Link: Edit URL. Bookmark: Edit Images. Redact Pages. Annotation & Drawing. Add Sticky Note
add hyperlink pdf; add hyperlink to pdf in
Sensors 2012, 12
9917
1. Intimate space, from physical contact to 45 cm, approximately. This distance could be divided
into two different intervals: between 0 and 15 cm, including physical contact; and between 15 and
45 cm, which corresponds to a less intimate distance, but still requires privacy.
2. Casual-personal space, from 45 to 120 cm. This is the common distance during interpersonal
relations, and it allows the physical contact with another person.
3. Social space, from 120 to 346 cm. This is for situations where no personal questions are treated.
4. Public space, from 346 cm to about 7.6 m or more. At this distance the participants must amplify
their voice to make the communication possible.
Hall notesthat the model is based on hisobservations of a particularsampleof adults and therefore, it
cannot begeneralized to all societies. It isobviousthat there aredifferent rulesfor every cultureabout the
placeand distance that must bemaintained in certain situations, and also, this givesinformation about the
social relationship between the participants. There is an adequate distance in every situation according
to some rules established by the community. The participants know, or must learn, those rules in order
to have successfully interpersonal relationships and to avoid possible conflicts or misunderstandings.
Other important works of that time [26,27] analyze and experiment with different factors that
influence proxemics, such as the look, the personality, the number of people interacting, etc. Those
works explain the necessity of eye contact during the interaction. Eye contact during more than 10 s
increases anxiety; however, the absence ofa directeye contact makespeoplefeel outof the conversation.
In a very specific work, Lambert [28] determined communicative distance measures according to the
kind of affective situation presented (see Table1). However, he did not consider many other aspects
also related to human interaction, which directly influence the spatial situation. Those factors will be
analyzed in Section4.
Table 1. Human-Human Personal Space Zones.
Range
Situation
Personal Space Zone
0to 0.15 m
Lover or close friend touching Intimate Zone
0.15 to 0.45 m
Lover or close friend only
Close Intimate Zone
0.45 to 1.2 m
Conversation between friends Personal Zone
1.2 to 3.6 m
Conversation to non-friends
Social Zone
>3.6 m
Public speech making
Public Zone
Human beings, as the rest of animals, manage the space around us and use distances as a way of
satisfying fundamentalneeds. Moreover, proxemic studieshavebeen able to establish that theperception
we have about personal and social space is determined by our culture [29]. Ethologists claim that the
human beings are territorial animals, that is, we select our favorite places and we get annoyed when
somebody else comes to occupy them [30].
VB.NET PDF- View PDF Online with VB.NET HTML5 PDF Viewer
to PDF. Image: Remove Image from PDF Page. Image Link: Edit URL. Bookmark: Edit Bookmark. Metadata: Edit, Delete Redact Pages. Annotation & Drawing. Add Sticky Note
adding links to pdf; adding hyperlinks to pdf documents
VB.NET Image: VB Code to Download and Save Image from Web URL
Apart from image downloading from web URL, RasterEdge .NET Imaging SDK still dedicated to provide powerful & profession imaging controls, PDF document, image
pdf edit hyperlink; add a link to a pdf in acrobat
Sensors 2012, 12
9918
2.4. Proxemic Studies during Human-Machine and Human-Robot Interactions
Some studies have been done about human-machine interaction [31]. In those works, the users
interact with computers or virtual agents (no embodiment); therefore, they cannot be extrapolated to
the human-robot interaction research, since this interaction does not focus on the screen and mouse use.
The use of sound source localization in social robotics, and its utility in proxemics, is a much
richer and ambitious task than just the phonotaxis skills implemented in general robotics. A correct
implementation of a proxemic dialog allows the interlocutors to have aconversation at theright distance
and orientation. These two measures vary depending on several features such as interlocutor identity,
number of interlocutors, distance and orientation before the interaction, and affective state of the robot
and theinterlocutors. Moreover, even theappearance oftherobot (height, weight, color, voice, tone)may
influence proxemics [32] . All those user’s characteristics can only be obtained during real interactions,
if the robot has a complete multimodal dialog system with the sufficient modules capable of executing
those extraction tasks.
In literature, we can find several studies about proxemics and HRI which analyze some of those
factors. For example, Breazeal [33] found that humans socially responded to zoomorphic robots in
non-verbal ways, and respecting the robot’s interpersonal space. Besides, Httenrauch [34] observed
that in HRI user trials most participants kept interpersonal distances from the robot corresponding to
the second Hall’s Personal Spatial Zone (0.45 to 1.2 m). Another research [35] found that participants
generally allowed robots to approach more closely during physical interactions than under verbal or no
interaction conditions.
Another approach related to the appearance of the robot was presented by Kheng in [36]. He
related proxemics and user experience (short-time and long-time interactions) gained by living with
the robot over a period of five weeks. During their first encounter, the participants exhibited a strong
tendency to allow the robot with a mechanoid appearance to approach closer than the robot with
humanoid appearance. Therefore, this work demonstrated that the approach distances for both kinds
of appearances, humanoid and mechanoid, are significantly different. People generally preferred to be
closer to mechanoid robotsthan to humanoid ones, although this tendency faded away as theparticipants
got used to the robots.
In [32] severals factors were also analyzed. They found out that arobot looking at people’s faces also
influences proxemic behaviors. Besides, they found that women maintain larger personal spaces from
robotslooking attheir faces than men. They learned how attitudes, personal experiences, and personality
factors influence the proxemic behavior. People who are more agreeable (personality trait) move closer
toward robots, unlike people who hold negative or more neurotic attitudes toward robots, who stand
further away from approaching them. Following this same line, in [37] it is shown that participants who
disliked therobotcompensated the increasein the robot’sgazeby maintaining agreater physicaldistance
from it. On the contrary, participants who liked the robot did not differ in their distancing from the robot
across gaze conditions.
While some non-verbal behaviors can beconsidered as optional elements to be added to a multimodal
dialog system, there are very few works that really include proxemic skills in a complete dialog
system [38]. Previous cited proxemic studies have focused on their use out from the dialog system, but
Sensors 2012, 12
9919
in natural HRI, they are essential for a complete dialog system that takes into account user information
and profiles, and could relate them to get a right proxemic disposition.
3. Our Social Robot, Maggie
Maggie, see Figure1, is a research platform for HRI studies [39]. The research focuses on finding
new ways of improving robots in order to provide the user with new ways of working, learning, and
having fun with them. Next, Maggie’s software and hardware will be briefly described.
Figure 1. Our social robot, Maggie.
3.1. Hardware
Maggie is a social robot of 1.35 m high and it was designed to have an attractive appearance. This
robot has a base with three wheels and it is also provided with 12 bumpers capable of detecting physical
contact with the objects present in the environment. On the top of the base, there is an infrared laser
telemeter able to precisely detect the distance to the nearest objects. Inside Maggie’s “belly” there is
aprogrammable infrared transmitter/receptor which allows the robot to control several devices such as
TVs, Hi-Fi systems, etc.
Theupper part of therobotisprovided with several touch capacity sensorsdistributed over the surface
like a “sensitive skin”. Moreover, there is a tablet-PC on the chest, so a bidirectional communication is
possible between the user and the robot. Maggie also has two arms with one degree of freedom each.
Finally, the head is on the top, and it has two degrees of freedom. Inside the head there is a radio
frequency identification (RFID) reader which is able to read RFID tags. Maggie’s mouth is formed by
aset of LEDs which illuminate while Maggie is talking. Moreover, there is also an onboard webcam
(Logitech QuickCam Pro 9000), which gives us real-time images. In relation to the eyes, they have two
animated eyelids giving Maggie a friendly appearance.
Sensors 2012, 12
9920
Recently, Maggie’s physical skills have been extended thanks to the inclusion of a Microsoft Kinect
(http://www.xbox.com/kinect). This powerful sensor is able to give color images and deep maps of the
environment simultaneously. Moreover, it can also be used as a microphone to capture the user’s voice,
to follow people, and/or to obtain the user’s pose within its field of vision.
Theaudio capture mechanism isbased on a wirelessearphone microphone, although we are currently
experimenting with the Kinect and another microphone array integrated in Maggie’s body. The robot
can talk through the speakers incorporated in its neck.
Maggie is controlled by an onboard portable computer. The control architecture, which is described
next, runs in this computer. It must be said that it is not necessary that the whole control architecture
runs in this same computer. The distributed nature of the architecture allows any of its components to be
executed by another computer.
3.2. AD, the Control Software Architecture
The Automatic-Deliberative (AD) architecture has been developed by the RoboticsLab
(http://roboticslab.uc3m.es/roboticslab/) research group. The AD architecture is formed by two levels:
the Automatic level and the Deliberative level. The low-level control actions are carried out at the
Automatic level. The control primitives, which provide the communication and control of the hardware
(sensors and motors), are set in this same level. The Deliberative level is formed by modules related to
reasoning and decision making capabilities.
The main component of the AD architecture is the “skill”. A skill is an entity with reasoning
capabilities, information processing and capable of carrying out actions. Moreover, one skill is also able
to communicate with other skills at the same time. For example, the laserSkill manages the information
given by the distance sensor, and it is able to make this information available to the rest of the skills that
could need it. A more detailed description of the AD architecture can be found in [3941].
4. Proxemic Studies with Maggie
Asalready stated in Section2, Hall [25] presented studies related to proxemic research among human
beings, mainly adults. Considering this and the four defined personal spaces, we have tried to adapt
his experiments to two kinds of users: children and adults. The children, aged from 8 to 17, came
from several schools and visited us separately in groups of 15, interacting with Maggie in sessions of
15 minutes. A total of 60 children were considered for this work. They interacted with the robot in
different situations: in groups, one by one, and with/without help from an expert. Besides, none of them
had previous experience with the robot. In the case of the adults, they were 5 members of our team,
aged from 25 to 30. In this case, all of them had worked with Maggie previously and were aware of
its functionalities.
The objective of these studies is to identify how those Hall’s personal spaces relate to different kinds
of users and situations. This information is essential for the dialog system (specifically for the dialog
manager) to make the decision of placing therobot in a suitableposition in relation to the user/s. In other
words, to adapt the interaction distance to the kind of user/s.
Sensors 2012, 12
9921
All these interactions wererecorded to analyzedifferent factorsthat could influenceproxemics during
the interaction between the users and Maggie. During all these interactions the users were able to freely
interactusing all the dialogsand interaction possibilities offered by Maggie, so there wereno restrictions
of use. In the case of the children, each interaction was absolutely different, and they usually tried to
play with the robot (an extensive description of robot games can be found in [42]). As previously said,
the aim of this study is to determine the most suitable interaction distance for a certain kind of user.
Therefore, the analysis of other factors such as dialog turns, interaction time, number of right responses,
etc., is out of focus in this work.
4.1. Interaction with or without Profiles
In this work, we are going to consider that there are two types of interactions with a social robot:
without and with user profile. In the first one, the user interacts with the robot without having a profile,
typically because that is the user’s first interaction (maybe during a show or a demo). Therefore, the
robot behavior focuses on catching the user’s attention. If the user wants to interact with Maggie several
times, it is convenient that they enroll in the system, so that the robot can adapt its behavior to the user
profile. In the profile several features are stored: age, name, gender, experience, and language.
Asmentioned, during an interaction with auser profile, the dialog can beadapted to the user, and one
feature that needs adaptation is theinteraction distance. Before loading the user profile it is necessary to
identify the user. In our dialog system, the user is identified by his voice. In order to do that, during the
enroll dialog the system learns the specific features of the user’s voice (voiceprints) and saves them in a
file that will be used for user identification.
In [32], the relationship between the user experience with the system and the proxemics is discussed.
In fact, we have observed that for a user with a profile, it is quite common to maintain an interaction
distance which corresponds to Hall’s personal space 3 (120 to 364 cm). However, during a spontaneous
interaction, when the robot is doing a show or the user is not experienced (without a user profile), the
interaction distance corresponds to space 4 (public space).
Finally, it has been proved that, in interactions between humans, the familiarity range seems to be
related to a lower interaction distance [25]. However, considering the experience gained with the robot
as a measure of familiarity, we have observed that the interaction distancegrows as the experience of the
user increases. This seems to be due to Maggie’s nature.
In order to communicate with Maggie, the speech recognition is carried out through a wireless
auricular earphone, and the sound source localization is done by the own microphones of the robot.
Therefore, as the experience increases the users realize that Maggie is able to hear them from 3 m away
or more, sincetheaudio signal goesfrom the emitter(user) to the receiver (robot). However, a novel user
tends to be closer to Maggie trying to be better heard by the robot. In fact, when the speech recognition
system does not understand what the novel user is saying, then they try to be even closer to Maggie and
speak louder.
These conclusions have been observed during sessions where the children and the team members
interacted separately with the robot.
Sensors 2012, 12
9922
4.2. Age
Analyzing thecollected data, we observed thatage also influencestheinteraction distance. In average,
in the interaction with children from 8 to 10 years old, the normal distanceto therobot isbigger than 2 m
(personal space 3), see Figure2. However, children over 10, and adults, decrease the interaction distance
to about 1 m, see Figure3. We think that children under 10 years old feel more intimidated by the robot
than older children. Children over 10 years old feel more curious and try to interact more closely with
the robot. In the case of the adults, since they have already interacted with Maggie in other occasions,
they feel more comfortable.
Figure 2. Interaction with children aged from 8 to 10.
Figure 3. Interaction with children aged over 10.
4.3. Personality
Personality is a factor that influences proxemics as shown in [43]. In our experiments, we have
observed that, when the group of children is interacting with Maggie, those situated closer to the robot
are the most extrovert ones. On the contrary, the shy ones tend to keep a certain distance to the robot,
always looking at their teacher.
The most extrovert children interact with Maggie more enthusiastically, trying to catch its attention
over the rest of children. It is obvious that it is difficult to measure the personality of the children, but in
relation to HRI, it seems that the shyness degree is related to the interaction distance and its duration.
Documents you may be interested
Documents you may be interested