با همکاری مشترک دانشگاه پیام نور و انجمن روانشناسی اجتماعی ایران

نوع مقاله : مقاله پژوهشی

نویسندگان

1 استاد گروه روان شناسی دانشگاه پیام نور

2 کارشناسی ارشد روان شناسی دانشگاه پیام نور

چکیده

هدف: پژوهش حاضر با هدف تعیین اثر هیجان بر نشانگان زیستی ـ حرکتی کاربران رایانه صورت گرفته است تا از طریق آن رایانه بتواند به وسیله این نشانگان زیستی ـ حرکتی، هیجان کاربر خود را تقریب زده و با او بهتر تعامل کند. هر چند روش این تحقیق محاسبه احساسی خالص نیست؛ اما یک الگوی تقریبی مناسب برای دسته­بندی هیجان، بر اساس نشانگان زیستی ـ حرکتی ارائه می‌دهد. روش:  در این پژوهش 9 نفر که آشنایی لازم با رایانه داشتند، هر کدام به مدت تقریبی 45 دقیقه، تحت 6 هیجان ( 2خلق، و 3 انگیختگی در هر خلق) قرار گرفتند. در ابتدا یک پیش آزمون، انجام می‌شد (کلاً 7 حالت). برای القای هیجان در این پژوهش، از روش 2 مرحله‌ای تغییر خلق از طریق روش رابینسون و تغییر انگیختگی از طریق نمایش فیلم استفاده شد. پس از هر القای هیجان یک بازی انجام می­شد، تا داده‌های حرکتی آن از طریق حرکات نشانگر ماوس  (12 مورد) بدست آید؛ داده‌های زیستی دما، رطوبت کف دست، و نیز فشار کلیک ماوس، از طریق یک ماوس زیست سنج، جمع­آوری ‌شد. یافته‌ها: نتایج نشان داد که در سطح معنی­داری 05/0، گروه‌های در سرعت و شتاب نشانگر ماوس و نیز رطوبت و نیروی کلیک، دارای تفاوت معنی داری هستند. نتیجه­گیری: هیجان شخص و مخصوصاً میزان انگیختگی او، روی 4 سیگنال سرعت، شتاب، رطوبت و نیروی کلیک تأثیر دارد، پس می­توان آن را از این طریق ارزیابی کرد.

کلیدواژه‌ها

عنوان مقاله [English]

The Effect of Emotion Inducing, on Motor and Physiological Signs of Computer Users: An Affective Computing Approach

نویسندگان [English]

  • Hossin Zare 1
  • Ahmad Alipoor 1
  • Hooman Mallahzadeh 2

1 Professor of Psychology, Payame Noor University

2 M. A. of Psychology, Payame Noor University

چکیده [English]

Aim: The present study examined the effect of emotion inducing on motor and Physiological signs of computer users so that by using these signs computers can estimate the users’ emotions and have a better interaction with them. Although the method of this study was not pure emotional calculations, it presents an approximating algorithm for classifying human emotion based on motor and Physiological signs. Method: A total number of 9 participants with adequate computer skills underwent 6 emotions (2 moods, and 3 arousals in each mood). Besides, there was a pretest at the beginning (a total of 7 emotional states). To induce emotion, Robinson’s two steps method was used. Then the participants were aroused by films. After each emotion inducing, a computer game was played the motor (12 items) and physiological signs (Skin temperature and humidity and clicking force) were measured. Results: The results showed that at 0.05 significance level, the groups had significant differences in mouse speed, mouse acceleration, palm humidity, and click force. Conclusion: Computer users’ emotion can be assessed by 4 signs of speed, acceleration, humidity, and click force.

کلیدواژه‌ها [English]

  • Affective Computing
  • Emotion Inducing
  • Biometric Mouse
ـ بهرامی، ف.؛ عیسی­نژاد، ا. و قادرپور، ر. (1388). «تأثیر هیجانات القا شده مثبت و منفی بر شادمانی و ناراحتی پس از القای برانگیختگی منفی». مجله علوم رفتاری، دوره 3، شماره 1.
ـ مارشال ریو، ج. (1391). انگیزش و هیجان. چاپ هجدهم. ترجمه یحیی سید محمدی. تهران: انتشارات ویرایش.
- Affective Computing. (May 2008). Retrieved July 2013, from http://en .wikipedia.org/wiki/Affective_computingtime: 11:13, Date: July 8, 2013.
- Barrett, F.L. (1998). “Discrete Emotions or Dimensions? The Role of Valence Focus and Arousal Focus”. Boston College, Massach usetts, USA, Cognition and emotion, 1998, 12 (4), 579-599.
- Chanel, G. (2009). “Emotion assessment for affective-computing based on brain and peripheral signals”. University de geneve faculte des sciences.
- Ekman, P.; Levenson R.W. and Friesen, W.V. (1983). “Autonomic Nervous System Activity Distinguishes among Emotions ”. American Association for the Advancement of  Science.
- "Fitts's Law." (2011). Wikipedia. Retrieved from http://en.wikipedia. org/wiki/Fitts's_law, time: 15:43, Date: July 10, 2013.
- Goritz, S.A. and Moser, K. (2006). “Web-based mood induction”. Psychology Press, 887. Retrieved from www.psypress. com/cogemotion.time: 12:32, Date: July 10, 2013.
- Goulev, P. and Mamdani, E. (2004). “Utilizing real time AffectiveSensors to incorporate emotions into Human Computer Interactions”. International Workshop on Wearable and implantable body sensor Netwroks, 6-7 April 2004, Imperial College, London.
- Kim K.H.; Bang S.W.; and Kim S.R. (2004). Emotion recognition system using short-term monitoring of physiological signals. Med Biol Eng Comput, Department of Biomedical Engineering, College of Health Science, Yonsei University, South Korea.
- Koelstra S.; Lee J.; Yazdani A.; Ebrahimi T.; Pun T.; Nijholt A. and Patras, I. (2012). “DEAP: A Database for Emotion Analysis using Physiological Signals”. Affective Computing, IEEE Transactions on (Volume: 3, Issue: 1).
- Maehr, W. (2005). “Emotion Estimation of the User’s Emotional State by Mouse Motions”. ITec - Information­ and Communication Engineering.
- Mohd, H.; Mohd H.; Norita, M.D. Norwawi, and Azizi, A.B. (2004). Affective Computing: Knowing How You Feel. The National Seminar of Science Technology and Social Science. Malaysia.
- Oliveira, A.P. And Cardoso, A. (2007). “A Computer System to Control Affective Content in Music Production”. Portuguese Conference on Artificial Intelligence.
- PAD emotional state model (2013). Retrieved from http://en.wikipedia.org /wiki/PAD_emotional_state_model time : 12:43, Date: July 12, 2013.
- Partala, T. and Surakka, V. (2004). “The Effects of Affective Interventions in Human - Computer Interaction”. Interacting with Computers, 16.
- Piolle, G. (2005). “Affective computing, software agents and online communities”. Mac Iso, Imperial College London.
- Reynolds, C. and Picard, R.W. (2001). “Designing for Affective Inter actions”. Proceedings from the 9th International Conference on Human-ComputerInteraction.
- Robinson, J.O.; Grillon, C. and Sahakian, J.B. (2012). “The Mood Induction Task: A standardized, computerized laboratory procedure for altering mood state in humans”. Protocol Exchange.
- Rodrigues, M.; Fdez-Riverola, F. and Novais, P. (2011). “Moodle and Affective Computing - Knowing Who´s on the Other Side”. 10th European Conference on e-Learning, (University of Brighton, Brighton, UK 10-11 November 2011).
- Rottenberg, J.; Ray, R.D. and Gross, J.J. (2007). Emotion elicitation using films. In J.A. Coan & J.J.B. Allen (Eds.), the handbook of emotion elicitation and assessment. London: Oxford University Press.
- Sanders, J. and Goldstein, B. (1995, October). “Skin response to mechanical stress: Adaptation rather than breakdown-a review of the literature”. Journal of Rehabilitation Research & Development; Oct 95, Vol. 32 Issue 3, p214.
- Siska, F. and Leon, J.M. Rothkrantz (2006). “Constructing Knowledge for Automated Text-Based Emotion
  Expressions”. InternationalConference on Computer Systems and Technologies -CompSysTech’06.
- Smallwood, J. and O'Connor, R.C. (2011). “Imprisoned by the past: unhappy moods lead to a retrospective bias to mind wandering”. Department of Social Neuroscience, University of California, Santa Barbara, CA, USA. Cognition and Emotion (impact factor: 2.52). 03/2011; 25(8):1481-90. 
- Thompson, N. (2012).  Development of an open affective computing environment. PhD thesis, Murdoch University.
- Wendelken, S.M.; McGrath, S.P.; Akay, M. and Blike, G.T. (2004). Using a forehead reflectance pulse oximeter to detect changes in sympathetic tone. Conf Proc IEEE Eng Med Biol Soc, Thayer Sch. of Eng., Dartmouth Coll., Hanover, NH, USA.
- Whang, M. and Lim, J. (2008). “A Physiological Approach to Affective Computing”. Sangmyung University Seoul, Korea: InTech. 
- Zavadskas, E.K. and Kaklauskas, A. (2008). “Web-Based Biometric Mouse Intelligent System for Analysis of Emotional State and Labour Productivity Analysis” . The 25’Th International Symposium on Automation and Robotics in Construction.
 - Zimmermann, P.; Guttormsen, S.; Danuser, B. and Gomez, P. (2003). “Affective Computing - A Rationale for Measuring Mood with Mouse and Keyboard” . International Journal of Occupational Safety and Ergonomics (JOSE).