• وابستگی یک‌طرفه انسان به روبات چه مخاطراتی به همراه دارد؟ (قسمت دوم)

      وابستگی یک‌طرفه انسان به روبات چه مخاطراتی به همراه دارد؟ (قسمت دوم)

      وابستگی یک‌طرفه انسان به روبات چه مخاطراتی به همراه دارد؟ (قسمت دوم)

      آزمایش‌های بسیاری انجام شده است برای اینکه بسنجیم انسان‌ها چگونه روبات‌ها را به مثابه عاملان خودمختار درک می‌کنند و این درک چه تأثیراتی بر مواجهه انسان‌ها با روبات‌ها و رفتار انسان‌ها دارد.

      در بخش اول، به نفوذ هوش مصنوعی علی الخصوص روبات‌های اجتماعی اشاره شد. همچنین به این نکته اشاره شد که این روبات‌ها، با هدف تعامل با انسان طراحی شده‌اند و مسلماً انسان تحت تأثیر اشیاء و موجوداتی است که با آن‌ها تعامل دارد و این رابطه گاهی اوقات می‌تواند عواقبی به همراه داشته باشد. همچنین به تعریف خودمختاری و درجه خودمختاری در روبات‌ها پرداخته شد. این ویژگی می‌تواند در کیفیت شبه انسان بودن روبات‌ها مؤثر باشد و آن‌ها را به عوامل اجتماعی تبدیل کند.

      شواهدی از مطالعات انجام‌شده روی تعامل انسان/روبات

      آزمایش‌های بسیاری انجام شده است برای اینکه بسنجیم انسان‌ها چگونه روبات‌ها را به مثابه عاملان خودمختار درک می‌کنند و این درک چه تأثیراتی بر مواجهه انسان‌ها با روبات‌ها و رفتار انسان‌ها دارد. برخی از نتایج این مطالعات از این قرار است:

      مطالعه اول: روبات خودمختار در برابر روبات غیر خودمختار

      گروه تحقیقاتی ماتیاس شوتز بررسی کرده‌اند که خودمختاری روبات -که مبتنی بر تصمیم‌گیری و رفتار مستقل آن است- تا چه اندازه بر عملکرد عینی تیم روبات/انسان در انجام یک کار تأثیر می‌گذارد و رهبر تیم، که عامل انسانی است، تا چه اندازه مشارکت روبات را می‌پذیرد. انسان به همراه روبات فعالیت‌هایی را انجام می‌دهند تا هدفی تیمی را در زمانی معین محقق کنند. هیچ یک از این دو نمی‌توانند به تنهایی کار را انجام دهند. طبق یکی از شروط (شرط خودمختاری) روبات اجازه دارد وقتی زمان در حال اتمام است، به نحوی خودمختار هدف تیم را کامل کند و برای این کار مجاز است که از دستور عامل انسانی -اگر با برنامه‌هایش تداخل دارد- سرپیچی کند. در حالت دوم این آزمایش که شرط «خودمختاری ممنوع» در آن برقرار است، روبات خودش هیچ ابتکاری نباید به خرج دهد و فقط از دستورات انسانی پیروی می‌کند.

      انسان‌ها در هر دو حالت (بدون اینکه درباره شرط‌ها چیزی بدانند) آزمون شدند و از آنها خواسته شد که به خصوصیات مختلف روبات امتیاز دهند. روبات خودمختار از نظر عاملان انسانی روباتی یاریگرتر و توانمندتر تشخیص داده شد و باور آزمون‌شوندگان بر این بود که او می‌تواند تصمیمات خود را بگیرد و مثل یکی از اعضای تیم عمل کند. همچنین، میزان همکاری او بالاتر تشخیص داده شد و تعامل با او برای عاملان انسانی ساده‌تر و کم‌آزارتر از روبات غیر خودمختار به نظر رسید. نکته عجیب این است که آزمون‌شوندگان هیچ تفاوتی را در میزان سرپیچی روبات‌ها از دستورات شناسایی نکردند (با اینکه تقریبا در همه موارد روبات در حالت خودمختار از دستورات سرپیچی کرد و در حالت غیر خودمختار اینگونه عمل نکرد). نتیجه‌ای که از این آزمایش گرفته شد این بود که انسان‌ها روبات خودمختار را به عنوان شریک گروه به روبات غیر خودمختار ترجیح می‌دهند.

      مطالعه 2: تسهیلگر بودن احساسات

      در آزمایش دیگری شوتز و همکارانش کوشیدند که میزان سودمندی مؤلفه «توانایی شناسایی احساسات و حالات چهره فرد توسط روبات» را بسنجند. در این آزمایش‌ها به جای اینکه تصمیمات خودمختار توسط روبات گرفته شود، روبات همیشه از دستورات انسان اطاعت می‌کند. اما در یکی از حالات ( که آن را شرط احساس می‌نامیم) روبات مجاز است که در برخی از شرایط، اضطرار را در صدایش نشان دهد یا به استرسی که از انسان حس کرده با بروز استرس خود در صدایش پاسخ دهد. در حالت دوم (که آن را شرط احساس ممنوع می‌نامیم) صدای روبات تغییری نمی‌کند و احساسی در صدای آن بروز پیدا نمی‌کند. با مقایسه میان‌ آزمو‌ن‌شوندگان این دو آزمایش، این نتیجه حاصل شد که در حالت اول که صدای روبات می‌تواند تغییر کند، عملکرد تیمی ارتقاء می‌یابد. در حالت اول آزمون‌شوندگان نظرشان را درباره خودمختاری روبات و احساسات آن با نظری که پیش از آزمون داشتند (که درباره اینکه بهتر است روبات احساس و خودمختاری داشته باشد یا خیر، بی‌نظر بودند) تغییر دادند و با این پیشنهاد موافق شدند. اما آزمون‌شوندگان در آزمون دوم نظرشان به نسبت قبل از آزمون تغییری نکرد. در نتیجه، بیان احساسات به نحوی درست توسط روبات در یک کار مشترک میان انسان و روبات می‌تواند منجر به پذیرش بیشترِ خودمختاری و ویژگی‌های مشابه انسانی دیگر روبات (مثل احساسات) توسط انسان‌ها شود.

      مطالعه 3: تأثیر روبات‌ها در بازداری اجتماعی

      در این مطالعه شباهت روبات به انسان مستقیما مورد بررسی قرار گرفته است. درک افراد از حضور اجتماعی روبات ‌در طول تعاملات مختلف مورد مطالعه قرار گرفت که طی آن از روبات ‌برای نظرسنجی و مشاهده‌ کردن عملکرد انسانی استفاده شد. در این مطالعه تجربی از نتایجی استفاده شد که در روانشناسی بدست آمده و درباره میزان بازداری و تسهیل اجتماعی‌ای است که در انسان‌ها، هنگامی که عملکرد آنها توسط انسان‌های دیگر مشاهده می‌شود، اتفاق می‌افتد. نتایج تجربی این مطالعه نشان می‌دهد که حضور روبات‌ها می‌تواند روی انسان‌ها و عملکرد آنها تأثیر بگذارد.

      مطالعات بالا نشان می‌دهند که انسان‌ها وقتی قرار است با روبات‌ها همکاری کنند، روبات‌های خودمختار، شبیه‌تر به انسان‌ها و واجد ویژگی‌های انسانی (مثلا روبات‌های دارای بروزات احساسی) را به روبات‌های غیر خودمختار و فاقد ویژگی‌های انسانی ترجیح می‌دهند. وجود ویژگی‌های انسانی در روبات‌ها با باور داشتن به خودمختاری آنها همبستگی دارد و حضور روبات‌ها می‌تواند به گونه‌ای بر انسان‌ها تأثیر بگذارد که اغلب حضور انسان‌های دیگر می‌گذارد. حال پرسش این است که آیا این نتایج در مورد روبات‌ها در فضاهایی غیر از محیط‌های کنترل‌شده آزمایشگاهی نیز معتبر است؟ در بخش بعد نشان می‌دهیم که شواهد فراوانی مبنی بر فریب خوردن انسان‌ها توسط روبات‌های اجتماعی در بیرون از محیط آزمایشگاه وجود دارد؛ خصوصا هنگامی که کاربران تعاملات طولانی‌مدت‌تری با روبات‌ها داشته باشند.

      تشخص دادن به روبات‌ها

      شواهد زیادی وجود دارد که انسا‌ن‌انگاری انسان‌ها در رابطه با روبات‌ها و فرافکنی ذهنمندی انسانی روی آنها را نشان می‌دهد و شکل‌گیری رابطه احساسی عمیق ولی یک‌طرفه انسان‌ها با روبات‌ها را تأیید می‌کند. این آزمایش‌ها هم روی سربازانی که با روبات‌ها برای خنثی کردن ابزارهای انفجاری کار می‌کردند انجام شده و هم روی صاحبان روبات‌های حیوان خانگی آیبو[1] و روبات جاروبرقی رومبا[2].

      روبات‌های مین‌یاب

      روبات خنثی‌کننده مین، روبات‌هایی هستند که با راه رفتن روی مین پای خود را از دست می‌دهند و مین را خنثی می‌کنند. به همین منظور چند پا برای آنها طراحی شده تا بیشترین کاربرد را داشته باشند. هر بار که روبات پای خود را از دست می‌دهد، دوباره بلند می‌شود و تعادل خود را دوباره به دست می‌آورد و با پاهای باقیمانده به جلو حرکت می‌کند. در حین یکی از آزمایش‌هایی که روی این روبات انجام می‌شد، سرهنگی که فرمانده عملیات بود آزمایش را متوقف می‌کند. چرا که تحمل دیدن روباتی که سوخته، زخمی‌ شده و عاجز است و به سویی می‌رود که پای آخر خود را نیز از دست بدهد ندارد و سرهنگ این آزمایش را غیر انسانی می‌خواند! تبیینی که می‌توان برای دشواری مشاهده روباتی که ذهن و حیات ندارد و برای همین کار طراحی شده است، ارائه کرد این است که انسان عاملیتی مشابه خود را روی روبات فرافکنی می‌کند و به او زندگی و حتی احساسات نسبت می‌دهد.

      مثال دیگر گروهبانی است که مغازه تعمیر روباتی را در عراق اداره می‌کند و روبات خنثی‌کننده مین را از تکنسینی که اسم روبات را «اسکوبی دو» گذاشته برای تعمیر تحویل می‌گیرد. انسان‌ها تمایل دارند که اشیاء بی‌جان خود را نام‌گذاری کنند و این نام‌گذاری به نحوی اتوماتیک منجر به نوعی صمیمیت و ارتباط با شیء می‌شود. به همین دلیل، نوعی قصدیت و اراده و در نتیجه عاملیت به مصنوع نسبت داده می‌شود.

      اظهارات فرماندهانی که در عملیات خود از این روبات‌ها استفاده می‌کنند، حاکی از وابستگی احساسی آنها به روبات‌هاست. برای مثال این فرماندهان مایل نیستند روبات دیگری را جایگزین روبات خود کنند و از این روبات‌‌ها به مثابه قهرمانان و موجوداتی دارای احساس و گاهی مانند عضوی از خانواده خود یاد می‌کنند.

      سگ‌های روباتی به مثابه حیوانات خانگی

      ممکن است نتایج بخش قبل را به این تصور نسبت بدهیم که سربازها به دلیل اینکه در شرایطی خاص قرار گرفته‌اند و به لحاظ احساسی فشار روانی زیادی را تحمل می‌کنند، ویژگی‌های انسانی به روبات ‌نسبت می‌دهند. اما به نظر می‌رسد که این تبیین درست نیست. چرا که دیده شده که شهروندان ساکن آمریکا نیز رفتارهای مشابهی را نسبت با روبات‌های اجتماعی نشان می‌دهند. برای مثال کاربری که در حال عوض کردن لباس خود بود، از شرم اینکه توسط رومبا (روبات جاروبرقی) دیده نشود، در اتاق خود را می‌بندد. در مطالعه‌ای روی صاحبان روبا‌ت‌ حیوان خانگی آیبو، 4 دسته ویژگی از سوی کاربران به روبات‌ها نسبت داده شد:
      1. ماهیت (79% از کاربران): که اشاره دارد به وجود یا نبود ویژگی‌های فیزیولوژیکی، زیست‌شناختی یا حیوانی برای آیبو (مثلا «او در حال استراحت است»).
      2. عاملیت (60% از کاربران): که اشاره دارد به وجود یا نبود حالات ذهنی برای آیبو مثل اراده، احساسات و ویژگی‌های روانشناختی.
      3. وضعیت اجتماعی (59% از کاربران): که اشاره دارد به شیوه‌هایی که آیبو در تعاملات اجتماعی درگیر می‌شود یا نمی‌شود؛ مثل ارتباطات، پیوند عاطفی، همدم بودن. (من به آیبو مثل یک رفیق اهمیت می‌دهم نه مثل یک تکنولوژی)
      4. وضعیت اخلاقی (12% از کاربران): که اشاره دارد به شیوه‌هایی که آیبو ممکن است ملاحظات اخلاقی را رعایت کند، مسئول اخلاقی باشد، قابل سرزنش باشد، حقوقی داشته باشد و احترام بخواهد (مثلا «من بخاطر اینکه باعث رنجش آیبو شدم احساس ناراحتی می‌کنم)
      به نظر می‌رسد صاحبان آیبو تمایل زیادی دارند که باورهای (اشتباهی) درباره حالات ذهنی (احتمالی) او داشته باشند.

      رومبای جاروبرقی

      رومبا یک روبات جاروبرقی است که اگرچه ممکن است به نظر برسد دارای ابعاد اجتماعی نیست (نه در طراحی و نه در رفتار) و احساسات اجتماعی کاربر را تحریک نمی‌کند، اما مشخص شده که با گذشت زمان انسان‌ها حس قدردانی زیادی را به رومبا به خاطر تمیز کردن خانه‌شان پیدا می‌کنند. صاحبان رومبا مایلند که کار خوبی برای او انجام دهند؛ اگرچه رومبا حتی نمی‌داند که تحت مالکیت یک انسان است! او برای تمیز کردن یک مکان، با انسان‌ها به مثابه موانعی مثل صندلی و میز برخورد می‌کند. در حالی که گاهی برخی از کاربران رومبا خود بخشی از کار نظافت را انجام می‌دهند یا او را با خود به سفر می‌برند تا رومبا کمی استراحت کند! زیرا کاربران رابطه یک‌طرفه‌ای را با او شکل داده‌اند و می‌گویند: «نمی‌توانم تصور کنم که رومبا را نداشته باشم، او مثل فرزند من است...».

      ادامه دارد ...

      برگرفته از:
      Matthias Scheutz, 2009, "The Inherent Dangers of Unidirectional Emotional Bonds between Humans and Social Robots," in Robot Ethics: The Ethical and Social Implications of Robotics, MIT Press, 2012, pp.205-221.

      دکتر سعیده بابایی، دکتری فلسفه علم و فناوری پژوهشگاه علوم انسانی
      تهیه شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی


      [1] Aibo
      [2] Roomba
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir