آزمایشهای بسیاری انجام شده است برای اینکه بسنجیم انسانها چگونه روباتها را به مثابه عاملان خودمختار درک میکنند و این درک چه تأثیراتی بر مواجهه انسانها با روباتها و رفتار انسانها دارد.
در بخش اول، به نفوذ هوش مصنوعی علی الخصوص روباتهای اجتماعی اشاره شد. همچنین به این نکته اشاره شد که این روباتها، با هدف تعامل با انسان طراحی شدهاند و مسلماً انسان تحت تأثیر اشیاء و موجوداتی است که با آنها تعامل دارد و این رابطه گاهی اوقات میتواند عواقبی به همراه داشته باشد. همچنین به تعریف خودمختاری و درجه خودمختاری در روباتها پرداخته شد. این ویژگی میتواند در کیفیت شبه انسان بودن روباتها مؤثر باشد و آنها را به عوامل اجتماعی تبدیل کند.
شواهدی از مطالعات انجامشده روی تعامل انسان/روبات
آزمایشهای بسیاری انجام شده است برای اینکه بسنجیم انسانها چگونه روباتها را به مثابه عاملان خودمختار درک میکنند و این درک چه تأثیراتی بر مواجهه انسانها با روباتها و رفتار انسانها دارد. برخی از نتایج این مطالعات از این قرار است:
مطالعه اول: روبات خودمختار در برابر روبات غیر خودمختار
گروه تحقیقاتی ماتیاس شوتز بررسی کردهاند که خودمختاری روبات -که مبتنی بر تصمیمگیری و رفتار مستقل آن است- تا چه اندازه بر عملکرد عینی تیم روبات/انسان در انجام یک کار تأثیر میگذارد و رهبر تیم، که عامل انسانی است، تا چه اندازه مشارکت روبات را میپذیرد. انسان به همراه روبات فعالیتهایی را انجام میدهند تا هدفی تیمی را در زمانی معین محقق کنند. هیچ یک از این دو نمیتوانند به تنهایی کار را انجام دهند. طبق یکی از شروط (شرط خودمختاری) روبات اجازه دارد وقتی زمان در حال اتمام است، به نحوی خودمختار هدف تیم را کامل کند و برای این کار مجاز است که از دستور عامل انسانی -اگر با برنامههایش تداخل دارد- سرپیچی کند. در حالت دوم این آزمایش که شرط «خودمختاری ممنوع» در آن برقرار است، روبات خودش هیچ ابتکاری نباید به خرج دهد و فقط از دستورات انسانی پیروی میکند.
انسانها در هر دو حالت (بدون اینکه درباره شرطها چیزی بدانند) آزمون شدند و از آنها خواسته شد که به خصوصیات مختلف روبات امتیاز دهند. روبات خودمختار از نظر عاملان انسانی روباتی یاریگرتر و توانمندتر تشخیص داده شد و باور آزمونشوندگان بر این بود که او میتواند تصمیمات خود را بگیرد و مثل یکی از اعضای تیم عمل کند. همچنین، میزان همکاری او بالاتر تشخیص داده شد و تعامل با او برای عاملان انسانی سادهتر و کمآزارتر از روبات غیر خودمختار به نظر رسید. نکته عجیب این است که آزمونشوندگان هیچ تفاوتی را در میزان سرپیچی روباتها از دستورات شناسایی نکردند (با اینکه تقریبا در همه موارد روبات در حالت خودمختار از دستورات سرپیچی کرد و در حالت غیر خودمختار اینگونه عمل نکرد). نتیجهای که از این آزمایش گرفته شد این بود که انسانها روبات خودمختار را به عنوان شریک گروه به روبات غیر خودمختار ترجیح میدهند.
مطالعه 2: تسهیلگر بودن احساسات
در آزمایش دیگری شوتز و همکارانش کوشیدند که میزان سودمندی مؤلفه «توانایی شناسایی احساسات و حالات چهره فرد توسط روبات» را بسنجند. در این آزمایشها به جای اینکه تصمیمات خودمختار توسط روبات گرفته شود، روبات همیشه از دستورات انسان اطاعت میکند. اما در یکی از حالات ( که آن را شرط احساس مینامیم) روبات مجاز است که در برخی از شرایط، اضطرار را در صدایش نشان دهد یا به استرسی که از انسان حس کرده با بروز استرس خود در صدایش پاسخ دهد. در حالت دوم (که آن را شرط احساس ممنوع مینامیم) صدای روبات تغییری نمیکند و احساسی در صدای آن بروز پیدا نمیکند. با مقایسه میان آزمونشوندگان این دو آزمایش، این نتیجه حاصل شد که در حالت اول که صدای روبات میتواند تغییر کند، عملکرد تیمی ارتقاء مییابد. در حالت اول آزمونشوندگان نظرشان را درباره خودمختاری روبات و احساسات آن با نظری که پیش از آزمون داشتند (که درباره اینکه بهتر است روبات احساس و خودمختاری داشته باشد یا خیر، بینظر بودند) تغییر دادند و با این پیشنهاد موافق شدند. اما آزمونشوندگان در آزمون دوم نظرشان به نسبت قبل از آزمون تغییری نکرد. در نتیجه، بیان احساسات به نحوی درست توسط روبات در یک کار مشترک میان انسان و روبات میتواند منجر به پذیرش بیشترِ خودمختاری و ویژگیهای مشابه انسانی دیگر روبات (مثل احساسات) توسط انسانها شود.
مطالعه 3: تأثیر روباتها در بازداری اجتماعی
در این مطالعه شباهت روبات به انسان مستقیما مورد بررسی قرار گرفته است. درک افراد از حضور اجتماعی روبات در طول تعاملات مختلف مورد مطالعه قرار گرفت که طی آن از روبات برای نظرسنجی و مشاهده کردن عملکرد انسانی استفاده شد. در این مطالعه تجربی از نتایجی استفاده شد که در روانشناسی بدست آمده و درباره میزان بازداری و تسهیل اجتماعیای است که در انسانها، هنگامی که عملکرد آنها توسط انسانهای دیگر مشاهده میشود، اتفاق میافتد. نتایج تجربی این مطالعه نشان میدهد که حضور روباتها میتواند روی انسانها و عملکرد آنها تأثیر بگذارد.
مطالعات بالا نشان میدهند که انسانها وقتی قرار است با روباتها همکاری کنند، روباتهای خودمختار، شبیهتر به انسانها و واجد ویژگیهای انسانی (مثلا روباتهای دارای بروزات احساسی) را به روباتهای غیر خودمختار و فاقد ویژگیهای انسانی ترجیح میدهند. وجود ویژگیهای انسانی در روباتها با باور داشتن به خودمختاری آنها همبستگی دارد و حضور روباتها میتواند به گونهای بر انسانها تأثیر بگذارد که اغلب حضور انسانهای دیگر میگذارد. حال پرسش این است که آیا این نتایج در مورد روباتها در فضاهایی غیر از محیطهای کنترلشده آزمایشگاهی نیز معتبر است؟ در بخش بعد نشان میدهیم که شواهد فراوانی مبنی بر فریب خوردن انسانها توسط روباتهای اجتماعی در بیرون از محیط آزمایشگاه وجود دارد؛ خصوصا هنگامی که کاربران تعاملات طولانیمدتتری با روباتها داشته باشند.
تشخص دادن به روباتها
شواهد زیادی وجود دارد که انسانانگاری انسانها در رابطه با روباتها و فرافکنی ذهنمندی انسانی روی آنها را نشان میدهد و شکلگیری رابطه احساسی عمیق ولی یکطرفه انسانها با روباتها را تأیید میکند. این آزمایشها هم روی سربازانی که با روباتها برای خنثی کردن ابزارهای انفجاری کار میکردند انجام شده و هم روی صاحبان روباتهای حیوان خانگی آیبو
[1] و روبات جاروبرقی رومبا
[2].
روباتهای مینیاب
روبات خنثیکننده مین، روباتهایی هستند که با راه رفتن روی مین پای خود را از دست میدهند و مین را خنثی میکنند. به همین منظور چند پا برای آنها طراحی شده تا بیشترین کاربرد را داشته باشند. هر بار که روبات پای خود را از دست میدهد، دوباره بلند میشود و تعادل خود را دوباره به دست میآورد و با پاهای باقیمانده به جلو حرکت میکند. در حین یکی از آزمایشهایی که روی این روبات انجام میشد، سرهنگی که فرمانده عملیات بود آزمایش را متوقف میکند. چرا که تحمل دیدن روباتی که سوخته، زخمی شده و عاجز است و به سویی میرود که پای آخر خود را نیز از دست بدهد ندارد و سرهنگ این آزمایش را غیر انسانی میخواند! تبیینی که میتوان برای دشواری مشاهده روباتی که ذهن و حیات ندارد و برای همین کار طراحی شده است، ارائه کرد این است که انسان عاملیتی مشابه خود را روی روبات فرافکنی میکند و به او زندگی و حتی احساسات نسبت میدهد.
مثال دیگر گروهبانی است که مغازه تعمیر روباتی را در عراق اداره میکند و روبات خنثیکننده مین را از تکنسینی که اسم روبات را «اسکوبی دو» گذاشته برای تعمیر تحویل میگیرد. انسانها تمایل دارند که اشیاء بیجان خود را نامگذاری کنند و این نامگذاری به نحوی اتوماتیک منجر به نوعی صمیمیت و ارتباط با شیء میشود. به همین دلیل، نوعی قصدیت و اراده و در نتیجه عاملیت به مصنوع نسبت داده میشود.
اظهارات فرماندهانی که در عملیات خود از این روباتها استفاده میکنند، حاکی از وابستگی احساسی آنها به روباتهاست. برای مثال این فرماندهان مایل نیستند روبات دیگری را جایگزین روبات خود کنند و از این روباتها به مثابه قهرمانان و موجوداتی دارای احساس و گاهی مانند عضوی از خانواده خود یاد میکنند.
سگهای روباتی به مثابه حیوانات خانگی
ممکن است نتایج بخش قبل را به این تصور نسبت بدهیم که سربازها به دلیل اینکه در شرایطی خاص قرار گرفتهاند و به لحاظ احساسی فشار روانی زیادی را تحمل میکنند، ویژگیهای انسانی به روبات نسبت میدهند. اما به نظر میرسد که این تبیین درست نیست. چرا که دیده شده که شهروندان ساکن آمریکا نیز رفتارهای مشابهی را نسبت با روباتهای اجتماعی نشان میدهند. برای مثال کاربری که در حال عوض کردن لباس خود بود، از شرم اینکه توسط رومبا (روبات جاروبرقی) دیده نشود، در اتاق خود را میبندد. در مطالعهای روی صاحبان روبات حیوان خانگی آیبو، 4 دسته ویژگی از سوی کاربران به روباتها نسبت داده شد:
- ماهیت (79% از کاربران): که اشاره دارد به وجود یا نبود ویژگیهای فیزیولوژیکی، زیستشناختی یا حیوانی برای آیبو (مثلا «او در حال استراحت است»).
- عاملیت (60% از کاربران): که اشاره دارد به وجود یا نبود حالات ذهنی برای آیبو مثل اراده، احساسات و ویژگیهای روانشناختی.
- وضعیت اجتماعی (59% از کاربران): که اشاره دارد به شیوههایی که آیبو در تعاملات اجتماعی درگیر میشود یا نمیشود؛ مثل ارتباطات، پیوند عاطفی، همدم بودن. (من به آیبو مثل یک رفیق اهمیت میدهم نه مثل یک تکنولوژی)
- وضعیت اخلاقی (12% از کاربران): که اشاره دارد به شیوههایی که آیبو ممکن است ملاحظات اخلاقی را رعایت کند، مسئول اخلاقی باشد، قابل سرزنش باشد، حقوقی داشته باشد و احترام بخواهد (مثلا «من بخاطر اینکه باعث رنجش آیبو شدم احساس ناراحتی میکنم)
به نظر میرسد صاحبان آیبو تمایل زیادی دارند که باورهای (اشتباهی) درباره حالات ذهنی (احتمالی) او داشته باشند.
رومبای جاروبرقی
رومبا یک روبات جاروبرقی است که اگرچه ممکن است به نظر برسد دارای ابعاد اجتماعی نیست (نه در طراحی و نه در رفتار) و احساسات اجتماعی کاربر را تحریک نمیکند، اما مشخص شده که با گذشت زمان انسانها حس قدردانی زیادی را به رومبا به خاطر تمیز کردن خانهشان پیدا میکنند. صاحبان رومبا مایلند که کار خوبی برای او انجام دهند؛ اگرچه رومبا حتی نمیداند که تحت مالکیت یک انسان است! او برای تمیز کردن یک مکان، با انسانها به مثابه موانعی مثل صندلی و میز برخورد میکند. در حالی که گاهی برخی از کاربران رومبا خود بخشی از کار نظافت را انجام میدهند یا او را با خود به سفر میبرند تا رومبا کمی استراحت کند! زیرا کاربران رابطه یکطرفهای را با او شکل دادهاند و میگویند: «نمیتوانم تصور کنم که رومبا را نداشته باشم، او مثل فرزند من است...».
ادامه دارد ...
برگرفته از:
Matthias Scheutz, 2009, "The Inherent Dangers of Unidirectional Emotional Bonds between Humans and Social Robots," in Robot Ethics: The Ethical and Social Implications of Robotics, MIT Press, 2012, pp.205-221.
دکتر سعیده بابایی، دکتری فلسفه علم و فناوری پژوهشگاه علوم انسانی
تهیه شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی