روباتها به تلاش کمی نیاز دارند تا کاربر رابطهای یکطرفه را با آنها شکل دهد. صرفاً تقلید و شبیهسازی برخی از رفتارهای یک سگ واقعی میتواند روبات را آماده ساختن رابطه با یک انسان کند و از روبات، یک همدم برای کاربرش بسازد.
در بخش دوم، مطالعات مرتبط با تعامل بین انسان و روبات مورد بررسی قرار گرفته که شامل بررسی سه مطالعه است. اولین مطالعه، روباتها را از منظر ویژگی خودمختاری یا عدم وجود آن، مورد بررسی قرار میدهد. در مطالعه دوم، میزان سودمندی قابلیت شناسایی احساسات و حالات چهره انسان توسط روبات بررسی شده و تأثیر آن در تعامل با فرد، مورد مطالعه قرار گرفته است. مورد سوم نشان میدهد که انسانها بیشتر ترجیح میدهند با روباتهایی با قابلیت خودمختاری ارتباط برقرار کنند و برای آنها مشابه حیوانات یا حتی انسانها، تشخص قائل میشوند. در ادامه بخش، مشاهده میشود که انسانانگاری روباتها توسط انسان، گاهی اوقات موجب فریب خوردن انسانها یا تأثیرات مخرب بر آنها میشود. در انتها نیز نمونههایی از روباتهای موجود نظیر روبات مینیاب و رومبا معرفی میشوند.
حتی متخصصان روباتیک هم در امان نیستند!
شوتز گزارش میکند که در آزمایشگاه آنها وقتی روبات انساننمای
CRAMER (تصادفاً) روشن مانده بود، آزاردهنده بود و توجه خود را از صحبتکنندهای به صحبتکننده دیگر منتقل میکرد (گویی میفهمد که چه چیزی در حال بیان شدن است) که این موجب معذب شدن آنها شده است. همچنین، دانشجویان ام.آی.تی که در آزمایشگاه خود با روبات
Kismet کار میکردند، گاهی پردهای را میان خود و روبات میکشیدند، چرا که خیره شدن روبات باعث برهم خوردن تمرکز آنها میشد. حتی سازنده
Kismet، سینتیا بریزیل
[1] نیز رابطهای شخصی را با روبات خود شکل داده بود؛ نوعی پیوند مادرانه که روبات را فقط به مثابه یک ماشین نمیدید و وقتی پروژهاش به پایان رسید و مجبور به ترک روبات شد، احساس فقدانی شدید را تجربه کرد.
خطرات پیشِ روی رابطه یکطرفه
با توجه به مثالهای بالا میتوان نتیجه گرفت که از سوی روباتها چه تلاش کمی نیاز است تا باعث شود کاربر رابطهای یکطرفه را با آنها شکل دهد. صرفاً تقلید و شبیهسازی برخی از رفتارهای یک سگ واقعی میتواند روبات را آماده ساختن رابطه با یک انسان کند و از روبات، یک همدم برای کاربرش بسازد. حتی روباتهای نظامی مانند packbot که کاملا خودمختار نیستند و از راه دور توسط اپراتور کنترل میشوند نیز میتوانند نقشی مهم در زندگی روزمره سربازان ایفا کنند.
اما با همه توجیهات بالا، روباتهایی مثل رومبا که نه شباهت به حیوان و نه به انسان دارند نیز ایده عاملیت داشتن را به کاربر خود تزریق میکنند و حتی حس قدردانی و دلسوزی را در او فعال میکنند. این روباتها از اینکه بتوانند به عنوان یک همراه واقعی ایفای نقش کنند، ناتواناند. هیچیک از این روباتها درکی از مفهوم «دیگری» و الگوریتمی برای شناسایی افراد ندارند. با این حال میتوانند رابطه احساسی یکطرفهای را میان خود و کاربر شکل دهند و این رابطه میتواند مخاطراتی را به همراه داشته باشد که در ادامه به برخی از آنها اشاره میکنیم:
تصویرسازی نادرست
هیچ یک از روباتهایی که امروزه به فروش میرسند، اهمیتی به انسان نمیدهند. اگرچه تلاشهایی در جهت تشخصبخشی به روباتها در صنعت روباتیک و هوش مصنوعی صورت میگیرد، این روباتها مکانیسمهای محاسباتی و معماری لازم را برای همدلی کردن ندارند و نمیتوانند به معنایی احساسی به کاربر خود اهمیت بدهند. چرا که ما خود هنوز نمیدانیم که چه الزامات محاسباتی نیاز است تا یک سیستم بتواند به چیزی اهمیت بدهد.
شرکتهای سازنده علیرغم وقوف به محدودیتهای تکنولوژیهای ساخته خود، برای مقاصد تبلیغاتی و اقتصادی سعی میکنند این تصور را در کاربران خود به وجود بیاورند که روبات آنها دارای توانایی درک احساسات است و حالات ذهنی مشابه انسان یا حیوان را تجربه میکند و اینگونه کاربران را فریب میدهند. افراد دانشگاهی نیز در ارائه پژوهشهای خود به قدر کافی مراقب نیستند و از تعابیری مانند احساس داشتن، به کار بردن احساسات و ... برای توصیف ساختههای خود استفاده میکنند و استفاده از این ادبیات در نوشتن مقالات و ... موجب میشود افراد غیر متخصص، فرایندهای کنترل را در این مصنوعات با فرایندهای کنترل در ارگانیسمهای طبیعی مثل حیوانات و انسانها یکسان بینگارند و باورهای غلطی را در سطح عمیق ناخودآگاه درباره روباتها پیدا کنند، در حالی که در سطح آگاهانه این ادعاها را ممکن است رد کنند.
امکان سوءاستفاده
ویژگیهایی مانند شباهت به انسان و تعامل از طریق زبان طبیعی که در آینده هم ارتقاء پیدا میکنند، ممکن است باعث اعتماد و نزدیکی بیشتر انسان به روبات شود و امکان سوءاستفاده شدن از انسانها را تشدید کند. برای مثال، ممکن است انسانها به روباتها بیشتر اعتماد کنند و با استفاده از همین ویژگی، از روباتها برای بازجویی یا فروش محصولات استفاده شود. ممکن است سادهتر و طبیعیتر شدن روابط یکطرفه با روباتها منجر به اعتیاد ناآگاهانه کاربر به آنها شود. اگر روباتها بتوانند این تصور را که دارای قدرت همدلی و همدردی هستند، در کاربر ایجاد کنند، دیگر پی بردن به اینکه این رابطه یکطرفه است، توسط کاربر بسیار دشوارتر خواهد شد.
یکی از مخاطرات رابطه یکطرفه انسان با روبات این است که وابستگیهای روانی برای انسان ایجاد میشود و این به نوبه خود عواقب جدی برای جوامع انسانی در پی دارد. چرا که امکان سوءاستفاده (اقتصادی، سیاسی و ...) در مقیاس بزرگ فراهم میشود و ممکن است روباتها با تهدید کردن انسانها به ترکشان، آنها را به کارهایی تشویق کنند که در حالت عادی انجام نمیدادند. این واقعیت که روباتها موانعی مانند احساس گناه یا همدلی و ... را ندارند که آنها را از سوءاستفاده منع کند نیز توجه به این مخاطره را ضروریتر میکند.
چه باید کرد؟
علیرغم همه فوایدی که روباتها میتوانند داشته باشند، باید به عواقب استفاده از آنها برای بعد احساسی و روانی زندگی شخصی و اجتماعیمان هم فکر کنیم. این تأملات اگر به موقع صورت بگیرد، میتواند در پژوهشهای آینده روباتیک مفید باشد. در واکنش نسبت به مخاطراتی که مطرح شد، پیشنهادهای زیر میتواند مورد توجه قرار بگیرد:
- پیشنهادهایی مثل توقف تولید این روباتها بنظر منطقی و عملی نمیرسد.
- پیشنهاد دیگر این است که روباتهای موجود باید قدرت استدلال اخلاقی - مثلا در قالب الگوریتمهای تصمیمگیری- داشته باشند و روبات نتواند استدلالهای اخلاقی را تغییر دهد یا نادیده بگیرد؛. این پیشنهاد میتواند در حوزههای محدودی عملی شود. اما مسئله این است که تعداد کنشهای ممکنِ روبات محدود خواهد بود و دلالتهای اخلاقی همه کنشها و موقعیتهای محتمل بسیار پیچیده و پرشمارند. از آنجایی که در طول تاریخ فلسفه نتوانستهایم روی مجموعه مورد اجماعی از قواعد توافق کنیم و ترجمه قواعد اخلاقی به زبان محاسباتی نیز ممکن است با محدودیتهای عملی مواجه باشد، این پیشنهاد نیز با چالشهای نظری و عملی مواجه است.
- پیشنهاد بعدی این است که در طراحی روبات (چه ظاهر یا چه رفتار آن) این گزینه را قرار دهیم که روبات دائما این هشدار را بدهد که یک ماشین است، احساسات ندارد و نمیتواند رابطهای متقابل داشته باشد (شبیه ایده نوشتن «سیگار کشیدن ممنوع» یا نوشتن مضرات سیگار روی پاکت آن). اما این هم ضمانت نمیکند که انسانها درگیر رابطه احساسی با روبات نشوند. اگرچه، این پیشنهاد احتمال و شدت پیوندهای عاطفی با روبات را کاهش میدهد. با این حال مرز باریکی است بین تعامل ساده و طبیعی با روبات و باور به اینکه این روبات ماشینی فاقد حیات است. میتوان چنین پیشنهادی را به آزمون تجربی گذاشت.
- به روباتها احساساتی مشابه انسانها بدهیم؛ اتفاقی که در سیر تاریخی تطور انسانی رخ داده است و او را قادر به برقراری تعادل میان بهروزی فردی و رفتار قابل پذیرش در اجتماع کرده است. روباتها نیز میتوانند با داشتن توانایی ارزیابی احساسی مشابه انسان، در جوامع انسانی شبیه انسانها عمل کنند؛ البته با این اثر جانبی که احساسات واقعی داشته باشند و در نتیجه در معرض آسیبپذیری و سوءاستفاده قرار بگیرند. برخی معتقدند که این کار تلاش بسیاری میطلبد، اما عدهای دیگر این کار را کاملا عملی میدانند. به هر روی، این پیشنهاد را نمیتوان و لازم نیست در هر نوعی از روباتها عملی کرد. برای مثال، شاید روبات فضانورد نیازی به احساسی بودن نداشته باشد.
در نهایت آنچه ما بدان احتیاج داریم، راهی برای مطمئن شدن از این است که مورد سوء استفاده روباتها (به نحوی متفاوت با سوء استفاده انسانهای معمولی دیگر) قرار نگیریم.
برگرفته از:
Matthias Scheutz, 2009, "The Inherent Dangers of Unidirectional Emotional Bonds between Humans and Social Robots," in Robot Ethics: The Ethical and Social Implications of Robotics, MIT Press, 2012, pp.205-221.
دکتر سعیده بابایی (دکتری فلسفه علم و فناوری پژوهشگاه علوم انسانی)
تهیه شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی