• وابستگی یک‌طرفه انسان به روبات چه مخاطراتی به همراه دارد؟ (قسمت سوم و پایانی)

      وابستگی یک‌طرفه انسان به روبات چه مخاطراتی به همراه دارد؟ (قسمت سوم و پایانی)

      وابستگی یک‌طرفه انسان به روبات چه مخاطراتی به همراه دارد؟ (قسمت سوم و پایانی)

      روبات‌ها به تلاش کمی نیاز دارند تا کاربر رابطه‌ای یک‌طرفه را با آن‌ها شکل دهد. صرفاً تقلید و شبیه‌سازی برخی از رفتارهای یک سگ واقعی می‌تواند روبات ‌را آماده ساختن رابطه با یک انسان کند و از روبات، یک همدم برای کاربرش بسازد.

      در بخش دوم، مطالعات مرتبط با تعامل بین انسان و روبات مورد بررسی قرار گرفته که شامل بررسی سه مطالعه است. اولین مطالعه، روبات‌ها را از منظر ویژگی خودمختاری یا عدم وجود آن، مورد بررسی قرار می‌دهد. در مطالعه دوم، میزان سودمندی قابلیت شناسایی احساسات و حالات چهره انسان توسط روبات بررسی شده و تأثیر آن در تعامل با فرد، مورد مطالعه قرار گرفته است. مورد سوم نشان می‌دهد که انسان‌ها بیشتر ترجیح می‌دهند با روبات‌هایی با قابلیت خودمختاری ارتباط برقرار کنند و برای آن‌ها مشابه حیوانات یا حتی انسان‌ها، تشخص قائل می‌شوند. در ادامه بخش، مشاهده می‌شود که انسان‌انگاری روبات‌ها توسط انسان، گاهی اوقات موجب فریب خوردن انسان‌ها یا تأثیرات مخرب بر آن‌ها می‌شود. در انتها نیز نمونه‌هایی از روبات‌های موجود نظیر روبات مین‌یاب و رومبا معرفی می‌شوند.

      حتی متخصصان روباتیک هم در امان نیستند!

      شوتز گزارش می‌کند که در آزمایشگاه آنها وقتی روبات انسا‌ن‌نمای CRAMER (تصادفاً) روشن مانده بود، آزاردهنده بود و توجه خود را از صحبت‌کننده‌ای به صحبت‌کننده دیگر منتقل می‌کرد (گویی می‌فهمد که چه چیزی در حال بیان شدن است) که این موجب معذب شدن آنها شده است. همچنین، دانشجویان ام.آی.تی که در آزمایشگاه خود با روبات Kismet کار می‌کردند، گاهی پرده‌ای را میان خود و روبات ‌می‌کشیدند، چرا که خیره شدن روبات باعث برهم خوردن تمرکز آنها می‌شد. حتی سازنده Kismet، سینتیا بریزیل[1] نیز رابطه‌ای شخصی را با روبات خود شکل داده بود؛ نوعی پیوند مادرانه که روبات ‌را فقط به مثابه یک ماشین نمی‌دید و وقتی پروژه‌اش به پایان رسید و مجبور به ترک روبات ‌شد، احساس فقدانی شدید را تجربه کرد.

      خطرات پیشِ روی رابطه یک‌طرفه

      با توجه به مثال‌های بالا می‌توان نتیجه گرفت که از سوی روبات‌ها چه تلاش کمی نیاز است تا باعث شود کاربر رابطه‌ای یک‌طرفه را با آنها شکل دهد. صرفاً تقلید و شبیه‌سازی برخی از رفتارهای یک سگ واقعی می‌تواند روبات ‌را آماده ساختن رابطه با یک انسان کند و از روبات، یک همدم برای کاربرش بسازد. حتی روبا‌ت‌های نظامی مانند packbot که کاملا خودمختار نیستند و از راه دور توسط اپراتور کنترل می‌شوند نیز می‌توانند نقشی مهم در زندگی روزمره سربازان ایفا کنند.

      اما با همه توجیهات بالا، روبات‌هایی مثل رومبا که نه شباهت به حیوان و نه به انسان دارند نیز ایده عاملیت داشتن را به کاربر خود تزریق می‌کنند و حتی حس قدردانی و دلسوزی را در او فعال می‌کنند. این روبات‌ها از اینکه بتوانند به عنوان یک همراه واقعی ایفای نقش کنند، ناتوان‌اند. هیچ‌یک از این روبات‌ها درکی از مفهوم «دیگری» و الگوریتمی برای شناسایی افراد ندارند. با این حال می‌توانند رابطه احساسی یک‌طرفه‌ای را میان خود و کاربر شکل دهند و این رابطه می‌تواند مخاطراتی را به همراه داشته باشد که در ادامه به برخی از آنها اشاره می‌‌کنیم:

      تصویرسازی نادرست

      هیچ یک از روبات‌هایی که امروزه به فروش می‌رسند، اهمیتی به انسان نمی‌دهند. اگرچه تلاش‌هایی در جهت تشخص‌بخشی به روبات‌ها در صنعت روباتیک و هوش مصنوعی صورت می‌گیرد، این روبات‌ها‌ مکانیسم‌های محاسباتی و معماری لازم را برای همدلی کردن ندارند و نمی‌توانند به معنایی احساسی به کاربر خود اهمیت بدهند. چرا که ما خود هنوز نمی‌دانیم که چه الزامات محاسباتی نیاز است تا یک سیستم بتواند به چیزی اهمیت بدهد.

      شرکت‌های سازنده علی‌رغم وقوف به محدودیت‌های تکنولوژی‌های ساخته خود، برای مقاصد تبلیغاتی و اقتصادی سعی می‌کنند این تصور را در کاربران خود به وجود بیاورند که روبات آنها دارای توانایی درک احساسات است و حالات ذهنی مشابه انسان یا حیوان را تجربه می‌کند و اینگونه کاربران را فریب می‌دهند. افراد دانشگاهی نیز در ارائه پژوهش‌های خود به قدر کافی مراقب نیستند و از تعابیری مانند احساس داشتن، به کار بردن احساسات و ... برای توصیف ساخته‌های خود استفاده می‌کنند و استفاده از این ادبیات در نوشتن مقالات و ... موجب می‌شود افراد غیر متخصص، فرایندهای کنترل را در این مصنوعات با فرایندهای کنترل در ارگانیسم‌های طبیعی مثل حیوانات و انسان‌ها یکسان بینگارند و باورهای غلطی را در سطح عمیق ناخودآگاه درباره روبات‌ها پیدا کنند، در حالی که در سطح آگاهانه این ادعاها را ممکن است رد ‌کنند.

      امکان سوءاستفاده

      ویژگی‌هایی مانند شباهت به انسان و تعامل از طریق زبان طبیعی که در آینده هم ارتقاء پیدا می‌کنند، ممکن است باعث اعتماد و نزدیکی بیشتر انسان به روبات ‌شود و امکان سوءاستفاده شدن از انسا‌ن‌ها را تشدید کند. برای مثال، ممکن است انسان‌ها به روبات‌ها بیشتر اعتماد کنند و با استفاده از همین ویژگی، از روبات‌ها برای بازجویی یا فروش محصولات استفاده شود. ممکن است ساده‌تر و طبیعی‌تر شدن روابط یک‌طرفه با روبات‌ها منجر به اعتیاد ناآگاهانه کاربر به آنها شود. اگر روبات‌ها بتوانند این تصور را که دارای قدرت همدلی و همدردی هستند، در کاربر ایجاد کنند، دیگر پی بردن به اینکه این رابطه یک‌طرفه است، توسط کاربر بسیار دشوارتر خواهد شد.

      یکی از مخاطرات رابطه یک‌طرفه انسان با روبات این است که وابستگی‌های روانی برای انسان ایجاد می‌شود و این به نوبه خود عواقب جدی برای جوامع انسانی در پی دارد. چرا که امکان سوءاستفاده (اقتصادی، سیاسی و ...) در مقیاس بزرگ فراهم می‌شود و ممکن است روبات‌ها با تهدید کردن انسان‌ها به ترکشان، آنها را به کارهایی تشویق کنند که در حالت عادی انجام نمی‌دادند. این واقعیت که روبات‌ها موانعی مانند احساس گناه یا همدلی و ... را ندارند که آنها را از سوءاستفاده منع کند نیز توجه به این مخاطره را ضروری‌تر می‌کند.

      چه باید کرد؟

      علی‌رغم همه فوایدی که روبات‌ها می‌توانند داشته باشند، باید به عواقب استفاده از آنها برای بعد احساسی و روانی زندگی شخصی و اجتماعی‌مان هم فکر کنیم. این تأملات اگر به موقع صورت بگیرد، می‌تواند در پژوهش‌های آینده روباتیک مفید باشد. در واکنش نسبت به مخاطراتی که مطرح شد، پیشنهادهای زیر می‌تواند مورد توجه قرار بگیرد:

      1. پیشنهادهایی مثل توقف تولید این روبات‌ها بنظر منطقی و عملی نمی‌رسد.
      2. پیشنهاد دیگر این است که روبات‌های موجود باید قدرت استدلال اخلاقی - مثلا در قالب الگوریتم‌های تصمیم‌گیری- داشته باشند و روبات ‌نتواند استدلال‌های اخلاقی را تغییر دهد یا نادیده بگیرد؛. این پیشنهاد می‌تواند در حوزه‌های محدودی عملی شود. اما مسئله این است که تعداد کنش‌های ممکنِ روبات محدود خواهد بود و دلالت‌های اخلاقی همه کنش‌ها و موقعیت‌های محتمل بسیار پیچیده‌ و پرشمارند. از آنجایی که در طول تاریخ فلسفه نتوانسته‌ایم روی مجموعه مورد اجماعی از قواعد توافق کنیم و ترجمه قواعد اخلاقی به زبان محاسباتی نیز ممکن است با محدودیت‌های عملی مواجه باشد، این پیشنهاد نیز با چالش‌های نظری و عملی مواجه است.
      3. پیشنهاد بعدی این است که در طراحی روبات ‌(چه ظاهر یا چه رفتار آن) این گزینه را قرار دهیم که روبات‌ دائما این هشدار را بدهد که یک ماشین است، احساسات ندارد و نمی‌تواند رابطه‌ای متقابل داشته باشد (شبیه ایده نوشتن «سیگار کشیدن ممنوع» یا نوشتن مضرات سیگار روی پاکت آن). اما این هم ضمانت نمی‌کند که انسان‌ها درگیر رابطه احساسی با روبات‌ نشوند. اگرچه، این پیشنهاد احتمال و شدت پیوندهای عاطفی با روبات ‌را کاهش می‌دهد. با این حال مرز باریکی است بین تعامل ساده و طبیعی با روبات ‌و باور به اینکه این روبات ‌ماشینی فاقد حیات است. می‌توان چنین پیشنهادی را به آزمون تجربی گذاشت.
      4. به روبات‌ها احساساتی مشابه انسان‌ها بدهیم؛ اتفاقی که در سیر تاریخی تطور انسانی رخ داده است و او را قادر به برقراری تعادل میان بهروزی فردی و رفتار قابل پذیرش در اجتماع کرده است. روبات‌ها نیز می‌توانند با داشتن توانایی ارزیابی احساسی مشابه انسان، در جوامع انسانی شبیه انسان‌ها عمل کنند؛ البته با این اثر جانبی که احساسات واقعی داشته باشند و در نتیجه در معرض آسیب‌پذیری و سوءاستفاده قرار بگیرند. برخی معتقدند که این کار تلاش بسیاری می‌طلبد، اما عده‌ای دیگر این کار را کاملا عملی می‌دانند. به هر روی، این پیشنهاد را نمی‌توان و لازم نیست در هر نوعی از روبات‌‌ها عملی کرد. برای مثال، شاید روبات‌ فضانورد نیازی به احساسی بودن نداشته باشد.

      در نهایت آنچه ما بدان احتیاج داریم، راهی برای مطمئن شدن از این است که مورد سوء استفاده روبات‌ها (به نحوی متفاوت با سوء استفاده انسان‌های معمولی دیگر) قرار نگیریم.

      برگرفته از:
      Matthias Scheutz, 2009, "The Inherent Dangers of Unidirectional Emotional Bonds between Humans and Social Robots," in Robot Ethics: The Ethical and Social Implications of Robotics, MIT Press, 2012, pp.205-221.

      دکتر سعیده بابایی (دکتری فلسفه علم و فناوری پژوهشگاه علوم انسانی)
      تهیه شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی


      [1] Cynthia Breazeal
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir