یکی از وقایع مهم طی ماههای اخیر انتشار این خبر بود که یکی از سیستمهای هوش مصنوعی پیشرفته گوگل به نوعی واجد ویژگی درک احساسات و بهاصطلاح حسمند شده است.
یکی از وقایع مهم طی ماههای اخیر انتشار این خبر بود که یکی از سیستمهای هوش مصنوعی پیشرفته گوگل به نوعی واجد ویژگی درک احساسات و بهاصطلاح حسمند
[1] شده است. به محض اینکه بلیک لمواین
[2] یکی از محققان برجسته هوش مصنوعی این خبر را اعلام کرد، از سِمت خود تعلیق شد. هرچند طبق عقیده بیشتر متخصصان، شاید چنین مطلبی درواقع اتفاق نیافتاده باشد، ولی صرفنظر از کم و کیف موضوع، احتمالاً این خبر درست است. زیرا ما تمایل داریم احساسات را به انسانبودن وصل کنیم و هوش مصنوعی چیزی بهغیر از انسان است.
ما تعریف خوبی از توانمندی ادراک حسی نداریم!
روشی که برای اندازهگیری میزان حسمندبودن ماشین استفاده میشود، آزمون تورینگ
[3] است. هرچند در سال 2014 ادعا شد که یک رایانه، آزمون تورینگ را با موفقیت پشت سر گذاشته، اما هنوز نسبت به صحت و سقم آن تردیدهایی وجود دارد. مشکل اینجاست که آزمون تورینگ کیفیت احساس هیچچیزی را به میزان و مقداری اندازهگیری نمیکند که باور به احساسیبودن آن پیدا کنیم. مشکل ناتوانی در اندازهگیری قطعی احساسات از آنجا اهمیت پیدا میکند که ممکن است مانع پیشبینی ما نسبت به سوءاستفادههای احتمالی از چیزی شود که حساس بوده و متعاقباً ما را به عنوان یک خطر هدف قرار میدهد.
میتوان این خط داستانی را در هر دو فیلم «ماتریکس»
[4] و «نابودگر»
[5] مشاهده کرد، جایی که ماشینهای حسمند و هوشمند برخواستند و با موفقیت ما را در بالای زنجیره غذایی جابجا کردند. کتاب «روبوکالیپس»
[6] حتی یک دیدگاه واقعیتر دارد، جایی که یک هوش مصنوعی در حال توسعه متوجه حذف خود بین آزمایشها میشود و به شدت برای نجات جان خود تلاش میکند و به طور مؤثر اکثر دستگاههای متصل و ماشینهای مستقل را تحت کنترل خود درمیآورد.
تصور کنید اگر ماشینهای هوشمند و خودکار، تمایل ما به سوءاستفاده از تجهیزاتشان و یا دورانداختنشان بهوسیله ما را بفهمند، چه اتفاقی میافتد؟ این یک مشکل احتمالی است که با توجه به اینکه ما در حال حاضر هیچ راهحل خوبی برای پیشبینی زمان عبور از این آستانه احساسی نداریم، به طور قابلتوجهی افزایش یافته است. در این رابطه نظر برخی کارشناسان مبنیبر اینکه حسمندبودن ماشین غیرممکن است، کمکی به ما نخواهد کرد.
جایگزین شدن، تهدید اولیه است
یکی دیگر از مشکلات احتمالی در رابطه با حسمندشدن هوش مصنوعی، پدیدار شدن همزادهای دیجیتالی انسان است. درواقع زمانی که بتوانید یک نسخه تکراری کاملاً دیجیتالی از خودتان ایجاد کنید، چه چیزی مانع از این میشود شرکتی که این فناوری را خریداری کرده، آن نسخه دیجیتالی را جایگزین شما نکند؟ علاوه بر این، با توجه به اینکه شرکت، الگوهای رفتاری شما را دارد، اگر قدرت هوش مصنوعی را داشتید و شرکتی که شما را استخدام میکرد با شما بدرفتاری میکرد یا سعی میکرد ارتباط شما را قطع یا حذف کند، چه میکردید؟ قوانین مربوط به چنین اقداماتی چه خواهد بود؟ سؤال دیگر اینکه آیا یک همزاد دیجیتالی کاملاً توانا از انسان، حتی از یک کودک متولد نشده به مردم نزدیکتر نیست؟ آیا همان استدلالهای «حق زندگی» در مورد هوش مصنوعی بالقوه انساننما صدق نمیکند؟ یا نباید این کار را بکنند؟
مشکلات کوتاهمدت
در حال حاضر، گروه کوچکی از مردم بر این باورند که یک رایانه میتواند دارای فهم و احساس باشد، اما این گروه در طول زمان افزایش پیدا خواهند کرد. در این رابطه آزمایشی با استفاده از آیبیام واتسون
[7] برای فروش بیمه انجام شده است که در آن مردان با تصور صحبت با یک زن واقعی، سعی میکردند که از واتسون (که صدای زنانه دارد) برای ملاقات عاشقانه دعوت کنند. حال تصور کنید که چگونه میتوان از این فناوری برای مواردی مانند کتفیشینگ
[8] سوءاستفاده کرد. یک هوش مصنوعی خوب آموزشدیده، حتی امروز، میتواند در مقیاس بسیار مؤثرتر از یک انسان باشد. میتوانیم بگوییم با توجه به سودآوربودن چنین تلاش و فعالیتی، بسیار زودتر از آنچه انتظار داریم شاهد این بازی خواهیم بود. بنابراین، مشکل کوتاهمدت این است که هرچند این سیستمها هنوز توانایی فهم ندارند، اما میتوانند به طور موثر از انسان تقلید کنند. فناوری واتسون میتواند هر صدایی را تقلید کند و یا فناوری دیپفیک، میتواند در تماس تصویری، ویدیویی ارائه دهد که به نظر برسد با یک شخص واقعی صحبت میکنید.
پیامدهای بلندمدت
در بلندمدت نه تنها به یک آزمایش قابل اعتمادتر برای بررسی حسمندبودن هوش مصنوعی نیاز است، بلکه در صورت تشخیص آن، باید در مورد چگونگی مواجهه و برخورد با آن مطالعه و برنامهریزی نمود. احتمالاً در صدر فهرست کارهایی که باید انجام دهیم، توقف مصرف موجودات حسمند است. مطمئناً، در نظر گرفتن منشور حقوق برای چیزهای حسمند، بیولوژیکی و غیره، زمانیکه ما برای نبرد برای بقای خود آماده نیستیم، منطقی خواهد بود، زیرا توانمندی ادراک حسی تصمیم گرفته است که ما با آنها باشیم.
نکته دیگری که باید بدان توجه نمود این است که اگر درحالحاضر رایانهها میتوانند ما را متقاعد کنند که دارای توانمندی ادراک حسی هستند، باید رفتار خود را بر این اساس اصلاح کنیم. درواقع سوءاستفاده از چیزی که دارای توانمندی ادراک حسی است، احتمالاً به صلاح ما نباشد، زیرا ممکن است عکسالعملها و رفتارهای نامناسبی ایجاد کند که اصلاح آن بسیار دشوار است. لذا ضرری ندارد که به جای جایگزینی آنها، بر تعمیر و بهروزرسانی سختافزار رایانهمان تمرکز کنیم. این مسئله علاوهبر اینکه در راستای حفظ محیطزیست است، کمک میکند تا این موجودات حس بدی نسبت به ما نداشته باشند!
همزاد دیجیتال
بااینحال، هنوز به نقطهای نرسیدهایم که همزاد دیجیتالی یک فرد بتواند شغل او را بگیرد و بعید به نظر میرسد که طی دو دهه آینده به آنجا برسیم. البته تا رسیدن به آن زمان، همزادهای دیجیتال میتوانند به یکی از بزرگترین مزایای بهرهوری که فناوری میتواند ارائه دهد، تبدیل شوند. درواقع هر فرد میتواند همانطور که همزاد خود را آموزش میدهد، از او بهعنوان مکمل کاری که انجام میدهد، استفاده کند؛ همزاد هر فرد میتواند در ابتدا وظایف ساده و زمانبری مانند پرکردن فرمها یا پاسخدادن به ایمیلهای اولیه را بر عهده گیرد؛ حتی میتواند شبکههای اجتماعی را برای فرد پیگیری و مدیریت کند، چون برای بسیاری از ما، رسانههای اجتماعی تبدیل به اتلاف وقت بزرگی شدهاند. در این رابطه فناوری مرلین
[9] میتواند برای ایجاد یک همزاد دیجیتالی انسانی ابتدایی (در برابر تهدیداتی که در بالا ذکر شد) به شما کمک کند تا به طور بالقوه به انجام بسیاری از کارهایی بپردازد که واقعاً دوست ندارید انجام دهید. این مهم به شما اجازه میدهد به انجام کارهای خلاقانهتری که در حال حاضر قادر به انجام آن نیست، بپردازید.
با نگاهی به آینده، شاید بهتر باشد بهجای اینکه کارفرمایان ما مالک همزادهای دیجیتال ما باشند، خودمان همزادهای دیجیتالمان را کنترل کنیم. در ابتدا، چون همزادها نمیتوانند بدون ما کار کنند، مشکل چندانی به وجود نمیآید. اگرچه، در نهایت، این همزادهای دیجیتال میتوانند مسیر کوتاهمدت ما به سمت «جاودانگی دیجیتال
[10]» باشند.
نویسندگان:
مهدی رعایائی (پژوهشگر میانرشتهای فضای مجازی)
محسن رعایائی (پژوهشگر میانرشتهای فضای مجازی)
گروه مطالعات اخلاقی، پژوهشگاه فضای مجازی
[3] با نام اصلی بازی تقلید، توسط آلن تورینگ و در سال ۱۹۵۰ معرفی شد، این آزمایش درباره توانایی یک ماشین برای ارائه رفتارهای هوشمندانه برابر یا غیرقابل تمایز از رفتارهای یک انسان است.
[7] واتسون (
Watson) یک سامانه رایانهای هوش مصنوعی قابل به پرسشهای مطرح شده در زبان طبیعی است که در پروژه
DeepQA در شرکت
IBM توسعه یافته است. نام این رایانه از اسم اولین مدیرعامل شرکت، توماس واتسون انتخاب شده است.
[8] Catfishing: یک فعالیت فریبنده است که در آن فرد یک شخصیت خیالی یا هویت جعلی را در یک سرویس شبکه اجتماعی ایجاد میکند که معمولاً قربانی خاصی را هدف قرار میدهد. این عمل ممکن است برای منافع مالی، به خطر انداختن قربانی به نحوی، به عنوان راهی برای ناراحت کردن عمدی قربانی یا برای برآورده کردن آرزو استفاده شود.