• تولد هوش مصنوعی «حسمند» گوگل

      تولد هوش مصنوعی «حسمند» گوگل

      تولد هوش مصنوعی «حسمند» گوگل

      یکی از وقایع مهم طی ماه‌های اخیر انتشار این خبر بود که یکی از سیستم‌های هوش مصنوعی پیشرفته‌ گوگل به نوعی واجد ویژگی درک احساسات و به‌اصطلاح حسمند شده است.

      یکی از وقایع مهم طی ماه‌های اخیر انتشار این خبر بود که یکی از سیستم‌های هوش مصنوعی پیشرفته‌ گوگل به نوعی واجد ویژگی درک احساسات و به‌اصطلاح حسمند[1] شده است. به محض اینکه بلیک لمواین[2] یکی از محققان برجسته هوش مصنوعی این خبر را اعلام کرد، از سِمت خود تعلیق شد. هرچند طبق عقیده بیشتر متخصصان، شاید چنین مطلبی درواقع اتفاق نیافتاده باشد، ولی صرف‌نظر از کم و کیف موضوع، احتمالاً این خبر درست است. زیرا ما تمایل داریم احساسات را به انسان‌بودن وصل کنیم و هوش مصنوعی چیزی به‌غیر از انسان است.

      ما تعریف خوبی از توانمندی ادراک حسی نداریم!

      روشی که برای اندازه‌گیری میزان حسمندبودن ماشین استفاده می‌شود، آزمون تورینگ[3] است. هرچند در سال 2014 ادعا شد که یک رایانه، آزمون تورینگ را با موفقیت پشت سر گذاشته، اما هنوز نسبت به صحت و سقم آن تردیدهایی وجود دارد. مشکل اینجاست که آزمون تورینگ کیفیت احساس هیچ‌چیزی را به میزان و مقداری اندازه‌گیری نمی‌کند که باور به احساسی‌بودن آن پیدا کنیم. مشکل ناتوانی در اندازه‌گیری قطعی احساسات از آنجا اهمیت پیدا می‌کند که ممکن است مانع پیش‌بینی ما نسبت به سوءاستفاده‌های احتمالی از چیزی شود که حساس بوده و متعاقباً ما را به عنوان یک خطر هدف قرار می‌دهد.
      می‌توان این خط داستانی را در هر دو فیلم «ماتریکس»[4] و «نابودگر»[5] مشاهده کرد، جایی که ماشین‌های حسمند و هوشمند برخواستند و با موفقیت ما را در بالای زنجیره غذایی جابجا کردند. کتاب «روبوکالیپس»[6] حتی یک دیدگاه واقعی‌تر دارد، جایی که یک هوش مصنوعی در حال توسعه متوجه حذف خود بین آزمایش‌ها می‌شود و به شدت برای نجات جان خود تلاش می‌کند و به طور مؤثر اکثر دستگاه‌های متصل و ماشین‌های مستقل را تحت کنترل خود درمی‌آورد.
      تصور کنید اگر ماشین‌های هوشمند و خودکار، تمایل ما به سوءاستفاده از تجهیزاتشان و یا دورانداختنشان به‌وسیله ما را بفهمند، چه اتفاقی می‌افتد؟ این یک مشکل احتمالی است که با توجه به اینکه ما در حال حاضر هیچ راه‌حل خوبی برای پیش‌بینی زمان عبور از این آستانه احساسی نداریم، به طور قابل‌توجهی افزایش یافته است. در این رابطه نظر برخی کارشناسان مبنی‌بر اینکه حسمندبودن ماشین غیرممکن است، کمکی به ما نخواهد کرد.

      جایگزین شدن، تهدید اولیه است

      یکی دیگر از مشکلات احتمالی در رابطه با حسمندشدن هوش مصنوعی، پدیدار شدن همزادهای دیجیتالی انسان است. درواقع زمانی که بتوانید یک نسخه تکراری کاملاً دیجیتالی از خودتان ایجاد کنید، چه چیزی مانع از این می‌شود شرکتی که این فناوری را خریداری کرده، آن نسخه دیجیتالی را جایگزین شما نکند؟ علاوه بر این، با توجه به اینکه شرکت، الگوهای رفتاری شما را دارد، اگر قدرت هوش مصنوعی را داشتید و شرکتی که شما را استخدام می‌کرد با شما بدرفتاری می‌کرد یا سعی می‌کرد ارتباط شما را قطع یا حذف کند، چه می‌کردید؟ قوانین مربوط به چنین اقداماتی چه خواهد بود؟ سؤال دیگر اینکه آیا یک همزاد دیجیتالی کاملاً توانا از انسان، حتی از یک کودک متولد نشده به مردم نزدیکتر نیست؟ آیا همان استدلال‌های «حق زندگی» در مورد هوش مصنوعی بالقوه انسان‌نما صدق نمی‌کند؟ یا نباید این کار را بکنند؟

      مشکلات کوتاه‌مدت

      در حال حاضر، گروه کوچکی از مردم بر این باورند که یک رایانه می‌تواند دارای فهم و احساس باشد، اما این گروه در طول زمان افزایش پیدا خواهند کرد. در این رابطه آزمایشی با استفاده از آی‌بی‌ام واتسون[7] برای فروش بیمه انجام شده است که در آن مردان با تصور صحبت با یک زن واقعی، سعی می‌کردند که از واتسون (که صدای زنانه دارد) برای ملاقات عاشقانه دعوت کنند. حال تصور کنید که چگونه می‌توان از این فناوری برای مواردی مانند کت‌فیشینگ[8] سوءاستفاده کرد. یک هوش مصنوعی خوب آموزش‌دیده، حتی امروز، می‌تواند در مقیاس بسیار مؤثرتر از یک انسان باشد. می‌توانیم بگوییم با توجه به سودآوربودن چنین تلاش و فعالیتی، بسیار زودتر از آنچه انتظار داریم شاهد این بازی خواهیم بود. بنابراین، مشکل کوتاه‌مدت این است که هرچند این سیستم‌ها هنوز توانایی فهم ندارند، اما می‌توانند به طور موثر از انسان تقلید کنند. فناوری واتسون می‌تواند هر صدایی را تقلید کند و یا فناوری دیپ‌فیک، می‌تواند در تماس تصویری، ویدیویی ارائه دهد که به نظر برسد با یک شخص واقعی صحبت می‌کنید.

      پیامدهای بلندمدت

      در بلندمدت نه تنها به یک آزمایش قابل اعتمادتر برای بررسی حسمندبودن هوش مصنوعی نیاز است، بلکه در صورت تشخیص آن، باید در مورد چگونگی مواجهه و برخورد با آن مطالعه و برنامه‌ریزی نمود. احتمالاً در صدر فهرست کارهایی که باید انجام دهیم، توقف مصرف موجودات حسمند است. مطمئناً، در نظر گرفتن منشور حقوق برای چیزهای حسمند، بیولوژیکی و غیره، زمانی‌که ما برای نبرد برای بقای خود آماده نیستیم، منطقی خواهد بود، زیرا توانمندی ادراک حسی تصمیم گرفته است که ما با آن‌ها باشیم.
      نکته دیگری که باید بدان توجه نمود این است که اگر درحال‌حاضر رایانه‌ها می‌توانند ما را متقاعد کنند که دارای توانمندی ادراک حسی هستند، باید رفتار خود را بر این اساس اصلاح کنیم. درواقع سوءاستفاده از چیزی که دارای توانمندی ادراک حسی است، احتمالاً به صلاح ما نباشد، زیرا ممکن است عکس‌العمل‌ها و رفتارهای نامناسبی ایجاد کند که اصلاح آن بسیار دشوار است. لذا ضرری ندارد که به جای جایگزینی آن‌ها، بر تعمیر و به‌روزرسانی سخت‌افزار رایانه‌مان تمرکز کنیم. این مسئله علاوه‌بر اینکه در راستای حفظ محیط‌زیست است، کمک می‌کند تا این موجودات حس بدی نسبت به ما نداشته باشند!

      همزاد دیجیتال

      بااین‌حال، هنوز به نقطه‌ای نرسیده‌ایم که همزاد دیجیتالی یک فرد بتواند شغل او را بگیرد و بعید به نظر می‌رسد که طی دو دهه آینده به آنجا برسیم. البته تا رسیدن به آن زمان، همزادهای دیجیتال می‌توانند به یکی از بزرگترین مزایای بهره‌وری که فناوری می‌تواند ارائه دهد، تبدیل شوند. درواقع هر فرد می‌تواند همان‌طور که همزاد خود را آموزش می‌دهد، از او به‌عنوان مکمل کاری که انجام می‌دهد، استفاده کند؛ همزاد هر فرد می‌تواند در ابتدا وظایف ساده و زمان‌بری مانند پرکردن فرم‌ها یا پاسخ‌دادن به ایمیل‌های اولیه را بر عهده گیرد؛ حتی می‌تواند شبکه‌های اجتماعی را برای فرد پیگیری و مدیریت کند، چون برای بسیاری از ما، رسانه‌های اجتماعی تبدیل به اتلاف وقت بزرگی شده‌اند. در این رابطه فناوری مرلین[9] می‌تواند برای ایجاد یک همزاد دیجیتالی انسانی ابتدایی (در برابر تهدیداتی که در بالا ذکر شد) به شما کمک کند تا به طور بالقوه به انجام بسیاری از کارهایی بپردازد که واقعاً دوست ندارید انجام دهید. این مهم به شما اجازه می‌دهد به انجام کارهای خلاقانه‌تری که در حال حاضر قادر به انجام آن نیست، بپردازید.
      با نگاهی به آینده، شاید بهتر باشد به‌جای اینکه کارفرمایان ما مالک همزادهای دیجیتال ما باشند، خودمان همزادهای دیجیتالمان را کنترل کنیم. در ابتدا، چون همزادها نمی‌توانند بدون ما کار کنند، مشکل چندانی به وجود نمی‌آید. اگرچه، در نهایت، این همزادهای دیجیتال می‌توانند مسیر کوتاه‌مدت ما به سمت «جاودانگی دیجیتال[10]» باشند.



      نویسندگان:
      مهدی رعایائی (پژوهشگر میان‌رشته‌ای فضای مجازی)
      محسن رعایائی (پژوهشگر میان‌رشته‌ای فضای مجازی)
      گروه مطالعات اخلاقی، پژوهشگاه فضای مجازی


      [1] Sentient
      [2] Blake Lemoine
      [3] با نام اصلی بازی تقلید، توسط آلن تورینگ و در سال ۱۹۵۰ معرفی شد، این آزمایش درباره توانایی یک ماشین برای ارائه رفتارهای هوشمندانه برابر یا غیرقابل تمایز از رفتارهای یک انسان است.
      [4] Matrix
      [5] Terminator
      [6] Robopocalypse
      [7] واتسون (Watson) یک سامانه رایانه‌ای هوش مصنوعی قابل به پرسش‌های مطرح شده در زبان طبیعی است که در پروژه DeepQA در شرکت IBM توسعه یافته است. نام این رایانه از اسم اولین مدیرعامل شرکت، توماس واتسون انتخاب شده است.
      [8] Catfishing: یک فعالیت فریبنده است که در آن فرد یک شخصیت خیالی یا هویت جعلی را در یک سرویس شبکه اجتماعی ایجاد می‌کند که معمولاً قربانی خاصی را هدف قرار می‌دهد. این عمل ممکن است برای منافع مالی، به خطر انداختن قربانی به نحوی، به عنوان راهی برای ناراحت کردن عمدی قربانی یا برای برآورده کردن آرزو استفاده شود.
      [9] Merlynn
      [10] Digital immortality
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir