• بازکاوی اثر بروکسل در پرتوی قانون هوش مصنوعی اتحادیه اروپا

      بازکاوی اثر بروکسل در پرتوی قانون هوش مصنوعی اتحادیه اروپا

      بازکاوی اثر بروکسل در پرتوی قانون هوش مصنوعی اتحادیه اروپا

      قانون هوش مصنوعی اتحادیه اروپا موسوم به (The European Union’s AI Act) به دنبال ایجاد اولین طرح نظارتی جامع برای هوش مصنوعی است، اما تأثیر این قانون در محدوده اتحادیه اروپا متوقف نخواهد شد.

      قانون هوش مصنوعی اتحادیه اروپا[1] موسوم به (The European Union’s AI Act) به دنبال ایجاد اولین طرح نظارتی جامع برای هوش مصنوعی است، اما تأثیر این قانون در محدوده اتحادیه اروپا متوقف نخواهد شد. در واقع، برخی از سیاستگذاران اتحادیه اروپا بر این باور هستند که هدف مهم قانون AIA تعیین یک استاندارد جهانی است حتی برخی از صاحبنظران در این خصوص به شکلگیری مسابقهای برای تنظیم مقررات هوش مصنوعی در جهان باور دارند. این چارچوب نشان میدهد که نهتنها تنظیم سامانههای هوش مصنوعی ارزشمند است، بلکه قرار گرفتن در میان اولین دولتهایی که این مقررات را پایه­گذاری میکنند، تأثیر جهانی گستردهای به نفع اتحادیه اروپا خواهد داشت، تأثیری که اغلب از آن بهعنوان «اثر بروکسل» یاد میشود. بااینحال، با اینکه برخی از اجزای قانون AIA تأثیرات مهمی بر بازارهای جهانی خواهند گذاشت، اروپا بهتنهایی نخواهد توانست یک استاندارد بینالمللی جدید جامع برای هوش مصنوعی تعیین کند.
      تأثیر فرا سرزمینی قانون AIA بین بخشها و کاربردها بسیار متفاوت خواهد بود، اما بررسی جداگانه مفاد کلیدی این قانون در مورد میزان تأثیر مورد انتظار بروکسل منجر به شکلگیری یک بینش اساسی در ما میشود. در نظر گرفتن مواد اصلی قانون AIA به ما نشان میدهد که:
      1. سامانههای هوش مصنوعی در محصولات تحت نظارت در سراسر جهان تحت تأثیر این قانون قرار خواهند گرفت که این امر نمایانگر تأثیر واضح بروکسل است، اگرچه بازارهای موجود و استانداردهای بینالمللی و دولتهای خارجی نیز در این خصوص اثر واسطهای خود را خواهند گذاشت.
      2. چنانچه سامانههای هوش مصنوعی پرخطر برای ارائه خدمات انسانی در پلتفرمهای آنلاین یا به روش­های دیگر بههمپیوسته بینالمللی ساخته شوند، بسیار تحت تأثیر این قانون قرار خواهند گرفت، اما سامانههای هوش مصنوعی که بیشتر محلی یا شخصیسازیشده هستند، به میزان محدودتری تحت تأثیر این قانون قرار خواهند گرفت.
      3. الزامات شفافیت برای نوعی از هوش مصنوعی که با انسانها تعامل دارد (مانند چت بات­ها و سامانههای تشخیص احساسات) منجر به افشاسازی گسترده و جهانی [در خصوص نحوه عملکرد] در بیشتر وبسایتها و برنامه­ها میشود.
      بهطورکلی، این تحلیل، تأثیر جهانی AIA را نسبت به آنچه سیاستگذاران اتحادیه اروپا گفتهاند محدودتر ارزیابی می­کند، بااینکه این قانون به نفوذ جهانی قابلتوجه اتحادیه اروپا بر برخی از پلتفرمهای آنلاین کمک خواهد کرد، ممکن است مقررات بین­المللی را در حد متوسط شکل دهد. با در نظر گرفتن این موضوع، اتحادیه اروپا باید رویکردی مشارکتی­تر داشته باشد تا دولتهای دیگر را با دیدگاه خود در مورد حکمرانی هوش مصنوعی[2] همراه کند.

      مقدمه
      بحث بین نهادهای اتحادیه اروپا در مورد اینکه قانون AIA دقیقاً چهکاری انجام خواهد داد (حتی تعریف " "AI هنوز در حال مناقشه است) همچنان ادامه دارد، بااینحال این پیشنهاد برای تجزیهوتحلیل تأثیر احتمالی بینالمللی خود جاافتاده است. قانون هوش مصنوعی اتحادیه اروپا فرآیندی برای "خود تصدیقی[3] و نظارت دولتی بر بسیاری از قسمتهای سامانههای هوش مصنوعی پرخطر، الزامات شفافیت برای سامانههای هوش مصنوعی که با مردم تعامل دارند و تلاش برای ممنوع کردن چند ویژگی «غیرقابلقبول» از سامانههای هوش مصنوعی " ایجاد خواهد کرد.
      مقررات AIA بدون شک تأثیرات فرا سرزمینی خواهند داشت، به این معنی که بر توسعه و استقرار بسیاری از سامانههای هوش مصنوعی در سراسر جهان تأثیرگذار بوده و الهامبخش و رهنمون تلاشهای قانونی مشابه نیز خواهند بود. بااینحال، ایده اثر بروکسل پیامدهای مهمی فراتر از نفوذ در خارج از مرزهای اتحادیه اروپا دارد؛ به این معنا که اتحادیه اروپا میتواند بدون اجبار و تنها با بازار مصرفکننده 450 میلیون نفری خود بهطور یکجانبه قوانینی را تعیین کند که به استانداردهای جهانی تبدیل شوند.
      اثر بروکسل به دو شکل مرتبط «دفاکتو»[4] و «دژور»[5] نمایان میشود که میتوان با استفاده از قوانین حریم خصوصی دادههای اتحادیه اروپا، بهویژه مقررات عمومی حفاظت از داده(GDPR) و دستورالعمل حفظ حریم خصوصی الکترونیکی، بین آنها افتراق گذاشت. بسیاری از وبسایتهای جهان بهجای توسعه فرآیندهای جداگانه برای اروپاییها، الزامات اتحادیه اروپا در خصوص درخواست رضایت کاربران برای پردازش دادههای شخصی و استفاده از کوکیها را پذیرفتهاند این منعکسکننده اثر واقعی بروکسل است که در آن شرکتها به شکل جهانی از قوانین اتحادیه اروپا پیروی میکنند تا یک محصول یا خدمت را استاندارد کرده و فرآیندهای تجاری خود را سادهتر کنند. این فرایند نیز اغلب با شیوه اثرگذاری به شکل دژور دنبال میشود که در نتیجه آن قوانین به شکل رسمی در سایر کشورهایی که با قوانین اتحادیه اروپا همسو هستند تصویب میشود، دلیل این فرایند آن است که شرکتهای چندملیتی شدیداً مخالف قوانینی هستند که میتواند با فرآیندهای استاندارد آنها تضاد ایجاد کند. تا حدی به همین دلیل است که این مقررات حفظ حریم خصوصی باعث شده تا بسیاری از کشورهای دیگر قوانین منطبق یا مشابه با مقررات حفاظت از دادهها را تصویب کنند؛ بنابراین، برای درک بهتر تأثیر احتمالی قانون AIA، مانند قانون حریم خصوصی دادهها، باید دو مؤلفه را در نظر گرفت:
      • پیامدهای بینالمللی قانون AIA (اثر واقعی بروکسل) چه خواهد بود؟
      • این قانون تا چه حد بهطور یکجانبه بر قوانین بین­المللی (اثر قانونی بروکسل) تأثیر خواهد گذاشت؟

      قانونگذاران اتحادیه اروپا، علاوه بر اهداف اصلی این قانون در جهت حمایت از مصرفکنندگان این اتحادیه، اثر بروکسل را بهعنوان دلیلی برای تصویب سریع این قانون برشمردهاند و در این راستا میخواهند تا حدی، نوآوری هوش مصنوعی اتحادیه اروپا را هم تحریک کنند.
      تفکر اولین بودن در فرایند تصویب قانون هوش مصنوعی و کسب مزیت اقتصادی قابلتوجه و پایدار به دنبال این پیشگامی ایده رایجی در میان سیاستگذاران اتحادیه اروپا است. بااینحال، اخیراً یک گزارش از مرکز مطالعات سیاست اروپا[6] استدلال کرده است که احتمال دارد اتحادیه مزیت رقابتی خود را در حاکمیت دیجیتال از دست بدهد، زیرا سایر کشورها در ظرفیت نظارتی دیجیتال سرمایهگذاری کرده و به سطح اتحادیه اروپا میرسند، درحالیکه این عامل اصلی نفوذ اتحادیه اروپا بر قوانین جهانی است. سایر تحقیقات دانشگاهی استدلال کردهاند که شرایط اساسی حاکم بر بازار هوش مصنوعی اروپا، مثل هزینههای بالای انتقال شرکتهای هوش مصنوعی و همچنین دشواری اندازهگیری تأثیر مقررات هوش مصنوعی اتحادیه اروپا، به معنای کمارزش بودن رقابت نظارتی است که هدف آن جذب کسبوکارها از طریق ایجاد مقررات شفاف و مؤثر است.
      این دیدگاهها دلایلی برای تردید نسبت به تأثیر جهانی AIA ارائه میکنند، اما الزامات منحصربهفرد AIA با توجه به مدلهای تجاری واقعی شرکتهای دیجیتال را تجزیهوتحلیل نمیکنند. بااینحال، تعامل بین مفاد خاص AIA و ساختار سامانههای هوش مصنوعی شرکتهای فناوری نشاندهنده تأثیر جهانی کمتر این قانون است. نوشتار حاضر بر روی سه مؤلفه اصلی AIA (هوش مصنوعی پرخطر در محصولات، هوش مصنوعی پرخطر در خدمات انسانی و الزامات شفافیت هوش مصنوعی) تمرکز دارد و تلاش میکند تأثیر جهانی احتمالی آن را تخمین بزند. تخمین تأثیر جهانی احتمالی این قانون مستلزم تلاش برای پیشبینی تغییر رفتار شرکتها در پاسخ به AIA است که تلاشی دشوار و مملو از احتمال اشتباه در محاسبه خواهد بود. باوجوداین خطر، پیشبینی واکنش سهامداران شرکتها برای ارزیابی و درک اثرات واقعی AIA و تشخیص نحوه ایجاد اجماع بینالمللی ضروری است.

      ریسک بالا تحت پوشش مقررات ایمنی محصول
      AIA طیف گستردهای از سامانههای هوش مصنوعی مورداستفاده در بخشهایی که قبلاً تنظیمشدهاند را در برمیگیرد، مانند حملونقل هوایی، وسایل نقلیه خودران، قایقها، آسانسورها، دستگاههای پزشکی، ماشینآلات صنعتی و غیره. در این موارد، الزامات هوش مصنوعی پرخطر در فرآیند ارزیابی انطباق با تنظیمکنندههای بخشی، مانند آژانس ایمنی هوانوردی اتحادیه اروپا برای هواپیماها، یا ترکیبی از سازمانهای شخص ثالث تأییدشده و نهادهای مرکزی اتحادیه اروپا انجام میشود، با هم دیگر ترکیب میشوند، در مورد دستگاههای پزشکی هم همینطور است. این بدان معنی است که شرکتهای فرا سرزمینی که محصولات تحت نظارتی را در محدوده اتحادیه اروپا ارائه میکنند، باید فرآیند ارزیابی انطباق را طی کنند. AIA فقط ویژگیها و مشخصههای این نظارت را تغییر خواهد داد، اما گستره یا روند آن را تغییر نمیدهد.
      بااینحال، این تغییرات بیاهمیت نیستند. بهطورکلی این تغییرات از شرکتهایی که میخواهند سامانههای هوش مصنوعی را در محصولات خود برای فروش در اتحادیه اروپا قرار دهند، میخواهد که حداقل توجهی تخصصی به سامانههای هوش مصنوعی داشته باشند. شرکتها باید یک فرآیند مدیریت ریسک را پیادهسازی کنند، بهگونهای که با استانداردهای بالاتر داده مطابقت داشته باشند، سامانهها را بهطور کامل مستند کنند، اقدامات آن را بهطور سامانمند ثبت کنند، اطلاعاتی را در مورد عملکرد آن به کاربران ارائه دهند و نظارت انسانی و مستمر را فعال نمایند. برخی از این الزامات احتمالاً قبلاً توسط تنظیمکنندههای بخشی که برای مدتی طولانی با هوش مصنوعی سروکار داشته، اجرا شدهاند، اما بیشترشان احتمالاً جدید هستند. نتیجه این است که سامانههای هوش مصنوعی در محصولات تحت نظارت بهجای ارزیابی گستردهتر عملکرد محصول، باید به مستندسازی، ارزیابی و پایش خودبهخود بپردازند و این امر یک سطح جدیدتر و بالاتر برای سامانههای هوش مصنوعی در محصولات ایجاد میکند.
      در متن قانون AIA، دامنه فرا سرزمینی به محصولات فروختهشده به اتحادیه اروپا محدود میشود، بااینحال هنوز احتمال زیادی هست که این امر به انطباق بینالمللی برسد. لذا برای ادامه صادرات به بازار مصرف بزرگ اروپا، شرکتهای خارجی باید این فرآیندها را اجرا نمایند. اگرچه قوانین جدید به عملکرد سامانههای هوش مصنوعی محدود میشود، بسیاری از این محصولات در فرآیندهای صنعتی در مقیاس بزرگ تولید میشوند، مثلاً یک تسمهنقاله را تصور کنید. سازگاری در فرآیندهای تسمهنقاله به معنای محصول ارزانتر و قیمتهای رقابتیتر برای شرکتها است، درحالیکه اعمال تغییرات به تسمههای نقاله متفاوت و فرآیندهای مختلف آزمودن و ایمنی نیاز دارند و عموماً گرانتر خواهند بود؛ بنابراین منطقی است که فرض کنیم بسیاری از تولیدکنندگان خارجی با قوانین AIA سازگار خواهند شد و بهمحض اینکه خود را سازگار کردند، اغلب انگیزهای قوی برای حفظ قوانین داخلی مشابه با قوانین اتحادیه اروپا را دارند.
      این امر ظاهراً یک نمونه کلاسیک از اثر بروکسل به نظر میرسد و تحقیقات دانشگاهی نشان داده است که اتحادیه اروپا زمانی بیشترین تأثیر را دارد که قدرت حذف محصولات از بازار خود را داشته باشد، همانطور که در اینجا چنین قدرتی دارد. بااینحال، وضع قوانین یکجانبه اتحادیه اروپا یک اثر مشخص نخواهد داشت. سه عامل وجود دارد که تأثیر اروپا بر این قوانین جدید را کاهش میدهد: بازارهای موجود، سازمانهای استاندارد بینالمللی و دولتهای خارجی.
      اولاً، ازآنجاکه این قوانین جدید بر محصولاتی که قبلاً تنظیمشدهاند تأثیرگذار است، شرکتهای خارجی زیادی در حال فروش محصولات در اتحادیه اروپا هستند و این قوانین را زیر نظر خواهند داشت. این شرکتها صادرکنندگان عمده به اتحادیه اروپا هستند، مانند شرکتهای دستگاههای پزشکی از ایالاتمتحده، بازوهای روباتیک از ژاپن، وسایل نقلیه از چین و بسیاری شرکتهای دیگر. این کسبوکارهای بزرگ بینالمللی خارج از اتحادیه اروپا بهراحتی تنظیم نخواهند شد، اما فعالانه درگیر خواهند شد تا مطمئن شوند این قوانین به سهم بازار آنها ضرر نمیرساند.
      نحوه ادغام نهادهای استاندارد اتحادیه اروپا در سازمانهای استاندارد جهانی به این شرکتها کمک خواهند کرد. AIA خود بهطور مستقیم استانداردهای خاصی را برای محصولات بیشماری که از هوش مصنوعی استفاده میکنند تعیین نمیکند، زیرا میدانیم بهطورکلی انجام این کار برای هیچ نهاد قانونگذاری ممکن نیست. در عوض، AIA برای این کار اختیارات قابلتوجهی را به سازمانهای استاندارد اروپایی[7] (ESO) تفویض میکند.
      سازمانهای استاندارد اروپایی صرفاً در حوزه اروپایی عمل نمیکنند. "سطح بالایی از همگرایی"[8] بین سازمانهای استاندارد اروپایی و نهادهای استاندارد بینالمللی وجود دارد که از چندین دهه قبل آغازشده است. این ارتباط قوی با نهادهای استاندارد بینالمللی به شرکتهای خارجی مسیر روشنی را نشان میدهد، همان مسیری که استانداردهای اتحادیه اروپا نوشتهاند. در واقع، کار سازمانهای استاندارد در داخل و خارج اتحادیه اروپا سالهاست که ادامه داشته و مسیری طولانی را برای شرکتهای جهانی هموار میکنند تا این شرکتها بتوانند تخصص خود را ارائه دهند و نفوذ سیاسی داشته باشند.
      در آخر، دولتهای خارجی نیز تلاش خواهند کرد تا از طریق سازمانهای استاندارد اروپایی بر توسعه استانداردها تأثیر بگذارند. این مورد بیشتر شورای تجارت و فناوری[9] مشترک اتحادیه اروپا و ایالاتمتحده مشهود است که کارگروه استانداردهای فناوری را تشکیل داده است. اگر شورای جدید تجارت و فناوری مشترک اتحادیه اروپا و هند[10] نیز به استانداردهای هوش مصنوعی بپردازد هم جالب میشود. این روند اخیر آنقدر ادامه پیدا میکند که در آن کشورهایی ازجمله ایالاتمتحده و چین بسیار فعالانه درگیر رویکردهای استراتژیک برای تنظیم استانداردهای بینالمللی شده تا بتوانند وارد رقابت بینالمللی فناوری شوند و خود را در این سطح حفظ کنند. باوجود مشارکت فعال و نفوذ شرکتهای بینالمللی، سازمانهای استاندارد جهانی و دولتهای خارجی، اتحادیه اروپا تنها میتواند بگوید خواهان قوانینی برای اعمال در حوزه بهکارگیری هوش مصنوعی در محصولات است، اما در تنظیم این قوانین تنها نیست.

      خطر زیاد هوش مصنوعی برای خدمات انسانی
      دسته دوم سامانههای هوش مصنوعی پرخطر اگرچه در چارچوب قانونی کنونی اتحادیه اروپا قرار نمیگیرند ولی شامل موارد مشخصی از سامانههای هوش مصنوعی هستند که بر حقوق بشر تأثیر میگذارند. این سامانهها که گاهی اوقات سامانههای هوش مصنوعی «مستقل» نامیده میشوند، به برنامههای هوش مصنوعی بخش خصوصی در استخدام، مدیریت کارکنان، دسترسی به آموزش و اعتبارسنجی مربوط میشوند و همچنین به هوش مصنوعی مورداستفاده در دولتها برای دسترسی به خدمات عمومی، اجرای قانون، کنترل مرزها، خدمات آب و برق و تصمیمگیریهای قضایی نیز تسری پیدا میکنند. تغییرات اخیر پیشنهادی از سوی پارلمان اروپا میتواند سامانههای بیمه، تریاژ پزشکی و هوش مصنوعی در تعامل با کودکان و هوش مصنوعی تأثیرگذار بر فرآیندهای دموکراتیک را هم به این لیست اضافه کند. الزامات استفاده دولت از هوش مصنوعی برای اروپا بسیار مهم خواهد بود (اروپا جایی است که الگوریتم ناموفق و اختلاس بودجه رفاه اجتماعی منجر به استعفای دولت هلند شد) اما این قضیه حداکثر یک الهام برای بقیه جهان خواهد بود، نه در مقام بروز قوانین جدید. در عوض تأثیر جهانی این قوانین بر سامانههای هوش مصنوعی بخش خصوصی در خدمات انسانی نشان داده خواهد شد.
      درک تأثیر این مقررات بر هوش مصنوعی در خدمات انسانی در بخش خصوصی ابتدا مستلزم تمایز قائل شدن بین هوش مصنوعی مورداستفاده در پلتفرمها و هوش مصنوعی مورداستفاده در سایر نرمافزارها است. این تمایز برای بررسی اثرات فرا سرزمینی AIA بسیار مهم است؛ هر چه سیستم هوش مصنوعی در پلتفرمهای پراکنده جغرافیایی (و نه محلی) بیشتر گنجانده شود، الزامات AIA بهطور جامعتری بر کل آن و نهفقط بر استفاده از آن در اتحادیه اروپا، تأثیر میگذارد.
      لینکدین[11]، بهعنوان یک پلتفرم کاملاً بههمپیوسته و بدون موانع جغرافیایی، مثال مفیدی در یک سوی این طیف است. بسیاری از الگوریتمهای لینکدین ممکن است در رده پرخطر AIA قرار گیرند، مانند الگوریتمهای قرار دادن آگهیهای شغلی و سامانههای توصیهکننده برای یافتن کاندیدای شغلی. این سامانههای هوش مصنوعی از دادههای شبکه کاربران لینکدین و تعاملات آنها استفاده میکنند و جدا کردن مدلها در هر حالت جغرافیایی دشوار است. این نمونه نشان میدهد که تغییرات در فرآیند یا عملکرد مدلسازی و همچنین مستندسازی و تحلیل سامانههای هوش مصنوعی تا حدودی برای پلتفرم، حالت فراگیر و جهانی دارد.
      همچنین این مسئله بدین معنی است که لینکدین بهسختی میتواند استانداردهای اتحادیه اروپا و مجموعه مقررات فرضی متفاوتی از کشور دیگر را رعایت کند. هرگونه تضادی مشکلی فوری و سریع برای لینکدین ایجاد میکند و احتمالاً نیازمند ایجاد فرآیندهای مدیریت ریسک مختلف، تلاش برای به حداقل رساندن سوگیری یا ایجاد چندین ورودی مختلف برای نگهداری سوابق است. این قوانین حتی ممکن است لینکدین را ملزم کند که عملکرد وبسایتشان را برای کاربران در مناطق جغرافیایی مختلف تغییر دهند و پلتفرمها از ایجاد این نوع تغییر بیزارند. در نتیجه، میتوان انتظار داشت که لینکدین و شرکت مادرش، مایکروسافت، در برابر الزامات قانونی اضافی در هوش مصنوعی سایر کشورها که با AIA ناسازگار هستند، بهشدت مقاومت کنند و در نتیجه احتمال تصویب آن را کاهش دهند - که جلوهای واضح از اثر بروکسل است. (هم اثر واقعی و هم اثر قانونی).
      این اثر بروکسل برای سرویسهای انسانی هوش مصنوعی که به پلتفرمهای پراکنده متصل نیستند و در عوض بر اساس دادههای محلی ساختهشدهاند و تعاملاتی مجزاتر با افراد دارند، بسیار کمتر محسوس است. بهعنوانمثال، یک شرکت چندملیتی را در نظر بگیرید که توسعه سامانههای هوش مصنوعی استخدام را برای تجزیهوتحلیل رزومه و ارزیابی نامزدهای شغلی برونسپاری میکند. این توسعهدهنده هوش مصنوعی، مدلهای مختلف هوش مصنوعی را برای فرصتهای شغلی مختلف و احتمالاً برای مناطق جغرافیایی مختلف (مثلاً زبانهای مختلف) خواهد ساخت. مثال دیگر نرمافزار فناوری آموزشی است که ممکن است شبکهای از دانشآموزان را به هم متصل کند، اما بهطور مستقل در مکانهای مختلف مستقر شود.
      در این شرایط، این احتمال وجود دارد که توسعهدهنده فقط الزامات AIA را برای سامانههای هوش مصنوعی مورداستفاده در اتحادیه اروپا دنبال کند و برای مدلهایی که مستقیماً مشمول قوانین AIA نیستند، توسعهدهنده احتمالاً بهطور دل بخواهی از قوانین AIA پیروی میکند. همچنین توسعهدهنده ممکن است تصمیم بگیرد که همیشه از یک سیستم سازگار یافته هوش مصنوعی استفاده کند، زیرا زمانی که این سیستم توسعه داده شد، میتواند بهسادگی به کار گرفتهشده و بیشتر برای شرکت ارزش خواهد داشت. بااینحال، هیچ دلیل و تضمینی وجود ندارد که فرض کنیم الزامات AIA بهطور جهانی رعایت خواهد شد، بهویژه مواردی که نیاز به تلاش قابلتوجه و فوقالعادهای برای هر سیستم هوش مصنوعی دارند. علاوه بر این شرکتها ممکن است در جمعآوری دادهها و تمیز کردن یا آزمایش مدل در شرایطی که امکان نظارتی وجود ندارد عملکرد دقیقی نداشته باشند، همانطور که اغلب در مورد مدلهای خارج از اتحادیه اروپا صادق است. نظارت انسانی و مدیریت فعال کیفیت میتواند گران باشد؛ بنابراین، بسیاری از شرکتها ممکن است از انجام این خدمات در خارج از اتحادیه اروپا خودداری کنند.
      بهطورکلی، هر چه سیستم هوش مصنوعی کمتری در یک شبکه بینالمللی یا یک پلتفرم باشد، احتمال اینکه مستقیماً تحت تأثیر قوانین AIA قرار گیرد، کمتر میشود و در نتیجه اثر بروکسل کاهش مییابد. بااینحال، این تمایز بین هوش مصنوعی در پلتفرمها در مقابل نرمافزارهای محلی بهراحتی از بین میرود. بهعنوانمثال، سامانههای هوش مصنوعی در نرمافزار مدیریت کارکنان (که واجد شرایط عنوان هوش مصنوعی پرخطر هستند) اغلب در پلتفرمهایی ساخته میشوند که در یک کسبوکار مشترک هستند. بااینکه این نرمافزار یک پلتفرم آنلاین نیست که بهطور گسترده در دسترس باشد، هر کسبوکار چندملیتی که کارمندانی در اتحادیه اروپا داشته باشد و از این نرمافزار استفاده کند، به سیستم هوش مصنوعیای نیاز دارد تا با AIA مطابقت داشته باشد. در این صورت معلوم نیست چه اتفاقی ممکن است بیفتد. این امکان وجود دارد که فروشنده کاملاً و بهطور جهانی از AIA پیروی کند تا مشتریانش بتوانند آزادانه از نرمافزارش در اتحادیه اروپا استفاده کنند. بااینحال، امکان دیگری نیز وجود دارد که برای پوشش هزینههای اضافی AIA، فروشنده نرخ اشتراک بالاتری را برای نرمافزار مورداستفاده در اتحادیه اروپا دریافت کند.
      بنابراین، آیا AIA نیز خواهد توانست با بهرهبرداری از اثر بروکسل بر خدمات انسانی هوش مصنوعی اثرگذار باشد؟ میتوان برای سامانههای هوش مصنوعی پرخطر که در پلتفرمهای بینالمللی تعبیهشدهاند با اطمینان گفت بله و در غیر این مورد، شاید نتواند آن سطح از توقع را تأمین کند. مطمئناً کمیسیون اروپا با بسته قانونی فوقالعادهای که آماده کرده و در آینده تکمیل خواهد کرد (قانون هوش مصنوعی، مقررات عمومی حفاظت از داده، قانون خدمات دیجیتال[12] و قانون بازارهای دیجیتال[13]) مجموعهای از ابزارهای بسیار تأثیرگذار برای اداره پلتفرمهای آنلاین را در اختیار خواهد داشت، ابزارهایی که بسیار فراتر از هر دولت دموکراتیک دیگر در سطح جهان است.

      افشای هوش مصنوعی در تعامل با انسان[14]
      AIA برای سامانههای هوش مصنوعی که با مردم تعامل دارند اما آشکارا بهعنوان یک سیستم هوش مصنوعی تلقی نمیشوند، تعهد ایجاد میکند. این بیانگر شکلگیری سریعترین عواقب بینالمللی برای چت بات­های مورداستفاده برای وبسایتها و برنامهها است، اگرچه احتمالاً در نهایت روی آواتارهای هوش مصنوعی در واقعیت مجازی نیز تأثیر خواهد گذاشت. اگر یک چتبات در گروه پرخطر قرار نگیرد (همانطور که ممکن است با مشاوره در مورد واجد شرایط بودن برای وام یا خدمات عمومی)، تنها شرطش این است که افراد مطلع شوند که بهجای یک انسان، با یک سیستم هوش مصنوعی در تعامل هستند. این شامل بسیاری از چت بات­های برنامههای تلفن تجاری (مانند مواردی که توسط دومینو و استارباکس استفاده میشود) و وبسایتها نیز میشود که احتمالاً فقط یک اعلان کوچک میدهند مبنی بر اینکه چت بات یک سیستم هوش مصنوعی هستند.
      منطقی است که انتظار داشته باشیم AIA در وبسایتها تأثیر جهانی قابلتوجهی داشته باشد. بهطورکلی، افزودن اعلان یا افشاگری که میگوید چت بات یک سیستم هوش مصنوعی است، یک تغییر فنی جزئی است؛ بنابراین بعید است که این الزام شرکتها را متقاعد کند که یک چت بات جداگانه برای بازدیدکنندگان اروپایی ایجاد کنند یا از دسترسی اروپاییها به چت بات یا وبسایتها جلوگیری کنند، محتملترین نتیجه این است که این افشاگری بهصورت جهانی به کار گرفته شود. ازآنجاییکه این شرکتها بهطورکلی قوانین اتحادیه اروپا را در سطح جهانی بدون اجبار رعایت میکنند، این هم یک نمونه واضح از اثر واقعی بروکسل است.
      ممکن است با چت بات­های مورداستفاده در برنامههای گوشیهای هوشمند متفاوت برخورد شود. بسیاری از برنامههای تجاری به دلیل زبانهای مختلف یا سایر الزامات قانونی از پیش بهطور خاص برای کشورهای مختلف طراحیشدهاند. در این صورت، اپلیکیشنهای موجود در بازارهای اروپایی نیاز به افشا خواهند شد، اما آنهایی که در مکانهای دیگر فعال هستند ممکن است نیازی به تغییر پیدا نکنند.
      الزامات شفافیت برای سامانههای تشخیص احساسات (همانطور که در قوانین AIA آمده است، این سامانهها بهندرت در وبسایتها به کار گرفته میشوند) و همچنین دیپفیکها[15] نیز اعمال میشود. صرفنظر از این، بااینکه الزامات افشای AIA ممکن است بهطور گسترده رعایت شود، تأثیر این تغییر نسبتاً اندک خواهد بود؛ حتی بااینکه ممکن است یکی از اثرات قابلمشاهده و جهانی AIA باشد.

      نتیجهگیری و توصیههای سیاستی
      یک تجزیهوتحلیل دقیق از مفاد این قانون فقط تأثیر فرا سرزمینی هدفمند و تأثیر محدود بروکسل را نشان میدهد. قوانین مربوط به هوش مصنوعی پرخطر در محصولات، توسط نیروهای بازار جهانی تعدیل خواهد شد، درحالیکه هوش مصنوعی پرخطر در خدمات انسانی تنها بر پلتفرمهای بینالمللی تأثیرگذار خواهد بود. علاوه بر این، الزامات شفافیت تنها منجر به تغییرات جزئی خواهد شد و تنها تعداد کمی از ویژگیهای ممنوع شده در این قانون به اتحادیه اروپا محدود خواهد شد. ممکن است اثرات دیگری مانند الهام بخشیدن به کشورهای دیگر برای تصویب مقررات هوش مصنوعی، بهطور بالقوه بر روی دستههای پرخطر هوش مصنوعی در میان باشد، اما این نوعی تقلید داوطلبانه نیست، بلکه جنبه اجباریتر اثر بروکسل است.
      قطعاً تأثیر فرا سرزمینی قانون هوش مصنوعی اتحادیه اروپا پیچیده خواهد بود، زیرا بسیاری از کسبوکارها بر اساس شرایط و انگیزههای خاص خود به آن پاسخ خواهند داد و عواقب ناخواسته این قانون هم قطعی است. این پیچیدگی، پیشبینی واکنشهای بازیگران تجاری را کاملاً خطرناک میسازد. بااینحال تلاش برای پیشبینی نتایج این قانون به دو دلیل برای حکمرانی جهانی ارزشمند است. اولاً، درک ویژگیهای ماهیت فرا سرزمینی AIA برای سایر دولتها مفید است تا نحوه واکنش آنها به AIA را هنگام اجرای حفاظتهای نظارتی خودشان بررسی کنند. ثانیاً، این تحلیل دیدگاه مشترک اروپا در خصوص مزایای اقتصادی «اولین» بودن و خوب بودن اثر بروکسل ناشی از آن برای تصویب AIA را به چالش میکشد.
      برای بقیه جهان، ممکن است اثرات AIA غالب نباشد، اما باز هم باید موردتوجه قرار گیرد. مدلهای تجاری خاص و کاربردهای هوش مصنوعی میتواند منجر به موقعیتهای غیرمنتظره و احتمالاً منجر به تضاد با مقررات موجود شود. کار بر روی قوانین پلتفرمهای متصلبههم بهویژه برای سامانههای هوش مصنوعی پرخطر، دشوار خواهد بود. سایر کشورها هم از طریق فرآیند استانداردها و از طریق ذخیرهسازی نظارتی میتوانند منسجم و فعالتر باشند. در مورد ایالاتمتحده، پیروی از دستورالعملهای نوامبر 2020 از سوی دفتر مدیریت و بودجه[16] که از آژانسها میخواهد تا مرجع نظارتی خود بر روی سامانههای هوش مصنوعی را بررسی کنند، بسیار ارزشمند است. تاکنون بااینکه ضربالاجل این کار ماهها قبل بوده است، فقط وزارت بهداشت و خدمات انسانی[17] یک بازرسی عمومی کامل از مسئولیتهای نظارت بر هوش مصنوعی خود منتشر کرده است. دولت بایدن بهجای انتظار برای اتحادیه اروپا و AIA، باید به وعده منشور حقوق هوش مصنوعی[18] خود عمل کند.
      در اتحادیه اروپا، دلایل خوبی برای تصویب AIA وجود دارد؛ دلایلی چون مبارزه با تقلب، کاهش تبعیض، محدود کردن سرمایهداری نظارتی و ...، اما تعیین یک استاندارد جهانی قطعاً یکی از این دلایل نیست. این امر برای توجیه اقتصادی اتحادیه اروپا مهم است، چراکه بسیاری از سیاستگذاران اروپایی استدلال کردهاند اولین دولتی که یک رژیم نظارتی را اجرا کند، در درازمدت به نفع شرکتهای اتحادیه اروپا کار میکند. این خط فکری استدلال میکند که وقتی اتحادیه اروپا مقرراتی را اجرا کند، ابتدا شرکتهای خودش با آن سازگار میشوند و سپس هنگامیکه بقیه جهان رویکرد اروپایی را اتخاذ کنند، شرکتهای مستقر در اتحادیه اروپا که قبلاً با قوانین سازگار شدهاند به بهترین نحو برای موفقیت در بازار جهانی آمادهشدهاند. بااینحال، این منطق تنها در صورتی امکانپذیر است که قوانین اتحادیه اروپا بهطور قابلتوجهی بر بازارهای جهانی تأثیر بگذارد که در این مقاله نشان دادیم این امر اگر بعید نباشد، غیرقطعی است.
      همچنین، این نتیجهگیری نشان میدهد که اتحادیه اروپا باید AIA را در یک جدول زمانی پیش ببرد تا نیازهای اروپا را برآورده کند، نه اینکه تنها به پایان و نتیجه فکر کند. AIA قبلاً به دلیل اختلافات سیاسی به تعویق افتاده است، بنابراین اگر قانونگذاران اتحادیه اروپا نیاز فوری به رسیدگی به آسیبهای هوش مصنوعی را حس میکنند (همانطور که در ایالاتمتحده بهخوبی نشان دادهشده است) به هر طریقی باید بهسرعت جلو بروند. بااینحال، انجام این کار بهمنظور تعیین یک استاندارد جهانی در مورد AIA اشتباه است. چراکه AIA اثر بروکسل قوی نخواهد داشت، اما منجر به نتایجی در خصوص مخابره پیامهای سیاسی اتحادیه اروپا به جهان خواهد شد. اتحادیه اروپا ممکن است با نشان دادن بازخورد بیشتر و همکاری با بقیه کشورهای دموکراتیک جهان، بهجای اینکه بگوید در حال "رقابت" برای تنظیم مقررات است، چیزهای بیشتری به دست بیاورد، در غیر این صورت اتحادیه اروپا ممکن است خود را در ایستگاه پایانی واقعاً تنها ببیند.

      منبع: اندیشکده بروکینز
      امیرعباس رکنی، دانشجوی دکتری امنیت ملی دانشگاه عالی دفاع ملی
      گروه مطالعات حقوقی و مقرراتی فضای مجازی



      [1] The European Union’s (EU) AI Act (AIA)
      [2] AI governance
      [3]self-certification
      [4] de facto
      این نوع شناسایی، موقت و قابلتغییر است.
      [5] de jure
      این نوع شناسایی قطعی و غیرقابل لغو و یک شناسایی تمام و کمال است.
      [6] enter for European Policy Studies
      [7] European standardization organizations (ESOs)
      [9] Trade and Technology Council
      [11] LinkedIn
      [12] Digital Services Act
      [13] Digital Markets Act
      [14] DISCLOSURE OF AI THAT INTERACTS WITH HUMANS
      [15] deepfakes
      [16] Office of Management and Budget
      [17] Department of Health and Human Services
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir