قانون هوش مصنوعی اتحادیه اروپا
[1] موسوم به
(The European Union’s AI Act) به دنبال ایجاد اولین طرح نظارتی جامع برای هوش مصنوعی است، اما تأثیر این قانون در محدوده اتحادیه اروپا متوقف نخواهد شد. در واقع، برخی از سیاست
گذاران اتحادیه اروپا بر این باور هستند که هدف مهم قانون
AIA تعیین یک استاندارد جهانی است حتی برخی از صاحب
نظران در این خصوص به شکل
گیری مسابقه
ای برای تنظیم مقررات هوش مصنوعی در جهان باور دارند. این چارچوب نشان می
دهد که نه
تنها تنظیم سامانه
های هوش مصنوعی ارزشمند است، بلکه قرار گرفتن در میان اولین دولت
هایی که این مقررات را پایه
گذاری می
کنند، تأثیر جهانی گسترده
ای به نفع اتحادیه اروپا خواهد داشت، تأثیری که اغلب از آن به
عنوان «اثر بروکسل» یاد می
شود. بااین
حال، با این
که برخی از اجزای قانون
AIA تأثیرات مهمی بر بازارهای جهانی خواهند گذاشت، اروپا به
تنهایی نخواهد توانست یک استاندارد بین
المللی جدید جامع برای هوش مصنوعی تعیین کند.
تأثیر فرا سرزمینی قانون
AIA بین بخش
ها و کاربردها بسیار متفاوت خواهد بود، اما بررسی جداگانه مفاد کلیدی این قانون در مورد میزان تأثیر مورد انتظار بروکسل منجر به شکل
گیری یک بینش اساسی در ما می
شود. در نظر گرفتن مواد اصلی قانون
AIA به ما نشان می
دهد که:
1. سامانه
های هوش مصنوعی در محصولات تحت نظارت در سراسر جهان تحت تأثیر این قانون قرار خواهند گرفت که این امر نمایانگر تأثیر واضح بروکسل است، اگرچه بازارهای موجود و استانداردهای بین
المللی و دولت
های خارجی نیز در این خصوص اثر واسطه
ای خود را خواهند گذاشت.
2. چنانچه سامانه
های هوش مصنوعی پرخطر برای ارائه خدمات انسانی در پلتفرم
های آنلاین یا به روش
های دیگر به
هم
پیوسته بین
المللی ساخته شوند، بسیار تحت تأثیر این قانون قرار خواهند گرفت، اما سامانه
های هوش مصنوعی که بیشتر محلی یا شخصی
سازی
شده هستند، به میزان محدودتری تحت تأثیر این قانون قرار خواهند گرفت.
3. الزامات شفافیت برای نوعی از هوش مصنوعی که با انسان
ها تعامل دارد (مانند چت بات
ها و سامانه
های تشخیص احساسات) منجر به افشاسازی گسترده و جهانی [در خصوص نحوه عملکرد] در بیشتر وب
سایت
ها و برنامه
ها می
شود.
به
طورکلی، این تحلیل، تأثیر جهانی
AIA را نسبت به آنچه سیاست
گذاران اتحادیه اروپا گفته
اند محدودتر ارزیابی می
کند، بااینکه این قانون به نفوذ جهانی قابل
توجه اتحادیه اروپا بر برخی از پلتفرم
های آنلاین کمک خواهد کرد، ممکن است مقررات بین
المللی را در حد متوسط شکل دهد. با در نظر گرفتن این موضوع، اتحادیه اروپا باید رویکردی مشارکتی
تر داشته باشد تا دولت
های دیگر را با دیدگاه خود در مورد حکمرانی هوش مصنوعی
[2] همراه کند.
مقدمه
بحث بین نهادهای اتحادیه اروپا در مورد اینکه قانون
AIA دقیقاً چه
کاری انجام خواهد داد (حتی تعریف "
"AI هنوز در حال مناقشه است) همچنان ادامه دارد، بااین
حال این پیشنهاد برای تجزیه
وتحلیل تأثیر احتمالی بین
المللی خود جاافتاده است. قانون هوش مصنوعی اتحادیه اروپا فرآیندی برای "خود تصدیقی
[3] و نظارت دولتی بر بسیاری از قسمت
های سامانه
های هوش مصنوعی پرخطر، الزامات شفافیت برای سامانه
های هوش مصنوعی که با مردم تعامل دارند و تلاش برای ممنوع کردن چند ویژگی «غیرقابل
قبول» از سامانه
های هوش مصنوعی " ایجاد خواهد کرد.
مقررات
AIA بدون شک تأثیرات فرا سرزمینی خواهند داشت، به این معنی که بر توسعه و استقرار بسیاری از سامانه
های هوش مصنوعی در سراسر جهان تأثیرگذار بوده و الهام
بخش و رهنمون تلاش
های قانونی مشابه نیز خواهند بود. بااین
حال، ایده اثر بروکسل پیامدهای مهمی فراتر از نفوذ در خارج از مرزهای اتحادیه اروپا دارد؛ به این معنا که اتحادیه اروپا می
تواند بدون اجبار و تنها با بازار مصرف
کننده 450 میلیون نفری خود به
طور یک
جانبه قوانینی را تعیین کند که به استانداردهای جهانی تبدیل شوند.
اثر بروکسل به دو شکل مرتبط «دفاکتو»
[4] و «دژور»
[5] نمایان می
شود که می
توان با استفاده از قوانین حریم خصوصی داده
های اتحادیه اروپا، به
ویژه مقررات عمومی حفاظت از داده
(GDPR) و دستورالعمل حفظ حریم خصوصی الکترونیکی، بین آن
ها افتراق گذاشت. بسیاری از وب
سایت
های جهان به
جای توسعه فرآیندهای جداگانه برای اروپایی
ها، الزامات اتحادیه اروپا در خصوص درخواست رضایت کاربران برای پردازش داده
های شخصی و استفاده از کوکی
ها را پذیرفته
اند این منعکس
کننده اثر واقعی بروکسل است که در آن شرکت
ها به شکل جهانی از قوانین اتحادیه اروپا پیروی می
کنند تا یک محصول یا خدمت را استاندارد کرده و فرآیندهای تجاری خود را ساده
تر کنند. این فرایند نیز اغلب با شیوه اثرگذاری به شکل دژور دنبال می
شود که در نتیجه آن قوانین به شکل رسمی در سایر کشورهایی که با قوانین اتحادیه اروپا همسو هستند تصویب می
شود، دلیل این فرایند آن است که شرکت
های چندملیتی شدیداً مخالف قوانینی هستند که می
تواند با فرآیندهای استاندارد آن
ها تضاد ایجاد کند. تا حدی به همین دلیل است که این مقررات حفظ حریم خصوصی باعث شده تا بسیاری از کشورهای دیگر قوانین منطبق یا مشابه با مقررات حفاظت از داده
ها را تصویب کنند؛ بنابراین، برای درک بهتر تأثیر احتمالی قانون
AIA، مانند قانون حریم خصوصی داده
ها، باید دو مؤلفه را در نظر گرفت:
- پیامدهای بینالمللی قانون AIA (اثر واقعی بروکسل) چه خواهد بود؟
- این قانون تا چه حد بهطور یکجانبه بر قوانین بینالمللی (اثر قانونی بروکسل) تأثیر خواهد گذاشت؟
قانونگذاران اتحادیه اروپا، علاوه بر اهداف اصلی این قانون در جهت حمایت از مصرفکنندگان این اتحادیه، اثر بروکسل را بهعنوان دلیلی برای تصویب سریع این قانون برشمردهاند و در این راستا میخواهند تا حدی، نوآوری هوش مصنوعی اتحادیه اروپا را هم تحریک کنند.
تفکر اولین بودن در فرایند تصویب قانون هوش مصنوعی و کسب مزیت اقتصادی قابل
توجه و پایدار به دنبال این پیش
گامی ایده رایجی در میان سیاست
گذاران اتحادیه اروپا است. بااین
حال، اخیراً یک گزارش از مرکز مطالعات سیاست اروپا
[6] استدلال کرده است که احتمال دارد اتحادیه مزیت رقابتی خود را در حاکمیت دیجیتال از دست بدهد، زیرا سایر کشورها در ظرفیت نظارتی دیجیتال سرمایه
گذاری کرده و به سطح اتحادیه اروپا می
رسند، درحالی
که این عامل اصلی نفوذ اتحادیه اروپا بر قوانین جهانی است. سایر تحقیقات دانشگاهی استدلال کرده
اند که شرایط اساسی حاکم بر بازار هوش مصنوعی اروپا، مثل هزینه
های بالای انتقال شرکت
های هوش مصنوعی و همچنین دشواری اندازه
گیری تأثیر مقررات هوش مصنوعی اتحادیه اروپا، به معنای کم
ارزش بودن رقابت نظارتی است که هدف آن جذب کسب
وکارها از طریق ایجاد مقررات شفاف و مؤثر است.
این دیدگاه
ها دلایلی برای تردید نسبت به تأثیر جهانی
AIA ارائه می
کنند، اما الزامات منحصربه
فرد
AIA با توجه به مدل
های تجاری واقعی شرکت
های دیجیتال را تجزیه
وتحلیل نمی
کنند. بااین
حال، تعامل بین مفاد خاص
AIA و ساختار سامانه
های هوش مصنوعی شرکت
های فناوری نشان
دهنده تأثیر جهانی کمتر این قانون است. نوشتار حاضر بر روی سه مؤلفه اصلی
AIA (هوش مصنوعی پرخطر در محصولات، هوش مصنوعی پرخطر در خدمات انسانی و الزامات شفافیت هوش مصنوعی) تمرکز دارد و تلاش می
کند تأثیر جهانی احتمالی آن را تخمین بزند. تخمین تأثیر جهانی احتمالی این قانون مستلزم تلاش برای پیش
بینی تغییر رفتار شرکت
ها در پاسخ به
AIA است که تلاشی دشوار و مملو از احتمال اشتباه در محاسبه خواهد بود. باوجوداین خطر، پیش
بینی واکنش سهامداران شرکت
ها برای ارزیابی و درک اثرات واقعی
AIA و تشخیص نحوه ایجاد اجماع بین
المللی ضروری است.
ریسک بالا تحت پوشش مقررات ایمنی محصول
AIA طیف گسترده
ای از سامانه
های هوش مصنوعی مورداستفاده در بخش
هایی که قبلاً تنظیم
شده
اند را در برمی
گیرد، مانند حمل
ونقل هوایی، وسایل نقلیه خودران، قایق
ها، آسانسورها، دستگاه
های پزشکی، ماشین
آلات صنعتی و غیره. در این موارد، الزامات هوش مصنوعی پرخطر در فرآیند ارزیابی انطباق با تنظیم
کننده
های بخشی، مانند آژانس ایمنی هوانوردی اتحادیه اروپا برای هواپیماها، یا ترکیبی از سازمان
های شخص ثالث تأییدشده و نهادهای مرکزی اتحادیه اروپا انجام می
شود، با هم دیگر ترکیب می
شوند، در مورد دستگاه
های پزشکی هم همین
طور است. این بدان معنی است که شرکت
های فرا سرزمینی که محصولات تحت نظارتی را در محدوده اتحادیه اروپا ارائه می
کنند، باید فرآیند ارزیابی انطباق را طی کنند.
AIA فقط ویژگی
ها و مشخصه
های این نظارت را تغییر خواهد داد، اما گستره یا روند آن را تغییر نمی
دهد.
بااین
حال، این تغییرات بی
اهمیت نیستند. به
طورکلی این تغییرات از شرکت
هایی که می
خواهند سامانه
های هوش مصنوعی را در محصولات خود برای فروش در اتحادیه اروپا قرار
دهند، می
خواهد که حداقل توجهی تخصصی به سامانه
های هوش مصنوعی داشته باشند. شرکت
ها باید یک فرآیند مدیریت ریسک را پیاده
سازی کنند، به
گونه
ای که با استانداردهای بالاتر داده مطابقت داشته باشند، سامانه
ها را به
طور کامل مستند کنند، اقدامات آن را به
طور سامانمند ثبت کنند، اطلاعاتی را در مورد عملکرد آن به کاربران ارائه دهند و نظارت انسانی و مستمر را فعال نمایند. برخی از این الزامات احتمالاً قبلاً توسط تنظیم
کننده
های بخشی که برای مدتی طولانی با هوش مصنوعی سروکار داشته، اجرا شده
اند، اما بیشترشان احتمالاً جدید هستند. نتیجه این است که سامانه
های هوش مصنوعی در محصولات تحت نظارت به
جای ارزیابی گسترده
تر عملکرد محصول، باید به مستندسازی، ارزیابی و پایش خودبه
خود بپردازند و این امر یک سطح جدیدتر و بالاتر برای سامانه
های هوش مصنوعی در محصولات ایجاد می
کند.
در متن قانون
AIA، دامنه فرا سرزمینی به محصولات فروخته
شده به اتحادیه اروپا محدود می
شود، بااین
حال هنوز احتمال زیادی هست که این امر به انطباق بین
المللی برسد. لذا برای ادامه صادرات به بازار مصرف بزرگ اروپا، شرکت
های خارجی باید این فرآیندها را اجرا نمایند. اگرچه قوانین جدید به عملکرد سامانه
های هوش مصنوعی محدود می
شود، بسیاری از این محصولات در فرآیندهای صنعتی در مقیاس بزرگ تولید می
شوند، مثلاً یک تسمه
نقاله را تصور کنید. سازگاری در فرآیندهای تسمه
نقاله به معنای محصول ارزان
تر و قیمت
های رقابتی
تر برای شرکت
ها است، درحالی
که اعمال تغییرات به تسمه
های نقاله متفاوت و فرآیندهای مختلف آزمودن و ایمنی نیاز دارند و عموماً گران
تر خواهند بود؛ بنابراین منطقی است که فرض کنیم بسیاری از تولیدکنندگان خارجی با قوانین
AIA سازگار خواهند شد و به
محض این
که خود را سازگار کردند، اغلب انگیزه
ای قوی برای حفظ قوانین داخلی مشابه با قوانین اتحادیه اروپا را دارند.
این امر ظاهراً یک نمونه کلاسیک از اثر بروکسل به نظر می
رسد و تحقیقات دانشگاهی نشان داده است که اتحادیه اروپا زمانی بیشترین تأثیر را دارد که قدرت حذف محصولات از بازار خود را داشته باشد، همان
طور که در اینجا چنین قدرتی دارد. بااین
حال، وضع قوانین یک
جانبه اتحادیه اروپا یک اثر مشخص نخواهد داشت. سه عامل وجود دارد که تأثیر اروپا بر این قوانین جدید را کاهش می
دهد:
بازارهای موجود، سازمانهای استاندارد بینالمللی و دولتهای خارجی.
اولاً، ازآنجاکه این قوانین جدید بر محصولاتی که قبلاً تنظیم
شده
اند تأثیرگذار است، شرکت
های خارجی زیادی در حال فروش محصولات در اتحادیه اروپا هستند و این قوانین را زیر نظر خواهند داشت. این شرکت
ها صادرکنندگان عمده به اتحادیه اروپا هستند، مانند شرکت
های دستگاه
های پزشکی از ایالات
متحده، بازوهای روباتیک از ژاپن، وسایل نقلیه از چین و بسیاری شرکت
های دیگر. این کسب
وکارهای بزرگ بین
المللی خارج از اتحادیه اروپا به
راحتی تنظیم نخواهند شد، اما فعالانه درگیر خواهند شد تا مطمئن شوند این قوانین به سهم بازار آن
ها ضرر نمی
رساند.
نحوه ادغام نهادهای استاندارد اتحادیه اروپا در سازمان
های استاندارد جهانی به این شرکت
ها کمک خواهند کرد.
AIA خود به
طور مستقیم استانداردهای خاصی را برای محصولات بی
شماری که از هوش مصنوعی استفاده می
کنند تعیین نمی
کند، زیرا می
دانیم به
طورکلی انجام این کار برای هیچ نهاد قانون
گذاری ممکن نیست. در عوض،
AIA برای این کار اختیارات قابل
توجهی را به سازمان
های استاندارد اروپایی
[7] (ESO) تفویض می
کند.
سازمان
های استاندارد اروپایی صرفاً در حوزه اروپایی عمل نمی
کنند. "سطح بالایی از همگرایی"
[8] بین سازمان
های استاندارد اروپایی و نهادهای استاندارد بین
المللی وجود دارد که از چندین دهه قبل آغازشده است. این ارتباط قوی با نهادهای استاندارد بین
المللی به شرکت
های خارجی مسیر روشنی را نشان می
دهد، همان مسیری که استانداردهای اتحادیه اروپا نوشته
اند. در واقع، کار سازمان
های استاندارد در داخل و خارج اتحادیه اروپا سال
هاست که ادامه داشته و مسیری طولانی را برای شرکت
های جهانی هموار می
کنند تا این شرکت
ها بتوانند تخصص خود را ارائه دهند و نفوذ سیاسی داشته باشند.
در آخر، دولت
های خارجی نیز تلاش خواهند کرد تا از طریق سازمان
های استاندارد اروپایی بر توسعه استانداردها تأثیر بگذارند. این مورد بیشتر شورای تجارت و فناوری
[9] مشترک اتحادیه اروپا و ایالات
متحده مشهود است که کارگروه استانداردهای فناوری را تشکیل داده است. اگر شورای جدید تجارت و فناوری مشترک اتحادیه اروپا و هند
[10] نیز به استانداردهای هوش مصنوعی بپردازد هم جالب می
شود. این روند اخیر آن
قدر ادامه پیدا می
کند که در آن کشورهایی ازجمله ایالات
متحده و چین بسیار فعالانه درگیر رویکردهای استراتژیک برای تنظیم استانداردهای بین
المللی شده
تا بتوانند وارد رقابت بین
المللی فناوری شوند و خود را در این سطح حفظ کنند. باوجود مشارکت فعال و نفوذ شرکت
های بین
المللی، سازمان
های استاندارد جهانی و دولت
های خارجی، اتحادیه اروپا تنها می
تواند بگوید خواهان قوانینی برای اعمال در حوزه به
کارگیری هوش مصنوعی در محصولات است، اما در تنظیم این قوانین تنها نیست.
خطر زیاد هوش مصنوعی برای خدمات انسانی
دسته دوم سامانه
های هوش مصنوعی پرخطر اگرچه در چارچوب قانونی کنونی اتحادیه اروپا قرار نمی
گیرند ولی شامل موارد مشخصی از سامانه
های هوش مصنوعی هستند که بر حقوق بشر تأثیر می
گذارند. این سامانه
ها که گاهی اوقات سامانه
های هوش مصنوعی «مستقل» نامیده می
شوند، به برنامه
های هوش مصنوعی بخش خصوصی در استخدام، مدیریت کارکنان، دسترسی به آموزش و اعتبارسنجی مربوط می
شوند و همچنین به هوش مصنوعی مورداستفاده در دولت
ها برای دسترسی به خدمات عمومی، اجرای قانون، کنترل مرزها، خدمات آب و برق و تصمیم
گیری
های قضایی نیز تسری پیدا می
کنند. تغییرات اخیر پیشنهادی از سوی پارلمان اروپا می
تواند سامانه
های بیمه، تریاژ پزشکی و هوش مصنوعی در تعامل با کودکان و هوش مصنوعی تأثیرگذار بر فرآیندهای دموکراتیک را هم به این لیست اضافه کند.
الزامات استفاده دولت از هوش مصنوعی برای اروپا بسیار مهم خواهد بود (اروپا جایی است که الگوریتم ناموفق و اختلاس بودجه رفاه اجتماعی منجر به استعفای دولت هلند شد) اما این قضیه حداکثر یک الهام برای بقیه جهان خواهد بود، نه در مقام بروز قوانین جدید. در عوض تأثیر جهانی این قوانین بر سامانه
های هوش مصنوعی بخش خصوصی در خدمات انسانی نشان داده خواهد شد.
درک تأثیر این مقررات بر هوش مصنوعی در خدمات انسانی در بخش خصوصی ابتدا مستلزم تمایز قائل شدن بین هوش مصنوعی مورداستفاده در پلتفرم
ها و هوش مصنوعی مورداستفاده در سایر نرم
افزارها است. این تمایز برای بررسی اثرات فرا سرزمینی
AIA بسیار مهم است؛ هر چه سیستم هوش مصنوعی در پلتفرم
های پراکنده جغرافیایی (و نه محلی) بیشتر گنجانده شود، الزامات
AIA به
طور جامع
تری بر کل آن و نه
فقط بر استفاده از آن در اتحادیه اروپا، تأثیر می
گذارد.
لینکدین
[11]، به
عنوان یک پلتفرم کاملاً به
هم
پیوسته و بدون موانع جغرافیایی، مثال مفیدی در یک سوی این طیف است. بسیاری از الگوریتم
های لینکدین ممکن است در رده پرخطر
AIA قرار گیرند، مانند الگوریتم
های قرار دادن آگهی
های شغلی و سامانه
های توصیه
کننده برای یافتن کاندیدای شغلی. این سامانه
های هوش مصنوعی از داده
های شبکه کاربران لینکدین و تعاملات آن
ها استفاده می
کنند و جدا کردن مدل
ها در هر حالت جغرافیایی دشوار است. این نمونه نشان می
دهد که تغییرات در فرآیند یا عملکرد مدل
سازی و همچنین مستندسازی و تحلیل سامانه
های هوش مصنوعی تا حدودی برای پلتفرم، حالت فراگیر و جهانی دارد.
همچنین این مسئله بدین معنی است که لینکدین به
سختی می
تواند استانداردهای اتحادیه اروپا و مجموعه مقررات فرضی متفاوتی از کشور دیگر را رعایت کند. هرگونه تضادی مشکلی فوری و سریع برای لینکدین ایجاد می
کند و احتمالاً نیازمند ایجاد فرآیندهای مدیریت ریسک مختلف، تلاش برای به حداقل رساندن سوگیری یا ایجاد چندین ورودی مختلف برای نگهداری سوابق است. این قوانین حتی ممکن است لینکدین را ملزم کند که عملکرد وب
سایتشان را برای کاربران در مناطق جغرافیایی مختلف تغییر دهند و پلتفرم
ها از ایجاد این نوع تغییر بیزارند. در نتیجه، می
توان انتظار داشت که لینکدین و شرکت مادرش، مایکروسافت، در برابر الزامات قانونی اضافی در هوش مصنوعی سایر کشورها که با
AIA ناسازگار هستند، به
شدت مقاومت کنند و در نتیجه احتمال تصویب آن را کاهش دهند - که جلوه
ای واضح از اثر بروکسل است. (هم اثر واقعی و هم اثر قانونی).
این اثر بروکسل برای سرویس
های انسانی هوش مصنوعی که به پلتفرم
های پراکنده متصل نیستند و در عوض بر اساس داده
های محلی ساخته
شده
اند و تعاملاتی مجزاتر با افراد دارند، بسیار کمتر محسوس است. به
عنوان
مثال، یک شرکت چندملیتی را در نظر بگیرید که توسعه سامانه
های هوش مصنوعی استخدام را برای تجزیه
وتحلیل رزومه و ارزیابی نامزدهای شغلی برون
سپاری می
کند. این توسعه
دهنده هوش مصنوعی، مدل
های مختلف هوش مصنوعی را برای فرصت
های شغلی مختلف و احتمالاً برای مناطق جغرافیایی مختلف (مثلاً زبان
های مختلف) خواهد ساخت. مثال دیگر نرم
افزار فناوری آموزشی است که ممکن است شبکه
ای از دانش
آموزان را به هم متصل کند، اما به
طور مستقل در مکان
های مختلف مستقر شود.
در این شرایط، این احتمال وجود دارد که توسعه
دهنده فقط الزامات
AIA را برای سامانه
های هوش مصنوعی مورداستفاده در اتحادیه اروپا دنبال کند و برای مدل
هایی که مستقیماً مشمول قوانین
AIA نیستند، توسعه
دهنده احتمالاً به
طور دل بخواهی از قوانین
AIA پیروی می
کند. همچنین توسعه
دهنده ممکن است تصمیم بگیرد که همیشه از یک سیستم سازگار یافته هوش مصنوعی استفاده کند، زیرا زمانی که این سیستم توسعه داده شد، می
تواند به
سادگی به کار گرفته
شده و بیشتر برای شرکت ارزش خواهد داشت. بااین
حال، هیچ دلیل و تضمینی وجود ندارد که فرض کنیم الزامات
AIA به
طور جهانی رعایت خواهد شد، به
ویژه مواردی که نیاز به تلاش قابل
توجه و فوق
العاده
ای برای هر سیستم هوش مصنوعی دارند. علاوه بر این شرکت
ها ممکن است در جمع
آوری داده
ها و تمیز کردن یا آزمایش مدل در شرایطی که امکان نظارتی وجود ندارد عملکرد دقیقی نداشته باشند، همان
طور که اغلب در مورد مدل
های خارج از اتحادیه اروپا صادق است. نظارت انسانی و مدیریت فعال کیفیت می
تواند گران باشد؛ بنابراین، بسیاری از شرکت
ها ممکن است از انجام این خدمات در خارج از اتحادیه اروپا خودداری کنند.
به
طورکلی، هر چه سیستم هوش مصنوعی کمتری در یک شبکه بین
المللی یا یک پلتفرم باشد، احتمال اینکه مستقیماً تحت تأثیر قوانین
AIA قرار گیرد، کمتر می
شود و در نتیجه اثر بروکسل کاهش می
یابد. بااین
حال، این تمایز بین هوش مصنوعی در پلتفرم
ها در مقابل نرم
افزارهای محلی به
راحتی از بین می
رود. به
عنوان
مثال، سامانه
های هوش مصنوعی در نرم
افزار مدیریت کارکنان (که واجد شرایط عنوان هوش مصنوعی پرخطر هستند) اغلب در پلتفرم
هایی ساخته می
شوند که در یک کسب
وکار مشترک هستند. بااینکه این نرم
افزار یک پلتفرم آنلاین نیست که به
طور گسترده در دسترس باشد، هر کسب
وکار چندملیتی که کارمندانی در اتحادیه اروپا داشته باشد و از این نرم
افزار استفاده کند، به سیستم هوش مصنوعی
ای نیاز دارد تا با
AIA مطابقت داشته باشد. در این صورت معلوم نیست چه اتفاقی ممکن است بیفتد. این امکان وجود دارد که فروشنده کاملاً و به
طور جهانی از
AIA پیروی کند تا مشتریانش بتوانند آزادانه از نرم
افزارش در اتحادیه اروپا استفاده کنند. بااین
حال، امکان دیگری نیز وجود دارد که برای پوشش هزینه
های اضافی
AIA، فروشنده نرخ اشتراک بالاتری را برای نرم
افزار مورداستفاده در اتحادیه اروپا دریافت کند.
بنابراین، آیا
AIA نیز خواهد توانست با بهره
برداری از اثر بروکسل بر خدمات انسانی هوش مصنوعی اثرگذار باشد؟ می
توان برای سامانه
های هوش مصنوعی پرخطر که در پلتفرم
های بین
المللی تعبیه
شده
اند با اطمینان گفت بله و در غیر این مورد، شاید نتواند آن سطح از توقع را تأمین کند. مطمئناً کمیسیون اروپا با بسته قانونی فوق
العاده
ای که آماده کرده و در آینده تکمیل خواهد کرد (قانون هوش مصنوعی، مقررات عمومی حفاظت از داده، قانون خدمات دیجیتال
[12] و قانون بازارهای دیجیتال
[13]) مجموعه
ای از ابزارهای بسیار تأثیرگذار برای اداره پلتفرم
های آنلاین را در اختیار خواهد داشت، ابزارهایی که بسیار فراتر از هر دولت دموکراتیک دیگر در سطح جهان است.
افشای هوش مصنوعی در تعامل با انسان[14]
AIA برای سامانه
های هوش مصنوعی که با مردم تعامل دارند اما آشکارا به
عنوان یک سیستم هوش مصنوعی تلقی نمی
شوند، تعهد ایجاد می
کند. این بیانگر شکل
گیری سریع
ترین عواقب بین
المللی برای چت بات
های مورداستفاده برای وب
سایت
ها و برنامه
ها است، اگرچه احتمالاً در نهایت روی آواتارهای هوش مصنوعی در واقعیت مجازی نیز تأثیر خواهد گذاشت. اگر یک چت
بات در گروه پرخطر قرار نگیرد (همان
طور که ممکن است با مشاوره در مورد واجد شرایط بودن برای وام یا خدمات عمومی)، تنها شرطش این است که افراد مطلع شوند که به
جای یک انسان، با یک سیستم هوش مصنوعی در تعامل هستند. این شامل بسیاری از چت بات
های برنامه
های تلفن تجاری (مانند مواردی که توسط دومینو و استارباکس استفاده می
شود) و وب
سایت
ها نیز می
شود که احتمالاً فقط یک اعلان کوچک می
دهند مبنی بر اینکه چت بات یک سیستم هوش مصنوعی هستند.
منطقی است که انتظار داشته باشیم
AIA در وب
سایت
ها تأثیر جهانی قابل
توجهی داشته باشد. به
طورکلی، افزودن اعلان یا افشاگری که می
گوید چت بات یک سیستم هوش مصنوعی است، یک تغییر فنی جزئی است؛ بنابراین بعید است که این الزام شرکت
ها را متقاعد کند که یک چت بات جداگانه برای بازدیدکنندگان اروپایی ایجاد کنند یا از دسترسی اروپایی
ها به چت
بات یا وب
سایت
ها جلوگیری کنند، محتمل
ترین نتیجه این است که این افشاگری به
صورت جهانی به کار گرفته شود. ازآنجایی
که این شرکت
ها به
طورکلی قوانین اتحادیه اروپا را در سطح جهانی بدون اجبار رعایت می
کنند، این هم یک نمونه واضح از اثر واقعی بروکسل است.
ممکن است با چت بات
های مورداستفاده در برنامه
های گوشی
های هوشمند متفاوت برخورد شود. بسیاری از برنامه
های تجاری به دلیل زبان
های مختلف یا سایر الزامات قانونی از پیش به
طور خاص برای کشورهای مختلف طراحی
شده
اند. در این صورت، اپلیکیشن
های موجود در بازارهای اروپایی نیاز به افشا خواهند شد، اما آن
هایی که در مکان
های دیگر فعال هستند ممکن است نیازی به تغییر پیدا نکنند.
الزامات شفافیت برای سامانه
های تشخیص احساسات (همان
طور که در قوانین
AIA آمده است، این سامانه
ها به
ندرت در وب
سایت
ها به کار گرفته می
شوند) و همچنین دیپ
فیک
ها
[15] نیز اعمال می
شود. صرف
نظر از این، بااینکه الزامات افشای
AIA ممکن است به
طور گسترده رعایت شود، تأثیر این تغییر نسبتاً اندک خواهد بود؛ حتی بااینکه ممکن است یکی از اثرات قابل
مشاهده و جهانی
AIA باشد.
نتیجهگیری و توصیههای سیاستی
یک تجزیه
وتحلیل دقیق از مفاد این قانون فقط تأثیر فرا سرزمینی هدفمند و تأثیر محدود بروکسل را نشان می
دهد. قوانین مربوط به هوش مصنوعی پرخطر در محصولات، توسط نیروهای بازار جهانی تعدیل خواهد شد، درحالی
که هوش مصنوعی پرخطر در خدمات انسانی تنها بر پلتفرم
های بین
المللی تأثیرگذار خواهد بود. علاوه بر این، الزامات شفافیت تنها منجر به تغییرات جزئی خواهد شد و تنها تعداد کمی از ویژگی
های ممنوع شده در این قانون به اتحادیه اروپا محدود خواهد شد. ممکن است اثرات دیگری مانند الهام بخشیدن به کشورهای دیگر برای تصویب مقررات هوش مصنوعی، به
طور بالقوه بر روی دسته
های پرخطر هوش مصنوعی در میان باشد، اما این نوعی تقلید داوطلبانه نیست، بلکه جنبه اجباری
تر اثر بروکسل است.
قطعاً تأثیر فرا سرزمینی قانون هوش مصنوعی اتحادیه اروپا پیچیده خواهد بود، زیرا بسیاری از کسب
وکارها بر اساس شرایط و انگیزه
های خاص خود به آن پاسخ خواهند داد و عواقب ناخواسته این قانون هم قطعی است. این پیچیدگی، پیش
بینی واکنش
های بازیگران تجاری را کاملاً خطرناک می
سازد. بااین
حال تلاش برای پیش
بینی نتایج این قانون به دو دلیل برای حکمرانی جهانی ارزشمند است. اولاً، درک ویژگی
های ماهیت فرا سرزمینی
AIA برای سایر دولت
ها مفید است تا نحوه واکنش آن
ها به
AIA را هنگام اجرای حفاظت
های نظارتی خودشان بررسی کنند. ثانیاً، این تحلیل دیدگاه مشترک اروپا در خصوص مزایای اقتصادی «اولین» بودن و خوب بودن اثر بروکسل ناشی از آن برای تصویب
AIA را به چالش می
کشد.
برای بقیه جهان، ممکن است اثرات
AIA غالب نباشد، اما باز هم باید موردتوجه قرار گیرد. مدل
های تجاری خاص و کاربردهای هوش مصنوعی می
تواند منجر به موقعیت
های غیرمنتظره و احتمالاً منجر به تضاد با مقررات موجود شود. کار بر روی قوانین پلتفرم
های متصل
به
هم به
ویژه برای سامانه
های هوش مصنوعی پرخطر، دشوار خواهد بود. سایر کشورها هم از طریق فرآیند استانداردها و از طریق ذخیره
سازی نظارتی می
توانند منسجم و فعال
تر باشند. در مورد ایالات
متحده، پیروی از دستورالعمل
های نوامبر 2020 از سوی دفتر مدیریت و بودجه
[16] که از آژانس
ها می
خواهد تا مرجع نظارتی خود بر روی سامانه
های هوش مصنوعی را بررسی کنند، بسیار ارزشمند است. تاکنون بااینکه ضرب
الاجل این کار ماه
ها قبل بوده است، فقط وزارت بهداشت و خدمات انسانی
[17] یک بازرسی عمومی کامل از مسئولیت
های نظارت بر هوش مصنوعی خود منتشر کرده است. دولت بایدن به
جای انتظار برای اتحادیه اروپا و
AIA، باید به وعده منشور حقوق هوش مصنوعی
[18] خود عمل کند.
در اتحادیه اروپا، دلایل خوبی برای تصویب
AIA وجود دارد؛ دلایلی چون مبارزه با تقلب، کاهش تبعیض، محدود کردن سرمایه
داری نظارتی و ...، اما تعیین یک استاندارد جهانی قطعاً یکی از این دلایل نیست. این امر برای توجیه اقتصادی اتحادیه اروپا مهم است، چراکه بسیاری از سیاست
گذاران اروپایی استدلال کرده
اند اولین دولتی که یک رژیم نظارتی را اجرا کند، در درازمدت به نفع شرکت
های اتحادیه اروپا کار می
کند. این خط فکری استدلال می
کند که وقتی اتحادیه اروپا مقرراتی را اجرا
کند، ابتدا شرکت
های خودش با آن سازگار می
شوند و سپس هنگامی
که بقیه جهان رویکرد اروپایی را اتخاذ کنند، شرکت
های مستقر در اتحادیه اروپا که قبلاً با قوانین سازگار شده
اند به بهترین نحو برای موفقیت در بازار جهانی آماده
شده
اند. بااین
حال، این منطق تنها در صورتی امکان
پذیر است که قوانین اتحادیه اروپا به
طور قابل
توجهی بر بازارهای جهانی تأثیر بگذارد که در این مقاله نشان دادیم این امر اگر بعید نباشد، غیرقطعی است.
همچنین، این نتیجه
گیری نشان می
دهد که اتحادیه اروپا باید
AIA را در یک جدول زمانی پیش ببرد تا نیازهای اروپا را برآورده کند، نه این
که تنها به پایان و نتیجه فکر کند.
AIA قبلاً به دلیل اختلافات سیاسی به تعویق افتاده است، بنابراین اگر قانون
گذاران اتحادیه اروپا نیاز فوری به رسیدگی به آسیب
های هوش مصنوعی را حس می
کنند (همان
طور که در ایالات
متحده به
خوبی نشان داده
شده است) به هر طریقی باید به
سرعت جلو بروند. بااین
حال، انجام این کار به
منظور تعیین یک استاندارد جهانی در مورد
AIA اشتباه است. چراکه
AIA اثر بروکسل قوی نخواهد داشت، اما منجر به نتایجی در خصوص مخابره پیام
های سیاسی اتحادیه اروپا به جهان خواهد شد. اتحادیه اروپا ممکن است با نشان دادن بازخورد بیشتر و همکاری با بقیه کشورهای دموکراتیک جهان، به
جای اینکه بگوید در حال "رقابت" برای تنظیم مقررات است، چیزهای بیشتری به دست بیاورد، در غیر این صورت اتحادیه اروپا ممکن است خود را در ایستگاه پایانی واقعاً تنها ببیند.
منبع:
اندیشکده بروکینز
امیرعباس رکنی، دانشجوی دکتری امنیت ملی دانشگاه عالی دفاع ملی
گروه مطالعات حقوقی و مقرراتی فضای مجازی
[1] The European Union’s (EU) AI Act (AIA)
[4] de facto
این نوع شناسایی، موقت و قابل
تغییر است
.
[5] de jure
این نوع شناسایی قطعی و غیرقابل لغو و یک شناسایی تمام و کمال است.
[6] enter for European Policy Studies
[7] European standardization organizations (ESOs)
[9] Trade and Technology Council
[12] Digital Services Act
[14] DISCLOSURE OF AI THAT INTERACTS WITH HUMANS
[16] Office of Management and Budget
[17] Department of Health and Human Services