گزارش هشدار می دهد که رویکرد بریتانیا به ایمنی هوش مصنوعی فاقد اعتبار است
به گزارش سایت نود و هشت زوم گزارش هشدار می دهد که رویکرد بریتانیا به ایمنی هوش مصنوعی فاقد اعتبار است
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت
دولت بریتانیا در هفتههای اخیر در تلاش بوده تا تصویری از خود بهعنوان یک محرک بینالمللی در زمینه نوپای ایمنی هوش مصنوعی بپروراند – اعلامیهای پرزرق و برق از نشست آتی در این زمینه در ماه گذشته، همراه با تعهد به 100 میلیون پوند را صرف یک کارگروه مدل بنیادی کنید که تحقیقات ایمنی هوش مصنوعی “پیشترین” را انجام خواهد داد.
با این حال، همان دولت، به رهبری نخستوزیر بریتانیا و سوپر طرفدار سیلیکون ولی، ریشی سوناک، از نیاز به تصویب قوانین داخلی جدید برای تنظیم برنامههای کاربردی هوش مصنوعی اجتناب کرده است – موضعی که سیاستگذاری خود در مورد موضوعی که برندهای طرفدار نوآوری است.
همچنین در بحبوحه تصویب یک اصلاح مقررات زدایی در چارچوب ملی حفاظت از داده ها است که خطری برای مقابله با ایمنی هوش مصنوعی دارد.
مورد اخیر یکی از چندین نتیجه گیری موسسه تحقیقاتی مستقل آدا لاولیس، بخشی از بنیاد خیریه نوفیلد است که در گزارش جدیدی به بررسی رویکرد بریتانیا در تنظیم مقررات هوش مصنوعی می پردازد که صدایی دیپلماتیک اما گاهی اوقات بسیار ناخوشایند می کند. خواندن برای وزرا
این گزارش شامل 18 توصیه کامل برای ارتقای سطح سیاست/اعتبار دولت در این زمینه است – یعنی اگر بریتانیا بخواهد در این زمینه جدی گرفته شود.
این مؤسسه از تعریف «گرانقیمت» ایمنی هوش مصنوعی دفاع میکند – «منعکس کننده طیف گستردهای از آسیبهایی است که با توانمندتر شدن و تعبیه شدن سیستمهای هوش مصنوعی در جامعه به وجود میآیند». بنابراین، این گزارش به نحوه تنظیم «سیستمهای هوش مصنوعی میتوانند باعث ایجاد امروز شوند» مربوط میشود. آنها را مضرات هوش مصنوعی در دنیای واقعی بنامید. (نه با الهام از خطرات احتمالی نظری علمی تخیلی که اخیراً توسط برخی از چهره های برجسته در صنعت فناوری افزایش یافته است، ظاهراً در تلاشی برای سیاست گذاران هک توجه.)
در حال حاضر، منصفانه است که بگوییم رویکرد دولت سوناک برای تنظیم ایمنی هوش مصنوعی (در دنیای واقعی) متناقض بوده است. با این ادعا که میخواهد از ایمنی دفاع کند، اما به سیاستهای پیشنهادی برای تنظیم قوانین اساسی برای محافظت در برابر خطرات و آسیبهایی که میدانیم میتواند از برنامههای غیرقابل قضاوت اتوماسیون سرازیر شود، سنگین است.
در اینجا موسسه آدا لاولیس است که بمب حقیقت اولیه را رها می کند:
دولت بریتانیا جاهطلبی خود را برای تبدیل کردن بریتانیا به یک ابرقدرت هوش مصنوعی، استفاده از اهرم توسعه و تکثیر فناوریهای هوش مصنوعی به نفع جامعه و اقتصاد بریتانیا و میزبانی یک نشست جهانی در پاییز 2023 اعلام کرده است. مقررات داخلی، که بستری را برای اقتصاد آینده هوش مصنوعی بریتانیا فراهم می کند.
تیفهرست پیشنهادات او در ادامه گزارش میدهد تا مشخص کند که موسسه فضای زیادی برای بهبود رویکرد فعلی بریتانیا به هوش مصنوعی میبیند.
در اوایل سال جاری، دولت رویکرد ترجیحی خود را برای تنظیم هوش مصنوعی در داخل کشور منتشر کرد – گفت که در این مرحله نیازی به قوانین جدید یا نهادهای نظارتی نمی بیند. در عوض، وایت پیپر مجموعهای از اصول انعطافپذیر را ارائه کرد که دولت پیشنهاد کرد تنظیمکنندههای موجود، خاص (و/یا فرابخشی) باید «تفسیر و اعمال هوش مصنوعی را در چارچوب وظایف خود انجام دهند». فقط بدون هیچ گونه قدرت قانونی جدید یا بودجه اضافی برای نظارت بر استفاده های جدید از هوش مصنوعی.
پنج اصل مطرح شده در کاغذ سفید عبارتند از: ایمنی، امنیت و استحکام. شفافیت و توضیح مناسب؛ انصاف؛ مسئولیت پذیری و حاکمیت؛ قابل اعتراض و جبران خسارت. همه اینها روی کاغذ خوب به نظر می رسد – اما کاغذ به تنهایی نمی تواند آن را در تنظیم ایمنی هوش مصنوعی کاهش دهد.
طرح بریتانیا برای اجازه دادن به تنظیمکنندههای موجود در مورد هوش مصنوعی با استفاده از اصول کلی و بدون هیچ منبع جدیدی در تضاد با طرح اتحادیه اروپا است که در آن قانونگذاران مشغول دستیابی به توافق بر روی چارچوبی مبتنی بر ریسک هستند. اجرایی در سال 2021 پیشنهاد شد.
رویکرد بودجهای کوتاه بریتانیا در کنار نهادن تنظیمکنندههای موجود و پرکار با مسئولیتهای جدید برای چشماندازی به پیشرفتهای هوش مصنوعی در پچ خود بدون هیچ گونه قدرتی برای اعمال نتایج بر روی بازیگران بد، در مورد ایمنی هوش مصنوعی به زبان ساده چندان معتبر به نظر نمیرسد.
اگر طرفدار نوآوری هستید، حتی یک استراتژی منسجم به نظر نمی رسد – زیرا از توسعه دهندگان هوش مصنوعی می خواهد که مجموعه ای از قوانین مربوط به بخش خاص و فرابخشی را در نظر بگیرند که مدت ها قبل از آخرین رونق هوش مصنوعی تهیه شده است. توسعه دهندگان همچنین ممکن است خود را تحت نظارت تعدادی از نهادهای نظارتی مختلف ببینند (هرچقدر که توجه آنها ضعیف باشد، با توجه به کمبود منابع و قدرت آتش قانونی برای اجرای اصول فوق الذکر). بنابراین، واقعاً به نظر می رسد یک دستور العمل برای آن باشد عدم اطمینان در مورد اینکه قوانین موجود ممکن است برای برنامه های هوش مصنوعی اعمال شود. (و، به احتمال زیاد، مجموعه ای از تفاسیر نظارتی، بسته به بخش، موارد استفاده و نهادهای نظارتی درگیر و غیره. بنابراین، سردرگمی و هزینه، نه وضوح.)
حتی اگر تنظیمکنندههای موجود بریتانیا به سرعت راهنماییهایی درباره نحوه برخورد با هوش مصنوعی ارائه کنند – همانطور که برخی قبلاً هستند یا در تلاش هستند – همچنان شکافهای زیادی وجود خواهد داشت، همانطور که گزارش موسسه Ada Lovelace نیز اشاره میکند – زیرا شکافهای پوشش یکی از ویژگیهای چشم انداز نظارتی موجود در بریتانیا بنابراین پیشنهاد برای گسترش بیشتر این رویکرد مستلزم ایجاد ناهماهنگی مقرراتی است که با استفاده از مقیاسهای هوش مصنوعی در تمام بخشها گسترش مییابد و حتی تقویت میشود.
اینم دوباره موسسه:
بخش بزرگی از اقتصاد بریتانیا در حال حاضر تنظیم نشده یا فقط تا حدی تنظیم شده است. مشخص نیست که چه کسی مسئول اجرای اصول هوش مصنوعی در این زمینه ها است، که شامل موارد زیر است: اقدامات حساس مانند استخدام و استخدام، که به طور جامع توسط تنظیم کننده ها، حتی در بخش های تنظیم شده، نظارت نمی شود. خدمات بخش عمومی مانند آموزش و پلیس، که توسط شبکه ناهمواری از تنظیم کننده ها نظارت و اجرا می شوند. فعالیتهایی که توسط ادارات دولتی مرکزی انجام میشود، که اغلب مستقیماً تحت نظارت نیستند، مانند مدیریت مزایا یا کشف تقلب مالیاتی. بخش های غیرقانونی بخش خصوصی، مانند خرده فروشی.
هوش مصنوعی در هر بخش در حال استقرار و استفاده است، اما شبکه حقوقی و نظارتی گسترده بریتانیا برای هوش مصنوعی در حال حاضر دارای شکاف های قابل توجهی است. حقوق شفافتر و نهادهای جدید مورد نیاز است تا اطمینان حاصل شود که پادمانها در سراسر اقتصاد گسترش مییابند.»
تناقض فزاینده دیگری برای موضع ادعایی «رهبری هوش مصنوعی» دولت این است که تلاش دولت برای تبدیل شدن به یک مرکز ایمنی جهانی هوش مصنوعی مستقیماً توسط تلاشهای درون قطار برای کاهش حفاظتهای داخلی برای دادههای افراد تضعیف میشود – مانند کاهش حمایتها در زمانی که آنها مشمول تصمیمات خودکار با تأثیر قابل توجه و/یا قانونی هستند – از طریق لایحه مقررات زدایی حفاظت از داده ها و اطلاعات دیجیتال (شماره 2).
در حالی که دولت تاکنون از سرزنشکنندهترین پیشنهادات برگزیت برای پاره کردن قوانین حفاظت از دادههای مشتق شده از اتحادیه اروپا – مانند حذف صرفاً کل ماده ۲۲ (که به حفاظت از تصمیمات خودکار میپردازد) از مقررات عمومی حفاظت از دادههای بریتانیا اجتناب کرده است. با این وجود، علیرغم جاهطلبی جدیدش برای تبدیل بریتانیا به یک مرکز ایمنی جهانی هوش مصنوعی، برنامهای را برای کاهش سطح حفاظت شهروندان تحت قانون فعلی حفاظت از دادهها به طرق مختلف پیش میبرد.
GDPR بریتانیا – چارچوب قانونی برای حفاظت از دادهها که در حال حاضر در بریتانیا اجرا میشود – حفاظتهایی را ارائه میکند که برای محافظت از افراد و جوامع در برابر آسیبهای احتمالی هوش مصنوعی ضروری است. لایحه حفاظت از داده ها و اطلاعات دیجیتال (شماره 2)، که به شکل فعلی در مارس 2023 ارائه شد، به طور قابل توجهی این حمایت ها را اصلاح می کند. الزام کنترلکنندههای داده به داشتن «ضمانتهایی مانند اقداماتی که فرد را قادر میسازد تا تصمیم خود را به چالش بکشد» – که استدلال میکند در عمل سطح پایینتری از حفاظت است.
در ادامه این مقاله آمده است: «اتکای چارچوب پیشنهادی دولت به قوانین و تنظیمکنندههای موجود، این موضوع را مهمتر میکند که مقررات اساسی مانند حفاظت از دادهها، هوش مصنوعی را به درستی اداره کند. “توصیه های حقوقی که توسط موسسه آدا لاولیس سفارش داده شده است … نشان می دهد که اقدامات حفاظتی پردازش خودکار موجود ممکن است در عمل از افرادی که با خدمات روزمره در تعامل هستند، مانند درخواست وام، محافظت کافی ایجاد نکند.”
این گزارش می افزاید: «در مجموع، تغییرات این لایحه خطر تضعیف بیشتر پیشنهادات نظارتی دولت برای هوش مصنوعی را دارد.
بنابراین اولین توصیه مؤسسه این است که دولت به رعناصری از لایحه اصلاحات حفاظت از داده را در نظر بگیرید که “احتمالاً توسعه، استقرار و استفاده ایمن از هوش مصنوعی را تضعیف می کند، مانند تغییرات در چارچوب پاسخگویی”. همچنین به دولت توصیه میکند بازبینی خود را برای بررسی حقوق و حمایتهای موجود در قوانین بریتانیا – با هدف رفع هر گونه شکاف قانونی دیگر و معرفی حقوق و حمایتهای جدید برای مردم گسترش دهد.در صورت لزوم تحت تأثیر تصمیمات مبتنی بر هوش مصنوعی قرار می گیرد.
توصیههای دیگر در این گزارش شامل معرفی یک وظیفه قانونی برای تنظیمکنندهها برای در نظر گرفتن اصول فوقالذکر، از جمله «تعهدات شفافیت دقیق و پاسخگویی» و تأمین بودجه/منابع بیشتر برای مقابله با آسیبهای مرتبط با هوش مصنوعی است. بررسی معرفی مجموعه ای از اختیارات مشترک برای تنظیم کننده ها، از جمله یک از قبلقابلیت نظارتی متمرکز بر توسعهدهنده؛ و اینکه دولت باید به این موضوع نگاه کند که آیا باید یک بازرس هوش مصنوعی برای حمایت از افرادی که از هوش مصنوعی متضرر می شوند ایجاد شود یا خیر.
این مؤسسه همچنین به دولت توصیه میکند که قوانین مربوط به هوش مصنوعی و مسئولیت را روشن کند – که حوزه دیگری است که اتحادیه اروپا در حال حاضر در آن پیشروی کرده است.
در مورد ایمنی مدل پایه – حوزه ای که اخیراً به دلیل هجوم ویروسی پیرامون ابزارهای هوش مصنوعی مولد مانند ChatGPT OpenAI، مورد توجه و توجه ویژه دولت بریتانیا قرار گرفته است – این موسسه همچنین معتقد است که دولت باید بیشتر از این پیش برود و به توسعه دهندگان مستقر در بریتانیا توصیه می کند مدلهای بنیادی باید الزامات گزارشدهی اجباری داشته باشند تا رگولاتورها راحتتر از فناوریهای در حال حرکت بسیار سریع بمانند.
حتی پیشنهاد میکند که توسعهدهندگان پیشرو مدلهای بنیادی، مانند OpenAI، Google DeepMind و Anthropic، ملزم شوند زمانی که آنها (یا هر زیرپردازندهای که با آن کار میکنند) برنامههای آموزشی در مقیاس بزرگ را از مدلهای جدید شروع میکنند، به دولت اطلاع رسانی کنند.
پیشنهاد میکند: «این به دولت هشداری زودهنگام درباره پیشرفتهای قابلیتهای هوش مصنوعی ارائه میکند و به سیاستگذاران و تنظیمکنندهها اجازه میدهد تا برای تأثیر این پیشرفتها آماده شوند، نه اینکه غافل شوند»، و اضافه میکند که الزامات گزارشدهی باید شامل اطلاعاتی مانند دسترسی به داده های مورد استفاده برای آموزش مدل ها؛ نتایج حاصل از حسابرسی داخلی؛ و داده های زنجیره تامین
پیشنهاد دیگر این است که دولت در پروژه های آزمایشی کوچک سرمایه گذاری کند تا درک خود از روند تحقیق و توسعه هوش مصنوعی را تقویت کند.
مایکل بیرتویستل، دستیار مدیر مؤسسه آدا لاولیس، در بیانیهای درباره یافتههای گزارش اظهار داشت:
دولت به درستی تشخیص میدهد که بریتانیا فرصت منحصربهفردی برای پیشروی جهانی در مقررات هوش مصنوعی دارد و نخستوزیر باید به خاطر رهبری جهانیاش در این موضوع ستایش شود. با این حال، اعتبار بریتانیا در مورد مقررات هوش مصنوعی به توانایی دولت برای ارائه یک رژیم نظارتی پیشرو در داخل کشور بستگی دارد. تلاش ها برای هماهنگی بین المللی بسیار خوشایند است اما کافی نیست. اگر دولت می خواهد در زمینه هوش مصنوعی جدی گرفته شود و به جاه طلبی های جهانی خود دست یابد، باید پیشنهادات داخلی خود را برای تنظیم مقررات تقویت کند.
امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید
لینک کوتاه مقاله : https://5ia.ir/UnAqCS
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها