گزارش هشدار می دهد که رویکرد بریتانیا به ایمنی هوش مصنوعی فاقد اعتبار است

زمان مطالعه: 7 دقیقه

به گزارش سایت نود و هشت زوم گزارش هشدار می دهد که رویکرد بریتانیا به ایمنی فاقد اعتبار است
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت

دولت بریتانیا در هفته‌های اخیر در تلاش بوده تا تصویری از خود به‌عنوان یک محرک بین‌المللی در زمینه نوپای ایمنی هوش مصنوعی بپروراند – اعلامیه‌ای پرزرق و برق از نشست آتی در این زمینه در ماه گذشته، همراه با تعهد به 100 میلیون پوند را صرف یک کارگروه مدل بنیادی کنید که تحقیقات ایمنی هوش مصنوعی “پیشترین” را انجام خواهد داد.

با این حال، همان دولت، به رهبری نخست‌وزیر بریتانیا و سوپر طرفدار سیلیکون ولی، ریشی سوناک، از نیاز به تصویب قوانین داخلی جدید برای تنظیم برنامه‌های کاربردی هوش مصنوعی اجتناب کرده است – موضعی که سیاست‌گذاری خود در مورد موضوعی که برندهای طرفدار نوآوری است.

همچنین در بحبوحه تصویب یک اصلاح مقررات زدایی در چارچوب ملی حفاظت از داده ها است که خطری برای مقابله با ایمنی هوش مصنوعی دارد.

مورد اخیر یکی از چندین نتیجه گیری موسسه تحقیقاتی مستقل آدا لاولیس، بخشی از بنیاد خیریه نوفیلد است که در گزارش جدیدی به بررسی رویکرد بریتانیا در تنظیم مقررات هوش مصنوعی می پردازد که صدایی دیپلماتیک اما گاهی اوقات بسیار ناخوشایند می کند. خواندن برای وزرا

این گزارش شامل 18 توصیه کامل برای ارتقای سطح سیاست/اعتبار دولت در این زمینه است – یعنی اگر بریتانیا بخواهد در این زمینه جدی گرفته شود.

این مؤسسه از تعریف «گران‌قیمت» ایمنی هوش مصنوعی دفاع می‌کند – «منعکس کننده طیف گسترده‌ای از آسیب‌هایی است که با توانمندتر شدن و تعبیه شدن سیستم‌های هوش مصنوعی در جامعه به وجود می‌آیند». بنابراین، این گزارش به نحوه تنظیم «سیستم‌های هوش مصنوعی می‌توانند باعث ایجاد امروز شوند» مربوط می‌شود. آنها را مضرات هوش مصنوعی در دنیای واقعی بنامید. (نه با الهام از خطرات احتمالی نظری علمی تخیلی که اخیراً توسط برخی از چهره های برجسته در صنعت فناوری افزایش یافته است، ظاهراً در تلاشی برای سیاست گذاران هک توجه.)

در حال حاضر، منصفانه است که بگوییم رویکرد دولت سوناک برای تنظیم ایمنی هوش مصنوعی (در دنیای واقعی) متناقض بوده است. با این ادعا که می‌خواهد از ایمنی دفاع کند، اما به سیاست‌های پیشنهادی برای تنظیم قوانین اساسی برای محافظت در برابر خطرات و آسیب‌هایی که می‌دانیم می‌تواند از برنامه‌های غیرقابل قضاوت اتوماسیون سرازیر شود، سنگین است.

در اینجا موسسه آدا لاولیس است که بمب حقیقت اولیه را رها می کند:

دولت بریتانیا جاه‌طلبی خود را برای تبدیل کردن بریتانیا به یک ابرقدرت هوش مصنوعی، استفاده از اهرم توسعه و تکثیر فناوری‌های هوش مصنوعی به نفع جامعه و اقتصاد بریتانیا و میزبانی یک نشست جهانی در پاییز 2023 اعلام کرده است. مقررات داخلی، که بستری را برای اقتصاد آینده هوش مصنوعی بریتانیا فراهم می کند.

تیفهرست پیشنهادات او در ادامه گزارش می‌دهد تا مشخص کند که موسسه فضای زیادی برای بهبود رویکرد فعلی بریتانیا به هوش مصنوعی می‌بیند.

در اوایل سال جاری، دولت رویکرد ترجیحی خود را برای تنظیم هوش مصنوعی در داخل کشور منتشر کرد – گفت که در این مرحله نیازی به قوانین جدید یا نهادهای نظارتی نمی بیند. در عوض، وایت پیپر مجموعه‌ای از اصول انعطاف‌پذیر را ارائه کرد که دولت پیشنهاد کرد تنظیم‌کننده‌های موجود، خاص (و/یا فرابخشی) باید «تفسیر و اعمال هوش مصنوعی را در چارچوب وظایف خود انجام دهند». فقط بدون هیچ گونه قدرت قانونی جدید یا بودجه اضافی برای نظارت بر استفاده های جدید از هوش مصنوعی.

پنج اصل مطرح شده در کاغذ سفید عبارتند از: ایمنی، امنیت و استحکام. شفافیت و توضیح مناسب؛ انصاف؛ مسئولیت پذیری و حاکمیت؛ قابل اعتراض و جبران خسارت. همه اینها روی کاغذ خوب به نظر می رسد – اما کاغذ به تنهایی نمی تواند آن را در تنظیم ایمنی هوش مصنوعی کاهش دهد.

طرح بریتانیا برای اجازه دادن به تنظیم‌کننده‌های موجود در مورد هوش مصنوعی با استفاده از اصول کلی و بدون هیچ منبع جدیدی در تضاد با طرح اتحادیه اروپا است که در آن قانون‌گذاران مشغول دستیابی به توافق بر روی چارچوبی مبتنی بر ریسک هستند. اجرایی در سال 2021 پیشنهاد شد.

رویکرد بودجه‌ای کوتاه بریتانیا در کنار نهادن تنظیم‌کننده‌های موجود و پرکار با مسئولیت‌های جدید برای چشم‌اندازی به پیشرفت‌های هوش مصنوعی در پچ خود بدون هیچ گونه قدرتی برای اعمال نتایج بر روی گران بد، در مورد ایمنی هوش مصنوعی به زبان ساده چندان معتبر به نظر نمی‌رسد.

شاید این مقاله را هم دوست داشته باشید :  EA Sports UFC 5 در راه است

اگر طرفدار نوآوری هستید، حتی یک استراتژی منسجم به نظر نمی رسد – زیرا از توسعه دهندگان هوش مصنوعی می خواهد که مجموعه ای از قوانین مربوط به بخش خاص و فرابخشی را در نظر بگیرند که مدت ها قبل از آخرین رونق هوش مصنوعی تهیه شده است. توسعه دهندگان همچنین ممکن است خود را تحت نظارت تعدادی از نهادهای نظارتی مختلف ببینند (هرچقدر که توجه آنها ضعیف باشد، با توجه به کمبود منابع و قدرت آتش قانونی برای اجرای اصول فوق الذکر). بنابراین، واقعاً به نظر می رسد یک دستور العمل برای آن باشد عدم اطمینان در مورد اینکه قوانین موجود ممکن است برای برنامه های هوش مصنوعی اعمال شود. (و، به احتمال زیاد، مجموعه ای از تفاسیر نظارتی، بسته به بخش، موارد استفاده و نهادهای نظارتی درگیر و غیره. بنابراین، سردرگمی و هزینه، نه وضوح.)

حتی اگر تنظیم‌کننده‌های موجود بریتانیا به سرعت راهنمایی‌هایی درباره نحوه برخورد با هوش مصنوعی ارائه کنند – همانطور که برخی قبلاً هستند یا در تلاش هستند – همچنان شکاف‌های زیادی وجود خواهد داشت، همانطور که گزارش موسسه Ada Lovelace نیز اشاره می‌کند – زیرا شکاف‌های پوشش یکی از ویژگی‌های چشم انداز نظارتی موجود در بریتانیا بنابراین پیشنهاد برای گسترش بیشتر این رویکرد مستلزم ایجاد ناهماهنگی مقرراتی است که با استفاده از مقیاس‌های هوش مصنوعی در تمام بخش‌ها گسترش می‌یابد و حتی تقویت می‌شود.

اینم دوباره موسسه:

بخش بزرگی از اقتصاد بریتانیا در حال حاضر تنظیم نشده یا فقط تا حدی تنظیم شده است. مشخص نیست که چه کسی مسئول اجرای اصول هوش مصنوعی در این زمینه ها است، که شامل موارد زیر است: اقدامات حساس مانند استخدام و استخدام، که به طور جامع توسط تنظیم کننده ها، حتی در بخش های تنظیم شده، نظارت نمی شود. خدمات بخش عمومی مانند آموزش و پلیس، که توسط شبکه ناهمواری از تنظیم کننده ها نظارت و اجرا می شوند. فعالیت‌هایی که توسط ادارات دولتی مرکزی انجام می‌شود، که اغلب مستقیماً تحت نظارت نیستند، مانند مدیریت مزایا یا کشف تقلب مالیاتی. بخش های غیرقانونی بخش خصوصی، مانند خرده فروشی.

هوش مصنوعی در هر بخش در حال استقرار و استفاده است، اما شبکه حقوقی و نظارتی گسترده بریتانیا برای هوش مصنوعی در حال حاضر دارای شکاف های قابل توجهی است. حقوق شفاف‌تر و نهادهای جدید مورد نیاز است تا اطمینان حاصل شود که پادمان‌ها در سراسر اقتصاد گسترش می‌یابند.»

تناقض فزاینده دیگری برای موضع ادعایی «رهبری هوش مصنوعی» دولت این است که تلاش دولت برای تبدیل شدن به یک مرکز ایمنی جهانی هوش مصنوعی مستقیماً توسط تلاش‌های درون قطار برای کاهش حفاظت‌های داخلی برای داده‌های افراد تضعیف می‌شود – مانند کاهش حمایت‌ها در زمانی که آنها مشمول تصمیمات خودکار با تأثیر قابل توجه و/یا قانونی هستند – از طریق لایحه مقررات زدایی حفاظت از داده ها و اطلاعات دیجیتال (شماره 2).

در حالی که دولت تاکنون از سرزنش‌کننده‌ترین پیشنهادات برگزیت برای پاره کردن قوانین حفاظت از داده‌های مشتق شده از اتحادیه اروپا – مانند حذف صرفاً کل ماده ۲۲ (که به حفاظت از تصمیمات خودکار می‌پردازد) از مقررات عمومی حفاظت از داده‌های بریتانیا اجتناب کرده است. با این وجود، علیرغم جاه‌طلبی جدیدش برای تبدیل بریتانیا به یک مرکز ایمنی جهانی هوش مصنوعی، برنامه‌ای را برای کاهش سطح حفاظت شهروندان تحت قانون فعلی حفاظت از داده‌ها به طرق مختلف پیش می‌برد.

GDPR بریتانیا – چارچوب قانونی برای حفاظت از داده‌ها که در حال حاضر در بریتانیا اجرا می‌شود – حفاظت‌هایی را ارائه می‌کند که برای محافظت از افراد و جوامع در برابر آسیب‌های احتمالی هوش مصنوعی ضروری است. لایحه حفاظت از داده ها و اطلاعات دیجیتال (شماره 2)، که به شکل فعلی در مارس 2023 ارائه شد، به طور قابل توجهی این حمایت ها را اصلاح می کند. الزام کنترل‌کننده‌های داده به داشتن «ضمانت‌هایی مانند اقداماتی که فرد را قادر می‌سازد تا تصمیم خود را به چالش بکشد» – که استدلال می‌کند در عمل سطح پایین‌تری از حفاظت است.

شاید این مقاله را هم دوست داشته باشید :  بهترین دوچرخه های الکترونیکی برای هر نوع سواری و جایی که سازندگان خودروهای برقی چینی در حال حرکت هستند

در ادامه این مقاله آمده است: «اتکای چارچوب پیشنهادی دولت به قوانین و تنظیم‌کننده‌های موجود، این موضوع را مهم‌تر می‌کند که مقررات اساسی مانند حفاظت از داده‌ها، هوش مصنوعی را به درستی اداره کند. “توصیه های حقوقی که توسط موسسه آدا لاولیس سفارش داده شده است … نشان می دهد که اقدامات حفاظتی پردازش خودکار موجود ممکن است در عمل از افرادی که با خدمات روزمره در تعامل هستند، مانند درخواست وام، محافظت کافی ایجاد نکند.”

این گزارش می افزاید: «در مجموع، تغییرات این لایحه خطر تضعیف بیشتر پیشنهادات نظارتی دولت برای هوش مصنوعی را دارد.

بنابراین اولین توصیه مؤسسه این است که دولت به رعناصری از لایحه اصلاحات حفاظت از داده را در نظر بگیرید که “احتمالاً توسعه، استقرار و استفاده ایمن از هوش مصنوعی را تضعیف می کند، مانند تغییرات در چارچوب پاسخگویی”. همچنین به دولت توصیه می‌کند بازبینی خود را برای بررسی حقوق و حمایت‌های موجود در قوانین بریتانیا – با هدف رفع هر گونه شکاف قانونی دیگر و معرفی حقوق و حمایت‌های جدید برای مردم گسترش دهد.در صورت لزوم تحت تأثیر تصمیمات مبتنی بر هوش مصنوعی قرار می گیرد.

توصیه‌های دیگر در این گزارش شامل معرفی یک وظیفه قانونی برای تنظیم‌کننده‌ها برای در نظر گرفتن اصول فوق‌الذکر، از جمله «تعهدات شفافیت دقیق و پاسخگویی» و تأمین بودجه/منابع بیشتر برای مقابله با آسیب‌های مرتبط با هوش مصنوعی است. بررسی معرفی مجموعه ای از اختیارات مشترک برای تنظیم کننده ها، از جمله یک از قبلقابلیت نظارتی متمرکز بر توسعه‌دهنده؛ و اینکه دولت باید به این موضوع نگاه کند که آیا باید یک بازرس هوش مصنوعی برای حمایت از افرادی که از هوش مصنوعی متضرر می شوند ایجاد شود یا خیر.

این مؤسسه همچنین به دولت توصیه می‌کند که قوانین مربوط به هوش مصنوعی و مسئولیت را روشن کند – که حوزه دیگری است که اتحادیه اروپا در حال حاضر در آن پیشروی کرده است.

در مورد ایمنی مدل پایه – حوزه ای که اخیراً به دلیل هجوم ویروسی پیرامون ابزارهای هوش مصنوعی مولد مانند OpenAI، مورد توجه و توجه ویژه دولت بریتانیا قرار گرفته است – این موسسه همچنین معتقد است که دولت باید بیشتر از این پیش برود و به توسعه دهندگان مستقر در بریتانیا توصیه می کند مدل‌های بنیادی باید الزامات گزارش‌دهی اجباری داشته باشند تا رگولاتورها راحت‌تر از فناوری‌های در حال حرکت بسیار سریع بمانند.

حتی پیشنهاد می‌کند که توسعه‌دهندگان پیشرو مدل‌های بنیادی، مانند OpenAI، Google DeepMind و Anthropic، ملزم شوند زمانی که آنها (یا هر زیرپردازنده‌ای که با آن کار می‌کنند) برنامه‌های آموزشی در مقیاس بزرگ را از مدل‌های جدید شروع می‌کنند، به دولت اطلاع رسانی کنند.

پیشنهاد می‌کند: «این به دولت هشداری زودهنگام درباره پیشرفت‌های قابلیت‌های هوش مصنوعی ارائه می‌کند و به سیاست‌گذاران و تنظیم‌کننده‌ها اجازه می‌دهد تا برای تأثیر این پیشرفت‌ها آماده شوند، نه اینکه غافل شوند»، و اضافه می‌کند که الزامات گزارش‌دهی باید شامل اطلاعاتی مانند دسترسی به داده های مورد استفاده برای آموزش مدل ها؛ نتایج حاصل از حسابرسی داخلی؛ و داده های زنجیره تامین

پیشنهاد دیگر این است که دولت در پروژه های آزمایشی کوچک سرمایه گذاری کند تا درک خود از روند تحقیق و توسعه هوش مصنوعی را تقویت کند.

مایکل بیرتویستل، دستیار مدیر مؤسسه آدا لاولیس، در بیانیه‌ای درباره یافته‌های گزارش اظهار داشت:

دولت به درستی تشخیص می‌دهد که بریتانیا فرصت منحصربه‌فردی برای پیشروی جهانی در مقررات هوش مصنوعی دارد و نخست‌وزیر باید به خاطر رهبری جهانی‌اش در این موضوع ستایش شود. با این حال، اعتبار بریتانیا در مورد مقررات هوش مصنوعی به توانایی دولت برای ارائه یک رژیم نظارتی پیشرو در داخل کشور بستگی دارد. تلاش ها برای هماهنگی بین المللی بسیار خوشایند است اما کافی نیست. اگر دولت می خواهد در زمینه هوش مصنوعی جدی گرفته شود و به جاه طلبی های جهانی خود دست یابد، باید پیشنهادات داخلی خود را برای تنظیم مقررات تقویت کند.

امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/UnAqCS
کوتاه کننده لینک
کد QR :
اشتراک گذاری
سروناز مقدم پور

سروناز مقدم پور

سروناز مقدم پور هستم کارشناس مهندسی کامپیوتر و مدیر وبسایت نود و هشت زوم. چندین سال است که در حوزه وب فعالیت می کنم و تخصص های اصلیم طراحی سایت و سئو است بعد از یادگیری علاقه زیادی به آموزش دادن دارم

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *