شرکت‌های هوش مصنوعی داوطلبانه به ایمنی و شفافیت بهتر متعهد می‌شوند، اما اگر بخواهند می‌توانند تعهدات را نادیده بگیرند.

زمان مطالعه: 3 دقیقه

امروز، دولت بایدن اعلام کرد که تعهدات داوطلبانه شرکت های پیشرو را برای مدیریت خطرات ناشی از هوش مصنوعی تضمین کرده است.

هفت شرکت ، آنتروپیک، گوگل، Inflection، Meta، و OpenAI، همگی توافق کردند که ایمنی، امنیت و شفافیت سیستم‌های خود را بهبود بخشند، از جمله اجازه بررسی مدل‌های خود توسط کارشناسان شخص ثالث.

در بیانیه کاخ سفید که به TechRadar ارسال شده است، آمده است: «شرکت‌هایی که در حال توسعه این فناوری‌های نوظهور هستند، مسئولیت دارند تا از ایمن بودن محصولات خود اطمینان حاصل کنند. دولت بایدن هریس برای استفاده حداکثری از پتانسیل هوش مصنوعی، این صنعت را تشویق می‌کند تا بالاترین استانداردها را رعایت کند تا اطمینان حاصل شود که نوآوری به ضرر حقوق و امنیت آمریکایی‌ها تمام نمی‌شود.»

این هفت شرکت فوراً با چندین نقطه نگرانی خاص در مورد گسترش هوش مصنوعی موافقت کردند.

اول، شرکت‌ها متعهد به آزمایش امنیت داخلی و خارجی سیستم‌های هوش مصنوعی خود قبل از انتشار برای عموم و همچنین به اشتراک گذاشتن اطلاعات با بازیگران مرتبط صنعت، دولت‌ها، دانشگاه‌ها و مردم برای کمک به مدیریت ریسک‌های هوش مصنوعی هستند.

این شرکت‌ها همچنین متعهد به سرمایه‌گذاری در امنیت سایبری و کنترل‌های تهدید داخلی برای «محافظت از وزن مدل‌های اختصاصی و منتشر نشده» هستند، که برای عملکرد مدل‌های داده‌ای که هوش مصنوعی تولید می‌کنند، حیاتی هستند. آنها همچنین موافقت کردند که تحقیقات شخص ثالث را تسهیل کنند و هرگونه شکاف امنیتی در سیستم ها را گزارش کنند.

شاید این مقاله را هم دوست داشته باشید :  بشنوید که Sensi.AI چگونه هوش مصنوعی را برای نظارت از راه دور بیمار می سازد

این شرکت‌ها همچنین با اقداماتی برای بهبود اعتماد عمومی به سیستم‌های خود موافقت کردند، از جمله ایجاد راهی برای اطمینان از اینکه مردم متوجه می‌شوند چه زمانی محتوای تولید شده توسط هوش مصنوعی را مشاهده می‌کنند، مانند واترمارکینگ یا سایر اقدامات. این شرکت ها همچنین تحقیقات در مورد خطرات اجتماعی که مدل های هوش مصنوعی ایجاد می کنند، از جمله اشکال نژادی و سایر اشکال تعصب که می تواند منجر به تبعیض شود، و همچنین “حفاظت از حریم خصوصی” را در اولویت قرار خواهند داد.

اما از این اطلاعیه مشخص است که این اقدامات هنوز کاملاً داوطلبانه از سوی شرکت‌های درگیر است و اگرچه برخی ممکن است به تعهدات خود عمل کنند، فعلاً بر عهده شرکت‌هاست که این کار را انجام دهند.

قوانین جدید هوش مصنوعی ممکن است در راه باشد

تعهدات داوطلبانه نمی توانند جایگزین مقررات قابل اجرا واقعی شوند که شامل عواقب واقعی برای نقض هستند، که توافق امروز شامل آن نمی شود، اما یک منبع نزدیک به موضوع به TechRadar گفت که قوانین جدید هوش مصنوعی فقط روی میز نیستند، بلکه به طور فعال در حال پیگیری هستند.

آنها گفتند: “ما مطمئناً در حال هماهنگی با کنگره در زمینه هوش مصنوعی هستیم.” “من فکر می کنم ما می دانیم که قوانین برای ایجاد رژیم قانونی و نظارتی برای اطمینان از ایمن بودن این فناوری ها بسیار مهم است.”

شاید این مقاله را هم دوست داشته باشید :  ۹ روش برتر برای رفع مشکل عدم ورود به تلگرام در اندروید و آیفون

این منبع همچنین نشان داد که اقدامات اجرایی در زمینه هوش مصنوعی در راه است، اگرچه آنها نمی توانند جزئیات دقیقی را بیان کنند.

آنها گفتند: “من فکر می کنم تمرکز در اینجا بر روی کاری است که شرکت ها انجام می دهند.” “اما من فکر می کنم منصفانه است که بگوییم این گام بعدی در روند ما است. این تعهد داوطلبانه است. [but] ما در حال انجام اقدامات اجرایی و توسعه اقدامات اجرایی هستیم که در آن شما نقش دولت را بیشتر خواهید دید.”

امیدواریم که این خبر مجله زوم نود و هشت مورد توجه شما قرار گرفته باشد

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/SdtLyk
کوتاه کننده لینک
کد QR :
اشتراک گذاری
سروناز مقدم پور

سروناز مقدم پور

سروناز مقدم پور هستم کارشناس مهندسی کامپیوتر و مدیر وبسایت نود و هشت زوم. چندین سال است که در حوزه وب فعالیت می کنم و تخصص های اصلیم طراحی سایت و سئو است بعد از یادگیری علاقه زیادی به آموزش دادن دارم

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *