سازمان دیده بان بریتانیا می گوید بدون مقابله با خطرات حفظ حریم خصوصی، برنامه های هوش مصنوعی مولد را به بازار عرضه نکنید.

زمان مطالعه: 4 دقیقه

به گزارش سایت نود و هشت زوم سازمان دیده بان بریتانیا می گوید بدون مقابله با خطرات حفظ حریم خصوصی، برنامه های مولد را به بازار عرضه نکنید.
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت

دیده‌بان حفاظت از داده‌های بریتانیا صریح‌ترین تیر هشدار خود را به توسعه‌دهندگان هوش مصنوعی مولد شلیک کرده است و گفته است که انتظار دارد آنها خطرات حفظ حریم خصوصی را برطرف کنند. قبل از محصولات خود را به بازار عرضه کنند.

استفان آلموند، مدیر اجرایی ریسک نظارتی دفتر کمیساریای اطلاعات (ICO) در یک پست وبلاگی در کنفرانسی که بعداً امروز برگزار خواهد شد، در مورد عجله توسعه‌دهندگان برای استفاده از فناوری قدرتمند هوش مصنوعی بدون بررسی دقیق حریم خصوصی و داده‌ها هشدار داده است. خطرات حفاظتی

ما بررسی خواهیم کرد که آیا کسب‌وکارها قبل از معرفی هوش مصنوعی مولد با خطرات حفظ حریم خصوصی مقابله کرده‌اند یا خیر – و در مواردی که خطر آسیب رساندن به افراد از طریق استفاده ضعیف از داده‌های آن‌ها وجود داشته باشد، اقدام خواهیم کرد. هیچ بهانه ای برای نادیده گرفتن خطرات حقوق و آزادی های مردم قبل از عرضه وجود ندارد.

او همچنین به کسب‌وکارهایی که در بازار بریتانیا فعالیت می‌کنند دستور می‌دهد که باید به ICO نشان دهند «چگونه با خطراتی که در زمینه‌شان رخ می‌دهد مقابله کرده‌اند – حتی اگر فناوری اساسی یکسان باشد».

این بدان معناست که ICO زمینه مرتبط با کاربرد فناوری هوش مصنوعی مولد را در نظر می‌گیرد، به‌عنوان مثال، در مقایسه با برنامه‌های متمرکز بر خرده‌فروشی، احتمالاً انتظارات بیشتری برای انطباق برای برنامه‌های بهداشتی با استفاده از API مولد AI وجود دارد. (tl;dr این نوع بررسی دقیق علم موشکی نیست، اما انتظار نداشته باشید که پشت “ما فقط از API OpenAI استفاده می‌کنیم” پنهان شوید، بنابراین فکر نمی‌کردیم وقتی یک ربات هوش مصنوعی برای تقویت جنسی خود اضافه کردیم، حریم خصوصی را در نظر بگیریم. خط نوع برنامه یاب کلینیک سلامت…)

کسب‌وکارها حق دارند فرصتی را که هوش مصنوعی مولد ارائه می‌دهد ببینند، چه برای ایجاد خدمات بهتر برای مشتریان یا کاهش هزینه‌های خدماتشان. آلموند همچنین می‌گوید: «اما آنها نباید از خطرات حفظ حریم خصوصی چشم بپوشند، و از توسعه‌دهندگان می‌خواهد: «در ابتدا زمانی را صرف کنید تا متوجه شوید هوش مصنوعی چگونه از اطلاعات شخصی استفاده می‌کند، خطراتی را که از آن آگاه می‌شوید کاهش دهید، و سپس هوش مصنوعی خود را گسترش دهید. با اطمینان برخورد کنید که باعث ناراحتی مشتریان یا تنظیم‌کننده‌ها نمی‌شود.»

شاید این مقاله را هم دوست داشته باشید :  مسائل امنیتی توییتر به قبل از ایلان ماسک برمی گردد – و اخراج کارکنان کمکی نخواهد کرد

برای درک هزینه این نوع ریسک در صورت مدیریت نادرست، قوانین حفاظت از داده های بریتانیا جریمه هایی را برای تخلفات در نظر می گیرد که می تواند تا 17.5 میلیون پوند یا 4 درصد از کل گردش مالی سالانه جهانی در سال مالی قبل را وارد کند، هر کدام که باشد. بالاتر

مجموعه ای از قوانین هوش مصنوعی

به عنوان یک نهاد نظارتی تاسیس شده، ICO وظیفه دارد تا دستورالعمل‌های حفظ حریم خصوصی و حفاظت از داده‌ها را برای استفاده از هوش مصنوعی تحت رویکردی که دولت در مقاله سفید اخیر هوش مصنوعی خود ارائه کرده است، ایجاد کند.

دولت گفته است که از مجموعه‌ای از اصول «انعطاف‌پذیر» و رهنمودهای زمینه‌ای خاص که توسط سازمان‌های نظارتی متمرکز و فرابخشی برای تنظیم هوش مصنوعی – مانند مرجع رقابت، مرجع رفتار مالی، Ofcom و در واقع ICO – تهیه می‌شود، طرفداری می‌کند. به جای معرفی یک چارچوب قانونی اختصاصی برای هدایت توسعه هوش مصنوعی مانند آنچه روی میز روی کانال انگلیس در اتحادیه اروپا قرار دارد.

این بدان معناست که در هفته‌ها و ماه‌های آتی، با توسعه و تکمیل دستورالعمل‌های ناظر بریتانیا، مجموعه‌ای از انتظارات پدیدار خواهد شد. (سازمان رقابت و بازار بریتانیا در ماه گذشته از بررسی هوش مصنوعی مولد خبر داد؛ در حالی که در اوایل این ماه، آفکام نظراتی را در مورد اینکه هوش مصنوعی مولد برای بخش ارتباطات ممکن است به چه معنا باشد ارائه داد که شامل جزئیاتی در مورد نحوه نظارت بر تحولات با هدف ارزیابی پتانسیل بود. آسیب می رساند.)

اندکی پس از انتشار کاغذ سفید بریتانیا، ICO's Almond فهرستی از هشت سؤال را منتشر کرد که او گفت توسعه دهندگان هوش مصنوعی (و کاربران) باید از خود بپرسند – از جمله مسائل اصلی مانند مبنای قانونی آنها برای پردازش داده های شخصی. چگونه آنها به تعهدات شفافیت عمل خواهند کرد. و اینکه آیا آنها ارزیابی تأثیر حفاظت از داده ها را آماده کرده اند یا خیر.

شاید این مقاله را هم دوست داشته باشید :  6 بهترین محافظ صفحه برای Samsung Galaxy S23 Ultra

هشدار امروز صریح تر است. ICO به صراحت اعلام می کند که از کسب و کارها انتظار دارد که نه تنها به توصیه های آن توجه داشته باشند بلکه به آنها عمل کنند. هر کسی که این راهنمایی ها را نادیده بگیرد و به دنبال هجوم برنامه ها به بازار باشد، خطرات نظارتی بیشتری را برای خود ایجاد می کند – از جمله احتمال جریمه های قابل توجه.

همچنین مبتنی بر یک هشدار فنی است که دیده‌بان پاییز گذشته زمانی که هوش مصنوعی‌های به اصطلاح «تحلیل احساسات» را برای هر چیزی غیر از موارد استفاده ساده (مانند ‌های مهمانی بچه‌ها) بسیار پرخطر معرفی کرد، ایجاد شده است. فناوری بیومتریک “نابالغ” خطرات بیشتری را برای تبعیض به همراه دارد تا فرصت های بالقوه.

ICO سپس نوشت: «هنوز شاهد پیشرفت فناوری هوش مصنوعی احساساتی نیستیم که الزامات حفاظت از داده ها را برآورده کند و سؤالات کلی تری در مورد تناسب، انصاف و شفافیت در این زمینه داشته باشیم.

در حالی که دولت بریتانیا اعلام کرده است که معتقد نیست قوانین اختصاصی یا یک نهاد نظارتی منحصراً متمرکز بر هوش مصنوعی برای تنظیم این فناوری مورد نیاز است، اخیراً در مورد نیاز توسعه‌دهندگان هوش مصنوعی به تمرکز بر ایمنی صحبت کرده است. و در اوایل ماه جاری، ریشی سوناک، نخست وزیر، برنامه ای را برای میزبانی یک نشست جهانی در مورد ایمنی هوش مصنوعی در پاییز امسال اعلام کرد که ظاهراً بر تقویت تلاش های تحقیقاتی تمرکز دارد. این ایده به سرعت مورد استقبال تعدادی از غول های هوش مصنوعی قرار گرفت.

امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/ZkSqRb
کوتاه کننده لینک
کد QR :
اشتراک گذاری
سروناز مقدم پور

سروناز مقدم پور

سروناز مقدم پور هستم کارشناس مهندسی کامپیوتر و مدیر وبسایت نود و هشت زوم. چندین سال است که در حوزه وب فعالیت می کنم و تخصص های اصلیم طراحی سایت و سئو است بعد از یادگیری علاقه زیادی به آموزش دادن دارم

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *