سازمان دیده بان بریتانیا می گوید بدون مقابله با خطرات حفظ حریم خصوصی، برنامه های هوش مصنوعی مولد را به بازار عرضه نکنید.
به گزارش سایت نود و هشت زوم سازمان دیده بان بریتانیا می گوید بدون مقابله با خطرات حفظ حریم خصوصی، برنامه های هوش مصنوعی مولد را به بازار عرضه نکنید.
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت
دیدهبان حفاظت از دادههای بریتانیا صریحترین تیر هشدار خود را به توسعهدهندگان هوش مصنوعی مولد شلیک کرده است و گفته است که انتظار دارد آنها خطرات حفظ حریم خصوصی را برطرف کنند. قبل از محصولات خود را به بازار عرضه کنند.
استفان آلموند، مدیر اجرایی ریسک نظارتی دفتر کمیساریای اطلاعات (ICO) در یک پست وبلاگی در کنفرانسی که بعداً امروز برگزار خواهد شد، در مورد عجله توسعهدهندگان برای استفاده از فناوری قدرتمند هوش مصنوعی بدون بررسی دقیق حریم خصوصی و دادهها هشدار داده است. خطرات حفاظتی
ما بررسی خواهیم کرد که آیا کسبوکارها قبل از معرفی هوش مصنوعی مولد با خطرات حفظ حریم خصوصی مقابله کردهاند یا خیر – و در مواردی که خطر آسیب رساندن به افراد از طریق استفاده ضعیف از دادههای آنها وجود داشته باشد، اقدام خواهیم کرد. هیچ بهانه ای برای نادیده گرفتن خطرات حقوق و آزادی های مردم قبل از عرضه وجود ندارد.
او همچنین به کسبوکارهایی که در بازار بریتانیا فعالیت میکنند دستور میدهد که باید به ICO نشان دهند «چگونه با خطراتی که در زمینهشان رخ میدهد مقابله کردهاند – حتی اگر فناوری اساسی یکسان باشد».
این بدان معناست که ICO زمینه مرتبط با کاربرد فناوری هوش مصنوعی مولد را در نظر میگیرد، بهعنوان مثال، در مقایسه با برنامههای متمرکز بر خردهفروشی، احتمالاً انتظارات بیشتری برای انطباق برای برنامههای بهداشتی با استفاده از API مولد AI وجود دارد. (tl;dr این نوع بررسی دقیق علم موشکی نیست، اما انتظار نداشته باشید که پشت “ما فقط از API OpenAI استفاده میکنیم” پنهان شوید، بنابراین فکر نمیکردیم وقتی یک ربات چت هوش مصنوعی برای تقویت جنسی خود اضافه کردیم، حریم خصوصی را در نظر بگیریم. خط نوع برنامه یاب کلینیک سلامت…)
کسبوکارها حق دارند فرصتی را که هوش مصنوعی مولد ارائه میدهد ببینند، چه برای ایجاد خدمات بهتر برای مشتریان یا کاهش هزینههای خدماتشان. آلموند همچنین میگوید: «اما آنها نباید از خطرات حفظ حریم خصوصی چشم بپوشند، و از توسعهدهندگان میخواهد: «در ابتدا زمانی را صرف کنید تا متوجه شوید هوش مصنوعی چگونه از اطلاعات شخصی استفاده میکند، خطراتی را که از آن آگاه میشوید کاهش دهید، و سپس هوش مصنوعی خود را گسترش دهید. با اطمینان برخورد کنید که باعث ناراحتی مشتریان یا تنظیمکنندهها نمیشود.»
برای درک هزینه این نوع ریسک در صورت مدیریت نادرست، قوانین حفاظت از داده های بریتانیا جریمه هایی را برای تخلفات در نظر می گیرد که می تواند تا 17.5 میلیون پوند یا 4 درصد از کل گردش مالی سالانه جهانی در سال مالی قبل را وارد کند، هر کدام که باشد. بالاتر
مجموعه ای از قوانین هوش مصنوعی
به عنوان یک نهاد نظارتی تاسیس شده، ICO وظیفه دارد تا دستورالعملهای حفظ حریم خصوصی و حفاظت از دادهها را برای استفاده از هوش مصنوعی تحت رویکردی که دولت در مقاله سفید اخیر هوش مصنوعی خود ارائه کرده است، ایجاد کند.
دولت گفته است که از مجموعهای از اصول «انعطافپذیر» و رهنمودهای زمینهای خاص که توسط سازمانهای نظارتی متمرکز و فرابخشی برای تنظیم هوش مصنوعی – مانند مرجع رقابت، مرجع رفتار مالی، Ofcom و در واقع ICO – تهیه میشود، طرفداری میکند. به جای معرفی یک چارچوب قانونی اختصاصی برای هدایت توسعه هوش مصنوعی مانند آنچه روی میز روی کانال انگلیس در اتحادیه اروپا قرار دارد.
این بدان معناست که در هفتهها و ماههای آتی، با توسعه و تکمیل دستورالعملهای ناظر بریتانیا، مجموعهای از انتظارات پدیدار خواهد شد. (سازمان رقابت و بازار بریتانیا در ماه گذشته از بررسی هوش مصنوعی مولد خبر داد؛ در حالی که در اوایل این ماه، آفکام نظراتی را در مورد اینکه هوش مصنوعی مولد برای بخش ارتباطات ممکن است به چه معنا باشد ارائه داد که شامل جزئیاتی در مورد نحوه نظارت بر تحولات با هدف ارزیابی پتانسیل بود. آسیب می رساند.)
اندکی پس از انتشار کاغذ سفید بریتانیا، ICO's Almond فهرستی از هشت سؤال را منتشر کرد که او گفت توسعه دهندگان هوش مصنوعی (و کاربران) باید از خود بپرسند – از جمله مسائل اصلی مانند مبنای قانونی آنها برای پردازش داده های شخصی. چگونه آنها به تعهدات شفافیت عمل خواهند کرد. و اینکه آیا آنها ارزیابی تأثیر حفاظت از داده ها را آماده کرده اند یا خیر.
هشدار امروز صریح تر است. ICO به صراحت اعلام می کند که از کسب و کارها انتظار دارد که نه تنها به توصیه های آن توجه داشته باشند بلکه به آنها عمل کنند. هر کسی که این راهنمایی ها را نادیده بگیرد و به دنبال هجوم برنامه ها به بازار باشد، خطرات نظارتی بیشتری را برای خود ایجاد می کند – از جمله احتمال جریمه های قابل توجه.
همچنین مبتنی بر یک هشدار فنی است که دیدهبان پاییز گذشته زمانی که هوش مصنوعیهای به اصطلاح «تحلیل احساسات» را برای هر چیزی غیر از موارد استفاده ساده (مانند بازیهای مهمانی بچهها) بسیار پرخطر معرفی کرد، ایجاد شده است. فناوری بیومتریک “نابالغ” خطرات بیشتری را برای تبعیض به همراه دارد تا فرصت های بالقوه.
ICO سپس نوشت: «هنوز شاهد پیشرفت فناوری هوش مصنوعی احساساتی نیستیم که الزامات حفاظت از داده ها را برآورده کند و سؤالات کلی تری در مورد تناسب، انصاف و شفافیت در این زمینه داشته باشیم.
در حالی که دولت بریتانیا اعلام کرده است که معتقد نیست قوانین اختصاصی یا یک نهاد نظارتی منحصراً متمرکز بر هوش مصنوعی برای تنظیم این فناوری مورد نیاز است، اخیراً در مورد نیاز توسعهدهندگان هوش مصنوعی به تمرکز بر ایمنی صحبت کرده است. و در اوایل ماه جاری، ریشی سوناک، نخست وزیر، برنامه ای را برای میزبانی یک نشست جهانی در مورد ایمنی هوش مصنوعی در پاییز امسال اعلام کرد که ظاهراً بر تقویت تلاش های تحقیقاتی تمرکز دارد. این ایده به سرعت مورد استقبال تعدادی از غول های هوش مصنوعی قرار گرفت.
امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید
لینک کوتاه مقاله : https://5ia.ir/ZkSqRb
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها