گروه مصرفکننده از اتحادیه اروپا میخواهد که «خطرات هوش مصنوعی مولد» را فوراً بررسی کند.
به گزارش سایت نود و هشت زوم گروه مصرفکننده از اتحادیه اروپا میخواهد که «خطرات هوش مصنوعی مولد» را فوراً بررسی کند.
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت
رگولاتورهای اروپایی بر سر نحوه تنظیم هوش مصنوعی – و در نهایت استفاده تجاری و غیرتجاری – در منطقه بر سر دوراهی قرار دارند، و امروز بزرگترین گروه مصرف کننده اتحادیه اروپا، BEUC، با موضع خود به این موضوع توجه کرد: دست از کشاندن پای خود بردارید، و اکنون تحقیقات فوری در مورد خطرات هوش مصنوعی مولد را آغاز کنید.
هوش مصنوعی مولد مانند ChatGPT انواع امکانات را برای مصرف کنندگان باز کرده است، اما نگرانی های جدی در مورد اینکه چگونه این سیستم ها ممکن است مردم را فریب دهند، دستکاری کنند و به آنها آسیب برسانند وجود دارد. اورسولا پاچل، معاون مدیر کل BEUC در بیانیه ای گفت: آنها همچنین می توانند برای انتشار اطلاعات نادرست، تداوم تعصبات موجود که تبعیض را تشدید می کند یا برای تقلب مورد استفاده قرار گیرند. ما از مقامات ایمنی، دادهها و حمایت از مصرفکننده میخواهیم که تحقیقات را از هماکنون آغاز کنند و بیکار نمانند تا همه انواع آسیبهای مصرفکننده قبل از اقدام انجام دهند. این قوانین برای همه محصولات و خدمات اعمال میشود، خواه مبتنی بر هوش مصنوعی باشند یا نباشند و مقامات باید آنها را اجرا کنند.»
BEUC، که نماینده سازمان های مصرف کننده در 13 کشور در اتحادیه اروپا است، این فراخوان را همزمان با گزارش یکی از اعضای خود، Forbrukerrådet در نروژ، صادر کرد.
آن گزارش نروژی در موضع خود صریح است: هوش مصنوعی آسیب هایی را به مصرف کننده وارد می کند (عنوان گزارش همه چیز را می گوید: «شبح در ماشین: پرداختن به آسیب های مصرف کننده هوش مصنوعی مولد») و مسائل مشکل ساز متعددی را مطرح می کند.
در حالی که برخی از فنآوران زنگ خطر را در مورد هوش مصنوعی بهعنوان ابزاری برای انقراض انسان به صدا در میآورند، بحث در اروپا بیشتر در مورد تأثیرات هوش مصنوعی در زمینههایی مانند دسترسی عادلانه به خدمات، اطلاعات نادرست و رقابت بوده است.
برای مثال، نشان میدهد که چگونه «برخی از توسعهدهندگان هوش مصنوعی از جمله شرکتهای فناوری بزرگ» سیستمها را از بررسی دقیق خارج کردهاند و دیدن نحوه جمعآوری دادهها یا عملکرد الگوریتمها را دشوار میسازد. این واقعیت که برخی از سیستمها اطلاعات نادرست را به همان اندازه که نتایج صحیح را به دست میآورند، تولید میکنند، و کاربران اغلب عاقلتر از آن نیستند. هوش مصنوعی که برای گمراه کردن یا دستکاری کاربران ساخته شده است. مسئله سوگیری بر اساس اطلاعاتی که به یک مدل هوش مصنوعی خاص تغذیه می شود. و امنیت، به ویژه اینکه چگونه هوش مصنوعی می تواند برای کلاهبرداری از افراد یا نفوذ به سیستم ها مسلح شود.
اگرچه انتشار ChatGPT از OpenAI قطعاً هوش مصنوعی و پتانسیل دسترسی آن را در آگاهی عمومی قرار داده است، تمرکز اتحادیه اروپا بر تأثیر هوش مصنوعی جدید نیست. در سال 2020 در مورد مسائل مربوط به “ریسک” بحث شد، اگرچه این تلاش های اولیه به عنوان زمینه ای برای افزایش “اعتماد” به فناوری مطرح شد.
تا سال 2021، به طور خاص از برنامه های کاربردی هوش مصنوعی “پرخطر” صحبت می کرد و حدود 300 سازمان با هم متحد شدند تا از ممنوعیت کامل برخی از اشکال هوش مصنوعی دفاع کنند.
از آنجایی که اتحادیه اروپا از طریق قوانین منطقه ای خود کار می کند، احساسات در طول زمان به شدت انتقادی شده است. در هفته گذشته، مارگارت وستاگر، رئیس رقابت اتحادیه اروپا، به طور خاص در مورد اینکه چگونه هوش مصنوعی هنگام اعمال در زمینههای حیاتی مانند خدمات مالی مانند وام مسکن و سایر برنامههای وام، خطرات سوگیری ایجاد میکند، صحبت کرد.
نظرات او درست پس از تصویب قانون رسمی هوش مصنوعی اتحادیه اروپا بیان شد که به طور موقت برنامه های هوش مصنوعی را به دسته هایی مانند غیرقابل قبول، پرخطر و محدود تقسیم می کند. این قانون، زمانی که اجرا شود، اولین تلاش جهان برای تلاش برای تدوین نوعی درک و اجرای قانونی در مورد نحوه استفاده تجاری و غیرتجاری هوش مصنوعی خواهد بود.
گام بعدی در این فرآیند این است که اتحادیه اروپا با کشورهای جداگانه در اتحادیه اروپا تعامل کند تا شکل نهایی این قانون را مشخص کند – به ویژه برای شناسایی اینکه چه چیزی (و چه کسی) در دسته بندی های آن قرار می گیرد و چه مواردی نمی گنجد. سوال این است که کشورهای مختلف چقدر با هم به توافق می رسند. اتحادیه اروپا می خواهد این روند را تا پایان سال جاری نهایی کند.
پاچل در بیانیه خود گفت: «این بسیار مهم است که اتحادیه اروپا این قانون را تا حد امکان ضد آب کند تا از مصرف کنندگان محافظت کند. «همه سیستمهای هوش مصنوعی، از جمله هوش مصنوعی مولد، نیاز به بررسی عمومی دارند و مقامات دولتی باید دوباره کنترل خود را بر آنها اعمال کنند. قانونگذاران باید بخواهند که خروجی هر سیستم هوش مصنوعی مولد برای مصرف کنندگان ایمن، منصفانه و شفاف باشد.
BEUC به دلیل حضور در لحظات حساس و برقراری تماسهای تاثیرگذار که نشاندهنده جهتی است که در نهایت تنظیمکنندهها در پیش میگیرند، شناخته شده است. به عنوان مثال، این یک صدای اولیه علیه گوگل در تحقیقات طولانی مدت ضد انحصار علیه غول جستجو و موبایل بود که سال ها قبل از انجام اقدامات علیه این شرکت به صدا درآمد. با این حال، این مثال بر چیز دیگری تأکید می کند: بحث در مورد هوش مصنوعی و تأثیرات آن، و مقررات نقشی که ممکن است در آن ایفا کند، احتمالاً طولانی خواهد بود.
امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید
لینک کوتاه مقاله : https://5ia.ir/UfodXj
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها