کارگرانی که ChatGPT را کمتر مضر کرده اند از قانونگذاران می خواهند که از استثمار ادعایی توسط Big Tech جلوگیری کنند.
به گزارش سایت نود و هشت زوم کارگرانی که ChatGPT را کمتر مضر کرده اند از قانونگذاران می خواهند که از استثمار ادعایی توسط Big Tech جلوگیری کنند.
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت
کارگران کنیایی که به حذف محتوای مضر در ChatGPT، موتور جستجوی هوشمند OpenAI که محتوا را بر اساس درخواستهای کاربر تولید میکند، کمک کردند، دادخواستی را به قانونگذاران این کشور ارسال کردهاند و از آنها خواستهاند تا تحقیقاتی را در مورد تعدیل محتوای برونسپاری فناوری بزرگ و فعالیتهای هوش مصنوعی در کنیا آغاز کنند.
درخواستکنندگان خواهان تحقیقات در مورد «ماهیت کار، شرایط کار، و عملیات» فناوریهای بزرگی هستند که خدمات را در کنیا از طریق شرکتهایی مانند Sama برون سپاری میکنند – که در قلب چندین دعاوی حقوقی در مورد استثمار ادعایی، تخریب اتحادیهها قرار دارد. و اخراج دسته جمعی غیرقانونی مدیران محتوا.
این طومار در پی گزارشی از تایم است که در آن حقوق رقتانگیز کارگران سما که چتجیپیتی را کمتر سمی میکرد و ماهیت شغلشان را که مستلزم خواندن و برچسبگذاری متن گرافیکی، از جمله توصیف صحنههای قتل، حیوانات و تجاوز جنسی بود، شرح میداد. در این گزارش آمده است که در اواخر سال 2021، سما با OpenAI قرارداد بسته شد تا به عنوان بخشی از کار برای ساخت ابزاری (که در ChatGPT تعبیه شده بود) برای تشخیص محتوای سمی، «برچسبگذاری توصیفات متنی سوء استفاده جنسی، سخنان مشوق تنفر و خشونت» را ببندد.
کارگران میگویند که مورد استثمار قرار گرفتهاند، و حمایت روانی-اجتماعی ارائه نشدهاند، اما در معرض محتوای مضری قرار گرفتهاند که آنها را با “بیماری روانی شدید” مواجه کرده است. کارگران از قانونگذاران می خواهند که “برون سپاری فناوری های مضر و خطرناک را تنظیم کنند” و از کارگرانی که این کار را انجام می دهند محافظت کنند.
آنها همچنین از آنها می خواهند که قوانینی را وضع کنند که “برون سپاری کارهای مضر و خطرناک فناوری و محافظت از کارگرانی را که از طریق چنین تعاملاتی درگیر می شوند” تنظیم کند.
سما می گوید 25 درصد از شرکت های Fortune 50 از جمله گوگل و مایکروسافت را مشتریان خود می داند. کسب و کار اصلی شرکت مستقر در سانفرانسیسکو در حاشیه نویسی داده های بینایی کامپیوتری، نظارت و اعتبار سنجی است. بیش از 3000 نفر در مراکز خود از جمله کنیا مشغول به کار است. در اوایل سال جاری سما خدمات تعدیل محتوا را به منظور تمرکز بر حاشیه نویسی داده های بینایی کامپیوتری حذف کرد و 260 کارگر را اخراج کرد.
پاسخ OpenAI به سوء استفاده ادعایی اذعان کرد که کار چالش برانگیز است، و اضافه کرد که استانداردهای اخلاقی و سلامتی (بدون ارائه جزئیات بیشتر در مورد اقدامات دقیق) را با حاشیه نویسان داده های خود ایجاد کرده و به اشتراک گذاشته است تا کار به صورت “انسانی و با اراده” ارائه شود.
آنها خاطرنشان کردند که برای ایجاد هوش عمومی مصنوعی ایمن و مفید، حاشیه نویسی داده های انسانی یکی از جریان های کار آن برای جمع آوری بازخوردهای انسانی و هدایت مدل ها به سمت رفتار ایمن تر در دنیای واقعی بود.
سخنگوی OpenAI گفت: “ما می دانیم که این کار برای محققان و کارگران حاشیه نویسی ما در کنیا و سراسر جهان چالش برانگیز است – تلاش آنها برای اطمینان از ایمنی سیستم های هوش مصنوعی بسیار ارزشمند بوده است.”
سما به TechCrunch گفت که آماده همکاری با دولت کنیا است “تا اطمینان حاصل شود که حفاظت های پایه در همه شرکت ها وجود دارد.” این سازمان اعلام کرد که از ممیزی شخص ثالث در مورد شرایط کاری خود استقبال می کند، و افزود که کارکنان کانال های متعددی برای ابراز نگرانی دارند، و «ارزیابی ها و ممیزی های خارجی و داخلی متعددی را انجام داده است تا اطمینان حاصل شود که ما دستمزدهای منصفانه پرداخت می کنیم و محیط کاری را فراهم می کنیم. بلند مرتبه.”
امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید
لینک کوتاه مقاله : https://5ia.ir/YWPUWP
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها