دیو ویلنر، رئیس بخش اعتماد و ایمنی OpenAI استعفا می دهد

زمان مطالعه: 4 دقیقه

به گزارش سایت نود و هشت زوم دیو ویلنر، رئیس بخش اعتماد و ایمنی OpenAI استعفا می دهد
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت

تغییر پرسنلی قابل توجهی در OpenAI در حال انجام است، غول هوش مصنوعی که تقریباً به تنهایی مفهوم هوش مصنوعی مولد را با راه اندازی وارد گفتمان عمومی جهانی کرده است. دیو ویلنر، پیشکسوت صنعت که رئیس اعتماد و ایمنی این استارتاپ بود، شب گذشته در پستی در لینکدین اعلام کرد که این شغل را ترک کرده و به یک نقش مشاوره منتقل شده است. او گفت که قصد دارد زمان بیشتری را با خانواده جوانش بگذراند. او یک سال و نیم در این نقش حضور داشت.

خروج او در زمان حساسی برای دنیای هوش مصنوعی رخ می دهد.

اعتبار تصویر: لینکدین (در یک پنجره جدید باز می شود) تحت یک CC BY 2.0 (در یک پنجره جدید باز می شود) مجوز.

در کنار همه هیجان‌ها در مورد قابلیت‌های پلتفرم‌های هوش مصنوعی مولد – که مبتنی بر مدل‌های زبان بزرگ هستند و در تولید متن، تصاویر، موسیقی آزادانه و غیره بر اساس درخواست‌های ساده کاربران، به سرعت نور تولید می‌کنند – لیست رو به رشدی از سوالات نیز وجود دارد. چگونه می توان فعالیت ها و شرکت ها را در این دنیای جدید شجاع تنظیم کرد؟ چگونه می توان هر گونه تأثیرات مضر را در طیف کاملی از مسائل کاهش داد؟ اعتماد و ایمنی بخش های اساسی این گفتگوها هستند.

همین امروز، رئیس OpenAI، گرگ براکمن، قرار است در کاخ سفید در کنار مدیرانی از Anthropic، Google، Inflection، Microsoft، Meta و حضور یابد تا تعهدات داوطلبانه خود را برای پیگیری اهداف ایمنی و شفافیت مشترک پیش از دستور اجرایی هوش مصنوعی که در دست اجراست، تأیید کند. این در پی سر و صدای زیادی در اروپا در رابطه با مقررات هوش مصنوعی و همچنین تغییر احساسات در میان برخی دیگر به وجود می آید.

اهمیت همه اینها در OpenAI از بین نرفته است، که سعی کرده خود را به عنوان یک کن آگاه و مسئولیت پذیر در زمین نشان دهد.

شاید این مقاله را هم دوست داشته باشید :  چت ربات هوش مصنوعی اسنپ چت اکنون برای همه کاربران جهانی رایگان است، می گوید که هوش مصنوعی بعداً شما را «اسنپ» خواهد کرد.

ویلنر به طور خاص در پست لینکدین خود به هیچ یک از این موارد اشاره نمی کند. در عوض، او آن را در سطح بالا نگه می‌دارد و متذکر می‌شود که خواسته های شغل OpenAI او پس از راه اندازی ChatGPT به یک “مرحله با شدت بالا” تبدیل شد.

او نوشت: «من به همه کارهایی که تیم ما در زمان من در OpenAI انجام داده افتخار می‌کنم، و در حالی که شغل من در آنجا یکی از جالب‌ترین و جالب‌ترین مشاغلی بود که امروز می‌توانست داشته باشم، از زمانی که برای اولین بار به عضویتم درآمدم، دامنه و مقیاس آن به طرز چشمگیری افزایش یافته بود. در حالی که او و همسرش – Chariotte Willner، که همچنین یک متخصص اعتماد و ایمنی است – هر دو متعهد شدند که همیشه خانواده را در اولویت قرار دهند، او گفت: “در ماه‌های پس از راه‌اندازی ChatGPT، برای من سخت‌تر و سخت‌تر بود که به پایان معامله‌ام ادامه دهم.”

ویلنر تنها 1.5 سال در پست OpenAI خود بوده است، اما او از یک حرفه طولانی در این زمینه است که شامل تیم های اعتماد و ایمنی در فیس بوک و Airbnb است.

کار فیس بوک به خصوص جالب است. در آنجا، او یک کارمند اولیه بود که به بیان اولین موقعیت استانداردهای جامعه شرکت کمک کرد، که هنوز هم به عنوان مبنای رویکرد شرکت امروزی استفاده می شود.

این یک دوره بسیار سازنده برای شرکت بود، و مسلماً – با توجه به تأثیری که فیس بوک بر نحوه توسعه رسانه های اجتماعی در سطح جهانی داشته است – برای اینترنت و جامعه به طور کلی. برخی از آن سال‌ها با مواضع بسیار صریح در مورد آزادی بیان و اینکه چگونه فیس‌بوک باید در برابر فراخوان‌ها برای مهار گروه‌های بحث‌برانگیز و پست‌های جنجالی مقاومت کند، مشخص شد.

یکی از موارد مورد بحث، اختلاف بسیار بزرگی بود که در سال 2009 در انجمن عمومی درباره نحوه مدیریت حساب‌ها و پست‌های منکر هولوکاست توسط فیس‌بوک مطرح شد. برخی از کارمندان و ناظران خارجی احساس کردند که فیس بوک وظیفه دارد موضع بگیرد و آن پست ها را ممنوع کند. برخی دیگر معتقد بودند که انجام این کار شبیه سانسور است و پیام نادرستی در مورد گفتمان آزاد ارسال می کند.

شاید این مقاله را هم دوست داشته باشید :  چه زمانی Amazon Prime Day به پایان می رسد - و آیا واقعاً پایان است؟

ویلنر در اردوگاه دوم بود و معتقد بود که «سخنان مشوق تنفر» با «آسیب مستقیم» یکسان نیست و بنابراین نباید به همان اندازه تعدیل شود. من معتقد نیستم که انکار هولوکاست، به عنوان یک ایده در مورد آن است [sic] خود، ذاتاً تهدیدی برای ایمنی دیگران است.» (برای یک انفجار از گذشته TechCrunch، پست کامل در این مورد را اینجا ببینید.)

در نگاهی به گذشته، با توجه به اینکه چقدر چیزهای دیگر انجام شده است، این یک موضع کوته بینانه و ساده لوحانه بود. اما، به نظر می رسد که حداقل برخی از این ایده ها تکامل یافته اند. در سال 2019 که دیگر در این شبکه اجتماعی استخدام نشده بود، او علیه این که چگونه این شرکت می‌خواست به سیاستمداران و شخصیت‌های عمومی استثنائات ضعیف‌تری برای تعدیل محتوا بدهد، صحبت می‌کرد.

اما اگر نیاز به ایجاد بستر مناسب در فیس بوک بیشتر از آن چیزی بود که مردم در آن زمان پیش بینی می کردند، این موضوع در حال حاضر برای موج جدید فناوری حتی بیشتر است. طبق این داستان نیویورک تایمز که کمتر از یک ماه پیش منتشر شد، ویلنر در ابتدا به OpenAI آورده شد تا به آن کمک کند تا بفهمد چگونه Dall-E، تولیدکننده تصویر استارتاپ، از سوء استفاده و استفاده برای مواردی مانند ایجاد پورنوگرافی کودکان با هوش مصنوعی مولد جلوگیری کند.

اما همانطور که گفته می شود، OpenAI (و صنعت) دیروز به این سیاست نیاز دارد. دیوید تیل، فن‌شناس ارشد رصدخانه اینترنتی استانفورد، به نیویورک‌تایمز گفت: «در عرض یک سال، ما به وضعیت بسیار مشکلی در این زمینه خواهیم رسید.

اکنون، بدون ویلنر، چه کسی مسئولیت OpenAI را برای رسیدگی به آن رهبری خواهد کرد؟

(ما برای اظهار نظر با OpenAI تماس گرفته ایم و این پست را با هر پاسخی به روز خواهیم کرد.)

امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/XsIaVK
کوتاه کننده لینک
کد QR :
اشتراک گذاری
سروناز مقدم پور

سروناز مقدم پور

سروناز مقدم پور هستم کارشناس مهندسی کامپیوتر و مدیر وبسایت نود و هشت زوم. چندین سال است که در حوزه وب فعالیت می کنم و تخصص های اصلیم طراحی سایت و سئو است بعد از یادگیری علاقه زیادی به آموزش دادن دارم

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *