دیو ویلنر، رئیس بخش اعتماد و ایمنی OpenAI استعفا می دهد
به گزارش سایت نود و هشت زوم دیو ویلنر، رئیس بخش اعتماد و ایمنی OpenAI استعفا می دهد
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت
تغییر پرسنلی قابل توجهی در OpenAI در حال انجام است، غول هوش مصنوعی که تقریباً به تنهایی مفهوم هوش مصنوعی مولد را با راه اندازی ChatGPT وارد گفتمان عمومی جهانی کرده است. دیو ویلنر، پیشکسوت صنعت که رئیس اعتماد و ایمنی این استارتاپ بود، شب گذشته در پستی در لینکدین اعلام کرد که این شغل را ترک کرده و به یک نقش مشاوره منتقل شده است. او گفت که قصد دارد زمان بیشتری را با خانواده جوانش بگذراند. او یک سال و نیم در این نقش حضور داشت.
خروج او در زمان حساسی برای دنیای هوش مصنوعی رخ می دهد.
در کنار همه هیجانها در مورد قابلیتهای پلتفرمهای هوش مصنوعی مولد – که مبتنی بر مدلهای زبان بزرگ هستند و در تولید متن، تصاویر، موسیقی آزادانه و غیره بر اساس درخواستهای ساده کاربران، به سرعت نور تولید میکنند – لیست رو به رشدی از سوالات نیز وجود دارد. چگونه می توان فعالیت ها و شرکت ها را در این دنیای جدید شجاع تنظیم کرد؟ چگونه می توان هر گونه تأثیرات مضر را در طیف کاملی از مسائل کاهش داد؟ اعتماد و ایمنی بخش های اساسی این گفتگوها هستند.
همین امروز، رئیس OpenAI، گرگ براکمن، قرار است در کاخ سفید در کنار مدیرانی از Anthropic، Google، Inflection، Microsoft، Meta و Amazon حضور یابد تا تعهدات داوطلبانه خود را برای پیگیری اهداف ایمنی و شفافیت مشترک پیش از دستور اجرایی هوش مصنوعی که در دست اجراست، تأیید کند. این در پی سر و صدای زیادی در اروپا در رابطه با مقررات هوش مصنوعی و همچنین تغییر احساسات در میان برخی دیگر به وجود می آید.
اهمیت همه اینها در OpenAI از بین نرفته است، که سعی کرده خود را به عنوان یک بازیکن آگاه و مسئولیت پذیر در زمین نشان دهد.
ویلنر به طور خاص در پست لینکدین خود به هیچ یک از این موارد اشاره نمی کند. در عوض، او آن را در سطح بالا نگه میدارد و متذکر میشود که خواسته های شغل OpenAI او پس از راه اندازی ChatGPT به یک “مرحله با شدت بالا” تبدیل شد.
او نوشت: «من به همه کارهایی که تیم ما در زمان من در OpenAI انجام داده افتخار میکنم، و در حالی که شغل من در آنجا یکی از جالبترین و جالبترین مشاغلی بود که امروز میتوانست داشته باشم، از زمانی که برای اولین بار به عضویتم درآمدم، دامنه و مقیاس آن به طرز چشمگیری افزایش یافته بود. در حالی که او و همسرش – Chariotte Willner، که همچنین یک متخصص اعتماد و ایمنی است – هر دو متعهد شدند که همیشه خانواده را در اولویت قرار دهند، او گفت: “در ماههای پس از راهاندازی ChatGPT، برای من سختتر و سختتر بود که به پایان معاملهام ادامه دهم.”
ویلنر تنها 1.5 سال در پست OpenAI خود بوده است، اما او از یک حرفه طولانی در این زمینه است که شامل تیم های اعتماد و ایمنی در فیس بوک و Airbnb است.
کار فیس بوک به خصوص جالب است. در آنجا، او یک کارمند اولیه بود که به بیان اولین موقعیت استانداردهای جامعه شرکت کمک کرد، که هنوز هم به عنوان مبنای رویکرد شرکت امروزی استفاده می شود.
این یک دوره بسیار سازنده برای شرکت بود، و مسلماً – با توجه به تأثیری که فیس بوک بر نحوه توسعه رسانه های اجتماعی در سطح جهانی داشته است – برای اینترنت و جامعه به طور کلی. برخی از آن سالها با مواضع بسیار صریح در مورد آزادی بیان و اینکه چگونه فیسبوک باید در برابر فراخوانها برای مهار گروههای بحثبرانگیز و پستهای جنجالی مقاومت کند، مشخص شد.
یکی از موارد مورد بحث، اختلاف بسیار بزرگی بود که در سال 2009 در انجمن عمومی درباره نحوه مدیریت حسابها و پستهای منکر هولوکاست توسط فیسبوک مطرح شد. برخی از کارمندان و ناظران خارجی احساس کردند که فیس بوک وظیفه دارد موضع بگیرد و آن پست ها را ممنوع کند. برخی دیگر معتقد بودند که انجام این کار شبیه سانسور است و پیام نادرستی در مورد گفتمان آزاد ارسال می کند.
ویلنر در اردوگاه دوم بود و معتقد بود که «سخنان مشوق تنفر» با «آسیب مستقیم» یکسان نیست و بنابراین نباید به همان اندازه تعدیل شود. من معتقد نیستم که انکار هولوکاست، به عنوان یک ایده در مورد آن است [sic] خود، ذاتاً تهدیدی برای ایمنی دیگران است.» (برای یک انفجار از گذشته TechCrunch، پست کامل در این مورد را اینجا ببینید.)
در نگاهی به گذشته، با توجه به اینکه چقدر چیزهای دیگر انجام شده است، این یک موضع کوته بینانه و ساده لوحانه بود. اما، به نظر می رسد که حداقل برخی از این ایده ها تکامل یافته اند. در سال 2019 که دیگر در این شبکه اجتماعی استخدام نشده بود، او علیه این که چگونه این شرکت میخواست به سیاستمداران و شخصیتهای عمومی استثنائات ضعیفتری برای تعدیل محتوا بدهد، صحبت میکرد.
اما اگر نیاز به ایجاد بستر مناسب در فیس بوک بیشتر از آن چیزی بود که مردم در آن زمان پیش بینی می کردند، این موضوع در حال حاضر برای موج جدید فناوری حتی بیشتر است. طبق این داستان نیویورک تایمز که کمتر از یک ماه پیش منتشر شد، ویلنر در ابتدا به OpenAI آورده شد تا به آن کمک کند تا بفهمد چگونه Dall-E، تولیدکننده تصویر استارتاپ، از سوء استفاده و استفاده برای مواردی مانند ایجاد پورنوگرافی کودکان با هوش مصنوعی مولد جلوگیری کند.
اما همانطور که گفته می شود، OpenAI (و صنعت) دیروز به این سیاست نیاز دارد. دیوید تیل، فنشناس ارشد رصدخانه اینترنتی استانفورد، به نیویورکتایمز گفت: «در عرض یک سال، ما به وضعیت بسیار مشکلی در این زمینه خواهیم رسید.
اکنون، بدون ویلنر، چه کسی مسئولیت OpenAI را برای رسیدگی به آن رهبری خواهد کرد؟
(ما برای اظهار نظر با OpenAI تماس گرفته ایم و این پست را با هر پاسخی به روز خواهیم کرد.)
امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید
لینک کوتاه مقاله : https://5ia.ir/XsIaVK
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها