این هفته در هوش مصنوعی: شرکت‌ها به‌طور داوطلبانه دستورالعمل‌های هوش مصنوعی را ارائه می‌کنند – فعلا

زمان مطالعه: 6 دقیقه

به گزارش سایت نود و هشت زوم این هفته در هوش مصنوعی: شرکت‌ها به‌طور داوطلبانه دستورالعمل‌های هوش مصنوعی را ارائه می‌کنند – فعلا
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت

همگام شدن با صنعتی که به سرعت هوش مصنوعی در حال حرکت است، امری دشوار است. بنابراین تا زمانی که یک هوش مصنوعی بتواند این کار را برای شما انجام دهد، در اینجا خلاصه‌ای مفید از داستان‌های اخیر در دنیای یادگیری ماشین، همراه با تحقیقات و آزمایش‌های قابل‌توجهی است که به تنهایی پوشش نداده‌ایم.

این هفته در هوش مصنوعی، شاهد بودیم که OpenAI، Anthropic، Google، Inflection، مایکروسافت، متا و آمازون داوطلبانه متعهد شدند تا اهداف ایمنی و شفافیت مشترک هوش مصنوعی را پیش از دستور اجرایی برنامه ریزی شده دولت بایدن دنبال کنند.

همانطور که همکار من دوین کولدیوی می نویسد، در اینجا هیچ قانون یا اجرایی پیشنهاد نشده است – رویه هایی که با آنها موافقت شده است کاملاً داوطلبانه هستند. اما این تعهدات، به طور کلی، رویکردها و سیاست های نظارتی هوش مصنوعی را نشان می دهد که هر فروشنده ممکن است آن را در ایالات متحده و همچنین خارج از کشور قابل اصلاح بداند.

از جمله تعهدات دیگر، شرکت‌ها داوطلب شدند تا آزمایش‌های امنیتی سیستم‌های هوش مصنوعی را قبل از انتشار انجام دهند، اطلاعات مربوط به تکنیک‌های کاهش هوش مصنوعی را به اشتراک بگذارند و تکنیک‌های واترمارکی را توسعه دهند که شناسایی محتوای تولید شده توسط هوش مصنوعی را آسان‌تر می‌کند. آنها همچنین گفتند که در امنیت سایبری سرمایه گذاری خواهند کرد تا از داده های هوش مصنوعی خصوصی محافظت کنند و گزارش آسیب پذیری ها را تسهیل کنند و همچنین تحقیقات در مورد خطرات اجتماعی مانند سوگیری سیستمی و مسائل حریم خصوصی را در اولویت قرار دهند.

مطمئناً تعهدات گام مهمی هستند – حتی اگر قابل اجرا نباشند. اما جای تعجب است که آیا انگیزه های پنهانی از طرف امضا کنندگان زیر وجود دارد یا خیر.

بر اساس گزارش ها، OpenAI یک یادداشت سیاست داخلی تهیه کرده است که نشان می دهد این شرکت از ایده درخواست مجوزهای دولتی از هر کسی که می خواهد سیستم های هوش مصنوعی را توسعه دهد، پشتیبانی می کند. مدیر عامل شرکت سم آلتمن برای اولین بار این ایده را در جلسه استماع سنای ایالات متحده در ماه مه مطرح کرد و طی آن از ایجاد آژانسی حمایت کرد که می تواند مجوزهایی را برای محصولات هوش مصنوعی صادر کند – و در صورت نقض قوانین تعیین شده آنها را لغو کند.

در مصاحبه اخیر با مطبوعات، آنا ماکانجو، معاون امور جهانی OpenAI، اصرار داشت که OpenAI برای مجوزها “تحت فشار” نمی‌آورد و این شرکت فقط از رژیم‌های صدور مجوز برای مدل‌های هوش مصنوعی قدرتمندتر از GPT-4 فعلی OpenAI پشتیبانی می‌کند. اما مجوزهای صادر شده توسط دولت، اگر به روشی که OpenAI پیشنهاد می‌کند اجرا شوند، زمینه را برای درگیری بالقوه با استارت‌آپ‌ها و توسعه‌دهندگان منبع باز فراهم می‌کند که ممکن است آنها را تلاشی برای سخت‌تر کردن نفوذ دیگران به فضا بدانند.

فکر می‌کنم دوین بهترین حرف را وقتی برای من اینطور توصیف کرد که «میخ‌ها را پشت سرشان در یک مسابقه انداختن روی جاده». حداقل، ماهیت دو رویی شرکت‌های هوش مصنوعی را نشان می‌دهد که در پشت صحنه به دنبال آرام کردن تنظیم‌کننده‌ها هستند و در عین حال سیاست‌هایی را به نفع خود شکل می‌دهند (در این مورد رقبای کوچک را در معرض ضرر قرار می‌دهند).

شاید این مقاله را هم دوست داشته باشید :  6 راه حل برتر برای گم شدن یا کار نکردن افزونه Outlook در ویندوز

این یک وضعیت نگران کننده است. اما، اگر سیاستگذاران در این زمینه قدم بردارند، هنوز امید به تدابیر کافی بدون دخالت بی مورد از سوی بخش خصوصی وجود دارد.

در اینجا دیگر داستان های قابل توجه هوش مصنوعی در چند روز گذشته آورده شده است:

  • اعتماد و ایمنی OpenAI کنار می رود: دیو ویلنر، کهنه‌کار صنعت که رئیس اعتماد و ایمنی OpenAI بود، در پستی در لینکدین اعلام کرد که این شغل را ترک کرده و به یک نقش مشاوره منتقل شده است. OpenAI در بیانیه ای اعلام کرد که به دنبال جایگزینی است و مدیر ارشد فناوری میرا موراتی تیم را به صورت موقت مدیریت خواهد کرد.
  • دستورالعمل های سفارشی برای ChatGPT: در اخبار بیشتر OpenAI، این شرکت دستورالعمل‌های سفارشی را برای کاربران ChatGPT راه‌اندازی کرده است تا مجبور نباشند هر بار که با آن ارتباط برقرار می‌کنند، دستورالعمل‌های مشابهی را برای چت‌بات بنویسند.
  • هوش مصنوعی خبرنویسی گوگل: بر اساس گزارش جدید نیویورک تایمز، گوگل در حال آزمایش ابزاری است که از هوش مصنوعی برای نوشتن داستان های خبری استفاده می کند و شروع به نمایش آن برای انتشارات کرده است. این غول فناوری سیستم هوش مصنوعی را به نیویورک تایمز، واشنگتن پست و مالک وال استریت ژورنال، News Corp ارائه کرده است.
  • یک ربات چت مانند ChatGPT را آزمایش می کند: بر اساس گزارش جدید مارک گورمن از بلومبرگ، اپل در حال توسعه هوش مصنوعی برای به چالش کشیدن OpenAI، گوگل و دیگران است. به طور خاص، این غول فناوری یک ربات چت ایجاد کرده است که برخی از مهندسان در داخل از آن به عنوان “Apple GPT” یاد می کنند.
  • متا Llama 2 را منتشر کرد: متا از خانواده جدیدی از مدل‌های هوش مصنوعی به نام Llama 2 رونمایی کرد که برای هدایت برنامه‌ها در امتداد خطوط ChatGPT، Bing و دیگر چت‌بات‌های مدرن OpenAI طراحی شده است. متا که بر روی ترکیبی از داده های در دسترس عموم آموزش دیده است، ادعا می کند که عملکرد Llama 2 نسبت به نسل قبلی مدل های Llama به طور قابل توجهی بهبود یافته است.
  • اعتراض نویسندگان به هوش مصنوعی مولد: سیستم‌های هوش مصنوعی مولد مانند ChatGPT بر روی داده‌های در دسترس عموم، از جمله کتاب‌ها آموزش می‌بینند – و همه تولیدکنندگان محتوا از این ترتیب راضی نیستند. در نامه ای سرگشاده که توسط بیش از 8500 نویسنده داستان، غیرداستانی و شعر امضا شده است، شرکت های فناوری در پشت مدل های زبانی بزرگ مانند ChatGPT، Bard، LLaMa و غیره به دلیل استفاده از نوشته های خود بدون اجازه یا جبران، مورد سرزنش قرار گرفته اند.
  • مایکروسافت بینگ چت را به شرکت می آورد: در کنفرانس سالانه Inspire، مایکروسافت Bing Chat Enterprise را معرفی کرد، نسخه‌ای از چت ربات Bing Chat با هوش مصنوعی با کنترل‌های مدیریتی و حریم خصوصی داده متمرکز بر تجارت. با Bing Chat Enterprise، داده‌های چت ذخیره نمی‌شود، مایکروسافت نمی‌تواند داده‌های کارمند یا کسب‌وکار مشتری را مشاهده کند و از داده‌های مشتری برای آموزش مدل‌های هوش مصنوعی اساسی استفاده نمی‌شود.

یادگیری ماشینی بیشتر

از نظر فنی نیز این یک خبر بود، اما باید در اینجا در بخش تحقیق ذکر شود. استودیوی Fable که قبلا فیلم‌های کوتاه CG و سه بعدی را برای VR و رسانه‌های دیگر می‌ساخت، یک مدل هوش مصنوعی به نام Showrunner را به نمایش گذاشت که (ادعا می‌کند) می‌تواند کل یک برنامه ی را بنویسد، کارگردانی کند، نقش‌آفرینی کند و ویرایش کند – در دموی آنها، South Park بود.

من در این مورد دو نظر دارم از یک طرف، من فکر می‌کنم که اصلاً پیگیری این موضوع، چه رسد به اعتصاب بزرگ هالیوود که شامل مسائل مربوط به غرامت و هوش مصنوعی است، سلیقه نسبتاً ضعیفی دارد. اگرچه ادوارد ساعتچی، مدیر عامل شرکت، معتقد است که این ابزار قدرت را در دست سازندگان قرار می دهد، برعکس آن نیز قابل بحث است. به هر حال، مردم این صنعت به خوبی از آن استقبال نکردند.

شاید این مقاله را هم دوست داشته باشید :  مقایسه چیپست ها در سری آیفون 15

از سوی دیگر، اگر فردی در سمت خلاق (که Saatchi است) این قابلیت‌ها را کاوش و نشان ندهد، در آن صورت توسط دیگران با اصرار کمتری در مورد استفاده از آن‌ها کشف و نشان داده می‌شوند. حتی اگر ادعاهایی که Fable نسبت به آنچه که در واقع نشان داده اند کمی گسترده باشد (که دارای محدودیت های جدی است) مانند DALL-E اصلی است که باعث بحث و نگرانی می شود حتی اگر جایگزینی برای یک هنرمند واقعی نباشد. هوش مصنوعی به هر طریقی در تولید رسانه جایگاهی خواهد داشت – اما به دلایل زیادی باید با احتیاط به آن پرداخت.

در بخش سیاست، مدتی قبل، قانون مجوز دفاع ملی را داشتیم که (طبق معمول) برخی اصلاحات سیاستی واقعاً مضحک را انجام می داد که هیچ ربطی به دفاع ندارند. اما در میان آنها یک مورد اضافه بود که دولت باید میزبان رویدادی باشد که در آن محققان شرکت‌هایی می‌توانند تمام تلاش خود را برای شناسایی محتوای تولید شده توسط هوش مصنوعی انجام دهند. این نوع چیزها قطعاً به سطوح “بحران ملی” نزدیک می شود، بنابراین احتمالاً خوب است که این موضوع در آنجا لغزش یابد.

در تحقیقات دیزنی، آنها همیشه در تلاشند راهی برای پل زدن بین دیجیتال و واقعی پیدا کنند – احتمالاً برای اهداف پارک. در این مورد، آنها راهی برای ترسیم حرکات مجازی یک کاراکتر یا تصویربرداری حرکتی (مثلاً برای یک سگ CG در یک فیلم) روی یک ربات واقعی ایجاد کرده‌اند، حتی اگر آن ربات شکل یا اندازه متفاوتی داشته باشد. این سیستم بر دو سیستم بهینه‌سازی متکی است که هر کدام به دیگری از آنچه ایده‌آل و ممکن است اطلاع می‌دهند، به نوعی مانند یک نفس کوچک و ابرخود. این امر باعث می‌شود که سگ‌های ربات مانند سگ‌های معمولی عمل کنند، اما البته قابل تعمیم به موارد دیگر نیز هست.

و در اینجا امیدواریم که هوش مصنوعی بتواند به ما کمک کند تا جهان را از استخراج معدنی از کف دریا دور کنیم، زیرا این قطعا ایده بدی است. یک مطالعه چند نهادی توانایی هوش مصنوعی را برای غربال کردن سیگنال از نویز به پیش‌بینی مکان مواد معدنی ارزشمند در سراسر جهان نشان داد. همانطور که در چکیده می نویسند:

در این کار، ما با استفاده از یادگیری ماشینی برای توصیف الگوهای تعبیه شده در چندبعدی وقوع و تداعی مواد معدنی، پیچیدگی و «آشفتگی» ذاتی سیستم‌های زمین‌شناسی، شیمیایی و بیولوژیکی در هم تنیده سیاره‌مان را می‌پذیریم.

این مطالعه در واقع مکان‌های اورانیوم، لیتیوم و سایر مواد معدنی ارزشمند را پیش‌بینی و تأیید کرد. و چه در مورد این برای یک خط پایانی: این سیستم “درک ما را از کانی سازی و محیط های معدنی روی زمین، در سراسر منظومه شمسی ما و در طول زمان افزایش می دهد.” عالی.

امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/ptqCuW
کوتاه کننده لینک
کد QR :
اشتراک گذاری
سروناز مقدم پور

سروناز مقدم پور

سروناز مقدم پور هستم کارشناس مهندسی کامپیوتر و مدیر وبسایت نود و هشت زوم. چندین سال است که در حوزه وب فعالیت می کنم و تخصص های اصلیم طراحی سایت و سئو است بعد از یادگیری علاقه زیادی به آموزش دادن دارم

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *