همانطور که هوش مصنوعی مشاغل را حذف می کند، راهی برای حفظ وضعیت مالی مردم (این UBI نیست)
به گزارش سایت نود و هشت زوم همانطور که هوش مصنوعی مشاغل را حذف می کند، راهی برای حفظ وضعیت مالی مردم (این UBI نیست)
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت
در سیلیکون ولی، برخی از باهوشترین ذهنها بر این باورند که درآمد پایه جهانی (UBI) که پرداختهای نقدی نامحدود به مردم را تضمین میکند، به آنها کمک میکند تا زنده بمانند و پیشرفت کنند، زیرا فناوریهای پیشرفته مشاغل بیشتری را که ما میشناسیم از بین میبرند، از یقه سفیدها و نقشهای خلاق – وکلا، روزنامهنگاران، هنرمندان، مهندسان نرمافزار – به مشاغل کارگری. این ایده به اندازه کافی مورد توجه قرار گرفته است که ده ها برنامه درآمد تضمینی از سال 2020 در شهرهای ایالات متحده آغاز شده است.
با این حال، حتی سم آلتمن، مدیر عامل OpenAI و یکی از برجستهترین حامیان UBI، معتقد نیست که این یک راهحل کامل است. همانطور که او در طی یک نشست در اوایل سال جاری گفت: «فکر میکنم این بخش کوچکی از راهحل است. به نظر من عالیه من فکر می کنم به عنوان [advanced artificial intelligence] هرچه بیشتر در اقتصاد مشارکت می کند، ما باید ثروت و منابع را بسیار بیشتر از آنچه که داریم توزیع کنیم و این به مرور زمان مهم خواهد بود. اما فکر نمیکنم این مشکل را حل کند. فکر نمیکنم این به مردم معنا بدهد، فکر نمیکنم به این معنا باشد که مردم بهطور کامل از تلاش برای خلق و انجام کارهای جدید و هر چیز دیگری دست میکشند. بنابراین من آن را یک فناوری توانمند می دانم، اما نه یک برنامه برای جامعه.»
سوالی که مطرح می شود این است که در آن صورت طرحی برای جامعه ممکن است چگونه به نظر برسد، و جارون لانیر، دانشمند کامپیوتر، بنیانگذار حوزه واقعیت مجازی، در نیویورکر این هفته می نویسد که «شأن داده» می تواند یک راه حل باشد، اگر نه. را پاسخ.
در اینجا فرض اصلی این است: در حال حاضر، ما بیشتر داده های خود را در ازای خدمات رایگان به صورت رایگان می دهیم. لانیر استدلال میکند که مهمتر از هر زمان دیگری این است که این کار را متوقف کنیم، که «چیزهای دیجیتالی» که به آنها تکیه میکنیم – شبکههای اجتماعی تا حدی و همچنین مدلهای فزاینده هوش مصنوعی مانند GPT-4 OpenAI – در عوض «با انسانها در ارتباط باشند». که در وهله اول به آنها چیزهای زیادی می دهند تا بخورند.
ایده این است که مردم «برای چیزی که خلق میکنند، پول دریافت کنند، حتی زمانی که فیلتر شده و از طریق مدلهای بزرگ ترکیب میشود».
این مفهوم کاملاً جدید نیست، زیرا لانیر برای اولین بار مفهوم شأن داده را در مقاله بررسی کسب و کار هاروارد در سال 2018 با عنوان “نقشه ای برای یک جامعه دیجیتال بهتر” معرفی کرد. همانطور که او در آن زمان با همکار نویسنده و اقتصاددان گلن ویل نوشت:[R]اخبار غیرعادی از بخش فناوری حاکی از موجی از کمکاری ناشی از هوش مصنوعی (AI) و اتوماسیون است» و «آیندهای که در آن مردم بهطور فزایندهای بهعنوان بیارزش و فاقد عاملیت اقتصادی رفتار میشوند».
اما “لفاظی” طرفداران درآمد پایه جهانی “تنها برای دو نتیجه جا باقی می گذارد” و آنها بسیار افراطی هستند، لانیر و ویل مشاهده کردند. یا علیرغم پیشرفتهای فناوری، فقر انبوه وجود خواهد داشت، یا باید ثروت زیادی از طریق یک صندوق ثروت اجتماعی تحت کنترل مرکزی و ملی قرار گیرد تا درآمد پایه جهانی برای شهروندان فراهم شود.»
اما این دو نوشتند که هم «قدرت بیش از حد متمرکز است و هم ارزش تولیدکنندگان داده را تضعیف یا نادیده می گیرد».
ذهنم را باز کن
البته، تخصیص میزان اعتبار مناسب به افراد برای مشارکتهای بیشمارشان در هر چیزی که در جهان وجود دارد، یک چالش کوچک نیست (حتی همانطور که میتوان تصور کرد استارتآپهای حسابرسی هوش مصنوعی قول رسیدگی به این موضوع را میدهند). لانیر اذعان میکند که حتی محققان ارزش داده نمیتوانند در مورد نحوه تفکیک همه چیزهایی که مدلهای هوش مصنوعی جذب کردهاند یا اینکه چقدر باید حسابداری دقیق انجام شود، به توافق برسند.
اما او فکر می کند – شاید خوش بینانه – که می تواند به تدریج انجام شود. این سیستم لزوماً میلیاردها نفری را که به مدلهای بزرگ کمک کردهاند را در بر نمیگیرد – مثلاً کسانی که به مهارت شبیهسازیشده یک مدل در گرامر اضافه کردهاند. [It] ممکن است فقط به تعداد کمی از مشارکت کنندگان ویژه ای که در یک موقعیت خاص ظاهر می شوند توجه داشته باشد. با این حال، با گذشت زمان، «ممکن است افراد بیشتری را شامل شوند، زیرا سازمانهای حقوق میانی – اتحادیهها، اصناف، گروههای حرفهای و غیره- شروع به ایفای نقش میکنند».
لانیر میگوید، البته چالش فوریتر، ماهیت جعبه سیاه ابزارهای هوش مصنوعی فعلی است که معتقد است «سیستمها باید شفافتر شوند. ما باید بهتر بگوییم که در درون آنها چه می گذرد و چرا.”
در حالی که OpenAI حداقل برخی از داده های آموزشی خود را در سال های گذشته منتشر کرده بود، از آن زمان کیمونو را به طور کامل بسته است. در واقع، گرگ براکمن ماه گذشته در مورد GPT-4، آخرین و قدرتمندترین مدل زبان بزرگ تا به امروز، به TechCrunch گفت که دادههای آموزشی آن از «انواع منابع داده دارای مجوز، ایجاد شده و در دسترس عموم است، که ممکن است شامل شخصی در دسترس عموم باشد. اطلاعات، اما او از ارائه چیز دقیق تر خودداری کرد.
همانطور که OpenAI در زمان انتشار GPT-4 بیان کرد، این لباس در فاش کردن چیزی بیش از آنچه که انجام می دهد، جنبه منفی زیادی دارد. با توجه به چشمانداز رقابتی و پیامدهای ایمنی مدلهای مقیاس بزرگ مانند GPT-4، این گزارش حاوی جزئیات بیشتری در مورد معماری (از جمله اندازه مدل)، سختافزار، محاسبات آموزشی، ساخت مجموعه داده، روش آموزش یا موارد مشابه نیست.
همین امر در مورد هر مدل زبان بزرگ در حال حاضر صادق است. برای مثال چت ربات Bard گوگل بر اساس مدل زبان LaMDA است که بر روی مجموعه داده های مبتنی بر محتوای اینترنتی به نام Infiniset آموزش داده شده است. اما جز آنچه که تیم تحقیقاتی گوگل یک سال پیش نوشت، اطلاعات کمی در مورد آن وجود دارد، که این است که – در دوره ای در گذشته – 2.97 میلیارد سند و 1.12 میلیارد گفتگو با 13.39 میلیارد گفتار گنجانده شده است.
تنظیم کننده ها درگیر این هستند که چه کاری انجام دهند. OpenAI – که فناوری آن به طور خاص مانند آتش در حال گسترش است – در حال حاضر در تیررس تعداد فزاینده ای از کشورها از جمله مقامات ایتالیایی است که استفاده از ChatGPT را مسدود کرده است. تنظیم کننده های داده فرانسوی، آلمانی، ایرلندی و کانادایی نیز در حال بررسی نحوه جمع آوری و استفاده از داده ها هستند.
اما همانطور که مارگارت میچل، محقق هوش مصنوعی که قبلاً یکی از رهبران اخلاق هوش مصنوعی گوگل بود، به نشریه Technology Review میگوید، ممکن است در این مرحله برای این شرکتها تقریبا غیرممکن باشد که دادههای افراد را شناسایی کرده و آنها را از مدلهای خود حذف کنند.
همانطور که توسط این رسانه توضیح داده شده است: OpenAI «میتوانست از همان ابتدا با ایجاد ثبت اطلاعات قوی، از سردرد غولپیکر نجات دهد. [according to Mitchell]. درعوض، در صنعت هوش مصنوعی، ساخت مجموعههای دادهای برای مدلهای هوش مصنوعی با خراش دادن بیرویه وب و سپس برونسپاری کار حذف دادههای تکراری یا نامربوط، فیلتر کردن چیزهای ناخواسته، و رفع اشتباهات تایپی رایج است.
چگونه یک زندگی را نجات دهیم
اینکه این شرکتهای فناوری ممکن است واقعاً درک محدودی از آنچه اکنون در مدلهایشان وجود دارد، داشته باشند، چالشی آشکار برای پیشنهاد «شأن داده» لانیر است، که آلتمن را در مقالهاش در نیویورکر «همکار و دوست» مینامد.
این که آیا آن را غیرممکن می کند یا نه، چیزی است که فقط زمان مشخص خواهد کرد.
مطمئناً، مایل به واگذاری مالکیت افراد بر کارشان، شایستگی دارد، و ناامیدی از این موضوع قطعاً میتواند با تغییر شکل بیشتر جهان با این ابزارهای جدید افزایش یابد.
اینکه OpenAI و دیگران حق داشتند کل اینترنت را برای تغذیه الگوریتمهای آن خراش دهند یا نه، در قلب پروندههای حقوقی متعدد و گسترده نقض حق نسخهبرداری علیه آنها قرار دارد.
اما لانیر در مقاله جذاب خود در نیویورکر پیشنهاد میکند که این به اصطلاح کرامت دادهها نیز میتواند در طول زمان به حفظ سلامت عقل انسان کمک کند.
همانطور که او می بیند، درآمد پایه جهانی “به این معناست که همه را در معرض خطر قرار دهیم تا ایده هوش مصنوعی جعبه سیاه حفظ شود.” در همین حال، پایان دادن به «ماهیت جعبه سیاه مدلهای فعلی هوش مصنوعی ما»، حسابداری مشارکتهای مردم را آسانتر میکند – و احتمال ادامه مشارکتشان را بسیار بیشتر میکند.
لانیر اضافه میکند که نکته مهم این است که میتواند به «تاسیس یک کلاس خلاق جدید به جای یک کلاس وابسته جدید» کمک کند. و ترجیح می دهید جزئی از کدام باشید؟
امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید
لینک کوتاه مقاله : https://5ia.ir/UHb
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها