پانل در مورد فناوری هوش مصنوعی پر سر و صدا می گوید: سرنخ بگیرید: این فناوری به عنوان نظارت مستقر شده است.
به گزارش سایت نود و هشت زوم پانل در مورد فناوری هوش مصنوعی پر سر و صدا می گوید: سرنخ بگیرید: این فناوری به عنوان نظارت مستقر شده است.
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت
اوایل امروز در کنفرانس بلومبرگ در سانفرانسیسکو، برخی از بزرگترین نامهای هوش مصنوعی ظاهر شدند، از جمله، به طور خلاصه، سم آلتمن از OpenAI، که به تازگی تور جهانی دو ماهه خود را به پایان رساند، و عماد مستاک، بنیانگذار هوش مصنوعی پایداری. با این حال، یکی از قانعکنندهترین مکالمات بعد از ظهر، در یک میزگرد درباره اخلاق هوش مصنوعی اتفاق افتاد.
با حضور مردیث ویتاکر، رئیس برنامه پیامرسانی ایمن Signal. ناورینا سینگ، بنیانگذار و مدیرعامل Credo AI؛ و الکس هانا، مدیر تحقیقات مؤسسه تحقیقاتی هوش مصنوعی توزیع شده، این سه پیام یکپارچه برای مخاطبان داشتند که این بود: با وعده ها و تهدیدهای مرتبط با آینده هوش مصنوعی اینقدر حواس پرت نشوید. این جادو نیست، کاملاً خودکار نیست، و – به گفته ویتاکر – فراتر از هر چیزی که به نظر می رسد اکثر آمریکایی ها درک می کنند، مزاحم است.
برای مثال، هانا به افراد زیادی در سراسر جهان که به آموزش مدلهای بزرگ زبان امروزی کمک میکنند، اشاره کرد و گفت که این افراد در برخی از پوششهای نفسگیر در مورد هوش مصنوعی مولد دچار کوتاهی میشوند، تا حدی به این دلیل که کار غیرجذاب است و تا حدودی به این دلیل. با روایت فعلی در مورد هوش مصنوعی همخوانی ندارد.
حنا گفت: «ما از گزارش میدانیم. . که ارتشی از کارگران وجود دارند که در پشت صحنه حاشیه نویسی می کنند تا حتی این موارد را به هر درجه ای کار کنند – کارگرانی که با Amazon Mechanical Turk کار می کنند، افرادی که با آنها کار می کنند. [the training data company] سما – در ونزوئلا، کنیا، ایالات متحده، در واقع در سراسر جهان. . آنها در واقع برچسب زدن را انجام می دهند، در حالی که سام [Altman] و عماد [Mostaque] و همه این افراد دیگری که قرار است این چیزها را بگویند جادو هستند – نه. انسانها هستن . . این چیزها باید مستقل به نظر برسند و این روکش را دارد، اما نیروی انسانی زیادی در زیر آن وجود دارد.
نظراتی که به طور جداگانه توسط Whittaker – که قبلاً در Google کار می کرد، مؤسس مؤسسه AI Now NYU و مشاور کمیسیون تجارت فدرال بود – حتی بیشتر اشاره کرد (و همچنین بر اساس واکنش مشتاقانه مخاطبان به آنها تأثیرگذار بود). پیام او این بود که با توجه به اینکه جهان اکنون توسط چت رباتهایی مانند ChatGPT و Bard مسحور شده است، فناوری زیربنای آنها خطرناک است، به خصوص که قدرت توسط افرادی که در راس هرم پیشرفته هوش مصنوعی قرار دارند، بیشتر متمرکز میشود.
ویتاکر گفت: «من میتوانم بگویم شاید برخی از افراد در این مخاطبان کاربران هوش مصنوعی باشند، اما اکثریت جمعیت این افراد هستند. موضوع از هوش مصنوعی . .این موضوع انتخاب فردی نیست. بسیاری از روشهایی که هوش مصنوعی زندگی ما را درونیابی میکند، تعیینهایی را انجام میدهد که دسترسی ما به منابع به فرصتها را شکل میدهند، در پشت صحنه به روشهایی انجام میشوند که ما احتمالاً حتی نمیدانیم.
ویتاکر شخصی را مثال زد که وارد بانک می شود و درخواست وام می کند. می توان آن شخص را انکار کرد و «نمی دانست که سیستمی در آن وجود دارد [the] احتمالاً توسط برخی از API مایکروسافت پشتیبانی می شود که بر اساس رسانه های اجتماعی خراشیده شده مشخص می کند که من قابل اعتبار نیستم. من هرگز نمی دانم [because] هیچ مکانیزمی برای دانستن این موضوع وجود ندارد.» او ادامه داد که راه هایی برای تغییر این موضوع وجود دارد، اما او پیشنهاد کرد که غلبه بر سلسله مراتب قدرت فعلی برای انجام این کار تقریبا غیرممکن است. من 15 سال، 20 سال پشت میز بودم. من داشتم بوده در جدول. پشت میز بدون قدرت بودن چیزی نیست.»
مطمئناً، بسیاری از افراد ناتوان ممکن است با Whittaker موافق باشند، از جمله کارکنان فعلی و سابق OpenAI و Google که بنا بر گزارشها در زمانهایی از رویکرد شرکتهای خود برای راهاندازی محصولات هوش مصنوعی چشم پوشی کردهاند.
در واقع، سارا فریر، ناظم بلومبرگ، از پنل پرسید که چگونه کارمندان نگران می توانند بدون ترس از دست دادن شغل خود صحبت کنند، که سینگ – که استارتاپ او به شرکت هایی در زمینه مدیریت هوش مصنوعی کمک می کند – پاسخ داد: «فکر می کنم بسیاری از اینها به رهبری و شرکت بستگی دارد. ارزش ها، صادقانه بگویم. . . . ما در سال گذشته شاهد رها شدن تیمهای مسئول هوش مصنوعی بودیم.»
ویتاکر پیشنهاد داد که در این میان، چیزهای بیشتری وجود دارد که مردم روزمره در مورد آنچه اتفاق میافتد نمیفهمند و هوش مصنوعی را «فناوری نظارت» نامید. در مواجهه با جمعیت، او توضیح داد و خاطرنشان کرد که هوش مصنوعی «نیازمند نظارت در قالب این مجموعه دادههای عظیم است که نیاز به دادههای بیشتر و بیشتر و جمعآوری صمیمیتر و بیشتر را تقویت و گسترش میدهد. راه حل همه چیز این است که داده های بیشتر، دانش بیشتر در دست این شرکت ها جمع شود. اما این سیستم ها به عنوان دستگاه های نظارتی نیز مستقر هستند. و من فکر می کنم واقعا مهم است که بدانیم مهم نیست که خروجی یک سیستم هوش مصنوعی از طریق تخمین آماری احتمالی تولید می شود یا اینکه داده های یک برج سلولی است که مکان من را مثلث می کند. این داده ها به داده های مربوط به من تبدیل می شوند. لازم نیست درست باشه نیازی نیست که منعکس کننده این باشد که من کی هستم یا کجا هستم. اما این قدرت بر زندگی من بسیار مهم است و این قدرت در دست این شرکت ها قرار می گیرد.»
در واقع، او افزود، “نمودار ون نگرانی های هوش مصنوعی و نگرانی های حفظ حریم خصوصی یک دایره است.”
واضح است که ویتاکر تا یک نقطه برنامه خاص خود را دارد. همانطور که خودش در این رویداد گفت، «دنیایی وجود دارد که سیگنال و سایر فناوریهای مشروع حفظ حریم خصوصی پایدار هستند» زیرا مردم با تمرکز قدرت کمتر و کمتر احساس راحتی میکنند.
اما همچنین، اگر عقب نشینی کافی وجود نداشته باشد و به زودی – با افزایش سرعت پیشرفت در هوش مصنوعی، تأثیرات اجتماعی نیز تسریع شود – ما به سمت “جاده ای پر از هیاهو به سمت هوش مصنوعی” ادامه خواهیم داد، “جایی که این قدرت ریشه دوانده است. و تحت پوشش هوش طبیعی شده و تا حدی تحت نظر هستیم [of having] عامل بسیار بسیار کمی بر زندگی فردی و جمعی ما.»
این “نگرانی وجودی است، و بسیار بزرگتر از چارچوب های هوش مصنوعی است که اغلب ارائه می شود.”
ما بحث را فریبنده یافتیم. اگر میخواهید همه چیز را ببینید، بلومبرگ آن را در اینجا پست کرده است.
عکس بالا: مردیث ویتاکر رئیس جمهور سیگنال
امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید
لینک کوتاه مقاله : https://5ia.ir/WUUFWG
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها