آیا هوش مصنوعی می تواند افترا مرتکب شود؟ ما در حال کشف کردن هستیم

زمان مطالعه: 4 دقیقه

به گزارش سایت نود و هشت زوم آیا هوش مصنوعی می تواند افترا مرتکب شود؟ ما در حال کشف کردن هستیم
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت

داغ‌ترین اسباب‌بازی جدید دنیای فناوری ممکن است خود را در آب داغ قانونی بیابد، زیرا تمایل هوش مصنوعی به اختراع مقالات و رویدادهای خبری در برابر قوانین افترا است. آیا یک مدل هوش مصنوعی مانند حتی می تواند تهمت بزند؟ مانند بسیاری از موارد پیرامون این فناوری، ناشناخته و بی سابقه است – اما چالش های قانونی آینده ممکن است آن را تغییر دهد.

افترا به طور کلی به عنوان انتشار یا گفتن اظهارات مخرب و غیر واقعی در مورد کسی تعریف می شود. این یک قلمرو قانونی پیچیده و ظریف است که در حوزه های قضایی نیز به طور گسترده ای متفاوت است: یک پرونده افترا در ایالات متحده با پرونده ای در بریتانیا یا استرالیا – محل اجرای درام امروزی – بسیار متفاوت است.

هوش مصنوعی مولد قبلاً سؤالات حقوقی بی‌پاسخ متعددی را ایجاد کرده است، برای مثال اینکه آیا استفاده آن از مطالب دارای حق چاپ به منزله استفاده منصفانه یا نقض است. اما تا یک سال پیش، نه مدل‌های هوش مصنوعی تولیدکننده تصویر و متن به اندازه کافی خوب نبودند که چیزی را با واقعیت اشتباه بگیرید، بنابراین سؤالات مربوط به بازنمایی‌های نادرست کاملاً آکادمیک بود.

در حال حاضر نه چندان زیاد: مدل زبان بزرگ پشت ChatGPT و Bing Chat یک هنرمند مزخرف است که در مقیاس عظیمی فعالیت می کند، و ادغام آن با محصولات اصلی مانند موتورهای جستجو (و تقریباً هر چیز دیگری) احتمالاً سیستم را از آزمایش بد به انبوه ارتقا می دهد. پلت فرم انتشار

پس چه اتفاقی می‌افتد وقتی این ابزار/پلتفرم می‌نویسد که یک مقام دولتی در یک پرونده تخلف، یا یک استاد دانشگاه متهم به آزار و اذیت جنسی شده است؟

یک سال پیش، بدون ادغام گسترده و زبان نسبتاً قانع کننده، کمتر کسی می گفت که چنین اظهارات نادرستی را می توان جدی گرفت. اما امروزه این مدل‌ها با اطمینان و قانع‌کننده‌ای به سؤالات در پلت‌فرم‌های مصرف‌کننده در دسترس پاسخ می‌دهند، حتی زمانی که این پاسخ‌ها توهم‌آمیز هستند یا به دروغ به مقالاتی که وجود ندارند نسبت داده می‌شوند. آنها گزاره های نادرست را به مقالات واقعی، یا گزاره های درست را به موارد اختراع شده نسبت می دهند، یا همه آن را می سازند.

شاید این مقاله را هم دوست داشته باشید :  4 بهترین SSD برای ASUS ROG Ally

با توجه به ماهیت نحوه کار این مدل ها، آنها نمی دانند یا به درستی چیزی اهمیت نمی دهند، فقط به نظر می رسد که درست است. مطمئناً زمانی که از آن برای انجام تکالیف خود استفاده می کنید، مشکل ایجاد می کند، اما وقتی شما را به جرمی متهم می کند که مرتکب نشده اید، در این مرحله ممکن است افترا باشد.

این ادعایی است که توسط برایان هود، شهردار هپبورن شایر در استرالیا، زمانی که به او اطلاع داده شد که ChatGPT او را در یک رسوایی رشوه خواری از 20 سال پیش محکوم کرده است. رسوایی واقعی بود – و هود درگیر بود. اما او کسی بود که در این باره به مقامات مراجعه کرد و همانطور که رویترز گزارش می دهد که وکلای او می گویند هرگز متهم به جرم نشد.

اکنون مشخص است که این گفته نادرست است و بی‌تردید برای شهرت هود ضرر دارد. اما چه کسی این بیانیه را اعلام کرد؟ آیا OpenAI است که نرم افزار را توسعه داده است؟ آیا این است که مجوز آن را صادر کرده و تحت بینگ مستقر کرده است؟ آیا این خود نرم افزار به عنوان یک سیستم خودکار عمل می کند؟ اگر چنین است، چه کسی مسئول ترغیب آن سیستم به ایجاد بیانیه است؟ آیا بیان چنین اظهاراتی در چنین فضایی به منزله «انتشار» آن است یا بیشتر شبیه گفتگوی دو نفر است؟ در این صورت آیا تهمت محسوب می شود؟ آیا OpenAI یا ChatGPT «می دانستند» که این اطلاعات نادرست است، و چگونه سهل انگاری را در چنین موردی تعریف کنیم؟ آیا یک مدل هوش مصنوعی می تواند سوء نیت نشان دهد؟ آیا به قانون، پرونده، قاضی بستگی دارد؟

اینها همه سؤالات باز هستند، زیرا فناوری مورد نظر آنها یک سال پیش وجود نداشت، چه رسد به زمانی که قوانین و سوابق قانونی که افترا را تعریف می کنند، ایجاد شد. اگرچه ممکن است در یک سطح احمقانه به نظر برسد که از یک بات به دلیل گفتن چیزی نادرست شکایت کنید، چت بات ها آن چیزی نیستند که قبلا بودند. با توجه به اینکه برخی از بزرگترین شرکت های جهان آنها را به عنوان نسل بعدی بازیابی اطلاعات و جایگزینی موتورهای جستجو پیشنهاد می کنند، اینها دیگر اسباب بازی نیستند بلکه ابزارهایی هستند که به طور منظم توسط میلیون ها نفر استفاده می شود.

شاید این مقاله را هم دوست داشته باشید :  کجا دنباله رو ببینیم

هود نامه‌ای به OpenAI ارسال کرده و از آن می‌خواهد در این مورد کاری انجام دهد – واقعاً مشخص نیست که چه کاری می‌تواند انجام دهد، یا اینکه قوانین استرالیا یا ایالات متحده مجبور به انجام آن است یا هر چیز دیگری. اما در مورد اخیر دیگری، یک استاد حقوق خود را متهم به آزار جنسی توسط یک ربات چت با استناد به مقاله ساختگی واشنگتن پست یافت. و این احتمال وجود دارد که چنین اظهارات نادرست و بالقوه آسیب زا رایج تر از آن چیزی باشد که ما فکر می کنیم – آنها در حال حاضر جدی شده اند و به اندازه ای هستند که گزارش به افراد درگیر را تضمین کنند.

این تنها آغاز این درام حقوقی است، و حتی وکلا و کارشناسان هوش مصنوعی نیز نمی‌دانند که چگونه آن را اجرا خواهد کرد. اما اگر شرکت‌هایی مانند OpenAI و مایکروسافت (به غیر از هر شرکت بزرگ فناوری دیگر و چند صد استارت‌آپ) انتظار دارند که سیستم‌هایشان به‌عنوان منابع اطلاعاتی جدی گرفته شود، نمی‌توانند از عواقب این ادعاها اجتناب کنند. آنها ممکن است دستور العمل ها و برنامه ریزی سفر را به عنوان نقطه شروع پیشنهاد کنند، اما مردم می دانند که شرکت ها می گویند این پلت فرم ها منبع حقیقت هستند.

آیا این اظهارات نگران کننده به دعوای واقعی تبدیل می شود؟ آیا این دعاوی قبل از تغییر مجدد صنعت حل می شود؟ و آیا همه اینها با قانون گذاری در بین حوزه های قضایی که پرونده ها در آنها پیگیری می شود، مطرح می شود؟ چند ماه (یا سال‌های محتمل‌تر) جالب است زیرا کارشناسان فنی و حقوقی تلاش می‌کنند تا به سریع‌ترین هدف در حال حرکت در صنعت رسیدگی کنند.

امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/dBf
کوتاه کننده لینک
کد QR :
اشتراک گذاری
سروناز مقدم پور

سروناز مقدم پور

سروناز مقدم پور هستم کارشناس مهندسی کامپیوتر و مدیر وبسایت نود و هشت زوم. چندین سال است که در حوزه وب فعالیت می کنم و تخصص های اصلیم طراحی سایت و سئو است بعد از یادگیری علاقه زیادی به آموزش دادن دارم

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *